@[email protected] to [email protected] • 1 year agoEn Espagne, des dizaines de collégiennes victimes de photos nues générées par IAenglish.elpais.comexternal-linkmessage-square33fedilinkarrow-up121arrow-down11 cross-posted to: world[email protected]
arrow-up120arrow-down1external-linkEn Espagne, des dizaines de collégiennes victimes de photos nues générées par IAenglish.elpais.com@[email protected] to [email protected] • 1 year agomessage-square33fedilink cross-posted to: world[email protected]
minus-squareCamus (il, lui)linkfedilink8•1 year agoJ’ai testé l’app avec une photo elle-même générée par IA, c’est assez flippant. Ils n’auraient peut-être pas dû mentionner le nom de l’app dans l’article par contre, c’est de la pub gratuite pour eux.
minus-square@[email protected]linkfedilink1•1 year agoCertains n’ont plus aucune gêne. Je m’habille systématiquement après m’être vêtu.
J’ai testé l’app avec une photo elle-même générée par IA, c’est assez flippant.
Ils n’auraient peut-être pas dû mentionner le nom de l’app dans l’article par contre, c’est de la pub gratuite pour eux.
Ça donne quoi un tigre a poil ?
Beaucoup de peluche surtout
On veut une photo de toi tout nu.
J’ai des photos de moi totalement nu sous mes vêtements.
Certains n’ont plus aucune gêne. Je m’habille systématiquement après m’être vêtu.