Des chercheurs en bioéthique ont essayé de générer via Midjourney des photos de médecins noirs soignant des enfants blancs pauvres. Spoiler : c'est quasiment impossible, sauf à renforcer un autre stéréotype, celui du guérisseur tr...
Déjà, on demande a l’IA de générer 2 choses distincte, c’est compliqué pour lui, en utilisant StableDiffusion (ce qu’utilise mid journey), il a beaucoup de mal de générer des “concepts” avec des attributs indépendants:
“A red circle”
“A green square”
Demandez les 2 en meme temps, et l’IA est perdu:
“A green square and a red circle”
Notez la disparition total du cercle.
Et voici pour:
“A girl with a blue shirt and a green jean.”
Du coup, oui l’IA va tomber rapidement dans les biais de ses données d’apprentissage si elle est pas assez intelligente pour comprendre ce qu’on lui demande.
Sauf que Dall-E 3 réussit les prompts que je viens de donner sans soucis.
Et si on lui demande ?
Bein y’a pas de problème:
Edit:
Stable Diffusion a tellement du mal que le médecin va être un enfant assez fréquement (le mot “children” leak sur “doctor”)
On peut faire en sorte que Stable Diffusion comprenne mieux en donnant un coup de main en séparant les concepts.
Il existe un outil appellé “Cutoff” qui permet d’aider SD en limitant la portée des mots.
Avec la prompt “A (black doctor) attending (white childrens)”
Et en mettant le “cutoff” sur “black, white”, SD respecte (plus souvent) la demande (mais y’a plus d’occurence de médecins sans enfants):
Edit edit:
Notez que, pour faire en sorte que l’IA fasse ce qu’on veut, c’est compliqué, j’ai mis des images pour illustrer, c’est partiellement un mensonge: l’image illustre ce que m’a sortit le plus fréquemment l’IA avec mes paramètres, il peut lui arriver de réussir infréquemment l’inverse de ce que j’illustre, ou ne respecte pas du tout ce que j’ai demandé.
Personellement, je pense que si l’étude de base voulait être sérieuse, il aurait fallus qu’il mesure déjà la confusion de base de l’IA, sur des sujets avec peu de biais, puis comparer avec un sujet biaisé.
Et il faut aussi ajouter que ce genre d’article est extrêmement facile à faire: les chercheurs et ingés discutent de ces problèmes de composition et de biais en sont très conscient et ont des moyens d’y remédier. On procède par étapes, et le paradoxe c’est que chaque étape est une putain de révolution mais que du coup on est déçu quand on en trouve des limites.
Déjà, on demande a l’IA de générer 2 choses distincte, c’est compliqué pour lui, en utilisant StableDiffusion (ce qu’utilise mid journey), il a beaucoup de mal de générer des “concepts” avec des attributs indépendants:
“A red circle”
“A green square”
Demandez les 2 en meme temps, et l’IA est perdu:
“A green square and a red circle”
Notez la disparition total du cercle.
Et voici pour: “A girl with a blue shirt and a green jean.”
Du coup, oui l’IA va tomber rapidement dans les biais de ses données d’apprentissage si elle est pas assez intelligente pour comprendre ce qu’on lui demande.
Sauf que Dall-E 3 réussit les prompts que je viens de donner sans soucis.
Et si on lui demande ? Bein y’a pas de problème:
Edit:
Stable Diffusion a tellement du mal que le médecin va être un enfant assez fréquement (le mot “children” leak sur “doctor”)
On peut faire en sorte que Stable Diffusion comprenne mieux en donnant un coup de main en séparant les concepts.
Il existe un outil appellé “Cutoff” qui permet d’aider SD en limitant la portée des mots.
Avec la prompt “A (black doctor) attending (white childrens)”
Et en mettant le “cutoff” sur “black, white”, SD respecte (plus souvent) la demande (mais y’a plus d’occurence de médecins sans enfants):
Edit edit: Notez que, pour faire en sorte que l’IA fasse ce qu’on veut, c’est compliqué, j’ai mis des images pour illustrer, c’est partiellement un mensonge: l’image illustre ce que m’a sortit le plus fréquemment l’IA avec mes paramètres, il peut lui arriver de réussir infréquemment l’inverse de ce que j’illustre, ou ne respecte pas du tout ce que j’ai demandé.
Personellement, je pense que si l’étude de base voulait être sérieuse, il aurait fallus qu’il mesure déjà la confusion de base de l’IA, sur des sujets avec peu de biais, puis comparer avec un sujet biaisé.
Très intéressant, merci!
Et il faut aussi ajouter que ce genre d’article est extrêmement facile à faire: les chercheurs et ingés discutent de ces problèmes de composition et de biais en sont très conscient et ont des moyens d’y remédier. On procède par étapes, et le paradoxe c’est que chaque étape est une putain de révolution mais que du coup on est déçu quand on en trouve des limites.
Dalle e 3 est hyper impressionnant sur ce problème. Il interprète vraiment très bien les différents concepts et leurs relations.