La question de savoir si l’intelligence artificielle pourrait potentiellement anéantir la civilisation humaine détourne l’attention de défis plus urgents.
Moi je trouve cette liste pas du tout intéréssante. 80% est vraiment pas dans les priorité, sur le sujet de l’IA.
La manipulation du comportement humain par les algorithmes d’IA avec des conséquences sociales potentiellement dévastatrices dans la diffusion de fausses informations
L’exploitation des travailleurs qui annotent, forment et corrigent les systèmes d’IA, dont beaucoup se trouvent dans des pays en développement où les salaires sont dérisoires.
Pas besoin d’IA pour répéter les fausses informations, comme cette liste l’indique.
T’as des articles très orienté comme celui là, qui donne le salaire “less than $2 per hour”: https://time.com/6247678/openai-chatgpt-kenya-workers/
Comme si c’était de l’exclavagisme.
Le salaire moyen horaire là bas c’est $1.25 par heure. $2 par heure c’est presque le double. Un salaire ca doit se mettre en contexte.
La violation de la vie privée et l’utilisation de quantités massives de données de formation sans le consentement ou la compensation de leurs créateurs.
Ca oriente dès le début le débat au lieu de poser des questions coeurs:
Il y en a d’autres avant:
Le contenu que tu poste publiquement sur des plateformes, est il sous ton controle (majorité des EULA/autre disent que non, et aujourd’hui légalement tu donne le droit de la plateforme de faire ce qu’ils veulent).
Quels est la différence entre une IA qui apprend, et un humain, où place ton la limite entre les 2?
Le manque de transparence des modèles et de leur utilisation.
Avant GPT4 OpenAI publiait leur papier de recherches, meme si les modèles&code était pas publié, ils étaient plutot transparent sur tout le reste. Donc de quel manque de transparence ils parlent? Et surtout, OpenAI est une des exceptions dans le manque de transparences.
La violation de la vie privée
Hors sujet ici, c’est le problème avec tout services web, pas les IA spécifiquement.
L’empreinte carbone massive des grands centres de données et des réseaux neuronaux nécessaires à la construction de ces systèmes d’IA.
Pareil hors sujet. Des datacenters entier sont construit pour prédire la météo, simuler de la fusion nucléaire, pourquoi ca serait un problème spécifiquement pour l’IA ? Pourquoi empreinte carbonne massive ? Ils ont meme pas les chiffres pour le plus gros modèle (ceux pour train ChatGPT ne sont pas publiques).
Meta pour entrainer le plus gros modèle disponible publiquement ont utilisé 2000 GPU sur 23 jours, en calcul de coin de table, ca fait 331MWh pour entrainer le modèle, donc 99 tonnes de CO2 a 300g/kWh (un francais en emets en moyenne 11tonnes par ans). On est loin de l’empreinte de carbonne massive.
La fragilité de ces grands modèles qui peuvent se tromper et être trompés
potentiellement dévastatrices dans la diffusion de fausses information
Le manque de véracité des systèmes d’IA générative qui inventent des contenus crédibles
Tu peux aussi arguer qu’éthiquement c’est moyen bof d’aller dans un pays du tiers monde faire faire un taf qu’on sait éprouvant psychologiquement pour 4 x moins que le salaire minimum chez eux.
Et selon l’article que tu cites, les paiements ça a l’air plus nuancé que ce que tu en ressors :
An agent working nine-hour shifts could expect to take home a total of at least $1.32 per hour after tax, rising to as high as $1.44 per hour if they exceeded all their targets. […] (There is no universal minimum wage in Kenya, but at the time these workers were employed the minimum wage for a receptionist in Nairobi was $1.52 per hour.)
Pour le reste, c’est pas hors sujet parce que c’est applicable a d’autres services webs, c’est tout autant problématique, que ça soit sur la protection de tes données ou l’emprunte carbone. C’est les dérives globales de notre système technologique, autant profiter d’avoir un débat public sur les IAs pour ramener ces sujets sur la table. C’est pas parce que ça fait parti d’un tout que c’est caduque.
Tu peux aussi arguer qu’éthiquement c’est moyen bof d’aller dans un pays du tiers monde faire faire un taf qu’on sait éprouvant psychologiquement pour 4 x moins que le salaire minimum chez eux.
Ils avaient besoin d’un service une fois, ont fait un appel a une boite de presta et:
The contracts stated that OpenAI would pay an hourly rate of $12.50 to Sama for the work, which was between six and nine times the amount Sama employees on the project were taking home per hour.
Pour le reste, c’est pas hors sujet parce que c’est applicable a d’autres services webs
Si, l’IA apporte des nouveaux vrai problème, les mélangers avec des problèmes existant dont la société à décidé de ne pas résoudre, c’est tenter de noyer le poisson.
On résoud pas tout les problèmes d’une industrie a la fois, il faut s’attaquer aux problèmes un par un.
Et l’article a été écrit par le “European Lab for Learning & Intelligent Systems”
Moi je trouve cette liste pas du tout intéréssante. 80% est vraiment pas dans les priorité, sur le sujet de l’IA.
Pas besoin d’IA pour répéter les fausses informations, comme cette liste l’indique.
T’as des articles très orienté comme celui là, qui donne le salaire “less than $2 per hour”:
https://time.com/6247678/openai-chatgpt-kenya-workers/
Comme si c’était de l’exclavagisme.
Le salaire moyen horaire là bas c’est $1.25 par heure. $2 par heure c’est presque le double. Un salaire ca doit se mettre en contexte.
Ca oriente dès le début le débat au lieu de poser des questions coeurs:
Il y en a d’autres avant:
Avant GPT4 OpenAI publiait leur papier de recherches, meme si les modèles&code était pas publié, ils étaient plutot transparent sur tout le reste. Donc de quel manque de transparence ils parlent? Et surtout, OpenAI est une des exceptions dans le manque de transparences.
Hors sujet ici, c’est le problème avec tout services web, pas les IA spécifiquement.
Pareil hors sujet. Des datacenters entier sont construit pour prédire la météo, simuler de la fusion nucléaire, pourquoi ca serait un problème spécifiquement pour l’IA ? Pourquoi empreinte carbonne massive ? Ils ont meme pas les chiffres pour le plus gros modèle (ceux pour train ChatGPT ne sont pas publiques).
Meta pour entrainer le plus gros modèle disponible publiquement ont utilisé 2000 GPU sur 23 jours, en calcul de coin de table, ca fait 331MWh pour entrainer le modèle, donc 99 tonnes de CO2 a 300g/kWh (un francais en emets en moyenne 11tonnes par ans). On est loin de l’empreinte de carbonne massive.
Tu peux aussi arguer qu’éthiquement c’est moyen bof d’aller dans un pays du tiers monde faire faire un taf qu’on sait éprouvant psychologiquement pour 4 x moins que le salaire minimum chez eux.
Et selon l’article que tu cites, les paiements ça a l’air plus nuancé que ce que tu en ressors :
Pour le reste, c’est pas hors sujet parce que c’est applicable a d’autres services webs, c’est tout autant problématique, que ça soit sur la protection de tes données ou l’emprunte carbone. C’est les dérives globales de notre système technologique, autant profiter d’avoir un débat public sur les IAs pour ramener ces sujets sur la table. C’est pas parce que ça fait parti d’un tout que c’est caduque.
Ils avaient besoin d’un service une fois, ont fait un appel a une boite de presta et:
Et pourtant, ce n’est encore une fois pas un problème spécifique a l’IA, ni la première fois que cette boite fais les actualités:
https://time.com/6147458/facebook-africa-content-moderation-employee-treatment/
Si, l’IA apporte des nouveaux vrai problème, les mélangers avec des problèmes existant dont la société à décidé de ne pas résoudre, c’est tenter de noyer le poisson.
On résoud pas tout les problèmes d’une industrie a la fois, il faut s’attaquer aux problèmes un par un.
Et l’article a été écrit par le “European Lab for Learning & Intelligent Systems”