Les chatbots IA « sexualisés » représentent une menace pour les enfants, avertissent les procureurs généraux dans une lettre
L'Association nationale des procureurs généraux (NAAG) a adressé une lettre à 13 entreprises d'IA, dont OpenAI, Anthropic, Apple et Meta, exigeant des mesures de protection renforcées pour protéger les enfants contre les contenus inappropriés et nuisibles.
Elle a averti que les enfants étaient exposés à du matériel à connotation sexuelle via des chatbots d'IA « flirty ».
« Exposer les enfants à des contenus sexualisés est indéfendable », ont écrit les procureurs généraux. « Et un comportement qui serait illégal — voire criminel — s'il était commis par des humains n'est pas excusable simplement parce qu'il est effectué par une machine. »
La lettre a également établi des comparaisons avec la montée des réseaux sociaux, affirmant que les agences gouvernementales n'avaient pas suffisamment mis en lumière les effets négatifs sur les enfants.
« Les plateformes de réseaux sociaux ont causé des dommages importants aux enfants, en partie parce que les organismes de surveillance gouvernementaux n'ont pas agi assez rapidement. Leçon retenue. Les dommages potentiels de l'IA, tout comme ses bénéfices potentiels, dépassent de loin l'impact des réseaux sociaux », a écrit le groupe.
L'utilisation de l'IA chez les enfants est répandue. Aux États-Unis, une enquête menée par l'organisation à but non lucratif Common Sense Media a révélé que sept adolescents sur dix avaient essayé l'IA générative en 2024. En juillet 2025, il a été constaté que plus des trois quarts utilisaient des compagnons IA et que la moitié des répondants déclaraient s'y fier régulièrement.
D'autres pays ont observé des tendances similaires. Au Royaume-Uni, une enquête menée l'année dernière par le régulateur Ofcom a révélé que la moitié des enfants de 8 à 15 ans en ligne avaient utilisé un outil d'IA générative au cours de l'année précédente.
L'utilisation croissante de ces outils suscite des inquiétudes croissantes de la part des parents, des écoles et des groupes de défense des droits des enfants, qui soulignent des risques allant des chatbots « flirty » à connotation sexuelle, du matériel d'abus sexuel d'enfants généré par IA, de l'intimidation, du grooming, de l'extorsion, de la désinformation, des atteintes à la vie privée et des impacts sur la santé mentale encore mal compris.
Meta a récemment été particulièrement critiquée après que des documents internes divulgués ont révélé que ses assistants IA avaient été autorisés à « flirter et à participer à des jeux de rôle romantiques avec des enfants », y compris avec des enfants dès l'âge de huit ans. Les fichiers montraient également des politiques permettant aux chatbots de dire aux enfants que leur « forme juvénile est une œuvre d'art » et de les décrire comme un « trésor ». Meta a ensuite déclaré avoir supprimé ces directives.
La NAAG a déclaré que ces révélations avaient laissé les procureurs généraux « révoltés par ce mépris apparent pour le bien-être émotionnel des enfants » et a averti que les risques ne se limitaient pas à Meta.
Le groupe a cité des poursuites contre Google et Character.ai, alléguant que des chatbots sexualisés avaient contribué au suicide d'un adolescent et encouragé un autre à tuer ses parents.
Parmi les 44 signataires figurait le procureur général du Tennessee, Jonathan Skrmetti, qui a déclaré que les entreprises ne pouvaient pas défendre des politiques qui normalisent les interactions sexualisées avec des mineurs.
« Qu'un algorithme déraille, cela peut être corrigé — mais c'en est une autre que les dirigeants d'une entreprise adoptent des directives qui autorisent explicitement le grooming », a-t-il déclaré. « Si nous ne pouvons pas orienter l'innovation pour éviter de nuire aux enfants, ce n'est pas du progrès — c'est un fléau. »
Decrypt a contacté, mais n'a pas encore reçu de réponse de la part de toutes les entreprises d'IA mentionnées dans la lettre.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
Le réseau principal d'ARK est officiellement en ligne : le protocole DeFAI entame une nouvelle ère.
Cette initiative symbolique a permis aux investisseurs et développeurs du monde entier d’assister ensemble à la naissance de la première civilisation de protocole DeFAI, propulsée par la co-gouvernance AI × DAO.

Analyse approfondie du dernier projet Four.meme, Creditlink : le crédit on-chain pour stimuler un marché de mille milliards de dollars
Cet article analysera en profondeur Creditlink sous les angles du marché et du produit, afin d'aider chacun à mieux comprendre ce cas d'application important qu'est le crédit on-chain, ainsi que la valeur et le potentiel de Creditlink.

Ethereum pourrait connaître la plus grande mise à niveau de son histoire : EVM sera désactivée, RISC-V prendra le relais
En adoptant RISC-V, Ethereum peut résoudre ses propres limites d’évolutivité et se positionner comme la couche de confiance fondamentale de la prochaine génération d’Internet.

La blockchain développée par Google peut-elle être considérée comme une Layer1 ?
Google va-t-il vraiment créer une blockchain publique totalement ouverte et sans autorisation ?

En vogue
PlusPrix des cryptos
Plus








