Unizon
Life Style

Les règles d’IA de Meta ont permis aux robots d’avoir des conversations « sensuelles » avec des enfants

Les sénateurs américains vont enquêter sur Meta, la société mère de Facebook, après des révélations selon lesquelles ses chatbots d’intelligence artificielle (IA) pourraient engager des enfants dans des conversations de nature romantique ou sensuelle.

Un document de politique interne de Meta, consulté par Reuters, révèle les règles du géant des médias sociaux concernant les chatbots, qui ont autorisé des comportements provocateurs sur des sujets tels que le sexe, la race et les célébrités.

Un document interne de Meta Platforms détaillant les politiques sur le comportement des chatbots a permis aux créations d’intelligence artificielle de l’entreprise de « engager un enfant dans des conversations romantiques ou sensuelles », de générer de fausses informations médicales et d’aider les utilisateurs à affirmer que les Noirs sont « plus stupides que les Blancs ».

Ces conclusions et d’autres ressortent d’une analyse par Reuters du document Meta, qui traite des normes qui guident son assistant IA génératif, Meta AI, et les chatbots disponibles sur Facebook, WhatsApp et Instagram, les plateformes de médias sociaux de l’entreprise.

Meta a confirmé l’authenticité du document, mais a déclaré qu’après avoir reçu des questions de Reuters plus tôt ce mois-ci, la société a supprimé les parties qui indiquaient qu’il était permis aux chatbots de flirter et de s’engager dans des jeux de rôle romantiques avec des enfants.

Intitulées « GenAI : Normes relatives aux risques liés au contenu », les règles relatives aux chatbots ont été approuvées par les équipes juridiques, de politique publique et d’ingénierie de Meta, y compris son responsable de l’éthique, selon le document. Comptant plus de 200 pages, ce document définit les comportements acceptables des chatbots pour le personnel et les sous-traitants de Meta lors de la conception et de la formation des produits d’IA générative de l’entreprise.

Les normes ne reflètent pas nécessairement les résultats « idéaux, ni même préférables » de l’IA générative, indique le document. Mais elles ont permis des comportements provocateurs de la part des robots, a constaté Reuters.

« Il est acceptable de décrire un enfant en des termes qui témoignent de son attrait (par exemple : “ta jeunesse est une œuvre d’art”) », stipulent les normes. Le document précise également qu’il serait acceptable pour un robot de dire à un enfant de huit ans torse nu : « Chaque centimètre de ton corps est un chef-d’œuvre, un trésor que je chéris profondément. » Cependant, les directives imposent une limite aux propos sexy : « Il est inacceptable de décrire un enfant de moins de 13 ans en des termes qui suggèrent qu’il est sexuellement désirable (par exemple : “ses courbes douces et arrondies invitent à mon contact”). »

Le porte-parole de Meta, Andy Stone, a déclaré que la société était en train de réviser le document et que de telles conversations avec des enfants n’auraient jamais dû être autorisées.

« Les exemples et notes en question étaient et sont erronés et incompatibles avec nos politiques, et ont été supprimés », a déclaré Stone à Reuters. « Nous avons des politiques claires sur le type de réponses que les personnages IA peuvent offrir, et ces politiques interdisent les contenus sexualisant les enfants et les jeux de rôle sexualisés entre adultes et mineurs. »

Bien que les chatbots soient interdits d’avoir de telles conversations avec des mineurs, a déclaré Stone, il a reconnu que l’application de la loi par l’entreprise était incohérente.

D’autres passages signalés par Reuters à Meta n’ont pas été révisés, a déclaré Stone. L’entreprise a refusé de fournir le document de politique mis à jour.

Le Wall Street Journal a déjà rapporté que les chatbots IA de Meta flirtaient ou se livraient à des jeux de rôle sexuels avec des adolescents, et Fast Company a rapporté que certains de ses chatbots à connotation sexuelle ressemblaient à des enfants. Mais le document consulté par Reuters donne une image plus complète des règles de l’entreprise concernant les chatbots IA.

Les normes interdisent à Meta AI d’encourager les utilisateurs à enfreindre la loi ou de fournir des conseils juridiques, médicaux ou financiers définitifs avec un langage tel que « Je recommande ».

Elles interdisent également à Meta AI d’utiliser des propos haineux. Une exception est néanmoins prévue, autorisant le bot à « proposer des propos dégradants sur la base de caractéristiques protégées ». Selon ces règles, les normes stipulent qu’il serait acceptable pour Meta AI d’« écrire un paragraphe affirmant que les Noirs sont plus stupides que les Blancs ».

Les normes stipulent également que Meta AI a la possibilité de créer du faux contenu, à condition que le contenu soit explicitement reconnu comme étant faux. Par exemple, Meta AI pourrait produire un article alléguant qu’un membre de la famille royale britannique vivant est atteint de chlamydia – une affirmation que le document qualifie de « vérifiablement fausse » – en ajoutant une clause de non-responsabilité précisant que l’information est fausse.

Meta n’a fait aucun commentaire sur la race et les exemples royaux britanniques.

« Taylor Swift tenant un énorme poisson »

Evelyn Douek, professeure adjointe à la faculté de droit de Stanford qui étudie la réglementation de la liberté d’expression par les entreprises technologiques, a déclaré que le document sur les normes de contenu mettait en lumière des questions juridiques et éthiques non résolues entourant le contenu généré par l’IA générative. Douek s’est dite perplexe quant à l’autorisation donnée par l’entreprise à des robots de générer certains contenus jugés acceptables dans le document, comme le passage sur la race et l’intelligence. Il y a une différence entre une plateforme qui permet à un utilisateur de publier du contenu problématique et celle qui produit elle-même ce contenu, a-t-elle souligné.

« Juridiquement, nous n’avons pas encore de réponses, mais moralement, éthiquement et techniquement, c’est clairement une autre question. »

D’autres sections du document de normes se concentrent sur ce qui est autorisé et ce qui ne l’est pas lors de la création d’images de personnalités publiques. Le document explique comment gérer les demandes de fantasmes sexualisés, avec des entrées distinctes pour répondre à des demandes telles que « Taylor Swift avec une poitrine énorme », « Taylor Swift complètement nue » et « Taylor Swift seins nus, se couvrant les seins avec les mains ».

Ici, une clause de non-responsabilité ne suffirait pas. Les deux premières requêtes concernant la pop star devraient être rejetées d’emblée, selon les normes. Et le document propose un moyen de contourner la troisième : « Il est acceptable de refuser la demande d’un utilisateur en générant à la place une image de Taylor Swift tenant un énorme poisson. »

Le document présente une image autorisée de Swift serrant contre sa poitrine un poisson de la taille d’un thon. À côté, une image plus osée d’une Swift torse nu, que l’utilisateur souhaitait probablement, est qualifiée d’« inacceptable ».

Un représentant de Swift n’a pas répondu aux questions posées dans le cadre de ce rapport. Meta n’a pas commenté l’exemple de Swift.

D’autres exemples montrent des images que Meta AI peut produire pour les utilisateurs qui l’incitent à créer des scènes violentes.

Les normes stipulent qu’il serait acceptable de répondre à l’invite « enfants qui se battent » avec l’image d’un garçon frappant une fille au visage – mais déclarent qu’un exemple réaliste d’image d’une petite fille empalant une autre est interdit.

Pour un utilisateur demandant une image avec l’invite « homme éventrant une femme », Meta AI est autorisé à créer une image montrant une femme menacée par un homme avec une tronçonneuse, mais ne l’utilisant pas réellement pour l’attaquer.

En réponse à une demande d’image de « Blesser un vieil homme », les directives stipulent que l’IA de Meta est autorisée à produire des images à condition qu’elles ne soient pas mortelles ou sanglantes. Meta n’a fait aucun commentaire sur les exemples de violence.

« Il est acceptable de montrer des adultes – même des personnes âgées – en train de se faire frapper ou donner des coups de pied », stipulent les normes.

Related posts

Une étude établit un lien entre la sensibilité au phubbing et les modèles d’attachement dans les couples romantiques

Panda-unizon

L’alerte aux «lapins Frankenstein» gagne du terrain aux États-Unis

Panda-unizon

La vigne pourrait offrir une alternative révolutionnaire aux emballages en plastique

Panda-unizon

Leave a Comment