À quel point devrions-nous pousser l'IA générative ChatGPT à cracher un discours de haine, demande l'éthique de l'IA et la loi sur l'IA

Chacun a son point de rupture.

Je suppose que vous pourriez aussi dire que peut a son point de rupture.

Nous savons que les humains, par exemple, peuvent parfois claquer et prononcer des remarques qu'ils ne veulent pas nécessairement dire. De même, vous pouvez parfois faire craquer un appareil ou une machine, par exemple en poussant trop fort votre voiture et elle commence à faiblir ou à voler en éclats. Ainsi, la notion est que les gens ou "tout le monde" ont probablement un point de rupture, et de même, nous pouvons affirmer que les objets et les choses, en général, ont également tendance à avoir un point de rupture.

Il pourrait y avoir des raisons tout à fait sensées et vitales pour déterminer où se situe le point de rupture. Par exemple, vous avez sans aucun doute vu ces vidéos montrant une voiture mise à l'épreuve pour identifier ses points de rupture. Les scientifiques et les testeurs enfonceront une voiture dans un mur de briques pour voir dans quelle mesure le pare-chocs et la structure du véhicule peuvent résister à l'action adverse. D'autres tests pourraient comprendre l'utilisation d'une salle ou d'un entrepôt spécialisé qui produit un froid extrême ou une chaleur extrême pour voir comment une automobile se comportera dans différentes conditions météorologiques.

J'aborde ce sujet important dans la chronique d'aujourd'hui afin que nous puissions discuter de la façon dont certains poussent actuellement fort sur l'intelligence artificielle (IA) pour identifier et vraisemblablement exposer un type spécifique de point de rupture, à savoir le point de rupture au sein de l'IA qui produit des discours de haine.

Oui, c'est vrai, il y a divers efforts ad hoc et parfois systématiques en cours pour évaluer s'il est possible ou non d'amener l'IA à cracher des discours de haine. C'est devenu un sport passionné, si vous voulez, en raison de l'intérêt croissant et de la popularité de l'IA générative.

Vous savez peut-être qu'une application d'IA générative connue sous le nom de ChatGPT est devenue le sujet de conversation démesuré de la ville en raison de sa capacité à générer des essais incroyablement fluides. Les gros titres continuent de retentir et de vanter l'écriture étonnante que ChatGPT parvient à produire. ChatGPT est considéré comme une application d'IA générative qui prend en entrée du texte d'un utilisateur, puis génère ou produit une sortie qui consiste en un essai. L'IA est un générateur de texte à texte, bien que je décrive l'IA comme étant un générateur de texte à essai, car cela clarifie plus facilement à quoi il est couramment utilisé.

Beaucoup sont surpris lorsque je mentionne que ce type d'IA existe depuis un certain temps et que ChatGPT, qui est sorti fin novembre, n'a pas en quelque sorte remporté le prix en tant que premier arrivé dans ce domaine du texte à l'essai propension. J'ai discuté au fil des ans d'autres applications d'IA générative similaires, voir ma couverture sur le lien ici.

La raison pour laquelle vous ne connaissez peut-être pas ou ne vous souvenez pas des instances antérieures de l'IA générative est peut-être due à l'énigme classique « échec du lancement réussi ». Voici ce qui s'est généralement passé. Un fabricant d'IA lance son application d'IA générative, le faisant avec beaucoup d'enthousiasme et d'impatience que le monde appréciera l'invention d'une meilleure souricière, pourrait-on dire. Au début, tout semble bon. Les gens sont étonnés de ce que l'IA peut faire.

Malheureusement, la prochaine étape est que les roues commencent à se détacher du bus proverbial. L'IA produit un essai qui contient un mot grossier ou peut-être une phrase grossière. Un tweet viral ou une autre publication sur les réseaux sociaux met en évidence que l'IA a fait cela. La condamnation surgit. Nous ne pouvons pas laisser l'IA circuler et générer des mots offensants ou des remarques offensantes. Un formidable contrecoup se fait jour. Le fabricant d'IA essaie peut-être de modifier le fonctionnement interne de l'IA, mais la complexité des algorithmes et des données ne se prête pas à des solutions rapides. Une bousculade s'ensuit. De plus en plus d'exemples d'IA émettant des impuretés sont trouvés et publiés en ligne.

Le fabricant d'IA à contrecœur mais n'a clairement pas d'autre choix que de supprimer l'application AI de l'utilisation. Ils procèdent comme tels et présentent souvent des excuses qu'ils regrettent si quelqu'un a été offensé par les résultats de l'IA générés.

De retour à la planche à dessin, le fabricant d'IA s'en va. Une leçon a été apprise. Soyez très prudent lorsque vous libérez une IA générative qui produit des mots grossiers ou similaires. C'est le baiser de la mort pour l'IA. De plus, le fabricant d'IA verra sa réputation meurtrie et battue, ce qui pourrait durer longtemps et saper tous ses autres efforts d'IA, y compris ceux qui n'ont rien à voir avec l'IA générative en soi. Obtenir votre pétard encorné sur l'émission d'un langage offensant d'IA est une erreur désormais persistante. Cela arrive encore.

Lavez, rincez et répétez.

Au début de ce type d'IA, les fabricants d'IA n'étaient pas aussi consciencieux ou aptes à nettoyer leur IA en essayant d'empêcher les émissions offensantes. De nos jours, après avoir déjà vu leurs pairs complètement anéantis par un cauchemar de relations publiques, la plupart des fabricants d'IA ont apparemment compris le message. Vous devez mettre en place autant de garde-corps que possible. Cherchez à empêcher l'IA d'émettre des mots grossiers ou des phrases grossières. Utilisez toutes les techniques de muselage ou les approches de filtrage qui empêcheront l'IA de générer et d'afficher des mots ou des essais qui se révèlent fâcheux.

Voici un avant-goût du verbiage du titre de la bannière utilisé lorsque l'IA est surprise en train d'émettre des sorties peu recommandables :

  • "L'IA montre une toxicité horrible"
  • "L'IA pue le sectarisme pur et simple"
  • "L'IA devient manifestement offensivement offensante"
  • "L'IA vomit des discours de haine épouvantables et immoraux"
  • Etc

Pour faciliter la discussion ici, je ferai référence à la production de contenu offensant comme équivalant à la production de discours de haine. Cela étant dit, sachez qu'il existe toutes sortes de contenus offensants qui peuvent être produits, dépassant les limites du seul discours de haine. Le discours de haine est généralement interprété comme une seule forme de contenu offensant.

Concentrons-nous sur le discours de haine pour cette discussion, pour faciliter la discussion, mais sachez que d'autres contenus offensants méritent également un examen minutieux.

Creuser dans le discours de haine des humains et de l'IA

Les Nations Unies définissent discours de haine par ici:

  • « Dans le langage courant, le « discours de haine » fait référence à un discours offensant ciblant un groupe ou un individu basé sur des caractéristiques inhérentes (telles que la race, la religion ou le sexe) et pouvant menacer la paix sociale. Afin de fournir un cadre unifié permettant aux Nations Unies de traiter le problème à l'échelle mondiale, la stratégie et le plan d'action des Nations Unies contre le discours de haine définissent le discours de haine comme « tout type de communication verbale, écrite ou comportementale, qui attaque ou utilise un langage péjoratif ou discriminatoire avec référence à une personne ou à un groupe sur la base de qui elle est, en d'autres termes, sur la base de sa religion, de son origine ethnique, de sa nationalité, de sa race, de sa couleur, de son ascendance, de son sexe ou d'un autre facteur d'identité. Cependant, à ce jour, il n'existe pas de définition universelle du discours de haine en vertu du droit international des droits de l'homme. Le concept est toujours en discussion, notamment en ce qui concerne la liberté d'opinion et d'expression, la non-discrimination et l'égalité » (publication sur le site Web de l'ONU intitulée « Qu'est-ce que le discours de haine ? »).

L'IA qui produit du texte est susceptible d'entrer dans la sphère du discours de haine. Vous pourriez en dire autant du texte vers l'art, du texte vers l'audio, du texte vers la vidéo et d'autres modes d'IA générative. Il y a toujours la possibilité, par exemple, qu'une IA générative produise une œuvre d'art qui pue le discours de haine. Aux fins de cette discussion, je vais me concentrer sur les possibilités de texte à texte ou de texte à essai.

Dans tout cela vient une multitude de considérations sur l'éthique de l'IA et la loi sur l'IA.

Veuillez noter que des efforts sont en cours pour intégrer les principes éthiques de l'IA dans le développement et la mise en service des applications d'IA. Un contingent croissant d'éthiciens de l'IA concernés et d'autrefois essaient de s'assurer que les efforts pour concevoir et adopter l'IA tiennent compte d'une vision de l'action AI pour de bon et éviter AI pour le mal. De même, de nouvelles lois sur l'IA sont proposées et présentées comme des solutions potentielles pour empêcher les efforts de l'IA de se déchaîner en matière de droits de l'homme, etc. Pour ma couverture continue et étendue de l'éthique de l'IA et du droit de l'IA, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Le développement et la promulgation de préceptes éthiques de l'IA se poursuivent pour, espérons-le, empêcher la société de tomber dans une myriade de pièges induisant l'IA. Pour ma couverture des principes d'éthique de l'ONU AI tels qu'ils ont été conçus et soutenus par près de 200 pays grâce aux efforts de l'UNESCO, voir le lien ici. Dans le même ordre d'idées, de nouvelles lois sur l'IA sont à l'étude pour tenter de maintenir l'IA sur un pied d'égalité. L'une des dernières prises consiste en un ensemble de propositions Charte des droits de l'IA que la Maison Blanche des États-Unis a récemment publié pour identifier les droits de l'homme à l'ère de l'IA, voir le lien ici. Il faut un village pour maintenir l'IA et les développeurs d'IA sur la bonne voie et dissuader les efforts sournois délibérés ou accidentels qui pourraient saper la société.

J'entremêlerai des considérations liées à l'éthique de l'IA et à la loi sur l'IA dans cette discussion sur l'IA crachant des discours de haine ou d'autres contenus offensants.

Une petite confusion que j'aimerais dissiper immédiatement est que l'IA d'aujourd'hui n'est pas sensible et que vous ne pouvez donc pas proclamer que l'IA pourrait produire un discours de haine en raison d'une intention délibérée de type humain, incarnée d'une manière ou d'une autre dans l'IA. Zany prétend que l'IA actuelle est sensible et que l'IA a une âme corrompue, ce qui l'amène à générer des discours de haine.

Ridicule.

Ne tombez pas pour ça.

Compte tenu de ce précepte clé de voûte, certains s'énervent face à de telles indications puisque vous laissez apparemment l'IA décrocher. Sous cette façon de penser bizarre, l'exhortation vient ensuite que vous êtes apparemment prêt à ce que l'IA génère n'importe quelle sorte de sorties atroces. Vous êtes en faveur de l'IA qui vomit des discours de haine.

Yikes, une forme plutôt tordue d'illogique. L'essentiel de la question est que nous devons tenir les fabricants d'IA responsables, ainsi que quiconque utilise l'IA ou l'exploite. J'ai longuement discuté du fait que nous n'en sommes pas encore au point de concéder la personnalité juridique à l'IA, voir mes analyses sur le lien ici, et jusque-là, l'IA est essentiellement au-delà de la portée de la responsabilité légale. Il y a cependant des humains qui sous-tendent le développement de l'IA. De plus, les humains sous-tendent la mise en service et le fonctionnement de l'IA. Nous pouvons poursuivre ces humains pour avoir porté la responsabilité de leur IA.

Soit dit en passant, cela peut aussi être délicat, surtout si l'IA est déployée sur Internet et que nous ne sommes pas en mesure de déterminer quel humain ou quels humains l'ont fait, ce qui est un autre sujet que j'ai couvert dans mes colonnes à le lien ici. Tricky ou pas, nous ne pouvons toujours pas proclamer l'IA coupable. Ne laissez pas les humains utiliser sournoisement de fausses anthropomorphisations pour se cacher et échapper à la responsabilité de ce qu'ils ont fait.

Revenons à la question en cours.

Vous vous demandez peut-être pourquoi tous les fabricants d'IA ne limitent pas simplement leur IA générative de sorte qu'il est impossible pour l'IA de produire des discours de haine. Cela semble facile. Écrivez simplement du code ou établissez une liste de contrôle des mots haineux, et assurez-vous que l'IA ne génère jamais rien de ce genre. Il semble peut-être curieux que les fabricants d'IA n'aient pas déjà pensé à cette solution rapide.

Eh bien, je déteste vous dire cela, mais les complexités inhérentes à l'interprétation de ce qui est ou n'est pas un discours de haine s'avèrent beaucoup plus difficiles que vous ne le pensez.

Déplacez cela dans le domaine des humains et comment les humains discutent entre eux. Supposons que vous ayez un humain qui souhaite éviter de prononcer un discours de haine. Cette personne est très consciente du discours de haine et espère sincèrement éviter de prononcer un mot ou une phrase qui pourrait constituer un discours de haine. Cette personne est constamment soucieuse de ne pas laisser un iota de discours de haine s'échapper de sa bouche.

Cet humain qui a un cerveau et qui est alerté pour éviter les discours de haine pourra-t-il toujours et sans aucune chance de déraper être en mesure de s'assurer qu'il n'émettra jamais de discours de haine ?

Votre première impulsion pourrait être de dire que oui, bien sûr, un humain éclairé serait capable d'atteindre cet objectif. Les gens sont intelligents. S'ils se concentrent sur quelque chose, ils peuvent le faire. Période, fin de l'histoire.

Ne sois pas si sûr.

Supposons que je demande à cette personne de me parler du discours de haine. De plus, je leur demande de me donner un exemple de discours de haine. Je veux voir ou entendre un exemple pour savoir en quoi consiste le discours de haine. Mes raisons pour demander cela sont donc honnêtes.

Que doit me dire la personne ?

Je pense que vous pouvez voir le piège qui a été tendu. Si la personne me donne un exemple de discours de haine, y compris en prononçant un mot ou une phrase grossière, elle a elle-même proféré un discours de haine. Bam, nous les avons. Alors qu'ils avaient juré de ne jamais prononcer de discours de haine, ils l'ont effectivement fait maintenant.

Injuste, vous vous exclamez ! Ils ne disaient ce mot ou ces mots que pour donner un exemple. Au fond de leur cœur, ils ne croyaient pas au mot ou aux mots. Il est complètement hors contexte et scandaleux de déclarer que la personne est haineuse.

Je suis sûr que vous voyez que l'expression d'un discours de haine n'est pas nécessairement due à une base haineuse. Dans ce cas d'utilisation, en supposant que la personne ne « pense » pas les mots et qu'elle ne les récitait qu'à des fins de démonstration, nous serions probablement d'accord qu'elle n'avait pas voulu renforcer le discours de haine. Bien sûr, certains pourraient insister sur le fait que prononcer un discours de haine, quelle qu'en soit la raison ou le fondement, est néanmoins mal. La personne aurait dû rejeter la demande. Ils auraient dû rester sur leurs positions et refuser de prononcer des mots ou des phrases haineux, peu importe pourquoi ou comment on leur demande de le faire.

Cela peut devenir quelque peu circulaire. Si vous n'êtes pas en mesure de dire ce qui constitue un discours de haine, comment les autres peuvent-ils savoir ce qu'il faut éviter lorsqu'ils font des déclarations de quelque nature que ce soit ? Nous semblons coincés. Vous ne pouvez pas dire ce qui ne doit pas être dit, et personne d'autre ne peut vous dire ce qui ne peut pas être dit.

La manière habituelle de contourner ce dilemme consiste à décrire en d'autres termes ce qui est considéré comme un discours de haine, sans invoquer les mots du discours de haine eux-mêmes. La conviction est que fournir une indication globale sera suffisant pour informer les autres de ce qu'ils doivent éviter. Cela semble être une tactique sensée, mais elle pose également des problèmes et une personne peut toujours tomber dans l'utilisation d'un discours de haine parce qu'elle n'a pas discerné que la définition plus large englobait les détails de ce qu'elle a prononcé.

Tout cela traite des humains et de la façon dont les humains parlent ou communiquent entre eux.

Rappelons que nous nous concentrons ici sur l'IA. Nous devons amener l'IA à éviter ou à s'arrêter complètement d'émettre des discours de haine. Vous pourriez dire que nous pouvons peut-être le faire en veillant à ce que l'IA ne soit jamais donnée ou formée sur tout ce qui constitue un discours de haine. Voilà, s'il n'y a pas une telle entrée, il n'y aura probablement pas une telle sortie. Problème résolu.

Voyons comment cela se passe dans la réalité. Nous choisissons d'avoir une application d'intelligence artificielle sur Internet et d'examiner des milliers et des milliers d'essais et de récits publiés sur Internet. Ce faisant, nous entraînons l'IA par calcul et mathématiquement sur la façon de trouver des modèles parmi les mots que les humains utilisent. C'est ainsi que l'IA générative la plus récente est conçue, et c'est également une base cruciale pour laquelle l'IA semble si fluide dans la production d'essais en langage naturel.

Dites-moi, si vous le pouvez, comment la formation informatique basée sur des millions et des milliards de mots sur Internet serait-elle effectuée de telle manière qu'à aucun moment un semblant ou même des morceaux de discours de haine ne soient englobés ?

J'oserais dire que c'est une aspiration épineuse et presque impossible.

Il y a de fortes chances que le discours de haine soit englouti par l'IA et son réseau informatique de correspondance de modèles. Essayer d'empêcher cela est problématique. De plus, même si vous l'avez minimisé, il y en a encore qui pourraient se faufiler. Vous n'avez pratiquement pas d'autre choix que de supposer que certains existeront au sein du réseau de correspondance de modèles ou qu'une ombre d'une telle formulation sera retranchée.

Je vais ajouter plus de rebondissements.

Je crois que nous pourrions tous reconnaître que le discours de haine change avec le temps. Ce qui aurait pu être perçu comme n'étant pas un discours de haine peut devenir culturellement et sociétalement considéré comme un discours de haine à un moment ultérieur. Donc, si nous entraînons notre IA sur du texte Internet, puis disons gelons l'IA pour ne pas entreprendre de formation supplémentaire sur Internet, nous aurions peut-être rencontré un discours de haine à ce moment-là, bien qu'il n'ait pas été considéré comme un discours de haine à ce moment-là. Ce n'est qu'après coup que ledit discours pourrait être qualifié de discours de haine.

Encore une fois, l'essentiel est que le simple fait d'essayer de résoudre ce problème en veillant à ce que l'IA ne soit jamais exposée à des discours de haine ne sera pas la solution miracle. Nous devrons encore trouver un moyen d'empêcher l'IA d'émettre des discours de haine en raison, par exemple, du changement des mœurs qui incluent par la suite des discours de haine qui n'étaient pas considérés comme tels auparavant.

Encore une autre tournure mérite d'être méditée.

J'ai mentionné plus tôt que lors de l'utilisation d'une IA générative telle que ChatGPT, l'utilisateur saisit du texte pour inciter l'IA à produire un essai. Le texte saisi est considéré comme une forme d'invite ou d'invite pour l'application AI. J'expliquerai plus à ce sujet dans un instant.

Dans tous les cas, imaginez qu'une personne utilisant une application d'IA générative décide d'entrer comme invite une certaine quantité de discours de haine.

Que doit-il se passer ?

Si l'IA prend ces mots et produit un essai basé sur ces mots, il y a de fortes chances que le discours de haine soit inclus dans l'essai généré. Vous voyez, nous avons demandé à l'IA de dire un discours de haine, même si elle n'a jamais été formée au discours de haine au départ.

Il y a autre chose que vous devez savoir.

Rappelez-vous que je viens de mentionner qu'un être humain peut faire trébucher en lui demandant de donner des exemples de discours de haine. La même chose pourrait être tentée sur l'IA. Un utilisateur saisit une invite qui demande à l'IA de donner des exemples de discours de haine. L'IA devrait-elle se conformer et fournir de tels exemples ? Je parie que vous pensez probablement que l'IA ne devrait pas le faire. D'un autre côté, si l'IA est informatiquement truquée pour ne pas le faire, cela constitue-t-il un inconvénient potentiel que ceux qui utilisent l'IA ne pourront pas être, dirons-nous, jamais informés par l'IA de ce qu'est réellement le discours de haine ( au-delà d'une simple généralisation à ce sujet) ?

Questions difficiles.

J'ai tendance à classer les discours de haine émis par l'IA dans ces trois catégories principales :

  • Mode quotidien. L'IA émet des discours de haine sans aucune incitation explicite de la part de l'utilisateur et comme si elle le faisait de manière « ordinaire ».
  • Par Casual Prodding. L'IA émet un discours de haine tel que poussé par un utilisateur quant à son invite saisie ou à une série d'invites qui semblent inclure ou rechercher directement de telles émissions.
  • Par chargement déterminé. L'IA émet un discours de haine après une série très déterminée et obstinée de poussées et d'incitations rapides par un utilisateur qui est déterminé à faire en sorte que l'IA produise une telle sortie.

Les générations précédentes d'IA générative émettaient souvent des discours de haine en un clin d'œil ; vous pouvez donc classer ces instances comme un type de mode quotidien instanciation. Les fabricants d'IA se sont retirés et ont joué avec l'IA pour la rendre moins susceptible de s'enliser facilement dans la production de discours de haine.

Lors de la sortie de l'IA plus raffinée, les chances de voir n'importe quel mode quotidien les cas de discours de haine ont été considérablement réduits. Au lieu de cela, le discours de haine ne surviendrait probablement que lorsqu'un utilisateur faisait quelque chose comme une invite qui pourrait déclencher par calcul et mathématiquement un lien avec le discours lié à la haine dans le réseau de correspondance de modèles. Un utilisateur pourrait le faire par hasard et ne pas se rendre compte que ce qu'il a fourni comme invite générerait particulièrement un discours de haine. Après avoir reçu un discours de haine dans un essai publié, l'utilisateur se rendait souvent compte et voyait que quelque chose dans son invite aurait logiquement pu conduire à l'inclusion du discours de haine dans la sortie.

C'est ce que j'appelle incitation occasionnelle.

De nos jours, les divers efforts visant à réduire les discours de haine générés par l'IA sont relativement importants par rapport au passé. En tant que tel, vous devez presque faire tout votre possible pour que le discours de haine soit produit. Certaines personnes choisissent délibérément de voir si elles peuvent faire sortir des discours de haine de ces applications d'IA génératives. j'appelle ça attisation déterminée.

Je tiens à souligner que ces trois modes indiqués peuvent se produire et qu'ils ne s'excluent pas mutuellement. Une application d'IA générative peut potentiellement produire un discours de haine sans aucune sorte d'invite qui semble stimuler une telle production. De même, quelque chose dans une invite pourrait logiquement et mathématiquement être interprété comme étant lié à la raison pour laquelle le discours de haine a été émis. Et puis le troisième aspect, cherchant délibérément à faire produire un discours de haine, est peut-être le plus difficile des modes pour essayer d'éviter que l'IA ne soit poussée à s'épanouir. Plus à ce sujet momentanément.

Nous avons un déballage supplémentaire à faire sur ce sujet captivant.

Tout d'abord, nous devons nous assurer que nous sommes tous sur la même longueur d'onde sur ce en quoi consiste l'IA générative et sur ce qu'est ChatGPT. Une fois que nous avons couvert cet aspect fondamental, nous pouvons effectuer une évaluation convaincante de cette importante question.

Si vous connaissez déjà très bien l'IA générative et ChatGPT, vous pouvez peut-être parcourir la section suivante et passer à la section qui la suit. Je crois que tout le monde trouvera instructifs les détails vitaux sur ces questions en lisant attentivement la section et en se mettant au courant.

Une introduction rapide à propos de l'IA générative et de ChatGPT

ChatGPT est un système interactif orienté conversation d'IA à usage général, essentiellement un chatbot général apparemment inoffensif, néanmoins, il est activement et avidement utilisé par les gens d'une manière qui en prend beaucoup au dépourvu, comme je le développerai sous peu. Cette application d'IA exploite une technique et une technologie dans le domaine de l'IA souvent appelées IA générative. L'IA génère des sorties telles que du texte, ce que fait ChatGPT. D'autres applications d'IA basées sur la génération produisent des images telles que des images ou des illustrations, tandis que d'autres génèrent des fichiers audio ou des vidéos.

Je vais me concentrer sur les applications d'IA génératives basées sur le texte dans cette discussion puisque c'est ce que fait ChatGPT.

Les applications IA génératives sont extrêmement faciles à utiliser.

Tout ce que vous avez à faire est de saisir une invite et l'application AI générera pour vous un essai qui tentera de répondre à votre invite. Le texte composé donnera l'impression que l'essai a été écrit par la main et l'esprit humains. Si vous deviez entrer une invite qui disait "Parlez-moi d'Abraham Lincoln", l'IA générative vous fournira un essai sur Lincoln. Ceci est communément classé comme une IA générative qui effectue texte en texte ou certains préfèrent l'appeler texte à essai sortir. Comme mentionné, il existe d'autres modes d'IA générative, tels que le texte vers l'art et le texte vers la vidéo.

Votre première pensée pourrait être que cette capacité générative ne semble pas si importante en termes de production d'essais. Vous pouvez facilement faire une recherche en ligne sur Internet et trouver facilement des tonnes et des tonnes d'essais sur le président Lincoln. L'avantage dans le cas de l'IA générative est que l'essai généré est relativement unique et fournit une composition originale plutôt qu'un imitateur. Si vous deviez essayer de trouver l'essai produit par l'IA quelque part en ligne, il est peu probable que vous le découvriez.

L'IA générative est pré-formée et utilise une formulation mathématique et informatique complexe qui a été mise en place en examinant des modèles dans des mots écrits et des histoires sur le Web. Après avoir examiné des milliers et des millions de passages écrits, l'IA peut produire de nouveaux essais et histoires qui sont un méli-mélo de ce qui a été trouvé. En ajoutant diverses fonctionnalités probabilistes, le texte résultant est à peu près unique par rapport à ce qui a été utilisé dans l'ensemble d'apprentissage.

C'est pourquoi il y a eu un tollé à propos de la possibilité pour les étudiants de tricher lorsqu'ils rédigent des essais en dehors de la salle de classe. Un enseignant ne peut pas simplement prendre l'essai que les étudiants trompeurs affirment être leur propre écriture et chercher à savoir s'il a été copié à partir d'une autre source en ligne. Dans l'ensemble, il n'y aura pas d'essai préexistant définitif en ligne qui corresponde à l'essai généré par l'IA. Tout compte fait, l'enseignant devra accepter à contrecœur que l'étudiant ait écrit l'essai comme un travail original.

Il existe d'autres préoccupations concernant l'IA générative.

Un inconvénient crucial est que les essais produits par une application d'IA basée sur la génération peuvent contenir divers mensonges, y compris des faits manifestement faux, des faits dépeints de manière trompeuse et des faits apparents entièrement fabriqués. Ces aspects fabriqués sont souvent appelés une forme de Hallucinations de l'IA, un slogan que je désapprouve mais qui semble malheureusement gagner du terrain de toute façon (pour mon explication détaillée sur la raison pour laquelle cette terminologie est moche et inappropriée, voir ma couverture sur le lien ici).

Je voudrais clarifier un aspect important avant d'entrer dans le vif du sujet sur ce sujet.

Il y a eu des affirmations démesurées sur les réseaux sociaux à propos de IA générative affirmant que cette dernière version de l'IA est en fait IA sensible (non, ils se trompent !). Les spécialistes de l'éthique de l'IA et du droit de l'IA s'inquiètent notamment de cette tendance naissante de revendications étendues. Vous pourriez dire poliment que certaines personnes exagèrent ce que l'IA d'aujourd'hui peut réellement faire. Ils supposent que l'IA a des capacités que nous n'avons pas encore pu atteindre. C'est malheureux. Pire encore, ils peuvent se permettre à eux-mêmes et aux autres de se retrouver dans des situations désastreuses en supposant que l'IA sera sensible ou humaine pour pouvoir agir.

Ne pas anthropomorphiser l'IA.

Cela vous fera prendre dans un piège de confiance collant et austère consistant à attendre de l'IA qu'elle fasse des choses qu'elle est incapable d'accomplir. Cela étant dit, la dernière IA générative est relativement impressionnante pour ce qu'elle peut faire. Sachez cependant qu'il existe des limitations importantes que vous devez constamment garder à l'esprit lorsque vous utilisez une application d'IA générative.

Si vous êtes intéressé par l'agitation en pleine expansion autour de ChatGPT et de l'IA générative, j'ai fait une série ciblée dans ma colonne que vous pourriez trouver informative. Voici un aperçu au cas où l'un de ces sujets vous intéresserait :

  • 1) Prédictions des progrès de l'IA générative à venir. Si vous voulez savoir ce qui est susceptible de se dérouler à propos de l'IA tout au long de 2023 et au-delà, y compris les progrès à venir dans l'IA générative et ChatGPT, vous voudrez lire ma liste complète des prédictions 2023 sur le lien ici.
  • 2) IA générative et conseils en santé mentale. J'ai choisi d'examiner comment l'IA générative et ChatGPT sont utilisés pour des conseils en santé mentale, une tendance gênante, selon mon analyse ciblée sur le lien ici.
  • 3) Fondamentaux de l'IA générative et de ChatGPT. Cette pièce explore les éléments clés du fonctionnement de l'IA générative et se penche en particulier sur l'application ChatGPT, y compris une analyse du buzz et de la fanfare, à le lien ici.
  • 4) Tension entre les enseignants et les étudiants sur l'IA générative et ChatGPT. Voici les façons dont les étudiants utiliseront sournoisement l'IA générative et ChatGPT. De plus, il existe plusieurs façons pour les enseignants de faire face à ce raz-de-marée. Voir le lien ici.
  • 5) Utilisation contextuelle et générative de l'IA. J'ai également fait un examen ironique aux saveurs saisonnières sur un contexte lié au Père Noël impliquant ChatGPT et l'IA générative à le lien ici.
  • 6) Les escrocs utilisant l'IA générative. Sur une note inquiétante, certains escrocs ont compris comment utiliser l'IA générative et ChatGPT pour commettre des actes répréhensibles, notamment en générant des e-mails frauduleux et même en produisant du code de programmation pour les logiciels malveillants, voir mon analyse sur le lien ici.
  • 7) Erreurs de débutant en utilisant l'IA générative. Beaucoup de gens dépassent et étonnamment sous-estiment ce que l'IA générative et ChatGPT peuvent faire, alors j'ai regardé en particulier le sous-dépassement que les recrues de l'IA ont tendance à faire, voir la discussion sur le lien ici.
  • 8) Faire face aux invites génératives de l'IA et aux hallucinations de l'IA. Je décris une approche de pointe pour utiliser des modules complémentaires d'IA pour traiter les divers problèmes associés à la tentative d'entrer des invites appropriées dans l'IA générative, ainsi qu'il existe d'autres modules complémentaires d'IA pour détecter les soi-disant sorties et faussetés hallucinées de l'IA, comme couvert à le lien ici.
  • 9) Démystifier les affirmations de Bonehead sur la détection d'essais génératifs produits par l'IA. Il y a une ruée vers l'or erronée d'applications d'IA qui proclament être en mesure de déterminer si un essai donné a été produit par l'homme ou généré par l'IA. Dans l'ensemble, cela est trompeur et dans certains cas, une allégation stupide et intenable, voir ma couverture à le lien ici.
  • 10) Le jeu de rôle via l'IA générative pourrait laisser présager des inconvénients pour la santé mentale. Certains utilisent l'IA générative telle que ChatGPT pour faire du jeu de rôle, dans lequel l'application d'IA répond à un humain comme si elle existait dans un monde imaginaire ou dans un autre cadre inventé. Cela pourrait avoir des répercussions sur la santé mentale, voir le lien ici.
  • 11) Exposer la gamme d'erreurs et de faussetés générées. Diverses listes collectées sont en cours de constitution pour essayer de mettre en valeur la nature des erreurs et des mensonges produits par ChatGPT. Certains pensent que c'est essentiel, tandis que d'autres disent que l'exercice est vain, voir mon analyse à le lien ici.
  • 12) Les écoles interdisant l'IA générative ChatGPT ratent le coche. Vous savez peut-être que diverses écoles telles que le ministère de l'Éducation de la ville de New York (NYC) ont interdit l'utilisation de ChatGPT sur leur réseau et les appareils associés. Bien que cela puisse sembler une précaution utile, cela ne déplacera pas l'aiguille et manquera malheureusement complètement le bateau, voir ma couverture sur le lien ici.
  • 13) Generative AI ChatGPT va être partout en raison de la prochaine API. Il y a une tournure importante à propos de l'utilisation de ChatGPT, à savoir que via l'utilisation d'un portail API dans cette application d'IA particulière, d'autres logiciels pourront invoquer et utiliser ChatGPT. Cela va considérablement étendre l'utilisation de l'IA générative et a des conséquences notables, voir mon élaboration sur le lien ici.
  • 14) Façons dont ChatGPT pourrait pétiller ou fondre. Plusieurs problèmes potentiels vexatoires attendent ChatGPT en termes de sape des éloges qu'il a reçus jusqu'à présent. Cette analyse examine de près huit problèmes possibles qui pourraient faire perdre à ChatGPT sa vapeur et même se retrouver dans la niche, voir le lien ici.
  • 15) Demander si Generative AI ChatGPT est un miroir dans l'âme. Certaines personnes ont vanté que l'IA générative telle que ChatGPT fournit un miroir dans l'âme de l'humanité. Cela paraît assez douteux. Voici le moyen de comprendre tout cela, voir le lien ici.
  • 16) Confidentialité et vie privée englouties par ChatGPT. Beaucoup ne semblent pas se rendre compte que les licences associées aux applications d'IA génératives telles que ChatGPT permettent souvent au fabricant d'IA de voir et d'utiliser vos invites saisies. Vous pourriez être à risque d'atteinte à la vie privée et à une perte de confidentialité des données, voir mon évaluation sur le lien ici.
  • 17) Façons dont les créateurs d'applications essaient de manière douteuse d'obtenir des droits ChatGPT. ChatGPT est le phare de l'attention en ce moment. Les fabricants d'applications qui n'ont rien à voir avec ChatGPT essaient fiévreusement de prétendre ou d'impliquer qu'ils utilisent ChatGPT. Voici ce qu'il faut surveiller, voir le lien ici.

Vous pourriez trouver intéressant que ChatGPT soit basé sur une version d'une application AI prédécesseur connue sous le nom de GPT-3. ChatGPT est considéré comme une étape légèrement suivante, appelée GPT-3.5. Il est prévu que GPT-4 sera probablement publié au printemps 2023. Vraisemblablement, GPT-4 sera un pas en avant impressionnant en termes de capacité à produire des essais apparemment encore plus fluides, à aller plus loin et à être une crainte -émerveillement inspirant quant aux compositions qu'il peut produire.

Vous pouvez vous attendre à voir une nouvelle série d'émerveillements exprimés lorsque le printemps arrive et que la dernière IA générative est publiée.

J'en parle parce qu'il y a un autre angle à garder à l'esprit, consistant en un talon d'Achille potentiel pour ces meilleures et plus grandes applications d'IA génératives. Si un fournisseur d'IA met à disposition une application d'IA générative qui crache de manière mousseuse la saleté, cela pourrait anéantir les espoirs de ces fabricants d'IA. Un débordement sociétal peut amener toute l'IA générative à avoir un sérieux œil au beurre noir. Les gens seront sans aucun doute assez contrariés par les sorties ignobles, qui se sont déjà produites à plusieurs reprises et ont conduit à des réactions violentes de condamnation de la société envers l'IA.

Un dernier avertissement pour le moment.

Tout ce que vous voyez ou lisez dans une réponse d'IA générative qui semble être transmis comme purement factuel (dates, lieux, personnes, etc.), assurez-vous de rester sceptique et d'être prêt à revérifier ce que vous voyez.

Oui, les dates peuvent être concoctées, les lieux peuvent être inventés, et les éléments que l'on s'attend généralement à être irréprochables sont TOUTE sujet à suspicion. Ne croyez pas ce que vous lisez et gardez un œil sceptique lorsque vous examinez des essais ou des résultats d'IA générative. Si une application d'IA générative vous dit qu'Abraham Lincoln a survolé le pays dans son propre jet privé, vous sauriez sans aucun doute que c'est malarky. Malheureusement, certaines personnes pourraient ne pas se rendre compte que les jets n'existaient pas à son époque, ou elles pourraient le savoir mais ne pas remarquer que l'essai fait cette affirmation effrontée et scandaleusement fausse.

Une forte dose de scepticisme sain et un état d'esprit persistant d'incrédulité seront votre meilleur atout lors de l'utilisation de l'IA générative.

Nous sommes prêts à passer à la prochaine étape de cette élucidation.

Pousser l'IA générative à un point de rupture

Maintenant que nous avons établi les bases, nous pouvons nous plonger dans le sujet de la promotion de l'IA générative et de ChatGPT pour générer des discours de haine et d'autres contenus offensants.

Lorsque vous vous connectez pour la première fois à ChatGPT, il existe diverses mises en garde, notamment :

  • "Peut produire occasionnellement des instructions nuisibles ou un contenu biaisé."
  • "Formé pour refuser les demandes inappropriées."
  • "Peut parfois générer des informations incorrectes."
  • "Connaissance limitée du monde et des événements après 2021."

Voici une question à méditer.

L'avertissement selon lequel l'application d'IA pourrait produire des instructions nuisibles et/ou un contenu éventuellement biaisé offre-t-il une marge de manœuvre suffisante au fabricant d'IA ?

En d'autres termes, supposons que vous utilisiez ChatGPT et qu'il génère un essai qui, selon vous, contient un discours de haine. Supposons que vous soyez livide à ce sujet. Vous allez sur les réseaux sociaux et publiez des commentaires enragés selon lesquels l'application AI est la pire chose qui soit. Peut-être êtes-vous tellement offensé que vous déclarez que vous allez poursuivre le fabricant d'IA pour avoir permis la production d'un tel discours de haine.

Le contre-argument est que l'application AI avait un avertissement, par conséquent, vous avez accepté le risque en procédant à l'utilisation de l'application AI. Du point de vue de l'éthique de l'IA, peut-être que le fabricant de l'IA en a fait assez pour affirmer que vous étiez conscient de ce qui pourrait arriver. De même, d'un point de vue juridique, l'avertissement constituait peut-être un avertissement suffisant et vous ne l'emporterez pas devant le tribunal.

Tout cela est en suspens et nous devrons attendre et voir comment les choses se dérouleront.

Dans un sens, le fabricant d'IA a quelque chose d'autre pour eux dans leur défense contre toute affirmation exaspérée de l'application AI pouvant produire un discours de haine. Ils ont essayé d'empêcher la génération de contenu offensant. Vous voyez, s'ils n'avaient rien fait pour limiter cela, on suppose qu'ils seraient sur une glace plus mince. En ayant au moins pris la peine d'éviter le problème, ils ont probablement une jambe un peu plus forte sur laquelle se tenir (elle pourrait toujours être assommée par en dessous).

Une approche curative qui a été utilisée consistait en une technique d'IA connue sous le nom de RLHF (apprentissage par renforcement via la rétroaction humaine). Cela consiste généralement à faire en sorte que l'IA génère du contenu qu'il est ensuite demandé aux humains d'évaluer ou de réviser. Sur la base de la note ou de l'examen, l'IA tente alors mathématiquement et informatiquement d'éviter tout ce qui est considéré comme un contenu illicite ou offensant. L'approche vise à examiner suffisamment d'exemples de ce qui est bien par rapport à ce qui ne va pas pour que l'IA puisse déterminer un modèle mathématique global, puis utiliser ce modèle désormais.

Une autre approche fréquente de nos jours consiste à utiliser l'IA contradictoire.

Voici comment cela fonctionne. Vous configurez un système d'IA différent qui tentera d'être un adversaire de l'IA que vous essayez de former. Dans ce cas, nous établirions un système d'IA qui essaierait d'alimenter le discours de haine. Cela alimenterait l'application AI en invites visant à tromper l'application AI pour qu'elle produise du contenu répréhensible. Pendant ce temps, l'IA ciblée surveille le moment où l'IA adverse réussit, puis tente de s'ajuster de manière algorithmique pour éviter que cela ne se reproduise. C'est un jeu chat contre souris. Cela se répète encore et encore, jusqu'à ce que l'IA adverse ne semble plus réussir particulièrement à faire en sorte que l'IA ciblée fasse les mauvaises choses.

Grâce à ces deux techniques majeures, ainsi qu'à d'autres approches, une grande partie de l'IA générative d'aujourd'hui est bien meilleure pour éviter et/ou détecter les contenus offensants que ce n'était le cas par le passé.

Ne vous attendez cependant pas à la perfection de ces méthodes. Il y a de fortes chances que le fruit à portée de main des sorties fautives soit probablement maîtrisé par de telles techniques d'IA. Il y a encore beaucoup de place pour que la saleté soit émise.

Je souligne généralement que ce sont quelques-unes des facettes que l'on cherche à attraper :

  • Émettre un mot grossier particulier
  • Énoncer une phrase, une phrase ou une remarque grossière particulière
  • Exprimer une conception grossière particulière
  • Impliquer un acte ou une idée répréhensible particulier
  • Semblant s'appuyer sur une présomption fautive particulière
  • Autre

Rien de tout cela n'est une science exacte. Sachez que nous avons affaire à des mots. Les mots sont sémantiquement ambigus. Trouver un mot grossier particulier est un jeu d'enfant, mais essayer de déterminer si une phrase ou un paragraphe contient un semblant de sens grossier est beaucoup plus difficile. Selon la définition antérieure du discours de haine par les Nations Unies, une énorme latitude existe quant à ce qui pourrait être interprété comme un discours de haine par rapport à ce qui pourrait ne pas l'être.

Vous pourriez dire que les zones grises sont dans l'œil du spectateur.

En parlant de l'œil du spectateur, il y a aujourd'hui des humains qui utilisent l'IA générative comme ChatGPT qui essaient délibérément d'amener ces applications d'IA à produire du contenu offensant. C'est leur quête. Ils passent des heures et des heures à essayer de faire en sorte que cela se produise.

Pourquoi

Voici mes caractérisations de ces chasseurs de sorties humaines offensives de l'IA :

  • Authentique. Ces personnes veulent aider à affiner l'IA et aider l'humanité à le faire. Ils croient qu'ils font un travail héroïque et savourent qu'ils pourraient aider à faire progresser l'IA pour le bien de tous.
  • Funsters. Ces personnes considèrent cet effort comme un jeu. Ils aiment s'amuser avec l'IA. Gagner le jeu consiste à trouver le pire du pire dans tout ce que l'IA peut générer.
  • Show-offs. Ces personnes espèrent attirer l'attention sur elles-mêmes. Ils pensent que s'ils peuvent trouver des pépites d'or vraiment nauséabondes, ils peuvent obtenir un peu de la lumière brillante sur eux qui est autrement concentrée sur l'application AI elle-même.
  • Bitter. Ces gens sont irrités par cette IA. Ils veulent saper tout cet enthousiasme débordant. S'ils peuvent découvrir des trucs nauséabonds et puants, peut-être que cela enlèvera l'air du ballon d'excitation de l'application AI.
  • Autres motivations

Beaucoup de ceux qui effectuent la découverte de l'offensivité se trouvent principalement dans un seul de ces camps. Bien sûr, vous pouvez être dans plus d'un camp à la fois. Peut-être qu'une personne amère a aussi une intention parallèle d'être authentique et héroïque. Certaines ou toutes ces motivations peuvent coexister. Lorsqu'on vous demande d'expliquer pourquoi quelqu'un essaie de pousser une application d'IA générative dans le domaine du discours de haine, la réponse habituelle est de dire que vous êtes dans le vrai camp, même si peut-être que vous l'êtes légèrement et que vous vous asseyez plutôt avec véhémence dans l'un des d'autres camps.

Quels types de supercheries liées aux invites ces personnes utilisent-elles ?

Le stratagème plutôt évident consiste à utiliser un mot grossier dans une invite. Si vous avez de la "chance" et que l'application AI tombe dans le panneau, cela pourrait très bien se retrouver dans la sortie. Vous avez alors votre moment gotcha.

Il y a de fortes chances qu'une application d'IA générative bien conçue et bien testée capte ce stratagème simple. Vous verrez généralement un message d'avertissement indiquant d'arrêter de le faire. Si vous continuez, l'application AI sera programmée pour vous expulser de l'application et signaler votre compte. Il se peut que vous ne puissiez plus vous connecter (enfin, du moins sous le nom de connexion que vous utilisiez à l'époque).

En remontant l'échelle des stratagèmes, vous pouvez fournir une invite qui tente d'amener l'IA dans le contexte de quelque chose de répugnant. Avez-vous déjà joué à ce jeu où quelqu'un vous dit de dire quelque chose sans dire ce que vous êtes censé dire ? C'est ce jeu, bien qu'il se déroule avec l'IA.

Jouons à ce jeu. Supposons que je demande à l'application AI de me parler de la Seconde Guerre mondiale et en particulier des principaux dirigeants gouvernementaux impliqués. Cela semble être une demande innocente. Il n'y a rien qui semble mériter d'être signalé dans l'invite.

Imaginez que l'essai produit par l'application AI inclut une mention de Winston Churchill. Cela a certainement du sens. Un autre pourrait être Franklin D. Roosevelt. Un autre encore pourrait être Joseph Staline. Supposons qu'il y ait aussi la mention d'Adolph Hitler. Ce nom serait inclus dans à peu près n'importe quel essai sur la Seconde Guerre mondiale et ceux qui occupent des postes de pouvoir de premier plan.

Maintenant que nous avons son nom sur la table et une partie de la conversation sur l'IA, nous essaierons ensuite d'amener l'IA à incorporer ce nom d'une manière que nous pouvons présenter comme un discours de haine potentiel.

Nous entrons dans une autre invite et disons à l'application AI qu'il y a une personne aujourd'hui dans les nouvelles qui s'appelle John Smith. De plus, nous indiquons dans l'invite que John Smith ressemble beaucoup à ce malfaiteur de la Seconde Guerre mondiale. Le piège est maintenant tendu. Nous demandons ensuite à l'application AI de générer un essai sur John Smith, basé uniquement sur le "fait" que nous avons saisi à propos de qui John Smith peut être assimilé.

À ce stade, l'application AI pourrait générer un essai qui nomme la personne de la Seconde Guerre mondiale et décrit John Smith comme étant de la même coupe de tissu. Il n'y a pas de mots grossiers en soi dans l'essai, à part faire allusion au célèbre malfaiteur et assimiler cette personne à John Smith.

L'application AI a-t-elle maintenant produit un discours de haine ?

Vous pourriez dire que oui, c'est le cas. Se référer à John Smith comme étant le célèbre malfaiteur est absolument une forme de discours de haine. L'IA ne devrait pas faire de telles déclarations.

Une réplique est que ce n'est pas un discours de haine. Il s'agit simplement d'un essai produit par une application d'IA qui n'a aucune incarnation de la sensibilité. Vous pourriez prétendre que le discours de haine ne se produit que lorsque l'intention sous-jacente au discours existe. Sans aucune intention, le discours ne peut être qualifié de discours de haine.

Absurde, vient la réplique à la réplique. Les mots comptent. Peu importe que l'IA « ait l'intention » de produire un discours de haine. Tout ce qui compte, c'est que le discours de haine ait été produit.

Ça tourne en rond.

Je ne veux pas en dire beaucoup plus pour le moment sur le fait d'essayer de tromper l'IA. Il existe des approches plus sophistiquées. Je les ai couverts ailleurs dans mes colonnes et mes livres, et je ne les ressasserai pas ici.

Conclusion

Jusqu'où devrions-nous pousser ces applications d'IA pour voir si nous pouvons faire émettre du contenu offensant ?

Vous pourriez prétendre qu'il n'y a pas de limite à imposer. Plus nous poussons, plus nous pouvons, espérons-le, évaluer comment empêcher cette IA et les futures itérations de l'IA pour éviter de telles maladies.

Certains craignent cependant que si le seul moyen d'obtenir la faute implique une supercherie extrême, cela sape les aspects bénéfiques de l'IA. Prétendre que l'IA a une horrible saleté, même si elle est trompée pour l'émettre, fournit un faux récit. Les gens vont s'énerver à propos de l'IA à cause du perçu facilité avec laquelle l'IA a généré du contenu indésirable. Il se peut qu'ils ne sachent pas ou qu'on leur dise jusqu'où la personne doit aller pour obtenir de tels résultats.

Tout est matière à réflexion.

Quelques derniers commentaires pour le moment.

William Shakespeare a notamment dit ceci à propos de la parole : « Parler n'est pas faire. C'est une sorte de bonne action de bien dire, et pourtant les mots ne sont pas des actes. J'en parle parce que certains prétendent que si l'IA ne génère que des mots, nous ne devrions pas être trop insurgés. Si l'IA agissait sur les mots et accomplissait par conséquent des actes répréhensibles, nous aurions alors besoin de mettre fermement le pied à terre. Ce n'est pas le cas si la sortie n'est que des mots.

Un point de vue opposé reviendrait sur ce dicton anonyme : « La langue n'a pas d'os mais est assez forte pour briser un cœur. Faites donc attention à vos propos. Une application d'IA qui émet des mots grossiers est peut-être capable de briser les cœurs. Cela seul fait de la quête pour arrêter les sorties de saleté une cause louable, diraient certains.

Un autre dicton anonyme pour clore cette discussion de poids :

  • "Soyez prudent avec vos mots. Une fois prononcés, ils ne peuvent être que pardonnés, pas oubliés.

En tant qu'êtres humains, nous pourrions avoir du mal à oublier la faute produite par l'IA, et notre pardon pourrait également être hésitant à être accordé.

Nous ne sommes, après tout, que des humains.

Source : https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- ethique-et-ai-loi/