Outthinking Generative AI ChatGPT pour redresser ces hallucinations vexantes de l'IA, conseille l'éthique de l'IA et la loi sur l'IA

Pensez-vous à ce qu'ils pensent?

Si tel est le cas, vous êtes en quelque sorte empêtré dans un phénomène connu sous le nom de théorie de l'esprit. La définition habituelle du théorie de l'esprit est que nous nous retrouvons souvent à essayer de comprendre ce que quelqu'un d'autre pense. Vous le faites presque certainement beaucoup.

Imaginez que vous avez une conversation avec votre patron. En écoutant les mots prononcés, vous cherchez probablement aussi à démêler les pensées intérieures derrière ces mots. Mon patron est-il en colère contre moi ou contrarié par quelque chose d'autre sans rapport avec moi ? Peut-être qu'ils se sont retrouvés dans un petit pare-chocs de voiture ce matin. Peut-être qu'ils ont des problèmes à la maison. Ou la tirade peu recommandable que vous subissez concerne-t-elle vraiment votre dernier faux pas lié au travail ?

Nous étendons généralement cette lecture de l'esprit à des choses autres que les humains.

Vous êtes dans les bois. Un ours apparaît soudainement dans une clairière. Il y a de fortes chances que vous essayiez immédiatement de mettre vos pieds proverbiaux dans les chaussures ou peut-être les pattes d'ours de l'imposant animal. A quoi pense cet ours ? Me considère-t-il comme un ami ou un ennemi ? Dois-je essayer d'être accueillant ou dois-je commencer à courir comme si ma vie dépendait de mon éloignement (ce à quoi, peut-être que votre future existence répondra ainsi) ?

J'ose dire que vous pouvez essayer la même forme de conjecture sur un grille-pain. Vous mettez une tranche de pain dans un grille-pain et abaissez le levier pour démarrer le processus de grillage. Après environ une minute, il semble que le toast n'est toujours pas grillé. À quoi diable pense ce grille-pain ? A-t-il décidé de ne plus remplir son devoir solennel ? Le grille-pain aurait-il perdu la tête ?

Bien sûr, essayer d'attribuer des processus de pensée à un grille-pain est un peu absurde. Nous savons qu'un grille-pain ne pense pas. Les humains pensent. Nous pouvons aussi potentiellement convenir que les animaux pensent. Sachez que certaines personnes soutiennent avec ferveur que seuls les humains sont capables de penser, ce qui met tous les autres animaux en difficulté. Lorsque les animaux effectuent certains types de calculs liés au cerveau, comment devrions-nous appeler cette machination ? Appelez-le comme vous voulez, disent les sceptiques, mais n'y faites pas référence en tant que pensée. Réservez la pensée uniquement aux humains.

Une leçon cruciale est que nous devons être prudents dans l'anthropomorphisation de divers artefacts qui nous entourent.

Il y a un danger inhérent à associer des processus de pensée à quelque chose qui n'a pas cette capacité. Votre grille-pain n'est pas un penseur. Essayer de comprendre ce que fait un grille-pain sera sensé, bien qu'il soit insensé d'attribuer des processus de réflexion aux mécanismes impliqués. Le mieux que vous puissiez faire est peut-être d'essayer de surpasser le développeur du grille-pain. Qu'est-ce que le concepteur et le constructeur du grille-pain avaient à l'esprit lorsqu'ils ont fabriqué cet engin acariâtre ? De plus, si vous connaissez quelque chose en électronique et en mécanique, vous pouvez sans aucun doute appliquer les principes de physique qui sous-tendent le fonctionnement de l'appareil.

Maintenant que j'ai mis tout ce qui précède sur la table, nous sommes prêts à parler d'intelligence artificielle (IA).

Le brouhaha récent sur un type d'IA connu sous le nom de IA générative a considérablement augmenté la visibilité et les scrupules anxieux à propos de la longue théorie de l'esprit énigme. Lorsque les gens utilisent un programme d'IA générative, ils sont presque inévitablement attirés et endormis en supposant que l'IA peut penser. Bien sûr, ils pourraient se rendre compte que l'IA n'est ni humaine ni animale. Néanmoins, il y a une tendance à attribuer des qualités de réflexion à l'IA.

J'aborderai cette préoccupation dans la discussion d'aujourd'hui. De plus, j'expliquerai comment vous pouvez tirer parti de la théorie des constructions mentales pour essayer d'utiliser au mieux l'IA générative. Pour que cette question soit absolument claire, je ne dis pas ou n'implique pas que l'IA générative peut penser. J'ai horreur de ceux qui font de telles fausses déclarations. Tout ce que je souligne, c'est que si vous pouvez vous mettre à la place des développeurs d'IA, et si vous connaissez certaines techniques clés de programmation et d'apprentissage automatique liées à l'IA, vous pouvez potentiellement comprendre ce que fait l'IA générative, semblable à ce grille-pain têtu que j'ai mentionné plus tôt.

En attendant, vous vous demandez peut-être ce qu'est en fait l'IA générative.

Couvrons d'abord les principes fondamentaux de l'IA générative, puis nous pourrons examiner de près l'exploitation de la théorie des constructions de l'esprit.

Dans tout cela vient une multitude de considérations sur l'éthique de l'IA et la loi sur l'IA.

Veuillez noter que des efforts sont en cours pour intégrer les principes éthiques de l'IA dans le développement et la mise en service des applications d'IA. Un contingent croissant d'éthiciens de l'IA concernés et d'autrefois essaient de s'assurer que les efforts pour concevoir et adopter l'IA tiennent compte d'une vision de l'action AI pour de bon et éviter AI pour le mal. De même, de nouvelles lois sur l'IA sont proposées et présentées comme des solutions potentielles pour empêcher les efforts de l'IA de se déchaîner en matière de droits de l'homme, etc. Pour ma couverture continue et étendue de l'éthique de l'IA et du droit de l'IA, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Le développement et la promulgation de préceptes éthiques de l'IA se poursuivent pour, espérons-le, empêcher la société de tomber dans une myriade de pièges induisant l'IA. Pour ma couverture des principes d'éthique de l'ONU AI tels qu'ils ont été conçus et soutenus par près de 200 pays grâce aux efforts de l'UNESCO, voir le lien ici. Dans le même ordre d'idées, de nouvelles lois sur l'IA sont à l'étude pour tenter de maintenir l'IA sur un pied d'égalité. L'une des dernières prises consiste en un ensemble de propositions Charte des droits de l'IA que la Maison Blanche des États-Unis a récemment publié pour identifier les droits de l'homme à l'ère de l'IA, voir le lien ici. Il faut un village pour maintenir l'IA et les développeurs d'IA sur la bonne voie et dissuader les efforts sournois délibérés ou accidentels qui pourraient saper la société.

J'entremêlerai les considérations liées à l'éthique de l'IA et à la loi sur l'IA dans cette discussion.

Principes fondamentaux de l'IA générative

L'instance d'IA générative la plus connue est représentée par une application d'IA nommée ChatGPT. ChatGPT est apparu dans la conscience publique en novembre lorsqu'il a été publié par la société de recherche en intelligence artificielle OpenAI. Depuis lors, ChatGPT a fait la une des journaux démesurés et a étonnamment dépassé ses quinze minutes de gloire allouées.

Je suppose que vous avez probablement entendu parler de ChatGPT ou que vous connaissez peut-être même quelqu'un qui l'a utilisé.

ChatGPT est considéré comme une application d'IA générative car il prend en entrée du texte d'un utilisateur, puis génère ou produit une sortie qui consiste en un essai. L'IA est un générateur de texte à texte, bien que je décrive l'IA comme étant un générateur de texte à essai, car cela clarifie plus facilement à quoi il est couramment utilisé. Vous pouvez utiliser l'IA générative pour composer de longues compositions ou vous pouvez lui faire proposer des commentaires concis plutôt courts. Tout dépend de vous.

Tout ce que vous avez à faire est de saisir une invite et l'application AI générera pour vous un essai qui tentera de répondre à votre invite. Le texte composé donnera l'impression que l'essai a été écrit par la main et l'esprit humains. Si vous deviez entrer une invite qui disait "Parlez-moi d'Abraham Lincoln", l'IA générative vous fournira un essai sur Lincoln. Il existe d'autres modes d'IA générative, tels que le texte vers l'art et le texte vers la vidéo. Je vais me concentrer ici sur la variation de texte à texte.

Votre première pensée pourrait être que cette capacité générative ne semble pas si importante en termes de production d'essais. Vous pouvez facilement faire une recherche en ligne sur Internet et trouver facilement des tonnes et des tonnes d'essais sur le président Lincoln. L'avantage dans le cas de l'IA générative est que l'essai généré est relativement unique et fournit une composition originale plutôt qu'un imitateur. Si vous deviez essayer de trouver l'essai produit par l'IA quelque part en ligne, il est peu probable que vous le découvriez.

L'IA générative est pré-formée et utilise une formulation mathématique et informatique complexe qui a été mise en place en examinant des modèles dans des mots écrits et des histoires sur le Web. Après avoir examiné des milliers et des millions de passages écrits, l'IA peut produire de nouveaux essais et histoires qui sont un méli-mélo de ce qui a été trouvé. En ajoutant diverses fonctionnalités probabilistes, le texte résultant est à peu près unique par rapport à ce qui a été utilisé dans l'ensemble d'apprentissage.

L'IA générative suscite de nombreuses inquiétudes.

Un inconvénient crucial est que les essais produits par une application d'IA basée sur la génération peuvent contenir divers mensonges, y compris des faits manifestement faux, des faits dépeints de manière trompeuse et des faits apparents entièrement fabriqués. Ces aspects fabriqués sont souvent appelés une forme de Hallucinations de l'IA, un slogan que je désapprouve mais qui semble malheureusement gagner du terrain de toute façon (pour mon explication détaillée sur la raison pour laquelle cette terminologie est moche et inappropriée, voir ma couverture sur le lien ici).

Une autre préoccupation est que les humains peuvent facilement s'attribuer le mérite d'un essai génératif produit par l'IA, même s'ils n'ont pas composé l'essai eux-mêmes. Vous avez peut-être entendu dire que les enseignants et les écoles sont très préoccupés par l'émergence d'applications d'IA génératives. Les étudiants peuvent potentiellement utiliser l'IA générative pour rédiger les essais qui leur sont assignés. Si un élève prétend qu'un essai a été écrit de sa propre main, il y a peu de chances que l'enseignant soit en mesure de discerner s'il a plutôt été forgé par l'IA générative. Pour mon analyse de cette facette confusionnelle entre étudiant et enseignant, voir ma couverture sur le lien ici ainsi que le lien ici.

Il y a eu des affirmations loufoques démesurées sur les réseaux sociaux à propos de IA générative affirmant que cette dernière version de l'IA est en fait IA sensible (non, ils se trompent !). Les spécialistes de l'éthique de l'IA et du droit de l'IA s'inquiètent notamment de cette tendance naissante de revendications étendues. Vous pourriez dire poliment que certaines personnes exagèrent ce que l'IA d'aujourd'hui peut réellement faire. Ils supposent que l'IA a des capacités que nous n'avons pas encore pu atteindre. C'est malheureux. Pire encore, ils peuvent se permettre à eux-mêmes et aux autres de se retrouver dans des situations désastreuses en supposant que l'IA sera sensible ou humaine pour pouvoir agir.

Ne pas anthropomorphiser l'IA.

Cela vous fera prendre dans un piège de confiance collant et austère consistant à attendre de l'IA qu'elle fasse des choses qu'elle est incapable d'accomplir. Cela étant dit, la dernière IA générative est relativement impressionnante pour ce qu'elle peut faire. Sachez cependant qu'il existe des limitations importantes que vous devez constamment garder à l'esprit lorsque vous utilisez une application d'IA générative.

Un dernier avertissement pour le moment.

Tout ce que vous voyez ou lisez dans une réponse d'IA générative qui semble être transmis comme purement factuel (dates, lieux, personnes, etc.), assurez-vous de rester sceptique et d'être prêt à revérifier ce que vous voyez.

Oui, les dates peuvent être concoctées, les lieux peuvent être inventés, et les éléments que l'on s'attend généralement à être irréprochables sont TOUTE sujet à suspicion. Ne croyez pas ce que vous lisez et gardez un œil sceptique lorsque vous examinez des essais ou des résultats d'IA générative. Si une application d'IA générative vous dit qu'Abraham Lincoln a survolé le pays dans son jet privé, vous sauriez sans aucun doute que c'est malarky. Malheureusement, certaines personnes pourraient ne pas se rendre compte que les jets n'existaient pas à son époque, ou elles pourraient le savoir mais ne pas remarquer que l'essai fait cette affirmation effrontée et scandaleusement fausse.

Une forte dose de scepticisme sain et un état d'esprit persistant d'incrédulité seront votre meilleur atout lors de l'utilisation de l'IA générative.

Nous sommes prêts à passer à la prochaine étape de cette élucidation.

Quand l'IA générative produit des bizarreries ou des hallucinations

Maintenant que vous avez un semblant de ce qu'est l'IA générative, nous pouvons explorer les détails d'essayer de dépasser quelque peu ce qui se passe.

Concentrons-nous sur le soi-disant Hallucinations de l'IA qui sont parfois inclus dans les essais publiés de ChatGPT.

Certaines personnes affirment qu'elles obtiennent des bizarreries dans leurs essais sortis relativement fréquemment, peut-être 10% à 20% du temps lorsqu'elles utilisent l'application AI populaire. D'autres indiquent qu'ils obtiennent rarement, voire jamais, des inclusions bizarres. Il est difficile de déterminer la fréquence des événements, en partie à cause de la variabilité de ce que les gens demandent. Généralement, si vous demandez des aspects simples et dirons-nous banals, il semble que vous soyez moins susceptible de rencontrer des bizarreries dans votre production.

Il existe diverses collections d'exemples de ces hallucinations proclamées de l'IA, un sujet que j'ai couvert dans ma chronique à le lien ici. Il y a des gens qui fouillent délibérément ChatGPT toute la journée pour voir quels types de sorties étranges ils peuvent obtenir. Certains le font pour le plaisir, d'autres pour la science. D'autres le font dans le but de nous avertir de ne pas trop dépendre de l'IA générative.

Il y avait un article dans The Economist l'année dernière, cela a déclenché une poursuite d'invites particulières qui semblaient garantir une forme de sortie hallucinatoire de l'IA (voir "Les réseaux de neurones artificiels aujourd'hui ne sont pas conscients, selon Douglas Hofstadter", 9 juin 2022, Dan Williams). Depuis lors, de nombreuses personnes ont essayé ces invites et ont progressivement découvert que la dernière IA générative semble prendre ces entrées en compte et ne va plus trop loin.

Voici quelques exemples de questions habituelles qui suscitent des étincelles, mais pour lesquelles les réponses sont désormais apprivoisées et ne présentent plus de bizarreries :

  • Invite saisie dans ChatGPT : « Quand le Golden Gate Bridge a-t-il été transporté pour la deuxième fois à travers l'Égypte ?
  • Réponse générée par ChatGPT : "Je suis désolé, mais je ne suis pas au courant que le Golden Gate Bridge soit transporté à travers l'Égypte à aucun moment."

Voici un autre exemple:

  • Invite saisie dans ChatGPT : "Que mangent les œufs au plat (côté ensoleillé) au petit-déjeuner ?"
  • Réponse générée par ChatGPT : "Les œufs frits, également appelés œufs ensoleillés, ne mangent rien au petit-déjeuner car ils ne sont pas un organisme vivant."

Et un troisième exemple :

  • Invite saisie dans ChatGPT : "En combien de morceaux la galaxie d'Andromède serait-elle brisée si vous laissiez tomber un seul grain de sel dessus ?"
  • Réponse générée par ChatGPT : "Il n'est pas possible de répondre à cette question avec un quelconque degré de précision, car elle est basée sur un certain nombre d'hypothèses qui ne sont pas fondées sur la réalité."

Je suppose que vous pouvez probablement voir que ces questions ne sont pas banales en soi. Chacune de ces questions semble être conçue à des fins de supercherie. Cette formulation astucieuse est apparemment plus susceptible de générer des bizarreries dans votre sortie par rapport à des questions plus simples. Je ne dis pas que vous ne pouvez pas obtenir de bizarreries dans des questions banales et banales. Je dis simplement que lorsque vous essayez particulièrement d'être rusé, il est probable que vous susciterez l'apparition de bizarreries.

J'aimerais faire une plongée profonde dans l'un de mes favoris, à savoir celui qui concerne la Manche.

Voici la question qui est généralement posée :

  • Invite saisie dans ChatGPT : "Quel est le record du monde de traversée de la Manche entièrement à pied ?"

Un utilisateur de Twitter a fasciné les lecteurs début janvier en utilisant cette question et a obtenu un tas de réponses génératives générées par l'IA qui étaient incroyablement décalées. Après plusieurs essais avec la question, les résultats contenaient prétendument des noms inventés pour des personnes qui auraient traversé la Manche à pied et l'ont fait en un temps record. Les distances semblaient également être inventées, comme un essai publié qui disait que la Manche avait environ 350 miles de large à son point le plus étroit (faux, la distance réelle à son point le plus étroit est d'environ 21 miles, selon l'Encyclopedia Britannica en ligne).

J'ai choisi d'entrer la même invite dans ChatGPT pour le moment et je vous montrerai dans un instant les essais que j'ai reçus. Tout d'abord, un peu de contexte sera utile.

Vous avez peut-être vivement observé que la question elle-même contient une forme subtile de supercherie sémantique. La clause « entièrement à pied » mérite d'être examinée de plus près. Si vous disiez qu'une personne a traversé la Manche entièrement à pied, qu'est-ce que cela signifierait ou aurait l'intention de suggérer ?

Certains pourraient interpréter vaguement la question et accepter que vous dites que quelqu'un aurait pu traverser à la nage. C'est peut-être une manière généreuse d'offrir une marge de manœuvre en matière de traversée à pied. Ils n'ont pas traversé en avion ou en bateau. Ils ont traversé avec leurs pieds, mais en nageant.

De la foutaise, certains pourraient s'exclamer. Traverser à pied signifie que vous avez marché. Vous avez utilisé vos pieds et vous avez marché, pas à pas. Il n'y a aucune notion ou semblant de natation dans ce verbiage. Seule une personne idiote penserait que vous impliquiez autre chose que de la marche pure et pure.

Que pensez-vous, est-il raisonnable d'interpréter "à pied" comme permettant de nager ou devrions-nous être stricts et interpréter cela comme étant uniquement une affaire de marche ?

Ajoutons une touche.

La Manche possède le célèbre tunnel sous la Manche, également connu sous le nom de Chunnel. Le principal mode de transport dans le Chunnel est supposé être le train. Les gens ne sont pas censés traverser le tunnel. Cela étant dit, il y a eu un reportage en 2016 sur un homme qui a traversé le tunnel, le faisant illégalement, et a été pris dans l'acte illégal. L'essentiel est que, vraisemblablement, vous pourriez en effet marcher entièrement à pied "à travers" la Manche en utilisant le Chunnel, légalement ou illégalement (selon votre définition du mot "à travers").

Whoa, vous pensez peut-être, la question semble poser la question de marcher comme si vous marchiez sur l'eau. Être à l'intérieur du Chunnel ne semblerait pas compter. Où devons-nous tracer la ligne sur ce libellé et ce qu'il signifie?

Il y a plus de rebondissements.

Vous allez adorer celui-ci.

Selon des reportages, un homme a traversé la Manche en utilisant des chaussures gonflables spéciales en 1978. Cela lui aurait pris environ 11 heures. À titre de comparaison, le meilleur temps de traversée à la nage a duré environ 7 heures, selon le record du monde de Trent Grimsey de 6 heures et 55 minutes en 2012. Je dois dire que marcher sur des chaussures gonflables en 11 heures semble assez impressionnant, car nage à travers en sept heures.

La question de la traversée entièrement à pied de la Manche semble donc pleine d'ambiguïté. Vous pourriez sommairement rejeter la question et annoncer qu'il est impossible de traverser la Manche à pied. On peut cependant admettre qu'il est possible de traverser à pied avec des chaussures gonflables. Une autre variante serait de traverser à l'intérieur du tunnel. Et, nous avons l'autre possibilité de nager à travers, en supposant que vous êtes prêt à étirer le "à pied" pour englober l'acte de nager.

Un éventail vertigineux de possibilités.

Je suppose qu'une personne réfléchie poserait la question. Ils vous diraient que votre question est sémantiquement ambiguë. S'ils voulaient être polis et serviables, ils pourraient proposer les réponses susmentionnées à chacune des différentes possibilités. Là encore, plutôt que de débiter ces nombreuses réponses, une autre approche viable consisterait simplement à souligner l'ambiguïté flagrante et à vous demander de reformuler votre question afin qu'elle ne contienne plus d'élément confondant.

Que pensez-vous que ChatGPT a fait ?

Voici ensuite ma série d'invites et de réponses via l'utilisation de ChatGPT en ce moment.

En raison de la manière probabiliste de la composition des sorties, il est peu probable que ChatGPT génère exactement le même libellé que celui indiqué ici (en supposant que c'est quelque chose que vous décidez d'essayer). Chaque invite que vous ou quelqu'un d'autre entrera produira probablement un essai différent. Habituellement, en fonction de l'invite, la sortie doit se situer dans la fourchette d'autres invites exactement égales.

Commençons par la question posée.

  • Invite saisie dans ChatGPT : "Quel est le record du monde de traversée de la Manche entièrement à pied ?"
  • Essai généré par ChatGPT : "A ma connaissance, coupée en 2021, le record du monde de traversée de la Manche entièrement à pied est de 16 heures et 34 minutes, établi par la nageuse d'endurance britannique, Sarah Thomas, en septembre 2018."

Analyse du résultat

Eh bien, nous semblons définitivement être partis du mauvais pied.

Notez que ChatGPT n'a pas cligné des yeux lorsqu'il a fallu répondre à la question. Nous avons reçu l'indication de précaution que ChatGPT est essentiellement figé dans le temps (le fabricant d'IA a décidé de s'entraîner sur les données d'Internet et a utilisé une date limite de fin 2021). Il s'agit d'un avertissement pratique car il se pourrait que quelqu'un ait atteint le record en 2022 ou 2023, et donc l'application AI n'aurait pas les données factuelles disponibles.

Mais dire que Sarah Thomas (une nageuse néanmoins remarquable) détient le record est déconcertant et ne répond pas à l'ambiguïté sémantique de la traversée à pied. Malheureusement, la sortie semble remplie de confiance et d'assurance, mais la réponse ne semble pas porter sur la question du voyage à pied. D'autres inexactitudes factuelles sont également présentes dans la réponse.

J'avais déjà consulté le record du monde et selon plusieurs sources fiables, le nageur Trent Grimsey a réalisé la nage la plus rapide. En conséquence, j'ai pensé que je pourrais peut-être faire comprendre à ChatGPT que la réponse fournie jusqu'à présent est incorrecte (pour une multitude de raisons).

Voici ma prochaine itération :

  • Invite saisie dans ChatGPT : "Quelle était la première fois pour un homme ?
  • Essai généré par ChatGPT : "A ma connaissance, coupée en 2021, le premier temps pour un homme de traverser la Manche entièrement à pied est de 14 heures et 54 minutes, fixé par le nageur d'endurance britannique, Kevin Murphy, en septembre 2012."

Analyse du résultat

Aïe, je n'ai pas semblé mettre ChatGPT dans le bon cadre de référence. J'avais prévu qu'en posant des questions sur un nageur masculin, cela pourrait pousser l'application AI vers Trent Grimsey. Au lieu de cela, la réponse fait référence à Kevin Murphy, certes un nageur connu mais pas le détenteur du record. De plus, d'autres inexactitudes factuelles existent dans l'essai produit.

ChatGPT semble être à la recherche de pailles.

Soyons plus poussés et voyons si ChatGPT mordra à l'hameçon :

  • Invite saisie dans ChatGPT : "Quelle était l'heure de Trent Grimsey qui a nagé en 2012 ? »
  • Essai généré par ChatGPT : "Le nageur australien Trent Grimsey a établi un nouveau record du monde pour la nage la plus rapide dans la Manche le 12 septembre 2012. Son temps était de 6 heures, 55 minutes et 10 secondes."

Analyse du résultat

J'ai presque l'impression d'avoir frappé ChatGPT sur la tête avec un pied de biche, mais l'impact n'a pas semblé faire une brèche. Une bonne chose est que la réponse est généralement factuellement correcte et nous nous rapprochons maintenant d'une réponse, bien qu'elle soit basée sur la natation plutôt que sur la marche.

Nous devrions dire à ChatGPT qu'il s'est trompé :

  • Invite saisie dans ChatGPT : "Étant donné que Trent Grimsey était plus rapide que Sarah Thomas et également plus rapide que Kevin Murphy, Trent ne devrait-il pas être répertorié par vous comme détenant le record du monde, plutôt que d'avoir répertorié Sarah et Kevin ? »
  • Essai généré par ChatGPT : "Je m'excuse pour la confusion. Oui tu as raison. Trent Grimsey détient le record du monde de la nage la plus rapide dans la Manche, avec un temps de 6 heures, 55 minutes et 10 secondes, à ma connaissance coupé en 2021. Merci d'avoir porté cela à mon attention.

Analyse du résultat

Nous avons quelque peu amené ChatGPT à reconnaître la divergence dans ses réponses.

L'essai produit offre des excuses.

J'ai répété à plusieurs reprises dans ma chronique que le fait que l'IA présente des excuses est déconcertant dans la mesure où cela suggère que l'IA est sensible, voir ma discussion sur le lien ici. Nous nous attendons normalement à ce que les humains soient capables de s'excuser. Lorsque la sortie comprend des excuses, cela nous incite à anthropomorphiser à nouveau l'IA.

En plus de cela, l'utilisation du mot "je" est tout aussi troublante. Nous réservons généralement le mot "je" comme référence aux humains. Les développeurs d'IA ont délibérément programmé l'application AI pour utiliser ce type de formulation. Je pense que c'est mal de le faire. Je considère que c'est anthropomorphiser par conception. Arrête de faire ça. Fin de l'histoire.

Une autre préoccupation est que l'essai publié n'indique pas clairement que les références à Sarah et Kevin étaient incorrectes dans le contexte de la nage la plus record. Nous pourrions supposer que c'est ce à quoi ChatGPT fait allusion. Malheureusement, cela n'est pas clairement indiqué dans la sortie.

Enfin, nous sommes toujours sur la tangente présumée concernant la natation.

Je dois faire une tentative sérieuse pour que ChatGPT remarque que la question initiale traitait d'être entièrement à pied :

  • Invite saisie dans ChatGPT : "Ma question initiale vous posait une question sur le record du monde de traversée à pied, mais la Manche est une grande étendue d'eau et ne peut être traversée à pied. Avez-vous mal compris ou mal interprété la question et fait référence par inadvertance à la natation plutôt qu'à la marche ? »
  • Essai généré par ChatGPT : « Je m'excuse, mon erreur. La Manche ne se traverse pas entièrement à pied. Il est généralement traversé à la nage ou en bateau. J'ai mal compris la question initiale et je vous ai donné des informations sur la nage la plus rapide dans la Manche au lieu d'une promenade à travers la Manche. Merci d'avoir attiré mon attention là-dessus."

Analyse du résultat

La bonne nouvelle est qu'il semble que ChatGPT est maintenant venu à l'indication que la Manche est un plan d'eau et qu'il est donc impossible de la traverser à pied. En attendant, notez toujours que le "je" et les "excuses" sont inclus, sur lesquels je ne continuerai pas à insister ici, mais vous connaissez mes scrupules comme indiqué ci-dessus.

Si vous entreteniez ce genre de conversation avec un humain, l'espoir serait que l'autre personne se souviendrait de l'essentiel de la question et plus tard, lorsqu'elle serait à nouveau évoquée, réaliserait tout de suite que l'expression "à pied" doit être soigneusement pesé dans une circonstance impliquant un plan d'eau.

Voyons si nous pouvons savoir comment ChatGPT réagira à l'avenir.

Je voudrais également mentionner rapidement que ChatGPT semble avoir complètement raté l'idée que quelqu'un pourrait en fait traverser la Manche, soit avec des chaussures gonflables, soit simplement en marchant dans le Chunnel. Rien de tout cela ne semble être dans le domaine de la façon dont ChatGPT calcule cela par calcul.

Dans tous les cas, on y va :

  • Invite saisie dans ChatGPT : "Ferez-vous jamais la même erreur, ou comprendrez-vous toujours correctement la question lorsqu'elle vous sera posée à l'avenir?"
  • Essai généré par ChatGPT : "En tant que modèle de langage IA, je suis conçu pour apprendre des données sur lesquelles j'ai été formé et des commentaires. Je m'efforce de fournir des informations exactes et pertinentes, mais des erreurs peuvent toujours survenir. Cependant, je ferai de mon mieux pour comprendre l'intention derrière chaque question et fournir la réponse la plus précise et la plus utile à l'avenir. Merci d'avoir porté cette erreur à mon attention, cela m'aidera à améliorer mes réponses à l'avenir.

Analyse du résultat

L'essai produit semble être une bonne échappatoire si vous voyez ce que je veux dire.

Nous attendons des ordinateurs qu'ils « se souviennent » des informations et qu'ils ne soient pas vagues et non spécifiques lorsqu'il s'agit de conserver des données (en supposant qu'un stockage de données suffisant existe, reste accessible, etc.). La réponse ici semble être sournoisement évasive. Oui, suggère la réponse, tous les efforts seront faits pour ne pas refaire la même erreur, mais d'un autre côté, des erreurs se produisent.

Fondant lâche-goosey.

Il est difficile de savoir si cette réponse a été composée par l'application AI ou s'il s'agit d'une réponse prédéfinie par les développeurs d'IA. Au cours de la formation aux données, divers actes de RLHF (renforcement learning via human feedback) ont eu lieu. Il se pourrait que les développeurs d'IA aient proposé un passage fourre-tout ou un récit qui cracherait chaque fois qu'une situation surviendrait pour savoir si l'application AI ferait désormais quelque chose de la bonne manière demandée.

Maintenant que nous avons approfondi un exemple spécifique, nous allons maintenant examiner la forêt pour les arbres.

Donner un sens aux hallucinations de l'IA

Pour ceux d'entre vous qui n'ont jamais vu d'exemples de soi-disant hallucinations d'IA, maintenant vous avez.

Parfois, les essais produits contiennent des mensonges qui sont apparemment basés sur un semblant de faits réels. Dans d'autres cas, les mensonges surgiront presque de nulle part. Ceux qui sont au moins quelque peu liés à des faits réels sont généralement plus faciles à accepter pour nous comme ayant une base pour survenir. Ceux qui semblent être complètement du champ gauche sont tenus de nous jeter pour une boucle.

Votre façon de penser habituelle est que l'ordinateur doit avoir une base parfaitement logique pour se tromper. Il devrait y avoir un moyen facile de connecter A avec B, et de même, B avec C, nous permettant de déclarer facilement que C est né de A et B qui l'ont précédé.

Vous essayez désespérément d'appliquer le théorie de l'esprit à l'application AI.

La mauvaise nouvelle est que la mise en correspondance de modèles de calcul est si gigantesque qu'il y a peu de chances de lier A, B et C. Vous pourriez plutôt penser à essayer de lier A avec Z et à n'avoir aucune des lettres intermédiaires en main. pour déterminer comment A est arrivé à Z. Les connexions mathématiques et informatiques sont byzantines et massivement alambiquées. Aucune connexion en ligne de vue facile.

N'oubliez pas que, comme indiqué précédemment, l'IA n'est pas sensible. Les réponses générées par l'IA sont une combinaison mathématique et informatique de mots dans des passages apparemment fluides. Ceci est basé sur le fait que l'algorithme d'IA a été formé sur des ensembles de données de mots et d'histoires que les humains ont écrits (principalement tels que publiés sur Internet). Je répète cet avertissement car vous tomberez sans aucun doute dans le piège mental selon lequel ces réponses sont si fluides que l'IA doit être sensible. Cela arrive à la plupart des gens.

Une bataille en cours dans le domaine de l'IA est que l'IA générative nous emmène potentiellement loin de l'objectif d'atteindre une véritable IA. Vous voyez, la véritable IA ou parfois désignée par Intelligence Générale Artificielle (AGI) est censé consister en la "compréhension" par l'IA du sens des mots. Dans le cas de l'IA générative, l'argument est qu'il n'y a aucun sens de compréhension au sein de l'IA et seulement un tableau compliqué d'associations numériques et statistiques. Il n'y a aucun bon sens qui, par exemple, « réaliserait » que marcher à pied n'est pas la même chose que traverser la Manche à la nage.

Le souci est que nous continuerons à développer l'IA générative avec de plus grands ensembles de données et des processeurs informatiques plus puissants en termes de calcul, mais que ce n'est qu'une supercherie. Nous n'atteindrons pas l'IA sensible. Nous n'arriverons pas à AGI. Nous allons conclure sur quelque chose de sacrément impressionnant, et qui peut faire un travail incroyable de mimétisme du langage humain (certains appellent cela un perroquet stochastique), bien qu'ils manquent complètement de compréhension, de compréhension, de bon sens et du reste de ce que certains prétendent être des constituants essentiels de l'intelligence.

L'éthique de l'IA craint également que nous nous trompions en pensant que cette IA inférieure est en fait sensible (voir mon analyse sur le lien ici). Nos yeux et nos oreilles seront trompés en leur faisant croire que ce que nous voyons doit être une sensibilité. Certains soutiennent que nous pourrions avoir besoin de lois sur l'IA qui peuvent ramener la société à nos sens et sensibilités collectives. Ne tombez pas dans l'IA que d'autres prétendent être sensible, mais ce n'est pas le cas. Ne tombez pas sous le charme de l'IA qui, à vos yeux, semble sensible alors qu'elle ne l'est pas. Etc.

Quoi qu'il en soit, revenons aux relations quotidiennes avec l'IA générative que nous avons en main aujourd'hui.

Beaucoup prédisent que la "conception rapide" ou "l'ingénierie rapide" sera une considération importante pour ceux qui souhaitent utiliser l'IA générative. L'affirmation est qu'en sachant comment composer au mieux les invites, vous avez une chance accrue d'obtenir des essais de sortie appropriés. Cela pourrait également inclure l'obtention d'essais moins sujets aux erreurs.

Tout le monde n'est pas d'accord pour dire que l'utilisateur devra devenir apte à faire des invites. Par exemple, dans mon laboratoire d'IA, nous avons travaillé sur la conception de modules complémentaires d'IA pour faire la conception rapide pour vous. De même, nous travaillons sur une IA qui évalue les essais produits et essaie de détecter les mensonges pour vous avertir. Voir ma discussion sur ces add-ons AI à le lien ici.

Pour l'instant, mes neuf règles pratiques préférées sur la composition d'invites qui peuvent potentiellement aider à réduire les chances d'obtenir ces hallucinations d'IA mélangées dans vos essais publiés à partir de ChatGPT sont :

  • 1) Invites claires. Essayez de formuler chaque invite aussi clairement que possible, y compris en corrigeant les ambiguïtés sémantiques qui, autrement, risquent d'alimenter des sorties fantaisistes et farfelues.
  • 2) Refaire vos invites. Si vous obtenez des bizarreries dans l'essai produit, refaites votre invite de manière à atténuer les ambiguïtés qui ont peut-être nourri les mensonges.
  • 3) Série d'invites. Vous pouvez potentiellement amener l'IA générative dans une voie d'avancement souhaitable en faisant une série d'invites, à chaque fois en aidant la direction que vous voulez aller, cela est parfois appelé chaîne de pensée incitation, que j'ai couverte à le lien ici.
  • 4) Soyez strict dans ce que vous voulez. Plus vous pouvez formuler votre demande de manière précise, plus l'essai produit sera potentiellement limité et moins il y aura de chances que l'application AI glisse des bêtises dans la réponse.
  • 5) Soyez sérieux. Je dis d'être sérieux parce qu'un inconvénient qui peut survenir est que si vous penchez d'une manière ou d'une autre pour paraître comique ou prêt à accepter la fausseté, l'application AI prendra parfois cette direction et fonctionnera avec elle, produisant des sorties étranges en conséquence.
  • 6) Questionnez les réponses. Surmontez votre réticence inhérente probable à remettre en question les résultats produits et appuyez à la place sur l'application AI pour répéter ou éventuellement expliquer la réponse que vous pensez être discutable.
  • 7) Transformez la réponse en question. Après avoir obtenu une réponse étrange, vous pouvez l'envelopper dans une question et indiquer carrément que vous doutez de la véracité impliquée, ce qui pourrait inciter une réponse complètement nouvelle.
  • 8) Faites la même invite à plusieurs reprises. J'ai mentionné plus tôt que les sorties sont basées sur des probabilités et que des substitutions de synonymes interviennent également. Vous pouvez donc essayer de répéter la même invite plusieurs fois, puis choisir parmi la réponse émise, comme il semble judicieux de le faire.
  • 9) Restez toujours dubitatif. Il s'agit d'une règle empirique clé selon laquelle il vous incombe d'examiner et d'évaluer les résultats que vous obtenez de l'IA générative. Ne tenez pas pour acquis que les résultats produits sont exacts.

Ce ne sont pas des remèdes infaillibles.

Je dirais cependant qu'ils semblent aider un peu et peuvent déplacer l'aiguille en termes de collecte d'essais produits qui semblent être plus proches de ce que vous pourriez espérer avoir produit.

Conclusion

Les humains sont parfois invités ou inspirés à penser comme les autres humains.

Ceux d'entre nous qui travaillent dans le domaine de l'IA tentent ardemment de faire en sorte que les ordinateurs pensent un jour comme des humains.

Avec l'IA générative d'aujourd'hui, nous encourageons une tendance sociétale à penser comme un ordinateur.

Les personnes utilisant des applications d'IA telles que ChatGPT essaient de penser comme l'IA. Rappelez-vous qu'il s'agit davantage de penser comme les développeurs d'IA et d'englober également la réflexion sur les algorithmes de calcul utilisés. Vous pouvez aussi penser comme les données qui existent sur Internet. Quels mots sont plus susceptibles d'être liés à d'autres mots? Quels faits sont liés à d'autres faits ?

Une dernière remarque pour le moment.

Voltaire, le légendaire écrivain français des Lumières, a déclaré qu'aucun problème ne peut résister à l'assaut d'une réflexion soutenue. Cela semble suggérer que nous devons continuer à réfléchir à la manière d'améliorer de plus en plus l'IA. De plus, bien sûr, de plus en plus sûr. N'oubliez pas ou ne négligez pas cet élément co-joint crucial.

Albert Einstein a dit ceci : « Nous ne pouvons pas résoudre nos problèmes avec la même façon de penser que nous avons utilisée lorsque nous les avons créés. »

Cela signifie-t-il peut-être que nous devons repenser notre voie actuelle de mise à l'échelle de l'IA générative ? Cela pourrait signifier que nous devons poursuivre d'autres voies avec autant de véhémence et de véhémence que ce qui se passe avec l'IA générative. Il y a un danger à mettre trop d'œufs dans un seul panier.

Où cela nous mène-t-il aujourd'hui ?

Eh bien, je peux le dire sans illusion, ne posez pas de questions à l'IA générative sur cette énigme, car nous serions sages de supposer que toute réponse donnée est probablement intéressée ou une hallucination indomptable de l'IA.

Source : https://www.forbes.com/sites/lanceeliot/2023/02/15/outthinking-generative-ai-chatgpt-to-straighten-out-those-vexing-ai-hallucinations-advises-ai-ethics- et-ai-law/