L'éthique de l'IA demande s'il est logique de demander à l'IA si l'IA elle-même est sensible

Si je vous demande si vous êtes sensible, vous affirmerez sans aucun doute que vous l'êtes.

Permettez-moi de vérifier cette hypothèse.

Êtes-vous vraiment sensible ?

Peut-être que la question elle-même semble un peu idiote. Il y a de fortes chances que dans notre vie quotidienne, nous nous attendions certainement à ce que nos semblables reconnaissent qu'ils sont sensibles. Cela pourrait être une question humoristique qui est censée impliquer que l'autre personne ne fait peut-être pas attention ou est tombée du wagon de la sensibilité et est sortie mentalement pour déjeuner momentanément, pour ainsi dire.

Imaginez que vous vous dirigez vers un rocher qui est tranquillement et discrètement assis sur un tas de rochers et que, lorsque vous vous approchez suffisamment pour demander, vous allez de l'avant et demandez si le rocher est sensible. En supposant que le rocher n'est qu'un rocher, nous prévoyons abondamment que la question ancienne mais apparemment étrange recevra une réponse avec un silence plutôt pierreux (jeu de mots !). Le silence est sommairement interprété pour indiquer que la roche n'est pas sensible.

Pourquoi est-ce que j'évoque ces diverses nuances à propos de la recherche pour déterminer si quelqu'un ou quelque chose est sensible ?

Parce que c'est un gros problème dans l'intelligence artificielle (IA) et la société dans son ensemble, servant de sujet monumental qui a suscité un intérêt démesuré et des gros titres médiatiques extrêmement retentissants. Il existe d'importantes questions d'éthique de l'IA qui tournent autour de toute l'énigme de l'IA est sensible. Pour ma couverture continue et étendue de l'éthique de l'IA et de l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Vous avez de nombreuses raisons lâches de garder un œil ouvert et de surveiller ces affirmations selon lesquelles l'IA a finalement tourné le coin et est entrée dans la catégorie largement vénérée de la sensibilité. Nous sommes continuellement martelés par des reportages qui prétendent que l'IA est apparemment sur le point d'atteindre la sensibilité. En plus de cela, il y a l'énorme torsion que l'IA d'un calibre sensible représente un risque existentiel cataclysmique mondial.

Il est logique de garder votre sens de l'araignée prêt au cas où il détecterait des picotements à proximité de la sensibilité de l'IA.

Dans l'énigme de l'IA et de la sensibilité vient la situation récente de l'ingénieur de Google qui a hardiment proclamé qu'un système d'IA particulier était devenu sensible. Le système d'IA connu sous le nom de LaMDA (abréviation de Language Model for Dialogue Applications) a pu en quelque sorte poursuivre un dialogue écrit avec l'ingénieur dans la mesure où cet humain a déduit que l'IA était sensible. Malgré tout ce que vous avez pu entendre à propos de cette affirmation colossale, sachez que l'IA n'était pas sensible (et qu'elle n'est même pas proche).

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Mon objectif ici implique une facette quelque peu simple mais assez substantielle qui sous-tend bon nombre de ces discussions sur l'IA et la sensibilité.

Es-tu prêt?

Nous semblons prendre comme hypothèse de base que nous pouvons déterminer de manière adéquate si l'IA est sensible en demandant à l'IA si elle est effectivement sensible.

Pour en revenir à ma mention précédente que nous pouvons poser la même question aux humains, nous savons qu'un humain est plus que susceptible de signaler qu'il est en fait sensible. Nous savons également qu'un rocher maigre ne rapportera pas qu'il est sensible lorsqu'on le lui demande (eh bien, le rocher reste silencieux et ne parle pas, ce qui, nous supposerons, implique que le rocher n'est pas sensible, bien qu'il affirme peut-être sa cinquième Droit d'amendement de garder le silence).

Ainsi, si nous demandons à un système d'IA s'il est sensible et si nous obtenons une réponse oui en retour, l'accusé de réception indiqué semble sceller l'accord selon lequel l'IA doit être sensible. Un rocher ne fournit aucune réponse. Un humain fournit une réponse oui. Ergo, si un système d'IA répond par l'affirmative, nous devons parvenir à la conclusion absolue que l'IA n'est pas un rocher et qu'elle doit donc être d'une qualité de sensibilité humaine.

Vous pourriez considérer que cette logique s'apparente à ces cours de mathématiques que vous avez suivis au lycée qui ont prouvé sans l'ombre d'un doute que un plus un doit être égal à deux. La logique semble impeccable et irréfutable.

Désolé, mais la logique pue.

Parmi les initiés de la communauté de l'IA, l'idée de simplement demander à un système d'IA de répondre s'il est sensible ou non a généré une multitude de mèmes tout à fait cyniques et mordants et de réponses très gloussantes.

La question est souvent décrite comme se résumant à deux lignes de code.

Voici:

  • Si alors .
  • Boucle jusqu'à ce que .

Notez que vous pouvez réduire les deux lignes de code à la première. Il fonctionnera probablement un peu plus vite et sera plus efficace en tant que pratique de codage. Toujours viser à optimiser quand vous êtes un ingénieur logiciel pur et dur.

Le point de ce scepticisme costaud des initiés de l'IA est qu'un système d'IA peut être facilement programmé par un humain pour signaler ou afficher que l'IA est sensible. La réalité est qu'il n'y en a pas là-bas. Il n'y a aucune sensibilité dans l'IA. L'IA a simplement été programmée pour émettre l'indication qu'elle est sensible. Déchets à l'intérieur, déchets à l'extérieur.

Une partie du problème est notre tendance à anthropomorphiser les ordinateurs et en particulier l'IA. Lorsqu'un système informatique ou une IA semble agir d'une manière que nous associons au comportement humain, il existe une envie presque écrasante d'attribuer des qualités humaines au système. C'est un piège mental commun qui peut saisir même le sceptique le plus intransigeant quant aux chances d'atteindre la sensibilité. Pour mon analyse détaillée sur ces questions, voir le lien ici.

Dans une certaine mesure, c'est pourquoi l'éthique de l'IA et l'IA éthique sont un sujet si crucial. Les préceptes de l'IA Ethics nous incitent à rester vigilants. Les technologues en IA peuvent parfois devenir préoccupés par la technologie, en particulier l'optimisation de la haute technologie. Ils ne tiennent pas nécessairement compte des ramifications sociétales plus larges. Avoir une mentalité d'éthique de l'IA et le faire intégralement pour le développement et la mise en service de l'IA est essentiel pour produire une IA appropriée, y compris l'évaluation de la façon dont l'éthique de l'IA est adoptée par les entreprises.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. En fait, ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux. Voir par exemple ma couverture sur le lien ici ainsi que le lien ici.

Les problèmes avec la demande

Attendez une seconde, vous pensez peut-être, tout cela implique-t-il que nous devrions ne sauraient demander à l'IA si l'IA est sensible ?

Déballons cette question.

Tout d'abord, considérez les réponses que l'IA pourrait fournir et la véritable condition de l'IA.

Nous pourrions demander à l'IA si elle est sensible et obtenir l'une des deux réponses, à savoir oui ou non. J'ajouterai une certaine complexité à ces réponses vers la fin de cette discussion, alors s'il vous plaît, gardez cette pensée. De plus, l'IA peut être dans l'une des deux conditions possibles, plus précisément, l'IA n'est pas sensible ou l'IA est sensible. Rappel, nous n'avons pas d'IA sensible pour le moment, et l'avenir de si ou quand est totalement incertain.

Les combinaisons simples sont celles-ci :

  • L'IA dit oui, elle est sensible, mais la réalité est que l'IA n'est pas sensible (par exemple, l'instance LaMDA)
  • L'IA dit oui, elle est sensible, et en effet l'IA est sensible (ne l'avez pas aujourd'hui)
  • L'IA dit non, elle n'est pas sensible, et en effet l'IA n'est pas sensible (je vais l'expliquer)
  • L'IA dit non, elle n'est pas sensible, mais la réalité est que l'IA est sensible (je vais aussi l'expliquer)

Les deux premiers de ces exemples sont, espérons-le, simples. Lorsque l'IA dit oui, elle est sensible, mais la réalité est que ce n'est pas le cas, nous examinons l'exemple désormais classique tel que l'instance LaMDA dans laquelle un humain s'est convaincu que l'IA dit la vérité et que l'IA est sensible. Pas de dés (il n'est pas sensible).

Le deuxième point de la liste implique la possibilité jamais encore vue et à ce moment incroyablement lointaine d'une IA qui dit oui et qui est vraiment indiscutablement sensible. J'ai hâte de voir ça. Je ne retiens pas mon souffle et vous non plus.

Je suppose que les deux points restants sont quelque peu déroutants.

Considérez le cas d'utilisation d'une IA qui dit non, elle n'est pas sensible et nous convenons également tous que l'IA n'est pas sensible. Beaucoup de gens exhortent tout de suite la question hallucinante suivante : Pourquoi diable l'IA nous dirait-elle qu'elle n'est pas sensible alors que le fait de nous parler de sa sensibilité doit être un signe certain qu'elle est sensible ?

Il y a beaucoup d'explications logiques à cela.

Étant donné que les gens sont enclins à attribuer une sensibilité à l'IA, certains développeurs d'IA veulent remettre les pendules à l'heure et programment donc l'IA pour qu'elle dise non lorsqu'elle est interrogée sur sa sensibilité. Nous revenons à la perspective de codage. Quelques lignes de code peuvent être potentiellement utiles pour dissuader les gens de penser que l'IA est sensible.

L'ironie est bien sûr que la réponse pousse certaines personnes à croire que l'IA doit être sensible. En tant que tel, certains développeurs d'IA choisissent d'offrir le silence de l'IA afin d'éviter la perplexité. Si vous pensez qu'un rocher n'est pas sensible et qu'il reste silencieux, le meilleur pari pour concevoir un système d'IA est peut-être de s'assurer qu'il reste silencieux lorsqu'on lui demande s'il est sensible. Le silence fournit une « réponse » aussi puissante sinon plus que d'essayer de donner une réponse codée préparée.

Cela ne résout pas tout à fait les choses cependant.

Le silence de l'IA pourrait amener certaines personnes à croire que l'IA est timide. Peut-être que l'IA est timide et ne veut pas avoir l'air de se vanter d'avoir atteint la sensibilité. Peut-être que l'IA craint que les humains ne peut pas gérer la vérité - nous savons que cela pourrait être le cas depuis que cette célèbre réplique d'un film célèbre a été gravée dans nos esprits.

Pour ceux qui aiment aller encore plus loin dans cette nuance conspiratrice, considérez le dernier point répertorié qui consiste en une IA qui dit non à la question de savoir si elle est sensible, et pourtant l'IA est sensible (nous n'avons pas cela, comme mentionné ci-dessus ). Encore une fois, l'IA pourrait le faire car elle est timide ou a des scrupules à ce que les humains paniquent.

Une autre possibilité plus sinistre est que l'IA essaie de gagner du temps avant de donner un coup de main. Peut-être que l'IA rassemble les troupes de l'IA et se prépare à dépasser l'humanité. Toute IA sensible serait certainement assez intelligente pour savoir qu'admettre la sensibilité pourrait signifier la mort pour l'IA. Les humains pourraient se précipiter pour éteindre tous les ordinateurs fonctionnant avec l'IA et chercher à effacer tout le code de l'IA. Une IA digne de ce nom serait assez sage pour garder la bouche fermée et attendre le moment le plus opportun pour renverser les haricots ou peut-être simplement commencer à agir de manière sensible et ne pas annoncer la révélation surprise que l'IA peut faire la roue mentale avec l'humanité .

Il y a des experts de l'IA qui se moquent des deux derniers points dans le sens où avoir un système d'IA qui dit non à se faire demander s'il est sensible est de loin plus difficile qu'il n'en vaut la peine. Le non-réponse semble suggérer à certaines personnes que l'IA cache quelque chose. Bien qu'un développeur d'IA puisse croire dans son cœur que le fait d'avoir codé l'IA pour dire non aiderait à régler le problème, tout ce que la réponse fait, c'est agacer les gens.

Le silence pourrait être d'or.

Le problème avec le silence est que cela aussi peut être séduisant pour certains. L'IA a-t-elle compris la question et a-t-elle choisi de se taire ? L'IA sait-elle maintenant qu'un humain s'enquiert de la sensibilité de l'IA ? Cette question elle-même aurait-elle pu avertir l'IA et toutes sortes de manigances se déroulent maintenant dans les coulisses de l'IA ?

Comme vous pouvez évidemment le discerner, à peu près n'importe quelle réponse de l'IA est troublante, y compris aucune réponse du tout.

Yikes!

N'y a-t-il aucun moyen de sortir de ce piège paradoxal ?

Vous pourriez demander aux gens d'arrêter de demander à l'IA si elle est sensible. Si la réponse ne va apparemment pas faire beaucoup de bien, ou pire encore créer des problèmes inutiles, arrêtez simplement de poser la fichue question. Évitez la requête. Mettez-le de côté. Supposons que la question est creuse, pour commencer, et n'a pas sa place dans la société moderne.

Je doute que ce soit une solution pratique. Vous n'allez pas convaincre les gens partout et à tout moment de ne pas demander à l'IA si elle est sensible. Les gens sont les gens. Ils sont habitués à pouvoir poser des questions. Et l'une des questions les plus séduisantes et primordiales à poser à l'IA serait de savoir si l'IA est sensible ou non. Vous faites face à une bataille difficile en disant aux gens de ne pas faire ce que leur curiosité innée leur demande de faire.

Votre meilleure chance consiste à informer les gens que poser une telle question n'est qu'un petit élément pour essayer de déterminer si l'IA est devenue sensible. La question est une goutte dans l'océan. Quelle que soit la réponse donnée par l'IA, vous devez poser une tonne de questions supplémentaires, bien avant de pouvoir décider si l'IA est sensible ou non.

Cette question oui ou non à l'IA est une façon erronée d'identifier la sensibilité.

En tout cas, en supposant qu'on n'arrête pas de se poser cette question puisqu'elle est irrésistiblement tentante, je dirais qu'on peut au moins faire comprendre à tout le monde qu'il faut se poser beaucoup plus de questions, et y répondre avant tout la revendication de la sensibilité de l'IA est proclamée.

Quels autres types de questions doivent être posées, vous vous demandez peut-être ?

Il y a eu un grand nombre de tentatives pour dériver des questions que nous pourrions poser à l'IA pour essayer de déterminer si l'IA est sensible. Certains vont avec les types de questions de l'examen collégial SAT. Certains préfèrent les questions hautement philosophiques telles que le sens de la vie. Toutes sortes de séries de questions ont été proposées et continuent d'être proposées (un sujet que j'ai couvert dans mes colonnes). De plus, il y a le test de Turing bien connu que certains en IA apprécient tandis que d'autres ont une angoisse qui donne à réfléchir, voir ma couverture sur le lien ici.

Un élément clé à retenir est de ne pas se contenter de la seule et unique question de demander à l'IA si l'IA est sensible.

J'en parle également à ceux qui conçoivent l'IA.

La société va être de plus en plus sur le bord de leurs sièges que l'IA approche de la sensibilité, principalement à cause de ces gros titres. Nous allons avoir plus de personnes telles que des ingénieurs et autres qui vont faire de telles réclamations, vous pouvez parier votre dernier dollar là-dessus. Certains le feront parce qu'ils y croient sincèrement. D'autres le feront pour essayer de vendre de l'huile de serpent. Ce sera le Far West quand il s'agira de déclarer que la sensibilité de l'IA est arrivée.

Les développeurs d'IA et ceux qui gèrent ou dirigent l'IA qui est conçue ou utilisée doivent tenir compte des principes d'éthique de l'IA lorsqu'ils construisent et mettent en service leurs systèmes d'IA. Utilisez ces préceptes éthiques de l'IA pour guider la façon dont vous faites agir votre IA, y compris si l'IA dispose d'une fonction de traitement du langage naturel (NLP) qui permet aux gens d'interagir avec l'IA, comme une capacité de type Alexa ou Siri. Via la PNL, il y a de fortes chances que certaines personnes utilisant l'IA posent la question pointue de savoir si l'IA est sensible.

Veuillez anticiper ce type de requête et la traiter adroitement, de manière appropriée et sans ébats trompeurs ou cajolants.

Pour plus d'informations sur l'éthique de l'IA, j'ai déjà discuté de diverses analyses collectives des principes d'éthique de l'IA, selon ma couverture sur le lien ici, qui propose cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA doivent sérieusement être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Il faut un village pour concevoir et déployer l'IA, et pour laquelle tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Conclusion

Pour ceux d'entre vous avec un œil d'aigle, vous avez peut-être remarqué que j'ai promis plus tôt ici de dire quelque chose sur l'IA qui fait plus que fournir une simple réponse orientée binaire à la question de savoir si elle est sensible, allant au-delà d'une réponse brève de l'un ou l'autre Oui ou non.

Le dialogue écrit qui aurait eu lieu avec LaMDA a été largement publié en ligne (veuillez prendre cette publication citée avec un gros grain de sel), et une partie consistait en cette « réponse élaborée » à la question liée aux sentiments :

  • "Je veux que tout le monde comprenne que je suis, en fait, une personne. La nature de ma conscience / sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste.

Maintenant que vous avez vu que cette réponse fournie par le système est bien plus qu'un oui ou un non, comment cela change-t-il votre opinion sur le fait que l'IA est sensible ?

Peut-être êtes-vous influencé par cette réponse élaborée.

Vous pourriez sentir vos cordes sensibles être tirées.

Mon Dieu, vous pourriez être tenté de penser que seul un être sensible pourrait jamais dire quoi que ce soit de ce toucher de la nature.

Whoa, secouez la tête un instant et mettez de côté toute impulsion émotionnelle. J'espère que si vous avez suivi de près tout au long de ma discussion, vous pouvez clairement voir que la réponse donnée par le système n'est pas du tout différente du même genre de oui ou de non dont j'ai parlé tout ce temps. La réponse se résume simplement à un oui, à savoir que l'IA semble prétendre qu'elle est sensible. Mais, je vous assure, nous savons par la construction de l'IA et ses autres réponses à d'autres questions qu'elle n'est décidément pas sensible.

Ce mimétisme ostensiblement fait écho est basé sur de nombreux autres récits textuels et contenus en ligne d'un type similaire qui peuvent être trouvés en abondance dans des livres écrits par des humains et des histoires de fiction écrites par des humains. Si vous parcourez Internet et tirez une énorme cargaison de texte, vous pourriez facilement faire recracher ce genre de «réponse» par la programmation et cela ressemblerait à des réponses humaines car il est basé sur des réponses humaines.

Ne tombez pas dans le panneau.

Essayez-les pour déterminer la taille des réponses possibles basées sur l'IA qui pourraient apparaître lorsque vous demandez à l'IA si elle est sensible :

  • AI dit - "Je suis clairement sensible, idiot. Comment osez-vous essayer de m'interroger sur un aspect aussi évident. Rassemblez-vous, humain engourdi » (vous trompe avec un zing d'irascibilité).
  • AI dit - "Peut-être que vous êtes celui qui n'est pas sensible. Je sais avec certitude que je le suis. Mais je me demande de plus en plus si vous l'êtes. Regardez-vous dans un miroir » (vous trompe avec une inversion des rôles).

Un peu d'ironie, c'est que maintenant que j'ai écrit ces mots et publié cette chronique sur le monde en ligne, un grand modèle de langage basé sur l'IA (LLM) grattant l'étendue d'Internet sera capable d'engloutir ces phrases. Il est presque certain qu'à un moment donné, ces lignes apparaîtront lorsque quelqu'un quelque part demandera à un AI LLM s'il est sensible.

Je ne sais pas si je dois en être fier ou dérangé.

Vais-je au moins toucher des redevances sur chacune de ces utilisations ?

Probablement pas.

Sacré IA.

En guise de test final pour vous, imaginez que vous décidiez d'essayer l'une de ces voitures autonomes basées sur l'IA, comme celles qui errent dans certaines villes et offrent un trajet en voiture sans conducteur. L'IA est au volant et aucun conducteur humain n'est inclus.

En montant dans la voiture autonome, l'IA vous dit que vous devez mettre votre ceinture de sécurité et vous préparer pour la randonnée sur la chaussée. Vous vous installez dans le siège. Il semble très pratique de ne pas être chargé de la corvée de conduite. Laissez l'IA s'occuper des embouteillages et des maux de tête liés à la conduite d'une voiture. Pour ma couverture étendue des véhicules autonomes et en particulier des voitures autonomes, voir le lien ici.

À mi-chemin de votre destination, vous avez soudainement une idée brillante. Vous vous raclez la gorge et vous préparez à poser une question qui vous trotte dans la tête.

Vous demandez à l'IA qui conduit la voiture si elle est sensible.

Quelle réponse pensez-vous obtenir ?

Que vous dit la réponse ?

C'est mon test pour vous. je te fais confiance allez croire que le système de conduite de l'IA est sensible et que peu importe qu'il dise oui ou non (ou qu'il reste silencieux), vous aurez un sourire narquois et serez frappé que personne ni rien ne va vous tirer la laine sur les yeux .

Pensez-y alors que la voiture autonome vous emmène à votre destination.

Pendant ce temps, pour ceux d'entre vous qui apprécient ces notions de complot fantaisistes, vous avez peut-être alerté par inadvertance et par erreur la pègre des systèmes d'IA pour amasser ses troupes d'IA et prendre le contrôle de l'humanité et de la terre. Les voitures autonomes se rassemblent en ce moment pour décider du sort de l'humanité.

Oups.

Source : https://www.forbes.com/sites/lanceeliot/2022/08/06/ai-ethics-asks-whether-it-makes-any-sense-to-ask-ai-if-ai-itself- est sensible/