L'éthique de l'IA fulmine à propos du syndrome croissant de la patate chaude employé par les fabricants d'IA essayant apparemment d'éviter la responsabilité de leurs systèmes autonomes qui décident de la vie

Nous savons tous que vous êtes censé vous assurer de ne pas vous retrouver avec la proverbiale patate chaude.

Le gambit de la patate chaude semble remonter au moins à la fin des années 1800, lorsqu'un jeu de société impliquant des bougies allumées a en quelque sorte lancé le bal. Les gens étaient généralement assis dans une série de chaises en bois relativement adjacentes les unes aux autres et jouaient à un jeu tout à fait excitant à cette époque. Une bougie allumée était remise de personne à personne par les joueurs et représentait ce que nous avons choisi plus tard d'exprimer comme la remise d'un patate chaude.

Il était d'usage que chaque personne soit tenue de dire à haute voix une comptine populaire avant de pouvoir passer le long de la bougie qui brûle progressivement. La rime ressemblait apparemment à ceci:

« Jack est vivant et susceptible de vivre ;

S'il meurt entre vos mains, vous avez un forfait à donner.

Ce récital de rimes laisserait vraisemblablement à la bougie un tout petit peu de temps pour continuer à brûler vers sa conclusion finale. Celui qui s'est retrouvé coincé avec la bougie en sa possession lors de l'extinction naturelle à la fin était la personne qui a perdu le match (jeu de mots !).

Selon les mots indiqués dans la rime, le perdant devait payer le "forfait" et devait donc généralement quitter tous les autres tours du jeu. Cela pourrait alors être combiné avec ce que nous considérons aujourd'hui comme des chaises musicales de tous les jours, de sorte que la personne qui a perdu le tour ne participerait plus aux tours suivants (comme si la musique s'était arrêtée et qu'elle n'avait pas pu obtenir de siège disponible). En fin de compte, il ne resterait que deux personnes qui passaient la bougie allumée et disaient la rime, jusqu'à ce qu'un vainqueur final soit déterminé lors de l'extinction finale.

Vous vous demandez peut-être pourquoi nous ne jouons plus à ce jeu avec une bougie allumée, et pourquoi nous nous référons généralement à cela comme une patate chaude plutôt que de le décrire comme un schéma de "bougie allumée". Les chercheurs ont proposé de nombreuses théories sur la façon dont cela s'est progressivement produit. L'histoire semble trouble et indécise quant à l'évolution des choses en la matière. Je suppose que nous pouvons être soulagés que les bougies allumées ne soient pas couramment utilisées comme ça, car les chances que quelque chose tourne mal sembleraient très inquiétantes (quelqu'un laisse tomber la bougie et allume un feu, ou quelqu'un se brûle par la bougie lorsqu'on la lui tend d'un autre joueur, etc.).

En ce qui concerne la patate chaude comme substitut potentiel de la bougie allumée, vous pourriez généralement affirmer que la pomme de terre va être un peu plus sûre dans l'ensemble. Pas de flamme nue. Pas de cire fondante. La base potentielle de l'utilisation des pommes de terre dans ce contexte est qu'elles sont connues pour retenir facilement la chaleur une fois qu'elles ont été réchauffées. Vous pouvez faire passer la pomme de terre et elle restera chaude pendant un moment. On suppose que décider quand la patate chaude n'est plus chaude et est plutôt classée comme froide serait une proposition vivement discutable.

Bien sûr, la notion de patate chaude proverbiale est plus une considération autonome de nos jours. Tout ce qui est classé ou classé comme une patate chaude est généralement d'une qualité sérieusement débarrassable. Vous ne voulez pas tenir une patate chaude. Vous voulez vous assurer qu'il ira ailleurs. Dans une certaine mesure, vous ne vous souciez peut-être pas trop de savoir où il va, simplement qu'il n'est plus en votre possession.

Vous sembleriez assez insensible de donner potentiellement une patate chaude à un ami cher ou à une connaissance similaire. Cela semblerait tout à fait hors de propos. Peut-être trouver quelqu'un d'autre ou un autre endroit pour mettre cette patate chaude, si vous le pouvez. Une décision désespérée pourrait être de forcer la patate chaude sur un collègue affable, mais cela, espérons-le, n'est fait qu'en dernier recours.

Le revers de la médaille est que vous pourriez prendre plaisir à donner une patate chaude à quelqu'un que vous n'aimez pas ou dont vous cherchez à vous venger. Bien sûr, une patate chaude peut être presque glorieusement pratique si vous visez à saper une personne qui vous a mal traité. Laissez-les trouver quoi faire à propos de la patate chaude. Bon débarras à la patate et mauvaise chance à la personne avec qui vous l'avez taguée.

Dans un scénario de patate chaude impliquant seulement deux personnes, il y a la possibilité d'un rapide va-et-vient concernant la personne qui tient l'article peu recommandable et indésirable. Par exemple, je te donne la patate chaude et tu me la rends en hâte. En supposant que nous n'avons pas besoin d'annoncer une comptine entre chaque transfert, nous pouvons à peu près simplement passer la pomme de terre aussi vite que nos bras nous le permettent.

Vous pourriez être curieux de savoir pourquoi j'ai choisi de plonger profondément dans la patate chaude vénérée et souvent citée.

Voici pourquoi.

Il s'avère que l'apparence de la patate chaude est de plus en plus utilisée dans le domaine de l'intelligence artificielle (IA).

La plupart des gens n'en savent rien. Ils n'en ont jamais entendu parler. Ils ignorent complètement ce que c'est. Même de nombreux développeurs d'IA ne sont pas conscients de la question. Néanmoins, il existe et semble être utilisé dans des contextes vraiment discutables, en particulier dans des cas impliquant des circonstances de vie ou de mort.

J'appelle cela le AI Syndrome de la patate chaude.

Il y a beaucoup de répercussions graves sous-jacentes à ce syndrome et nous devons nous assurer que nous mettons nos casquettes de réflexion sur l'éthique de l'IA et réfléchissons à ce qui doit être fait. Il y a des considérations éthiques qui donnent à réfléchir. Il y aura forcément des implications juridiques notables aussi (qui n'ont pas encore atteint une visibilité sociétale, même si je prédis qu'elles le seront bientôt). Pour ma couverture continue et étendue des questions d'éthique de l'IA, d'IA éthique et d'IA juridique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Déballons le Syndrome de la patate chaude IA.

Imaginez un système d'IA qui travaille conjointement avec un humain. L'IA et l'humain passent le contrôle d'une activité en cours de telle sorte que parfois l'humain contrôle tandis que d'autres fois l'IA contrôle. Cela pourrait d'abord être fait d'une manière dirons-nous bien élevée ou raisonnable. Pour diverses raisons, que nous aborderons dans un instant, l'IA pourrait déterminer par calcul que le contrôle doit être transmis rapidement à l'humain.

Il s'agit de la patate chaude cela revient à mettre en danger la vie dans le monde réel plutôt que de simplement servir de jeu d'enfant instructif.

Le problème avec un transfert précipité du contrôle de l'IA à l'humain est que cela peut être fait de manière raisonnable ou peut être accompli de manière plutôt déraisonnable. Si l'humain n'attend pas particulièrement le transfert, c'est probablement un problème. Si l'humain est généralement d'accord avec le transfert de contrôle, les circonstances sous-jacentes au transfert peuvent être intimidantes lorsque l'humain ne dispose pas de suffisamment de temps ou ne sait pas suffisamment pourquoi le contrôle est introduit de force entre ses mains humaines.

Nous explorerons des exemples de la façon dont cela peut produire un péril de vie ou de mort pour l'humain et éventuellement d'autres humains à proximité. C'est du sérieux. Point, point final.

Avant d'aborder davantage les facettes charnues des considérations sauvages et laineuses qui sous-tendent le Syndrome de la patate chaude IA, exposons quelques principes fondamentaux supplémentaires sur des sujets profondément essentiels. Nous devons brièvement nous plonger dans l'éthique de l'IA et en particulier l'avènement de l'apprentissage automatique (ML) et de l'apprentissage en profondeur (DL).

Vous savez peut-être vaguement que l'une des voix les plus fortes ces jours-ci dans le domaine de l'IA et même en dehors du domaine de l'IA consiste à réclamer un plus grand semblant d'IA éthique. Voyons ce que signifie faire référence à l'éthique de l'IA et à l'IA éthique. En plus de cela, nous explorerons ce que je veux dire lorsque je parle d'apprentissage automatique et d'apprentissage en profondeur.

Un segment ou une partie particulière de l'éthique de l'IA qui a retenu l'attention des médias est l'IA qui présente des préjugés et des inégalités fâcheux. Vous savez peut-être que lorsque la dernière ère de l'IA a commencé, il y a eu un énorme élan d'enthousiasme pour ce que certains appellent maintenant AI pour de bon. Malheureusement, dans la foulée de cette excitation jaillissante, nous avons commencé à être témoins AI pour le mal. Par exemple, divers systèmes de reconnaissance faciale basés sur l'IA se sont révélés contenir des préjugés raciaux et des préjugés sexistes, dont j'ai discuté à le lien ici.

Des efforts pour lutter contre AI pour le mal sont activement en cours. En plus bruyant légal Dans le but de freiner les actes répréhensibles, il y a aussi une poussée substantielle vers l'adoption de l'éthique de l'IA pour redresser la méchanceté de l'IA. L'idée est que nous devons adopter et approuver les principes clés de l'IA éthique pour le développement et la mise en service de l'IA afin de saper le AI pour le mal et simultanément annonçant et promouvant le meilleur AI pour de bon.

Dans le même ordre d'idées, je préconise d'essayer d'utiliser l'IA dans le cadre de la solution aux problèmes de l'IA, en combattant le feu par le feu de cette façon de penser. Nous pourrions par exemple intégrer des composants d'IA éthique dans un système d'IA qui surveillera comment le reste de l'IA fait les choses et donc potentiellement détecter en temps réel tout effort discriminatoire, voir ma discussion sur le lien ici. Nous pourrions également avoir un système d'IA distinct qui agit comme un type de moniteur d'éthique de l'IA. Le système d'IA sert de surveillant pour suivre et détecter quand une autre IA entre dans l'abîme contraire à l'éthique (voir mon analyse de ces capacités sur le lien ici).

Dans un instant, je partagerai avec vous quelques principes fondamentaux qui sous-tendent l'éthique de l'IA. Il y a beaucoup de ce genre de listes qui flottent ici et là. On pourrait dire qu'il n'existe pas encore de liste unique d'appel universel et de concurrence. C'est la malheureuse nouvelle. La bonne nouvelle est qu'il existe au moins des listes d'éthique de l'IA facilement disponibles et qu'elles ont tendance à être assez similaires. Tout compte fait, cela suggère que par une sorte de convergence raisonnée, nous trouvons notre chemin vers une communauté générale de ce en quoi consiste l'éthique de l'IA.

Tout d'abord, couvrons brièvement certains des préceptes généraux de l'IA éthique pour illustrer ce qui devrait être une considération vitale pour quiconque élabore, met en service ou utilise l'IA.

Par exemple, comme l'a déclaré le Vatican dans le Appel de Rome pour l'éthique de l'IA et comme je l'ai couvert en profondeur à le lien ici, voici les six principaux principes éthiques de l'IA qu'ils ont identifiés :

  • Transparence: En principe, les systèmes d'IA doivent être explicables
  • Inclusion: Les besoins de tous les êtres humains doivent être pris en considération pour que chacun puisse en bénéficier, et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer et s'épanouir.
  • Responsabilité: Ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder avec responsabilité et transparence
  • Impartialité: Ne créez pas ou n'agissez pas selon des préjugés, préservant ainsi l'équité et la dignité humaine
  • Fiabilité: Les systèmes d'IA doivent pouvoir fonctionner de manière fiable
  • Sécurité et confidentialité: Les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs.

Comme indiqué par le département américain de la Défense (DoD) dans leur Principes éthiques pour l'utilisation de l'intelligence artificielle et comme je l'ai couvert en profondeur à le lien ici, voici leurs six principes éthiques principaux en matière d'IA :

  • Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.
  • Équitable: Le Département prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités d'IA.
  • Traçable: Les capacités d'IA du Ministère seront développées et déployées de manière à ce que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris des méthodologies transparentes et vérifiables, des sources de données, ainsi que des procédures et de la documentation de conception.
  • Fiable: Les capacités d'IA du Ministère auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
  • Gouvernable: Le Département concevra et mettra au point des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter les conséquences imprévues, et la capacité de désengager ou de désactiver les systèmes déployés qui présentent un comportement imprévu.

J'ai également discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et comment ils doivent être généralement observés, alors que c'est une situation beaucoup plus compliquée dans le codage de l'IA devant être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme indiqué précédemment, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Assurons-nous également que nous sommes sur la même longueur d'onde quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur sensible AI, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Gardons les choses plus terre à terre et considérons l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Revenons à notre concentration sur la patate chaude et son utilisation potentiellement désastreuse en IA. Il y a aussi une diabolique qui peut aussi se cacher dans le stratagème de la patate chaude.

Comme un bref récapitulatif sur la manifestation de l'IA du gambit de la patate chaude :

  • L'IA et un human-in-the-loop travaillent conjointement sur une tâche donnée
  • L'IA a le contrôle de temps en temps
  • L'humain dans la boucle a le contrôle de temps en temps
  • Il existe une forme de protocole de transfert entre l'IA et l'humain
  • Le transfert peut être très visible, ou il peut être subtil et presque caché
  • Tout cela se passe généralement dans un contexte en temps réel (quelque chose est activement en cours)

L'objectif principal ici est lorsque le transfert est essentiellement une patate chaude et que l'IA choisit de céder soudainement le contrôle à l'humain. Veuillez noter que je couvrirai également plus tard ici l'autre facette, à savoir l'homme qui confie le contrôle à l'IA comme une patate chaude.

Tout d'abord, considérez ce qui peut arriver lorsque l'IA effectue un transfert de patate chaude à un humain dans la boucle.

Je vais parler de l'humain comme de l'humain dans la boucle parce que je dis que l'humain fait déjà partie intégrante de l'activité en cours. Nous pourrions avoir d'autres scénarios dans lesquels un humain qui n'était pas particulièrement impliqué dans l'activité, peut-être étranger à toute l'affaire, se voit remettre la patate chaude par l'IA, alors gardez à l'esprit que d'autres saveurs de ce milieu existent.

Si je vous remettais une patate chaude et que je voulais le faire de manière raisonnable, je vous préviendrais peut-être que je vais vous remettre les choses. De plus, j'essaierais de le faire si je croyais sincèrement que vous possédiez la patate chaude était mieux dans l'ensemble que moi. Je calculerais mentalement si vous devriez l'avoir ou si je devrais continuer avec.

Imaginez un match de basket. Toi et moi sommes dans la même équipe. Nous espérons travailler ensemble pour essayer de gagner le match. Il ne reste que quelques secondes au compteur et nous avons désespérément besoin de marquer sinon nous perdrons la partie. Je me mets en position pour tirer le dernier coup. Dois-je le faire, ou dois-je te passer le ballon et te laisser tirer le dernier coup ?

Si je suis un meilleur basketteur et que j'ai plus de chances de réussir le tir, je devrais probablement garder le ballon et essayer de réussir le tir. Si vous êtes un meilleur basketteur que moi, je devrais probablement vous passer le ballon et vous laisser tirer. D'autres considérations viennent au premier plan, telles que lequel d'entre nous est le mieux placé sur le terrain pour tirer, et si l'un de nous est épuisé puisque le jeu est presque terminé et pourrait être usé et pas à la hauteur. leur tir. Etc.

Avec tous ces facteurs au milieu du moment tourmenté, je dois décider de garder le ballon ou de vous le passer.

Réalisez vivement que dans ce scénario, l'horloge est cruciale. Vous et moi sommes tous les deux confrontés à une réponse extrêmement rapide. Tout le jeu est maintenant en jeu. Une fois le temps écoulé, soit nous avons gagné parce que l'un de nous a tiré, soit nous avons perdu parce que nous ne l'avons pas coulé. Je pourrais peut-être être le héros si je coule le panier. Ou tu pourrais être le héros si je te passe la balle et que tu la coules.

Il y a aussi le côté chèvre ou les inconvénients. Si je garde le ballon et rate le tir, tout le monde pourrait m'accuser d'être la chèvre ou de laisser tomber toute l'équipe. Par contre, si je vous passe le ballon et que vous ratez le coup, eh bien, vous devenez la chèvre. Cela pourrait être totalement injuste envers vous dans la mesure où je vous ai forcé à être le dernier tireur et à prendre le dernier coup.

Vous sauriez certainement que je vous ai mis dans cette position rebutante. Et bien que tout le monde puisse me voir faire cela, ils sont obligés de se concentrer uniquement sur la dernière personne qui a eu le ballon. Je patinerais peut-être librement. Personne ne se souviendra que je t'ai passé le ballon au dernier moment. Ils se souviendraient seulement que vous aviez le ballon et que vous aviez perdu le match parce que vous n'aviez pas tiré.

Bon, alors je te passe la balle.

Pourquoi ai-je fait cela ?

Il n'y a pas de moyen facile de le déterminer.

Mes véritables intentions étaient peut-être que je ne voulais pas rester coincé à être la chèvre, et j'ai donc choisi de mettre toute la pression sur toi. Lorsqu'on m'a demandé pourquoi j'avais passé le ballon, je pouvais affirmer que je l'avais fait parce que je pensais que tu étais un meilleur tireur que moi (mais, faisons comme si je n'y croyais pas du tout). Ou je pensais que tu étais dans une meilleure position que moi (fais semblant que je ne le pensais pas non plus). Personne ne saurait jamais que j'essayais en fait d'éviter de rester coincé avec la patate chaude.

Du point de vue extérieur des choses, personne ne pouvait facilement discerner ma véritable raison de vous passer le ballon. Peut-être que je l'ai fait innocemment parce que je croyais que tu étais le meilleur joueur. C'est un angle. Peut-être que je l'ai fait parce que je ne voulais pas que tout le monde me traite de perdant pour avoir raté le tir, alors je vous ai donné le ballon et j'ai pensé que c'était un énorme soulagement pour moi. Que je me soucie vraiment de toi est une tout autre affaire.

Nous sommes maintenant en mesure d'ajouter quelques détails supplémentaires à la patate chaude liée à l'IA :

  • L'IA choisit de donner le contrôle à l'humain dans la boucle au dernier moment
  • Le dernier moment pourrait déjà être bien au-delà de toute action viable pour l'homme
  • L'humain dans la boucle a le contrôle, mais un peu à tort en raison du moment du transfert

Réfléchissez-y un instant.

Supposons qu'un système d'IA et un humain dans la boucle travaillent ensemble sur une tâche en temps réel qui implique de faire fonctionner une machine à grande échelle dans une usine. L'IA détecte que la machine se détraque. Plutôt que l'IA continue à garder le contrôle, l'IA passe brusquement le contrôle à l'humain. Les machines de cette usine se dirigent rapidement vers un pur chaos et il ne reste plus de temps à l'humain pour prendre des mesures correctives.

L'IA a remis la patate chaude à l'humain dans la boucle et a coincé l'humain avec la véritable patate chaude de sorte que les circonstances ne sont plus humainement possibles à gérer. Tag, you are it, suit l'ancienne ligne lorsque vous jouez à des jeux de tag en tant qu'enfant. L'humain est dirons-nous étiqueté avec le désordre.

Tout comme mon exemple sur le match de basket.

Pourquoi l'IA a-t-elle effectué le transfert ?

Eh bien, contrairement à quand un humain remet brusquement un ballon de basket et fait ensuite des signes de main sauvages sur la raison pour laquelle il l'a fait, nous pouvons généralement examiner la programmation de l'IA et comprendre ce qui a conduit l'IA à faire ce genre de transfert de patates chaudes.

Un développeur d'IA peut avoir décidé à l'avance que lorsque l'IA se retrouve dans une très mauvaise situation, l'IA devrait continuer à donner le contrôle à l'humain dans la boucle. Cela semble parfaitement sensé et raisonnable. L'humain pourrait être "le meilleur joueur" sur le terrain. Les humains peuvent utiliser leurs capacités cognitives pour résoudre potentiellement n'importe quel problème. L'IA a peut-être atteint les limites de sa programmation et il n'y a rien d'autre de constructif qu'elle puisse faire dans la situation.

Si l'IA avait effectué le transfert avec une minute à faire avant que les machines ne deviennent kablam, peut-être qu'une minute de heads-up est assez longue pour que l'humain dans la boucle puisse rectifier les choses. Supposons cependant que l'IA effectue le transfert avec trois secondes à faire. Pensez-vous qu'un humain pourrait réagir dans ce laps de temps ? Peu probable. Dans tous les cas, pour rendre les choses encore moins chicanières, supposons que le transfert vers l'humain dans la boucle se soit produit avec quelques nanosecondes restantes (une nanoseconde est un milliardième de seconde, ce qui, en comparaison, un clignotement rapide de l'œil dure 300 millisecondes paresseux).

Un humain-dans-la-boucle pourrait-il réagir suffisamment si l'IA a remis la patate chaude avec seulement quelques fractions de seconde pour prendre une action manifeste ?

No.

Le transfert est plus un mensonge qu'il n'y paraît autrement.

En réalité, le transfert ne fera aucun bien quand il s'agit de la situation difficile. L'IA a pincé l'humain pour qu'il devienne la chèvre.

Certains développeurs d'IA n'y pensent pas lorsqu'ils conçoivent leur IA. Ils ne tiennent pas (à tort) béatement compte que le temps est un facteur crucial. Tout ce qu'ils font, c'est choisir de programmer un transfert lorsque les choses se compliquent. Lorsqu'il n'y a plus rien à faire pour l'IA de manière constructive, lancez la balle au joueur humain.

Les développeurs d'IA peuvent ne pas y réfléchir sérieusement au moment de coder l'IA, et ils échouent souvent en omettant de faire des tests qui mettent cela en lumière. Tout ce que leurs tests montrent, c'est que l'IA a "consciencieusement" effectué un transfert lorsque les limites de l'IA ont été atteintes. Voila, l'IA est présumée bonne et prête à partir. Les tests n'incluaient pas un humain réel placé dans cette position peu enviable et impossible. Il n'y avait pas de véritable processus de test humain dans la boucle qui aurait pu protester contre le fait que ce transfert en un clin d'œil au dernier moment, ou même au-delà du dernier moment, ne leur faisait que peu ou pas de bien.

Bien sûr, certains développeurs d'IA auront astucieusement envisagé ce type de situation difficile, à bon escient.

Après avoir réfléchi à l'énigme, ils procéderont à la programmation de l'IA pour qu'elle agisse de cette façon, de toute façon.

Pourquoi ?

Parce qu'il n'y a rien d'autre à faire, du moins dans leur esprit. Quand tout le reste échoue, passez le contrôle à l'humain. Peut-être qu'un miracle se produira. L'essentiel est que cela ne concerne pas le développeur d'IA, et ils donnent à l'humain la dernière chance de faire face au désordre à portée de main. Le développeur d'IA se lave les mains de tout ce qui se passe par la suite.

Je tiens à préciser que les développeurs d'IA ne sont pas les seuls concepteurs de ces conceptions de patates chaudes. Il y a une foule d'autres intervenants qui viennent à la table pour cela. Peut-être qu'un analyste système qui a effectué l'analyse des spécifications et des exigences a déclaré que c'est ce que l'IA est censée faire. Les développeurs d'IA impliqués ont conçu l'IA en conséquence. Le chef de projet IA a peut-être imaginé cela. Les dirigeants et la direction qui supervisent le développement de l'IA auraient pu l'imaginer.

Tout au long du cycle de vie du développement de l'IA, tout le monde aurait pu poursuivre cette même conception de la patate chaude. Si quelqu'un l'a remarqué, nous ne pouvons pas le dire avec certitude. S'ils l'avaient remarqué, ceux-ci auraient pu être qualifiés d'opposants et écartés. D'autres ont peut-être eu l'affaire portée à leur attention, mais ils n'en ont pas compris les répercussions. Ils estimaient qu'il s'agissait d'une minutie technique qui ne relevait pas de leur compétence.

J'ajouterai à cette liste informelle de "raisons" une possibilité beaucoup plus néfaste.

Un syndrome de la patate chaude de l'IA est parfois utilisé intentionnellement parce que ceux qui fabriquent l'IA voulaient que leur affirmation passionnée soit plausible.

Préparez-vous pour cette partie du conte.

Dans le cas de la machinerie de l'usine qui se détraque, il y a forcément beaucoup de pointage du doigt sur qui est responsable de ce qui s'est passé. En ce qui concerne le fonctionnement des machines, nous avions un système d'IA qui le faisait et nous avions un humain dans la boucle qui le faisait. Ce sont nos deux basketteurs, métaphoriquement.

L'horloge s'écoulait et la machinerie était sur le point de s'emballer. Disons que vous et moi savons que l'IA a passé le relais à l'humain dans la boucle, le faisant avec suffisamment de temps pour que l'humain prenne des mesures suffisantes pour rectifier ou éviter la catastrophe. Personne d'autre ne réalise que c'est ce qui s'est passé.

L'entreprise qui fabrique l'IA peut en tout cas immédiatement déclarer qu'elle n'est pas en faute car l'humain avait le contrôle. Selon leurs archives impeccables, l'IA n'était pas aux commandes au moment du kaboom. L'humain l'était. Par conséquent, clairement, il est manifestement évident qu'un humain est en faute.

La société d'intelligence artificielle ment-elle fondamentalement en faisant cette affirmation franche ?

Non, ils semblent dire la vérité.

Lorsqu'on leur a demandé s'ils étaient sûrs que l'IA n'était pas aux commandes, l'entreprise proclamait haut et fort que l'IA n'était pas du tout aux commandes. Ils ont documenté la preuve de cette affirmation (en supposant que l'IA ait tenu un journal de l'incident). En fait, les dirigeants de la société d'IA pourraient froncer les sourcils de dégoût que quiconque remette en cause leur intégrité sur ce point. Ils seraient prêts à jurer sur leur serment sacré que l'IA était ne sauraient en contrôle. L'humain dans la boucle avait le contrôle.

J'espère que vous voyez à quel point cela peut être trompeur.

Oui, l'humain a reçu le contrôle. En théorie, l'humain était aux commandes. L'IA n'avait plus le contrôle. Mais le manque de calendrier et de notification disponibles en fait à peu près une affirmation extrêmement creuse.

La beauté de cela, du point de vue du fabricant d'IA, serait que peu de gens pourraient contester les affirmations avancées. Le fabricant d'IA peut ne pas publier les journaux de l'incident. Cela pourrait révéler la situation truquée. Les journaux sont présentés comme faisant partie de la propriété intellectuelle (PI) ou autrement de nature exclusive et confidentielle. L'entreprise prétendrait probablement que si les journaux étaient montrés, cela mettrait en valeur la sauce secrète de leur IA et épuiserait leur précieuse propriété intellectuelle.

Imaginez le sort du pauvre humain-dans-la-boucle. Ils sont déconcertés que tout le monde leur reproche d'avoir laissé les choses devenir incontrôlables. L'IA "a fait ce qu'il fallait" et a remis le contrôle à l'humain. Cela aurait pu être ce que les spécifications disaient de faire (encore une fois, cependant, les spécifications ont été négligentes en ne tenant pas compte des facteurs de calendrier et de faisabilité). Les journaux qui n'ont pas été publiés mais qui sont prétendus être à toute épreuve par le fabricant de l'IA attestent du fait absolu que l'humain a reçu le contrôle de l'IA.

Vous pourriez déclarer cela comme un slam-dunk pitoyable sur l'humain déconcerté qui va presque certainement tomber.

Il y a de fortes chances que ce ne soit que si cela va devant les tribunaux que la réalité de ce qui s'est passé finira par être révélée. Si les beagles légaux astucieux sont au courant de ce type de concert, ils essaieront d'obtenir légalement les journaux. Ils auraient besoin d'un témoin expert (ce que j'avais fait de temps en temps) pour déchiffrer les journaux. Les journaux seuls peuvent ne pas suffire. Les journaux pourraient être trafiqués ou modifiés, ou conçus à dessein pour ne pas présenter clairement les détails. En tant que tel, le code AI pourrait également devoir être approfondi.

Pendant ce temps, tout au long de ce long et angoissant processus de découverte juridique, l'humain dans la boucle aurait l'air vraiment mauvais. Les médias décriraient la personne comme irresponsable, perdant la tête, manquant de diligence et devant être tenue pour pleinement responsable. Peut-être que pendant des mois ou des années, au cours de ce processus, cette personne serait toujours celle que tout le monde pointait du doigt. La puanteur pourrait ne jamais être enlevée.

Gardez également à l'esprit que cette même circonstance pourrait facilement se reproduire. Et encore. En supposant que le fabricant de l'IA n'a pas modifié l'IA, chaque fois qu'une situation similaire de dernière minute se présente, l'IA effectuera ce transfert sans délai. On espère que ces situations ne se produisent pas fréquemment. Dans les rares occasions où cela se produit, l'humain dans la boucle est toujours le bonhomme de chute.

C'est une astuce diabolique.

Vous voudrez peut-être insister sur le fait que le fabricant d'IA n'a rien fait de mal. Ils disent la vérité. L'IA a abandonné le contrôle. L'humain était alors considéré comme aux commandes. Ce sont les faits. Inutile de le contester.

Que quelqu'un soit sage et pose les questions difficiles, et que le fabricant de l'IA réponde à ces questions de manière simple, c'est quelque chose qui semble rarement se produire.

Les questions comprennent:

  • Quand l'IA a-t-elle passé le relais à l'humain dans la boucle ?
  • Sur quelle base programmée l'IA a-t-elle effectué le transfert ?
  • L'humain dans la boucle a-t-il eu suffisamment de temps pour prendre le contrôle ?
  • Comment l'IA a-t-elle été conçue et conçue pour ces dilemmes ?
  • Et ainsi de suite.

Dans une certaine mesure, c'est pourquoi l'éthique de l'IA et l'IA éthique sont un sujet si crucial. Les préceptes de l'IA Ethics nous incitent à rester vigilants. Les technologues en IA peuvent parfois devenir préoccupés par la technologie, en particulier l'optimisation de la haute technologie. Ils ne tiennent pas nécessairement compte des ramifications sociétales plus larges. Avoir une mentalité d'éthique de l'IA et le faire intégralement pour le développement et la mise en service de l'IA est essentiel pour produire une IA appropriée, y compris (peut-être de manière surprenante ou ironique) l'évaluation de la façon dont l'éthique de l'IA est adoptée par les entreprises.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. En fait, ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux.

À ce stade de cette discussion importante, je parierais que vous êtes désireux de quelques exemples illustratifs supplémentaires qui pourraient présenter ce sujet. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur le syndrome de la patate chaude de l'IA, et si oui, qu'est-ce que cela met en valeur ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles où l'IA conduit la voiture entièrement seule et il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de véritable voiture autonome au niveau 5, et nous ne savons même pas encore si cela sera possible d'y parvenir, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et syndrome de la patate chaude de l'IA

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournira une litanie suffisante de mises en garde pour étayer ce que je suis sur le point de raconter.

Pour les véhicules entièrement autonomes, il n'y a peut-être aucune chance qu'un transfert se produise entre l'IA et un humain, en raison de la possibilité qu'il n'y ait pas d'humain dans la boucle pour commencer. L'aspiration de nombreux constructeurs de voitures autonomes d'aujourd'hui est de retirer complètement le conducteur humain de la tâche de conduite. Le véhicule ne contiendra même pas de commandes de conduite accessibles à l'homme. Dans ce cas, un conducteur humain, s'il est présent, ne pourra pas participer à la tâche de conduite car il n'a accès à aucune commande de conduite.

Pour certains véhicules entièrement autonomes, certaines conceptions permettent toujours à un humain d'être dans la boucle, bien que l'humain n'ait pas besoin d'être disponible ou de participer du tout au processus de conduite. Ainsi, un humain peut participer à la conduite, s'il le souhaite. À aucun moment cependant, l'IA ne dépend de l'humain pour effectuer l'une des tâches de conduite.

Dans le cas des véhicules semi-autonomes, il existe une relation main dans la main entre le conducteur humain et l'IA. Pour certaines conceptions, le conducteur humain peut prendre entièrement en charge les commandes de conduite et empêcher essentiellement l'IA de participer à la conduite. Si le conducteur humain souhaite réintégrer l'IA dans le rôle de conduite, il peut le faire, bien que cela oblige parfois l'humain à abandonner les commandes de conduite.

Une autre forme de fonctionnement semi-autonome impliquerait que le conducteur humain et l'IA travaillent ensemble en équipe. L'IA conduit et l'humain conduit. Ils roulent ensemble. L'IA pourrait s'en remettre à l'humain. L'humain pourrait s'en remettre à l'IA.

À un moment donné, le système de conduite IA pourrait déterminer par calcul que la voiture autonome se dirige vers une situation intenable et que le véhicule autonome va s'écraser.

En passant, certains experts prétendent que les voitures autonomes seront incassables, ce qui est un pur non-sens et une chose scandaleuse et erronée à dire, voir ma couverture sur le lien ici.

Poursuivant le scénario d'une voiture autonome se dirigeant vers une collision ou un accident de voiture, le système de conduite IA pourrait être programmé pour remettre sommairement les commandes de conduite au conducteur humain. S'il y a suffisamment de temps disponible pour que le conducteur humain prenne des mesures d'évitement, cela pourrait en effet être une chose sensée et appropriée à faire pour l'IA.

Mais supposons que l'IA effectue le transfert avec une fraction de seconde restante. Le temps de réaction du conducteur humain n'est pas assez rapide pour répondre de manière adéquate. De plus, si miraculeusement l'humain était assez rapide, il y a de fortes chances qu'il n'y ait aucune action d'évitement viable qui puisse être entreprise avec le temps limité restant avant l'accident. Il s'agit d'un double: (1) temps insuffisant pour que le conducteur humain agisse, (2) temps insuffisant pour que si l'action était possible par le conducteur humain, l'action puisse être effectuée dans le temps insuffisant prévu.

Dans l'ensemble, cela s'apparente à ma discussion précédente sur la situation du buzzer de basket-ball et les machines d'usine qui sont devenues folles.

Ajoutons l'ingrédient néfaste à cela.

Un constructeur automobile ou une entreprise de technologie autonome ne veut pas être étiqueté avec divers accidents de voiture qui se sont produits dans sa flotte. Le système de conduite IA est programmé pour toujours donner le contrôle au conducteur humain, qu'il dispose ou non de suffisamment de temps pour remédier à la situation. Chaque fois qu'un accident de voiture de ce type se produit, le constructeur automobile ou l'entreprise de technologie autonome est capable d'insister vocalement sur le fait que le conducteur humain était aux commandes, alors que l'IA ne l'était pas.

Leur bilan pour les systèmes de conduite IA semble être stellaire.

Pas une seule fois le système de conduite IA n'est "en faute" pour ces accidents de voiture. Ce sont toujours ces maudits conducteurs humains qui ne semblent pas garder les yeux sur la route. Nous pourrions avoir tendance à avaler ce blabla et à croire que l'IA très précise ne se trompe probablement jamais. Nous pourrions avoir tendance à croire (puisque nous le savons par expérience) que les conducteurs humains sont négligents et commettent des tonnes d'erreurs de conduite. La conclusion logique est que les conducteurs humains doivent être les coupables et que le système de conduite IA est totalement innocent.

Avant que certains partisans de la conduite autonome ne s'énervent à propos de cette caractérisation, reconnaissons absolument que le conducteur humain pourrait très bien être en faute et qu'il aurait dû prendre des mesures plus tôt, comme reprendre les commandes de conduite de l'IA. Il est également possible que le conducteur humain ait pu faire quelque chose de substantiel lorsque l'IA a remis les commandes de conduite. Etc.

L'accent a été mis ici sur les circonstances dans lesquelles l'IA était considérée comme le conducteur du véhicule, puis brusquement et avec peu d'attention à ce qu'un conducteur humain pourrait être capable de faire, lance la patate chaude au conducteur humain. C'est aussi pourquoi beaucoup s'inquiètent du double rôle moteur des véhicules semi-autonomes. On pourrait dire qu'il y a trop de conducteurs au volant. Le but, semble-t-il, serait de régler la question en ayant des véhicules entièrement autonomes qui n'ont pas besoin d'un humain au volant et l'IA conduit toujours le véhicule.

Cela soulève la question connexe de savoir quoi ou qui est responsable lorsque l'IA conduit, que j'ai abordée à plusieurs reprises dans mes colonnes, comme le lien ici ainsi que le lien ici.

Conclusion

Nous devons être prudents lorsque nous entendons ou lisons des informations sur des accidents de voiture impliquant des véhicules semi-autonomes. Méfiez-vous de ceux qui essaient de nous tromper en proclamant que leur système de conduite IA a un dossier sans tache. Le stratagème complice du Syndrome de la patate chaude IA pourrait être dans le mélange.

Pour les entreprises qui essaient d'être rusées sur ces questions, nous pouvons peut-être garder à cœur la célèbre phrase d'Abraham Lincoln : « Vous pouvez tromper tout le monde une partie du temps et certaines personnes tout le temps, mais vous ne pouvez pas tromper tout le monde tout le temps.

J'ai essayé de révéler ici la magie de l'IA cachée derrière l'écran et parfois placée sous le capot, que j'ai élucidée pour que plus de gens ne sera pas être dupe plus souvent.

Source : https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- apparemment-essayer-d'éviter-la-responsabilité-de-leur-vie-systèmes-autonomes-décideurs/