L'IA éthique espère ambitieusement que l'IA apprendra le comportement éthique par elle-même, comme dans le cas de l'IA dans les voitures autonomes

Aristote a déclaré qu'éduquer l'esprit sans éduquer le cœur n'est pas du tout une éducation.

Vous pourriez interpréter cette remarque perspicace comme suggérant que l'apprentissage de l'éthique et du comportement moral est extrêmement vital pour l'humanité. Dans le débat classique entre nature et culture, il faut se demander quelle part de nos mœurs éthiques est instinctivement native et quelle part est apprise au cours de notre vie. Les tout-petits sont attentifs à leurs semblables et glanent vraisemblablement leurs fondements éthiques en fonction de ce qu'ils voient et entendent. On peut dire la même chose des adolescents. Pour les adultes ouverts d'esprit, eux aussi continueront à s'adapter et à progresser dans leur pensée éthique à la suite de l'expérience du monde quotidien.

Bien sûr, enseigner explicitement à quelqu'un l'éthique fait également partie du cours. Les gens sont tenus de se renseigner sur les voies éthiques en assistant à des cours sur le sujet ou peut-être en se rendant à des événements et à des pratiques qui les intéressent. Les valeurs éthiques peuvent être clairement identifiées et partagées comme un moyen d'aider les autres à formuler leur propre structure d'éthique. De plus, l'éthique peut être subtilement cachée dans des histoires ou d'autres modes d'enseignement qui, en fin de compte, véhiculent un message sur ce en quoi consiste un comportement éthique.

C'est ainsi que les humains semblent imprégner l'éthique.

Qu'en est-il de l'Intelligence Artificielle (IA) ?

Je me rends compte qu'une telle question peut sembler étrange. Nous nous attendons certainement à ce que les humains intègrent l'éthique et traversent la vie avec un semblant de code moral. C'est un fait simple et évident. D'autre part, une machine ou un ordinateur ne semble pas s'inscrire dans ce même cadre de référence. Votre réaction instinctive pourrait être qu'il est farfelu ou bizarre de considérer l'IA comme une incarnation de l'éthique et des codes moraux.

Le mieux que nous semblions pouvoir faire à propos de l'IA est de la concevoir de manière à ce qu'elle ne s'écarte pas d'un comportement éthique. Les développeurs d'IA et ceux qui utilisent l'IA doivent être tenus responsables de s'assurer que l'IA, telle qu'elle est conçue et mise en œuvre, est déjà conforme aux préceptes éthiques. En dehors de la porte, pour ainsi dire, l'IA devrait déjà être vierge et prête à fonctionner comme un artifice tout à fait éthiquement approprié.

Vous auriez certainement raison de penser que les systèmes d'IA devraient en effet être conçus pour s'inscrire déjà entièrement dans une base éthique. La société était très excitée lorsque la dernière vague de systèmes d'IA a été lancée pour la première fois et a semblé démontrer que nous étions à une ère de AI pour de bon. L'IA aiderait à résoudre bon nombre des problèmes les plus difficiles au monde. Les avancées technologiques étaient exploitées pour compléter les capacités humaines avec des installations de type cognitif, mais permettez-moi de souligner que nous n'avons pas encore d'IA sensible et nous ne savons pas si l'IA sensible sera atteinte.

Le problème de la ruée pêle-mêle pour faire entrer l'IA dans le monde a progressivement révélé le vilain ventre de l'IA connu sous le nom de AI pour le mal. Il y a eu beaucoup de gros titres sur les systèmes d'IA qui utilisent la prise de décision algorithmique (ADM) qui regorge de biais et d'iniquités. En plus de cela, une grande partie de l'IA contemporaine souffre d'un manque de transparence, a tendance à être inexplicable en termes d'explication des décisions informatiques, présente souvent un manque d'équité et a permis à certains de détourner leur responsabilité humaine en pointant du doigt l'IA.

J'ai beaucoup couvert l'IA éthique et l'éthique de l'IA dans mes écrits, y compris le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Comment peut-il y avoir AI pour le mal si nous considérons comme une construction déclarée que l'IA doit être conçue dès le début pour éviter les actions contraires à l'éthique ?

La réponse est multiple.

Premièrement, de nombreux développeurs d'IA et entreprises qui utilisent l'IA n'ont eux-mêmes aucune idée de l'importance de façonner leur IA pour qu'elle reste dans les limites éthiques. Le concept n'est pas du tout sur leur radar. L'attrait de gagner de l'argent rapidement pousse certains à aller de l'avant avec toutes les notions sauvages d'IA qu'ils souhaitent produire volontairement. Pas besoin de comprendre quoi que ce soit d'éthique. Construisez simplement l'IA et lancez-la.

Deuxièmement, il y a ceux qui fabriquent l'IA qui embellissent une prise de conscience pure et simple des ramifications éthiques, mais ils minimisent ouvertement ou ignorent quelque peu les considérations éthiques de l'IA. Une perspective commune est le mantra classique des technophiles consistant à viser à échouer rapidement et à échouer souvent. Continuez simplement à itérer jusqu'à ce que les choses soient convenablement réglées. Les chances de presser toute incorporation systématique et réfléchie de l'éthique de l'IA dans ces efforts d'IA à tir rapide sont malheureusement minces. Je discute de la nécessité d'autonomiser le leadership envers l'IA éthique à le lien ici.

Troisièmement, il y a beaucoup de flou sur les garde-fous éthiques à prendre en compte lors de la conception de l'IA. Bien sûr, il existe aujourd'hui de nombreuses directives éthiques en matière d'IA, voir ma couverture sur le lien ici, bien que ces préceptes théoriques pratiques soient difficiles à transformer nécessairement en spécificités pour un système d'IA donné en cours de construction. J'ai indiqué que nous verrons lentement l'émergence d'outils et de méthodologies de construction d'IA qui incluent des pratiques de codage éthiques de l'IA, aidant à combler l'écart entre les aspects abstraits et les facettes proverbiales du caoutchouc qui rencontre la route.

Quatrièmement, conformément à l'accent mis ici, nous explorons le cas d'IA affecté qui, même s'il est initialement composé dans des limites éthiques, puis par la suite lors de son utilisation, serpente au-delà des paramètres supposés codés sur le plan éthique.

Nous devons déballer ça.

Une grande partie de l'IA d'aujourd'hui utilise l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL). Il s'agit de techniques et de technologies d'appariement de modèles informatiques. Généralement, l'idée est que vous collectez ensemble de nombreuses données pertinentes pour tout ce que l'IA est censée être capable de faire, vous alimentez ces données dans le comparateur de modèles de calcul choisi, et la correspondance de modèles essaie mathématiquement de trouver des modèles utiles. Notez qu'il n'y a aucune sensibilité de la part de cette IA (qui, encore une fois, n'existe pas encore). Il n'y a pas non plus de raisonnement de bon sens impliqué. Ce sont tous des maths et des calculs.

Il se peut que les données introduites dans le ML/DL soient déjà imprégnées de biais et d'iniquités. Dans ce cas, il y a de fortes chances que l'appariement de modèles de calcul reproduise simplement les mêmes penchants. Si vous fournissez des données qui favorisent une race plutôt qu'une autre ou qui favorisent un sexe plutôt qu'un autre, il y a de fortes chances que la correspondance de modèle s'y accroche en tant que modèle découvert.

Un gros problème avec ce type de verrouillage est que nous pourrions avoir du mal à découvrir que les modèles sont basés sur cet aspect des données. Les mathématiques épineuses et complexes peuvent rendre la mise en évidence de ces modèles trouvés assez problématique. Même tester l'IA ne va pas nécessairement révéler ces tendances, selon la gamme et la profondeur des tests appliqués.

Supposons donc que vous ayez construit un système d'IA et que vous ayez fait vos devoirs en essayant d'abord d'éviter d'utiliser des données qui avaient des biais préexistants. Ensuite, une fois que l'apprentissage automatique et l'apprentissage en profondeur ont été entrepris, vous avez testé les résultats pour voir si des biais ou des inégalités se sont produits d'une manière ou d'une autre. Supposons que vous ne puissiez pas trouver de telles inclinations fâcheuses.

Tout compte fait, le feu vert est maintenant donné pour aller de l'avant et mettre l'IA en service. Les gens commenceront à utiliser l'IA et supposeront probablement qu'elle est éthiquement appropriée. Les développeurs le pensent aussi. C'est ce que pense l'entreprise qui met en service l'IA. Nous partons tous.

Voici ce qui peut arriver.

Un soupçon d'un biais qui n'a pas été trouvé dans les données d'origine et qui n'a pas été détecté lors des tests de l'IA est peut-être activé. Peut-être que cela n'arrive que rarement. Vous pourriez croire que tant que c'est rare, tout va bien. Je doute cependant que ceux qui sont vulnérables à ce parti pris soient disposés à voir les choses de cette façon. J'ose dire que le système d'IA et ceux qui l'ont formulé vont faire face à des répercussions, soit devant les tribunaux judiciaires, soit devant le tribunal ouvert de l'opinion sociétale.

Une autre variante est la notion proverbiale de prendre un pouce et de saisir un mile. L'idée pourrait d'abord être minuscule. Lors de l'utilisation de l'IA, l'IA aurait pu être conçue pour se modifier au fur et à mesure que les choses avancent. Ce type d'« apprentissage » ou « d'auto-apprentissage » peut être très utile. Plutôt que d'exiger que les développeurs d'IA humaine modifient et ajustent continuellement le système d'IA, l'IA est conçue pour le faire par elle-même. Pas de délais, pas de main-d'œuvre coûteuse, etc.

L'inconvénient de cet auto-ajustement pratique est que l'idée peut devenir de plus en plus grande dans le cadre de l'utilisation par l'IA. Alors que le biais aurait pu être dans un petit coin serré, il a maintenant la possibilité de se développer. L'IA n'a aucune apparence que ce soit "faux" et étend simplement par calcul quelque chose qui semble fonctionner.

Si cela fait dresser les cheveux sur votre tête, vous devrez vous asseoir pour la variante suivante.

Supposons que le biais n'existait pas dès le départ et que nous sommes convaincus que l'IA est entièrement sans biais. Soit nous avons eu de la chance, soit nous nous sommes assurés systématiquement qu'il n'y avait aucun biais dans les données et qu'aucun ne se produisait via la mise en correspondance des modèles de calcul. Malgré ce soupir de soulagement, l'IA est autorisée à s'ajuster pendant son utilisation. La porte de Pandore est ouverte et l'IA choisit de graviter par calcul vers les biais qui se trouvent pendant tout ce que fait l'IA.

Un nouveau parti pris est englouti dans l'IA, et personne n'est particulièrement conscient que cela s'est produit. Aïe, nous avons créé un monstre, un véritable Frankenstein.

Comment cette émergence peut-elle être éventuellement empêchée ou au moins signalée ?

Une approche qui gagne du terrain consiste à intégrer à l'IA une composante de glanage de l'éthique. L'IA est conçue pour inclure des éléments d'IA éthique. Ces éléments surveillent ou surveillent ensuite le reste de l'IA pendant que l'IA s'ajuste au fil du temps. Lorsque l'IA semble avoir dépassé les préceptes éthiques programmés, l'IA éthique tente d'effectuer ces ajustements ou alerte les développeurs que quelque chose ne va pas.

Vous pouvez essayer de programmer cette capacité de supervision de l'IA éthique et espérer qu'elle prévaudra pendant l'utilisation de l'IA.

Un autre angle quelque peu controversé serait d'utiliser l'apprentissage automatique et l'apprentissage en profondeur pour former les aspects de l'IA éthique dans le système d'IA.

Tu peux répéter s'il te plait?

Oui, le concept peut-être peu orthodoxe est qu'au lieu d'un programmeur humain encodant directement un ensemble de préceptes éthiques de l'IA, l'IA est conçue pour essayer de les «apprendre» à la place. Rappelez-vous que j'ai brièvement noté que l'utilisation de ML/DL repose généralement sur l'introduction de données dans les algorithmes et qu'une mise en correspondance de modèles de calcul a lieu. La question à un million de dollars est de savoir si nous pouvons utiliser le même mécanisme pour imprégner des valeurs éthiques dans un système d'IA.

Je suppose que vous pourriez comparer cela à ma discussion d'ouverture sur la façon dont les humains prennent conscience des principes éthiques, mais s'il vous plaît, n'anthropomorphisez pas l'IA d'aujourd'hui comme étant comparable à la pensée humaine (ce n'est pas le cas, et je répéterai cette exhortation sous peu). L'IA peut être programmée "de manière innée" avec des préceptes éthiques d'IA. Ou l'IA pourrait "apprendre" des préceptes éthiques d'IA. Vous pouvez faire les deux, bien sûr, ce que j'ai couvert ailleurs, voir le lien ici.

Prenez un moment pour réfléchir au concept apparemment surprenant selon lequel l'IA pourrait "apprendre" l'éthique et, par conséquent, se conformer vraisemblablement aux comportements éthiques.

Ces chercheurs utilisent un exemple de système d'IA qui calcule la température souhaitée dans une maison pour illustrer comment cela peut fonctionner : "Il a d'abord "observé" le comportement des personnes dans différents ménages pendant seulement une semaine et a tiré des conclusions sur leurs préférences. Il a ensuite utilisé un capteur de détection de mouvement pour déterminer si quelqu'un était à la maison. Lorsque la maison était vide, le thermostat intelligent est entré en mode d'économie d'énergie élevée ; lorsque les gens étaient à la maison, le thermostat ajustait la température en fonction de leurs préférences. Ce thermostat répond clairement aux deux exigences d'un bot éthique, quoique très simples. Il évalue les préférences des personnes et les impose aux commandes du système de chauffage et de climatisation. On peut se demander ce que cela a à voir avec les valeurs morales sociales. Ce thermostat permet aux personnes ayant des valeurs différentes d'avoir les réglages de température qu'elles préfèrent. Les résidents de la maison n'ont pas besoin de réinitialiser le thermostat tous les jours lors de leurs allées et venues. Ce simple bot éthique réduit également l'empreinte énergétique totale de la communauté » (selon l'article d'Amitai Etzioni et Oren Etzioni intitulé « AI Assisted Ethics » dans le volume sur Éthique et technologies de l'information).

Avant d'approfondir les méandres d'une IA qui "apprend" un comportement éthique, je voudrais dire quelque chose de plus sur le statut de l'IA.

L'IA peut être constituée de ces états possibles :

1. L'IA d'aujourd'hui non sensible

2. IA sensible de qualité humaine (nous ne l'avons pas encore)

3. Une IA sensible qui est super intelligente (un tronçon au-delà du #2)

Je vais me concentrer sur l'état existant qui est une IA ordinaire non sensible. Une grande partie de ce que vous pourriez lire sur l'IA éthique couvre parfois l'IA sensible et est donc hautement spéculative. Je dis que c'est spéculatif parce que personne ne peut mettre la queue sur l'âne de ce que sera l'IA sensible. Encore plus au-delà du domaine de l'IA sensible de qualité humaine se trouve l'IA super-intelligente tant vantée. Il y a beaucoup d'histoires de science-fiction et de scrupules sur la façon dont ces saveurs d'IA pourraient décider d'asservir l'humanité, ou peut-être simplement de nous anéantir tous. C'est ce qu'on appelle le risque existentiel de l'IA. Parfois, le dilemme est également formulé comme le risque catastrophique de l'IA.

Certains prétendent que nous pourrions être d'accord tant que nous gardons l'IA à l'ancienne IA non sensible que nous avons aujourd'hui. Supposons que nous ne pouvons pas atteindre l'IA sensible. Imaginez que peu importe à quel point nous essayons de créer une IA sensible, nous échouons à le faire. Supposons également, pour les besoins de la discussion, que l'IA sensible ne surgit pas par un mystérieux processus spontané.

Ne sommes-nous pas sûrs que cette IA de moindre calibre, qui est le seul type d'IA possible imaginé, sera utilisée ?

Pas vraiment.

À peu près, les mêmes problèmes généraux sont susceptibles de se poser. Je ne dis pas que l'IA "pense" sa façon de vouloir nous détruire. Non, l'IA non sensible ordinaire est simplement placée dans des positions de pouvoir qui nous embourbent dans l'autodestruction. Par exemple, nous mettons l'IA non sensible dans les armes de destruction massive. Ces armes autonomes ne sont pas capables de penser. Dans le même temps, les humains ne sont pas pleinement tenus au courant. En conséquence, l'IA en tant que forme d'automatisation autonome finit par provoquer par inadvertance des résultats catastrophiques, soit par une commande humaine de le faire, soit par un bogue ou une erreur, soit par un acte malveillant implanté, soit par des auto-ajustements qui font baisser les choses. mauvais chemin, etc.

Je dirais que le problème d'éthique de l'IA existe pour les trois États stipulés par l'IA, à savoir que nous avons des problèmes d'éthique avec l'IA non sensible et avec l'IA sensible qui est soit simplement au niveau humain, soit l'IA étendue qui atteint le niveau de superintelligence acclamé.

Compte tenu de cette déclaration qui donne à réfléchir, nous pouvons assurément débattre de l'ampleur et de la difficulté associées aux problèmes éthiques à chacun des niveaux respectifs de l'IA. Le point de vue habituel est que la situation difficile de l'éthique de l'IA est moins insurmontable au niveau de l'IA non sensible, plus difficile au niveau de l'IA sensible à l'humain et un véritable casse-tête au stade de l'IA sensible super-intelligente.

Plus l'IA s'améliore, plus le problème d'éthique de l'IA s'aggrave.

C'est peut-être une loi inviolable de la nature.

Pour revenir à l'accent mis sur l'IA d'aujourd'hui, essayer de faire en sorte que l'IA "apprenne" des comportements éthiques via l'apprentissage automatique et l'apprentissage en profondeur contemporains est semé d'inquiétudes et de problèmes délicats. Supposons que l'IA ne parvienne pas à glaner les préceptes éthiques souhaités ? Comment saurons-nous avec certitude qu'il a faibli en le faisant? De plus, d'autres parties d'un système d'IA pourraient-elles potentiellement remplacer les constructions éthiques glanées ? Ajoutez à cela que si l'IA s'ajuste à la volée, les ajustements pourraient atténuer les aspects éthiques ou les submerger par inadvertance.

Pour aggraver les choses, «l'apprentissage» pourrait conduire l'IA à adopter des comportements vraiment contraires à l'éthique. Alors que nous pensions que nous faisions la bonne chose en poussant l'IA vers l'éthique, il s'avère que l'IA s'est plutôt glissée dans la correspondance de modèles sur les aspects contraires à l'éthique. Parlez de tirer sur notre propre pied, cela pourrait absolument arriver.

À ce stade de cette discussion, je parierais que vous êtes désireux de quelques exemples concrets supplémentaires qui pourraient mettre en évidence comment l'IA "l'apprentissage" de l'éthique pourrait s'appliquer à l'IA d'aujourd'hui (autre que le savoureux teaser de l'exemple du thermostat).

Je suis content que vous ayez posé la question.

Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur la capacité de l'IA à « apprendre » les préceptes éthiques de l'IA, et si oui, qu'est-ce que cela montre ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles que l'IA conduit entièrement seule et qu'il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de vraie voiture autonome au niveau 5, que nous ne savons même pas encore si cela sera possible, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et inoculation éthique de l'IA

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournit une litanie suffisante de mises en garde pour sous-tendre ce que je suis sur le point de raconter.

Nous sommes maintenant prêts à plonger en profondeur dans les voitures autonomes et les possibilités de l'IA éthique, ce qui implique l'affirmation surprenante que nous pouvons faire en sorte que l'IA "apprenne" par elle-même les comportements éthiques.

Prenons un exemple simple et simple. Une voiture autonome basée sur l'IA est en cours dans les rues de votre quartier et semble conduire en toute sécurité. Au début, vous aviez accordé une attention particulière à chaque fois que vous parveniez à entrevoir la voiture autonome. Le véhicule autonome se distinguait par son rack de capteurs électroniques comprenant des caméras vidéo, des radars, des dispositifs LIDAR, etc. Après plusieurs semaines passées à parcourir votre communauté en voiture autonome, vous la remarquez à peine. En ce qui vous concerne, ce n'est qu'une voiture de plus sur les voies publiques déjà très fréquentées.

De peur que vous ne pensiez qu'il est impossible ou invraisemblable de se familiariser avec la vue de voitures autonomes, j'ai souvent écrit sur la façon dont les lieux qui sont dans le cadre des essais de voitures autonomes se sont progressivement habitués à voir les véhicules rafraîchis, voir mon analyse sur ce lien ici. De nombreux habitants sont finalement passés d'un regard bouche bée à un bâillement expansif d'ennui pour assister à ces méandres de voitures autonomes.

À l'heure actuelle, la principale raison pour laquelle ils pourraient remarquer les véhicules autonomes est probablement le facteur d'irritation et d'exaspération. Les systèmes de conduite par intelligence artificielle garantissent que les voitures respectent toutes les limites de vitesse et les règles de la route. Pour les conducteurs humains trépidants dans leurs voitures traditionnelles à conduite humaine, vous êtes parfois contrarié lorsque vous êtes coincé derrière les voitures autonomes basées sur l'IA et strictement respectueuses de la loi.

C'est quelque chose auquel nous devrions tous nous habituer, à tort ou à raison.

Revenons à notre histoire. Un jour, supposons qu'une voiture autonome dans votre ville ou votre ville roule et tombe sur une situation où un piéton attend pour traverser la route. Supposons que le piéton n'a pas le droit de passage en soi. Une voiture à conduite humaine pourrait dépasser le piéton et être tout à fait légale en le faisant. De même, le système de conduite IA est légalement en mesure de dépasser le piéton qui attend.

La décision de s'arrêter et de laisser le piéton traverser la rue est entièrement discrétionnaire pour le conducteur, qu'il soit un conducteur humain ou un système de conduite IA.

Je suis sûr que vous avez rencontré ce genre de situation un nombre incalculable de fois. Peut-être êtes-vous pressé, alors ne vous arrêtez pas pour laisser passer le piéton. À une autre occasion, vous avez tout le temps d'arriver à destination, vous choisissez donc de vous arrêter et de permettre à la personne qui attend de traverser la rue. Votre humeur et les circonstances particulières dictent ce que vous choisirez de faire.

Rien dans ce scénario ne semble inhabituel ou vexant.

Avant que j'examine le côté IA des choses, vous serez peut-être intéressé de savoir que cet aspect particulier de la discrétion permettant à un piéton de traverser une rue a été étudié de près. Les chercheurs ont identifié que parfois le choix fait par le conducteur peut dépendre apparemment de préjugés raciaux ou sexistes. Un conducteur humain pourrait évaluer le piéton qui attend et choisir de permettre à la personne de traverser comme apparemment basé sur les préjugés inhérents au conducteur. La question de savoir si le conducteur se rend même compte qu'il le fait est une question de recherche en cours. Voir ma couverture sur ce lien ici.

J'ai préparé le terrain pour notre exploration de ce qu'un système de conduite IA pourrait faire dans une situation de passage pour piétons.

La programmation conventionnelle de l'IA pourrait impliquer que les développeurs de l'IA décident de toujours arrêter le système de conduite de l'IA et de laisser le piéton traverser. Cela semblerait être la chose éthiquement appropriée ou civile à faire. La voiture autonome s'en remet à l'humain en attente qui veut traverser la rue.

J'ose dire, si vous étiez un passager à l'intérieur d'une voiture autonome et que l'IA s'arrêtait toujours pour tous les piétons en attente discrétionnaires, vous pourriez devenir fou. Votre voyage rapide à l'épicerie peut prendre beaucoup plus de temps. N'oubliez pas non plus que nous ne faisons pas référence aux piétons qui ont le droit de passage légal pour traverser, car ces cas auraient probablement déjà l'IA programmée pour toujours autoriser. Nous nous concentrons uniquement sur les circonstances discrétionnaires.

Il y a d'autres inconvénients à cette déclaration de toujours s'arrêter pour laisser les piétons discrétionnaires traverser la rue.

Ceux qui fabriquent et commercialisent des voitures autonomes basées sur l'IA veulent que les gens les utilisent. L'idée est qu'en ayant des voitures autonomes, nous pourrions réduire le nombre d'accidents de voiture annuels, qui produisent actuellement environ 40,000 2.5 décès et XNUMX millions de blessés aux États-Unis seulement, voir ma collection de statistiques sur ce lien ici. Outre cet objectif sociétal vénéré, les constructeurs automobiles et les fabricants de technologies autonomes espèrent également gagner de l'argent avec leurs créations d'IA, naturellement.

J'en parle parce que les gens pourraient décider de ne pas conduire dans des voitures autonomes si le système de conduite IA fait des choses qui inutilement finissent par retarder les voyages. Toute personne ordinaire penserait qu'en choisissant plutôt un conducteur humain, le voyage pourrait être plus rapide, et par conséquent, la sélection d'une voiture autonome à intelligence artificielle pour un voyage pourrait être placée très bas sur la liste de ses choix. Cela signifierait à son tour que nous n'aurions pas la réduction recherchée des accidents de voiture et que les fabricants trouveraient potentiellement leurs produits non rentables.

Compte tenu de cet ensemble d'arguments, vous pourriez être amené à penser que l'IA ne devrait jamais s'arrêter lorsqu'une instance discrétionnaire d'un piéton voulant traverser la rue se produit. Programmez simplement le système de conduite IA pour faire tout ce qui est strictement légal. S'il n'y a aucune obligation légale de laisser un piéton traverser, alors tant pis pour ce piéton qui attend. Peut-être que la personne devrait se rendre à un point de passage qui autorise une base légale pour que l'IA arrête la voiture autonome.

Pouvez-vous imaginer le tollé à ce sujet?

Les habitants de votre ville découvrent progressivement que les voitures autonomes IA ne permettront jamais à un piéton discrétionnaire de traverser. Cette sacrée IA irascible ! C'est comme si l'IA faisait un pied de nez aux humains. Un gamin mal élevé d'un morceau d'automatisation sans bon sens. Pour couronner le tout, imaginez qu'il existe des cas documentés de piétons qui ont désespérément besoin de traverser et que l'IA ne s'arrêterait pas du tout.

Pendant ce temps, les conducteurs humains s'arrêtaient volontairement pour laisser ces personnes « désespérées » traverser la rue en toute sécurité.

À la suite de cette indignation, les voitures autonomes IA ne sont plus les bienvenues dans les rues et les chemins de votre région. Les permis qui avaient été délivrés par les dirigeants de la ville sont révoqués. Faire sortir les brutes ingrates de nos routes est la clameur vocale.

D'accord, nous semblons être entre le marteau et l'enclume. L'IA ne doit pas toujours laisser passer le piéton discrétionnaire (ne pas toujours s'arrêter). L'IA ne doit pas toujours empêcher un piéton discrétionnaire de traverser (ne pas toujours passer devant). Ce qu'il faut faire?

La réponse évidente serait de programmer l'IA pour qu'elle agisse de manière discrétionnaire.

Je vous demande de considérer l'ADM (prise de décision algorithmique) que cela devrait comprendre. L'IA essaiera-t-elle de détecter la nature du piéton et d'utiliser les caractéristiques discernées comme base pour décider d'arrêter ou non la voiture autonome ? Peut-être que quelqu'un qui a l'air plus âgé est le moyen de choisir. Mais est-ce une discrimination fondée sur l'âge en devenir ? Etc.

Peut-être que le système de conduite AI est programmé pour s'arrêter pendant la journée et ne jamais s'arrêter pendant la nuit. La logique étant peut-être qu'il est présumé plus sûr pour les conducteurs de la voiture autonome que le véhicule autonome s'arrête le jour mais pas aux heures les plus sombres du soir.

Cela semble peut-être sensé. Une partie du problème sera les attentes des piétons. Voici ce que je veux dire. Les piétons voient les voitures autonomes IA s'arrêter pour des passages à niveau discrétionnaires, qui se produisent à la lumière du jour. Les piétons ne savent pas sur quels critères l'IA décide de s'arrêter. L'hypothèse de certains piétons est que l'IA s'arrêtera toujours (ne réalisant pas que la lumière du jour par rapport à la nuit est le véritable déterminant). En conséquence, les piétons qui croient que la voiture autonome s'arrêtera toujours vont tenter leur chance et commencer à traverser lorsque le système de conduite IA ne vise pas du tout à s'arrêter (ce qui, l'IA s'arrêterait probablement si le piéton entre dans la rue, bien que cela puisse être risqué et que la physique puisse empêcher l'IA d'arrêter la voiture autonome pendant un temps insuffisant pour éviter de heurter le piéton apparemment "errant").

Supposons que les développeurs d'IA et les entreprises qui assemblent et mettent en service les voitures autonomes dans votre ville ne savent pas comment mettre l'IA à jour sur cette question.

Ils décident de "former" l'IA sur les données collectées dans l'ensemble de la région. Il s'avère qu'il existe de nombreuses caméras montées en ville qui ont capturé les allées et venues des voitures dans tout le canton. Ces données présentent de nombreux cas de piétons cherchant à traverser la rue de manière discrétionnaire. Toutes les données sont introduites dans un système d'apprentissage automatique et d'apprentissage en profondeur pour dériver ce qui est considéré comme habituel dans cette juridiction.

Sommes-nous en train de former l'IA à faire ce que les mœurs éthiques locales doivent faire ?

En d'autres termes, si une ville donnée avait une culture locale plus encline à s'arrêter et à laisser les piétons discrétionnaires traverser, comme en témoignent les actions des conducteurs humains, le ML/DL reprendrait potentiellement ce modèle. L'IA serait alors entraînée à faire de même. À l'autre extrême, si les conducteurs humains s'arrêtent rarement, l'IA tirerait potentiellement cette "leçon" de l'analyse informatique des données. L'IA fera comme les humains, en quelque sorte.

L'affirmation est que les comportements éthiques des humains sont capturés dans les données et que l'IA va imprégner ces mêmes préceptes éthiques par l'analyse informatique. Un éthicien décrirait généralement cela comme une approche communautaire de l'éthique. Les valeurs partagées de la communauté se reflètent dans les efforts de la communauté dans son ensemble.

Cela peut sembler être une solution dandy.

Malheureusement, les pièges sont nombreux.

Un problème peut-être évident est que les conducteurs humains pourraient déjà exercer une certaine forme de préjugés en choisissant de s'arrêter ou de ne pas s'arrêter (comme mentionné précédemment). L'IA sera alors une copie de ces biais. Voulons-nous que ce soit le cas?

Considérez un autre problème. Supposons que les conducteurs humains n'acceptent pas facilement le fonctionnement des voitures autonomes IA. Juste parce que les conducteurs humains étaient, disons, disposés à s'arrêter, cela pourrait ne pas être également présumé pour les voitures autonomes. Il se peut que les conducteurs humains soient irrités par les voitures autonomes IA qui continuent de s'arrêter pour les piétons discrétionnaires, même si la même chose se produit entre les mains des conducteurs humains, mais cela ne semble pas déranger les conducteurs humains.

En plus d'être dérangeant, vous pouvez également évoquer la possibilité que des conducteurs humains arrêtent par inadvertance des voitures autonomes. Si un conducteur humain ne s'attendait pas à ce que la voiture autonome s'arrête pour un piéton, et si la voiture conduite par l'homme se trouve directement derrière la voiture autonome, une grave inadéquation des attentes peut survenir. Le système de conduite AI arrête la voiture autonome. Le conducteur humain n'a pas anticipé cette action. Le conducteur humain percute la voiture autonome. Des blessures et peut-être des décès s'ensuivent.

J'ai délibérément souligné les risques de dommages humains.

Le piéton traversant la rue peut sembler d'un coup d'œil comme une question triviale. Il semblerait que personne ne puisse être blessé par la méthode choisie par l'IA pour s'arrêter ou ne pas s'arrêter. Tort! Il y a un risque que le piéton se fasse écraser. Il y a une chance qu'une voiture à conduite humaine percute la voiture autonome. Le conducteur et les passagers de la voiture à conduite humaine peuvent être blessés. Les passagers à l'intérieur de la voiture autonome peuvent être blessés. Des permutations supplémentaires de dommages humains possibles sont facilement envisagées.

Conclusion

En parlant de mal humain, je vais vous donner quelque chose d'autre pour vous faire réfléchir sur cette énigme de l'IA éthique.

Un reportage a rapporté qu'un homme conduisait une voiture dans une intersection et avait le feu vert pour le faire. Une autre voiture conduite par un humain a choisi de griller le feu rouge de l'intersection et s'est illégalement et dangereusement rendue sans entrave à l'intersection, menaçant de heurter la voiture qui procédait légalement.

Le conducteur a déclaré aux journalistes qu'il devait choisir entre prendre le coup ou virer sa voiture pour, espérons-le, éviter d'être heurté, mais il y avait des piétons à proximité et l'action de virer pourrait mettre ces personnes en danger. Qu'est-ce que tu ferais? Vous pouvez choisir d'être heurté par cette voiture imminente et peut-être vivre pour raconter l'histoire. Ou vous pouvez essayer d'éviter d'être touché mais en attendant, vous pouvez éventuellement renverser des piétons innocents.

Une grande partie de notre conduite quotidienne comporte ce genre de décisions éthiquement énormes et instantanées à prendre. J'en ai longuement discuté, tout en reliant ces décisions de vie ou de mort au célèbre ou certains disent tristement célèbre problème du chariot, voir mon élaboration sur le lien ici.

Remplacez le conducteur humain dans ce scénario par un système de conduite IA.

Que voulez-vous que l'IA fasse ?

C'est une question déroutante.

Une approche consiste à programmer l'IA pour qu'elle effectue de manière stridente une action de conduite purement droite, donc même sans considérer par calcul d'autres options telles que s'éloigner de l'accident probable. Je prévois que les conducteurs de voitures autonomes seront contrariés d'apprendre que l'IA n'a pas été conçue pour faire autre chose que de prendre le coup. Vous pouvez vous attendre à des poursuites et à un tollé.

Une autre approche serait d'essayer de programmer l'IA pour considérer les différentes possibilités. Mais qui peut établir l'ADM qui décide de la direction que prendrait le système de conduite IA ? Il semblerait que permettre aux développeurs d'IA de prendre eux-mêmes des décisions aussi importantes suscite de nombreuses inquiétudes.

Vous pouvez essayer de laisser l'IA "apprendre" à partir des données de conduite humaines collectées par les situations de circulation quotidiennes. Cela s'apparente au dilemme des passages pour piétons et à l'idée suggérée précédemment d'utiliser des données assemblées pour que l'IA glane quelles que soient les mœurs éthiques locales. Il y a beaucoup de mises en garde à ce sujet, par exemple si les modèles découverts ML/DL sont appropriés ou non, etc.

J'avais également prévenu qu'il y a une chance que l'IA glane un comportement peut-être contraire à l'éthique, selon les mœurs éthiques impliquées. Par exemple, supposons que l'IA ait atterri d'une manière ou d'une autre sur un modèle de calcul pour toujours viser les piétons chaque fois qu'une autre voiture menaçait de heurter la voiture autonome.

Whoa, attention aux piétons, vous allez être des cibles toutes faites.

Il est temps de clore la discussion pour le moment et de le faire avec une dernière pensée encourageante.

Vous savez peut-être qu'Isaac Asimov a proposé ses "Trois lois de la robotique" en 1950 et nous sommes toujours à ce jour amoureux de ces règles proclamées. Bien que les règles semblent être facilement respectables, par exemple qu'un système d'IA ou un robot ne doit pas nuire à un humain et ni permettre à un humain de se blesser, il existe de nombreuses nuances cruciales qui rendent cela complexe et parfois intenable, voir mon analyse à le lien ici.

Dans tous les cas, voici une autre chose pour laquelle Asimov est également connu, quoique dans une moindre mesure : "Ne laissez jamais votre sens de la morale vous empêcher de faire ce qui est juste."

Pour l'IA éthique que nous espérons tous concevoir, nous devons garder à l'esprit que l'éthique de l'IA imprégnée pourrait ne pas être ce que nous avions prévu et que d'une manière ou d'une autre, l'IA devra toujours faire ce qui est juste. Asimov l'a bien dit. Longtemps auparavant, Aristote semblait avoir des sentiments tout à fait similaires.

Source : https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- le-cas-avec-l-ai-dans-les-voitures-autonomes/