L'éthique de l'IA aux prises avec l'inévitable accident d'IA, qui menace également les voitures autonomes

Connaissez-vous par hasard quelqu'un qui semble être particulièrement sujet aux accidents ?

On dirait que nous le faisons tous.

Peut-être que la personne est de ce type qui est susceptible de glisser sur une peau de banane ou de renverser un vase précieux dans votre salon. Ils sont un aimant humain pour les accidents d'un type ou d'un autre. Cela pourrait être si grave que vous répugnez même parfois à être près d'eux. Vous pourriez avoir le débordement inquiétant ou subir les conséquences peu glorieuses de l'un de leurs accidents peu recommandables.

Mais peut-être sommes-nous trop durs en suggérant que quelqu'un est plus prédisposé aux accidents que les autres. On pourrait faire valoir que des accidents peuvent arriver à n'importe lequel d'entre nous. Nous sommes tous soumis à la possibilité de commettre ou d'être impliqué dans un accident. Le meilleur d'entre nous inclus.

Ajoutons à cette discussion une question plus frustrante.

Les accidents sont-ils inévitables ?

En d'autres termes, peu importe à quel point nous essayons de prévenir les accidents, il se pourrait inextricablement qu'il reste néanmoins une chance et une certitude ultime que des accidents se produiront. Vous pouvez chercher à protéger le monde des accidents. Cela semble indubitablement prudent. Mais d'une manière ou d'une autre, les accidents feront toujours leur apparition.

Comme on dit, les accidents attendent de se produire.

Il pourrait être utile de clarifier ce que l'on entend par référence à un événement comme étant correctement qualifié d'accident. La définition habituelle du dictionnaire est qu'un accident est un type d'incident qui se produit de manière inattendue et involontaire, pour lequel il y a un résultat malheureux qui consiste en un semblant de dommage ou de blessure.

Décompressez consciencieusement cette définition.

Cet incident est inattendu. Cela implique que nous ne semblions pas réaliser que l'accident lui-même surviendrait.

Cet incident n'est pas intentionnel. Cela suggère que nous devrions exclure les circonstances dans lesquelles quelqu'un a intentionnellement cherché à ce que l'incident se produise. Si un farceur place une peau de banane sur le sol où il sait qu'un innocent malchanceux et sans méfiance marchera, vous auriez du mal à affirmer que la personne qui trébuche dessus a subi un accident. Au lieu de cela, ils ont été trompés et insidieusement entraînés dans un piège.

La définition inclut également le critère selon lequel le résultat est malheureux. Un accident dans cette optique doit conduire à un résultat amer. La personne qui a accidentellement renversé un vase a fissuré et peut-être endommagé l'objet savouré au-delà de toute réparation. Le propriétaire du vase est lésé par la perte de valeur. La personne qui a couru dans le vase pourrait maintenant devoir au propriétaire la perte. A Dieu ne plaise que quelqu'un ait pu être coupé ou mis au rebut par la rupture du vase.

Par souci d'équilibre, on peut noter qu'il existe aussi des accidents dits « bons ». Une personne pourrait se retrouver dans une grande fortune ou bénéficier d'un autre avantage vital en raison d'un accident. L'un des exemples les plus souvent cités est celui de Sir Alexander Fleming et de sa découverte acclamée de la pénicilline. L'histoire raconte qu'il était un peu négligent dans son laboratoire et qu'au retour de deux semaines de vacances, il a trouvé une moisissure sur l'une de ses plaques de culture. Il aurait dit ceci à ce sujet : « On trouve parfois ce qu'on ne cherche pas. Lorsque je me suis réveillé juste après l'aube du 28 septembre 1928, je n'avais certainement pas l'intention de révolutionner toute la médecine en découvrant le premier antibiotique au monde, ou tueur de bactéries. Mais je suppose que c'est exactement ce que j'ai fait.

Nous laisserons de côté les accidents favorables et nous concentrerons ici sur les accidents lamentables. La version du visage froncé des accidents est celle où ces résultats indésirables peuvent être particulièrement mortels ou avoir des résultats onéreux. Autant que possible, les accidents à la baisse que nous voulons minimiser (et, bien sûr, les accidents à la hausse que nous aimerions maximiser, si cela est possible, bien que je couvrirai cette variante de visage souriant dans une colonne ultérieure).

J'aimerais reformuler légèrement la question précédente sur le caractère inévitable des accidents. Jusqu'à présent, nous avons retenu notre attention sur les accidents qui surviennent dans le cas particulier d'une personne singulière. Il ne fait aucun doute que les accidents peuvent également toucher une multitude de personnes à la fois. Cela peut être particulièrement rencontré lorsque les gens sont immergés dans un système complexe d'une sorte ou d'une autre.

Préparez-vous pour une variante de la question posée précédemment.

Les accidents du système sont-ils inévitables ?

Nous devrions réfléchir à cela.

Supposons qu'un étage d'usine soit aménagé pour fabriquer des pièces pour les voitures. Ceux qui ont conçu l'usine sont disons extrêmement préoccupés par les accidents de travail qui pourraient survenir. Les ouvriers de l'usine sont tenus de porter un casque en tout temps. Des panneaux dans l'usine exhortent à faire attention aux accidents et à être attentifs dans votre travail. Toutes sortes de précautions sont prises pour éviter les accidents.

Dans ce système, on peut espérer que personne ne subira jamais d'accident. Croyez-vous qu'il n'y a aucune chance qu'un accident se produise? J'oserais suggérer qu'aucun penseur raisonnable ne parierait que le risque d'accident est nul dans ce cas. Les chances qu'un accident se produise peuvent être très faibles, mais nous savons et supposons toujours que malgré toutes les précautions, il existe encore un minimum de risque qu'un accident se produise.

Tout cela conduit à l'idée que dans un système suffisamment complexe, nous sommes obligés de croire que des accidents se produiront toujours, quels que soient nos efforts pour les prévenir. Nous nous en tenons à contrecœur à la stipulation que les accidents du système sont en effet inévitables. Une déclaration grandiose de ce calibre pourrait avoir une mise en garde que le système devrait être d'un certain seuil de complexité tel qu'il est essentiellement impossible de couvrir toutes les bases pour prévenir totalement les accidents.

Vous avez maintenant été soigneusement présenté étape par étape à une théorie largement esquissée sur les accidents qui peut être qualifiée d'accident normal ou de théorie de l'accident normal (NAT). Voici une description pratique par des chercheurs qui ont examiné cette notion : « À une échelle suffisamment grande, tout système produira des « accidents normaux ». Ce sont des accidents inévitables causés par une combinaison de complexité, de couplage entre les composants et de dommages potentiels. Un accident normal est différent des accidents de défaillance de composants plus courants en ce que les événements et les interactions conduisant à un accident normal ne sont pas compréhensibles pour les opérateurs du système » (comme indiqué dans « Comprendre et éviter les défaillances de l'IA : un guide pratique » par Robert Williams et Roman Yampolsky, Philosophies journal).

La raison pour laquelle je t'ai amené au pays des soi-disant accidents normaux est que nous devrons peut-être appliquer soigneusement cette théorie à quelque chose qui devient progressivement et inévitablement omniprésent dans notre société, à savoir l'avènement de l'intelligence artificielle (IA).

Creusons cela.

Certaines personnes supposent à tort que l'IA sera la perfection. Les systèmes d'IA ne feront pas d'erreurs et ne nous attireront pas d'ennuis, selon la spéculation. Tout ce que vous avez à faire est de vous assurer que ces développeurs d'IA font un assez bon travail, et le tour est joué, l'IA ne fera jamais rien qui pourrait être interprété comme accidentel ou engendrant un accident.

Pas si vite sur cette croyance hypothétique. Si vous êtes prêt à adhérer à la théorie de accidents normaux, toute IA d'une complexité substantielle entraînera inévitablement un accident. Indépendamment du bricolage tardif de ces développeurs d'IA pour prévenir un accident, l'IA sera sûrement à un moment donné impliquée dans un accident. C'est ainsi que le cookie s'effrite. Et il n'y a pas de répit à pleurer dans notre lait renversé à ce sujet.

Réfléchissez au mashup de l'IA et aux principes conceptuels de accidents normaux.

Imaginez que nous ayons un système d'IA qui contrôle les armes nucléaires. L'IA a été soigneusement conçue. Tous les freins et contrepoids imaginables ont été codés dans le système d'IA. Sommes-nous à l'abri d'un accident basé sur l'IA qui pourrait se produire ? Ceux qui soutiennent le point de vue des accidents normaux diraient que nous ne sommes pas aussi sûrs qu'on pourrait le supposer. Étant donné que l'IA est susceptible d'être particulièrement complexe, un accident normal attend silencieusement pour émerger un jour, peut-être au pire moment possible.

L'essentiel de ces questions épineuses et de ces scrupules est que nous devons être conscients que l'IA est vouée à être chargée d'accidents, et que l'humanité doit faire quelque chose de sensé et proactif face aux dangers qui peuvent en résulter. Comme vous le verrez dans un instant ou deux, il s'agit d'une considération imminente lorsqu'il s'agit d'utiliser l'IA, et le domaine de l'éthique de l'IA et de l'IA éthique se débat un peu sur ce qu'il faut faire. Pour ma couverture continue et étendue de l'éthique de l'IA et de l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Avant de descendre dans un terrier de lapin, assurons-nous que nous sommes sur la même longueur d'onde sur la nature de l'IA. Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur sensible AI, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain qui vous donne des conseils. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici). Au total, ces scénarios augmenteraient l'évaluation de la source.

Gardons les choses plus terre à terre et considérons l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

Vous savez peut-être que lorsque la dernière ère de l'IA a commencé, il y a eu un énorme élan d'enthousiasme pour ce que certains appellent maintenant AI pour de bon. Malheureusement, dans la foulée de cette excitation jaillissante, nous avons commencé à être témoins AI pour le mal. Par exemple, divers systèmes de reconnaissance faciale basés sur l'IA se sont révélés contenir des préjugés raciaux et des préjugés sexistes, dont j'ai discuté à le lien ici.

Des efforts pour lutter contre AI pour le mal sont activement en cours. En plus bruyant légal Dans le but de freiner les actes répréhensibles, il y a aussi une poussée substantielle vers l'adoption de l'éthique de l'IA pour redresser la méchanceté de l'IA. L'idée est que nous devons adopter et approuver les principes clés de l'IA éthique pour le développement et la mise en service de l'IA afin de saper le AI pour le mal et simultanément annonçant et promouvant le meilleur AI pour de bon.

Dans le même ordre d'idées, je préconise d'essayer d'utiliser l'IA dans le cadre de la solution aux problèmes de l'IA, en combattant le feu par le feu de cette façon de penser. Nous pourrions par exemple intégrer des composants d'IA éthique dans un système d'IA qui surveillera comment le reste de l'IA fait les choses et donc potentiellement détecter en temps réel tout effort discriminatoire, voir ma discussion sur le lien ici. Nous pourrions également avoir un système d'IA distinct qui agit comme un type de moniteur d'éthique de l'IA. Le système d'IA sert de surveillant pour suivre et détecter quand une autre IA entre dans l'abîme contraire à l'éthique (voir mon analyse de ces capacités sur le lien ici).

Tout compte fait, un espoir général est qu'en établissant un sens des préceptes éthiques de l'IA, nous serons au moins en mesure d'accroître la conscience sociétale de ce que l'IA peut faire à la fois de manière bénéfique et négative. J'ai longuement discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et comment ils doivent être généralement observés, alors que c'est une situation beaucoup plus compliquée dans le codage de l'IA devant être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme indiqué précédemment, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Nous devrons peut-être ajouter aux listes vantées d'éthique de l'IA que nous devons explicitement envisager et prendre des mesures manifestes pour empêcher ou au moins atténuer de manière stridente les attaques basées sur l'IA. accidents normaux cela pourrait arriver. Ceux qui développent l'IA doivent faire de leur mieux sur ce front. Ceux qui déploient l'IA doivent faire de même. Ceux qui utilisent ou sont d'une manière ou d'une autre soumis à l'IA doivent se méfier et se méfier de la possibilité d'accidents liés à l'IA qui pourraient apparemment survenir.

Vous pourriez être tenté de penser que suffisamment de précautions peuvent être intégrées à l'IA pour que les risques d'accident soient réduits à zéro. Pour ceux qui sont technophiles, l'orgueil habituel est que si une technologie peut générer un problème, une autre technologie peut sûrement résoudre le problème. Continuez simplement à jeter de plus en plus de technologie jusqu'à ce que le problème disparaisse.

Eh bien, ceux qui ont étudié les accidents systémiques auraient tendance à être en désaccord et à répliquer poliment à l'emphase présumée des techniciens en avançant un point de vue connu sous le nom de Swiss Cheese Model (SCM) : « Dans le SCM, les couches de sécurité sont modélisées comme des tranches de fromage avec des trous représentant les points faibles de chaque couche de sécurité. Au fil du temps, les trous changent de forme et se déplacent. Finalement, peu importe le nombre de tranches de fromage (couches de sécurité), les trous s'aligneront permettant un tir droit à travers toutes les tranches de fromage (un accident se produit) »(selon l'article cité précédemment par Robert Williams et Roman Yampolskiy ).

Je ne veux pas m'enliser dans cette tangente latérale pour savoir s'il existe ou non un moyen garanti de programmer l'IA pour éviter entièrement et toujours tout risque d'accident. Il existe toutes sortes d'approches de preuve mathématiques et informatiques qui sont essayées. Je pense qu'il est raisonnable et juste de déclarer que nous n'avons pas aujourd'hui de méthode de travail évolutive ni de technologies capables de garantir à toute épreuve une telle chance zéro, et nous sommes définitivement aux prises avec des tonnes et des tonnes d'IA qui sont produites pêle-mêle que nous savoir avec certitude n'a pas cherché à se conformer à de telles pratiques. Ce dernier point est crucial car même si nous pouvons concocter quelque chose dans un laboratoire d'IA, l'étendre aux zillions d'efforts d'IA sauvages et insouciants en cours et qui continueront d'émerger est un problème épineux et probablement pas résolu même si une machine de preuve informatique argent balle existait.

Un autre point qui, à mon avis, mérite une brève mention est l'IA qui est transformée en actes fâcheux à la suite d'acteurs humains malveillants. Je ne vais pas placer ces cas dans le domaine des accidents d'IA. Rappelez-vous que la discussion d'ouverture a suggéré que la définition du dictionnaire d'un accident était un incident d'un involontaire nature. Si un cybercriminel humain parvient à faire en sorte qu'un système d'IA fasse de mauvaises choses, je ne classe pas cette IA comme victime d'un accident. J'espère que vous accepterez cette présomption.

Une question intéressante se pose quant à savoir dans quelle mesure les diverses actions indésirables de l'IA peuvent être attribuées à un simple accident d'IA par rapport à l'acte sournois d'un cybercriminel. Selon certaines des bases de données de rapports d'incidents d'IA existantes, il semble que les accidents d'IA se produisent plus que les incidents provoqués par la malveillance, bien que vous deviez prendre cette notion avec une forte dose de sel. Je dis cela parce qu'il y a une grande tentation de ne pas signaler quand un système d'IA a été attaqué, et peut-être d'être un peu plus disposé à signaler quand un accident d'IA se produit.

Il y a une mise en garde extrêmement importante dont nous devons discuter concernant les accidents d'IA.

L'utilisation du slogan "accidents de l'IA" est généralement indésirable et va créer tout un gâchis pour nous tous, c'est-à-dire pour l'ensemble de la société. Lorsqu'un être humain a un accident, nous haussons souvent les épaules et sommes sympathiques à la personne qui a eu l'accident. Nous semblons traiter le mot « accident » comme s'il signifiait que personne n'est responsable de ce qui s'est passé.

Prenons l'exemple d'un accident de voiture. Une voiture vire à droite et percute accidentellement une autre voiture qui roulait tout droit. Merde, c'était juste un accident et c'est arrivé accidentellement. Ceux qui n'ont pas été impliqués dans l'incident vont peut-être laisser passer l'affaire si l'événement est présenté comme un simple accident qui s'est produit.

J'ai cependant l'impression que si vous étiez dans la voiture qui a été heurtée, vous ne seriez pas si sympathique envers le conducteur qui a fait le virage trop large. Votre opinion serait certainement que l'autre conducteur était un mauvais conducteur et qu'un acte de conduite ostensiblement illégal ou imprudent a conduit à l'accident de voiture. En qualifiant l'incident d '«accident», le conducteur qui était coincé est maintenant quelque peu désavantagé, car il semble que tout s'est produit par hasard, plutôt que par les mains du conducteur qui a foiré.

En fait, le mot « accident » est tellement rempli de connotations variées que, dans l'ensemble, les statistiques gouvernementales sur les accidents de voiture se réfèrent à la question comme des collisions de voiture ou des accidents de voiture, plutôt que d'utiliser l'expression accidents de voiture. Une collision ou un accident de voiture ne semble pas avoir d'implications sur la façon dont l'incident s'est produit. Pendant ce temps, la formulation d'un «accident de voiture» nous amène presque à penser que c'était un caprice du destin ou en quelque sorte hors des mains de l'humanité.

Vous pouvez abondamment voir comment cette considération connotationnelle entre en jeu lorsqu'il s'agit d'accidents d'IA. Nous ne voulons pas que les développeurs d'IA se cachent derrière le bouclier connotatif que l'IA a accidentellement causé du tort à quelqu'un. Il en va de même pour ceux qui déploient l'IA. Vous pourriez dire que la formulation des «accidents de l'IA» est presque une anthropomorphisation de l'IA qui induira la société en erreur en permettant aux humains qui se trouvaient dans les coulisses de l'IA d'échapper à la responsabilité. Pour ma discussion sur l'importance croissante de tenir les humains responsables de leur IA, voir ma discussion sur ce lien ici ainsi que ce lien ici.

Je vais désormais utiliser ici le slogan d'accidents d'IA, mais je le fais à contrecœur et uniquement parce que c'est la manière conventionnelle de désigner ce phénomène. Les tentatives de formuler cela différemment ont malheureusement tendance à être plus gonflées et moins faciles à lire. Assurez-vous d'interpréter le slogan de manière à ne pas détourner le regard et à ne pas réaliser que les humains sous-jacents à l'IA sont coupables lorsque l'IA tourne mal.

Pour aider à illustrer la confusion probable ou les aspects trompeurs de la référence à l'IA en tant qu'accidents, nous pouvons revenir à mes remarques sur le renversement d'un vase. Considérez cet exemple d'IA qui le fait : "Ce problème a à voir avec des choses qui sont faites par accident ou par indifférence par l'IA. Un robot de nettoyage renversant un vase en est un exemple. Les environnements complexes ont tellement de types de "vases" qu'il est peu probable que nous puissions programmer une pénalité pour tous les effets secondaires » (selon l'article de Robert Williams et Roman Yampolskiy).

Un système d'IA qui est mis en service dans une maison et qui renverse « accidentellement » un vase semblerait suggérer que personne ne devrait être blâmé pour cette action néfaste de l'IA. Ce n'était qu'un accident, pourrait-on déplorer. D'un autre côté, nous devrions légitimement demander pourquoi le système d'IA n'a pas été programmé pour gérer la circonstance du vase en général. Même si les développeurs d'IA n'avaient pas prévu qu'un vase en soi était dans le cadre des objets qui pourraient être rencontrés, nous pouvons certainement nous demander pourquoi il n'y avait pas d'évitement d'objet global qui aurait empêché le système d'IA de renverser le vase (ainsi, l'IA pourrait certes ne pas classer le vase comme un vase, mais aurait quand même pu l'éviter en tant qu'objet détectable à éviter).

J'ai prédit et continue de prédire que nous nous dirigeons progressivement vers une énorme bataille juridique sur l'émergence de systèmes d'IA qui se retrouvent dans des "accidents d'IA" et causent une forme de préjudice. Jusqu'à présent, la société n'a pas réagi de manière significative au rejet légal de l'IA qui est lancée sur le marché et produit des conséquences néfastes, intentionnellement ou non. Le train en marche de l'IA d'aujourd'hui qui est devenu une ruée vers l'or de fabricants d'IA à moitié cuits et ceux qui ont adopté à la hâte le déploiement de l'IA ont de la chance en ce moment et restent relativement épargnés par les poursuites civiles et les poursuites pénales.

Le contrecoup juridique alimenté par l'IA arrive, tôt ou tard.

Passons à autre chose, comment allons-nous essayer de faire face à l'inévitabilité des soi-disant accidents d'IA ?

Une chose que nous pouvons faire tout de suite est d'essayer d'anticiper comment les accidents d'IA pourraient se produire. En anticipant les accidents d'IA, nous pouvons au moins chercher à trouver des moyens de les réduire ou de minimiser leur probabilité de survenance. De plus, nous pouvons tenter de mettre en place des garde-corps afin que lorsqu'un accident d'IA se produit, les risques de dommages démonstratifs soient réduits.

Un ensemble utile de facteurs qui ont été décrits dans l'article de recherche cité précédemment Comprendre et éviter les défaillances de l'IA : un guide pratique comprend ces propriétés (citées dans le document de recherche):

  • Le système qui est affecté par les sorties de l'IA.
  • Délai entre les sorties de l'IA et le système plus large, observabilité du système, niveau d'attention humaine et capacité des opérateurs à corriger les dysfonctionnements de l'IA.
  • Le maximum de dégâts possible par une utilisation malveillante des systèmes contrôlés par l'IA.
  • Couplage des composants à proximité de l'IA et complexité des interactions.
  • Lacune dans les connaissances sur l'IA et les autres technologies utilisées et le niveau d'énergie du système.

À ce stade de cette discussion approfondie, je parierais que vous êtes désireux de quelques exemples illustratifs qui pourraient élucider davantage le sujet des accidents d'IA. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur l'avènement des soi-disant accidents d'IA et si oui, qu'est-ce que cela montre ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles où l'IA conduit la voiture entièrement seule et il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de véritable voiture autonome au niveau 5, et nous ne savons même pas encore si cela sera possible d'y parvenir, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et incidents d'IA

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournit une litanie suffisante de mises en garde pour sous-tendre ce que je suis sur le point de raconter.

Nous sommes maintenant prêts à plonger profondément dans les voitures autonomes et les possibilités de l'IA éthique entraînant l'avènement des soi-disant accidents d'IA.

Imaginez qu'une voiture autonome basée sur l'IA est en cours dans les rues de votre quartier et semble conduire en toute sécurité. Au début, vous aviez accordé une attention particulière à chaque fois que vous parveniez à entrevoir la voiture autonome. Le véhicule autonome se distinguait par son rack de capteurs électroniques comprenant des caméras vidéo, des radars, des dispositifs LIDAR, etc. Après plusieurs semaines passées à parcourir votre communauté en voiture autonome, vous la remarquez à peine. En ce qui vous concerne, ce n'est qu'une voiture de plus sur les voies publiques déjà très fréquentées.

De peur que vous ne pensiez qu'il est impossible ou invraisemblable de se familiariser avec la vue de voitures autonomes, j'ai souvent écrit sur la façon dont les lieux qui sont dans le cadre des essais de voitures autonomes se sont progressivement habitués à voir les véhicules améliorés. De nombreux habitants sont finalement passés d'un regard bouche bée à un bâillement expansif d'ennui pour assister à ces méandres de voitures autonomes.

À l'heure actuelle, la principale raison pour laquelle ils pourraient remarquer les véhicules autonomes est probablement le facteur d'irritation et d'exaspération. Les systèmes de conduite par intelligence artificielle garantissent que les voitures respectent toutes les limites de vitesse et les règles de la route. Pour les conducteurs humains trépidants dans leurs voitures traditionnelles à conduite humaine, vous êtes parfois contrarié lorsque vous êtes coincé derrière les voitures autonomes basées sur l'IA et strictement respectueuses de la loi.

C'est quelque chose auquel nous devrions tous nous habituer, à tort ou à raison.

Revenons à notre histoire.

Un jour, la voiture autonome a un accident.

Lors d'un virage à droite, le système de conduite IA a largement fait pivoter le véhicule autonome et une voiture à conduite humaine a été heurtée. La voiture à conduite humaine roulait droit devant dans la bonne voie de circulation. Il n'y avait aucune possibilité particulière pour le conducteur humain de dévier ou d'éviter d'être touché. De plus, il n'y avait aucun avertissement ou indication de la part de la voiture autonome indiquant qu'elle allait largement tourner à droite.

Est-ce un accident ?

Nous pouvons certainement dire qu'il est englobé dans la rubrique d'être un accident d'IA. La base d'une telle affirmation est qu'il y avait un système de conduite IA au volant de la voiture autonome. D'une manière ou d'une autre, pour une raison quelconque, l'IA a choisi de faire un large swing lors d'un virage à droite. Le résultat a conduit la voiture autonome à heurter une voiture à conduite humaine.

Rappelez-vous la discussion précédente sur les connotations associées au mot « accident » et voyez comment de telles nuances jouent dans ce scénario. N'oubliez pas non plus que nous avons discuté du cas d'un conducteur humain faisant un large virage à droite et heurtant une autre voiture conduite par un humain. Nous nous sommes rendus compte que la notion que cet acte soit un « accident » est trompeuse et déconcertante. Le conducteur humain qui a fait le large swing pourrait se cacher derrière l'idée qu'un accident s'est simplement produit, apparemment par hasard ou par les caprices du destin.

Au lieu d'étiqueter le scénario comme un "accident d'IA" dans le cas de la voiture autonome basée sur l'IA qui s'éloigne et heurte la voiture à conduite humaine, peut-être devrions-nous dire qu'il s'agissait d'un accident de voiture ou d'une collision de voiture impliquant un auto- conduire une voiture et une voiture à conduite humaine. Nous pouvons alors nous passer de la confusion vide de sens qu'il s'agit d'un accident de moyens inconnaissables.

Selon vous, quelle serait la réaction du public à l'incident ?

Eh bien, si le constructeur automobile ou l'entreprise de technologie autonome peut s'en tenir à l'étiquetage de l'affaire comme un accident, ils pourraient être en mesure de contourner le contrecoup potentiel de la communauté dans son ensemble. Un sentiment de sympathie pour les accidents tout compte fait pourrait se répercuter sur la circonstance particulière. Pour en savoir plus sur la manière dont les villes, les comtés et les chefs d'État réagiront potentiellement aux incidents liés aux véhicules autonomes IA, consultez la discussion d'une étude de Harvard que j'ai co-dirigée et décrite sur le lien ici.

Si la situation est clairement décrite comme un accident de voiture ou une collision de voiture, cela pourrait alors permettre de réaliser que quelqu'un ou quelque chose est peut-être à blâmer pour l'incident. Une réaction instinctive pourrait être que l'IA doit être tenue pour responsable. Le fait est que, jusqu'à ou si nous décidons un jour d'oindre l'IA comme ayant un semblant de personnalité juridique, vous ne pourrez pas attribuer la responsabilité à l'IA en soi (voir ma discussion sur l'IA et la personnalité juridique sur le lien ici).

Nous pouvons inspecter le système de conduite IA pour essayer de comprendre ce qui a conduit à la conduite apparemment inappropriée et à l'accident de voiture qui a suivi. Cela n'implique pas pour autant que l'IA sera tenue responsable. Les parties responsables comprennent les développeurs d'IA, l'opérateur de flotte de la voiture autonome et d'autres. J'en inclut d'autres aussi car il est possible que la ville soit tenue partiellement responsable de la conception du coin où le virage a eu lieu. De plus, supposons qu'un piéton se précipite au coin de la rue et que le système de conduite IA choisisse d'éviter la personne et se retrouve ensuite empêtré dans l'accident de voiture.

Et ainsi de suite.

Conclusion

Nous voudrions savoir ce que l'IA calculait par calcul et ce pour quoi elle avait été programmée. L'IA a-t-elle fait ce qui a été codé ? Peut-être que l'IA a rencontré un bogue ou une erreur dans la programmation, ce qui n'excuse pas les actions mais fournit plus d'indices sur la façon dont le crash s'est produit.

Quels types de garde-corps IA ont été programmés dans le système de conduite IA ? S'il y avait des garde-corps, nous voudrions comprendre pourquoi ils semblaient ne pas empêcher l'accident de voiture. Peut-être que le système de conduite AI aurait pu s'arrêter plutôt que de faire le tour. Nous voudrions savoir quelles alternatives l'IA a évaluées par calcul au cours de l'incident.

En plus d'aller au fond de l'incident particulier, un autre scrupule légitime est de savoir si le système de conduite de l'IA a une faille ou un autre aspect intégré qui fera des types similaires d'actes indésirables. Essentiellement, cet incident pourrait être un indicateur révélateur de plus à venir. Comment des simulations informatiques de situations de conduite ont-elles été utilisées pour essayer d'anticiper ce type d'incitation au système de conduite IA ? Y avait-il suffisamment de tests de conduite sur route pour déceler les problèmes d'IA qui auraient pu conduire à l'accident de voiture ?

Ce scénario met en évidence une énigme controversée face à l'émergence de voitures autonomes basées sur l'IA.

Ça va comme ça.

D'une part, il existe un désir sociétal d'adopter rapidement des voitures autonomes en raison de l'espoir que les systèmes de conduite IA seront aussi sûrs, voire plus sûrs, que les conducteurs humains. Aux États-Unis seulement, nous avons actuellement près de 40,000 2.5 décès humains par an dus à des accidents de voiture et environ XNUMX millions de blessures humaines. Les analyses suggèrent qu'une partie importante de ces accidents de voiture sont attribuables à des erreurs humaines telles que la conduite en état d'ébriété, la conduite distraite, etc. (voir mon évaluation de ces statistiques sur le lien ici).

Les systèmes de conduite IA ne boiront pas et ne conduiront pas. Ils n'auront pas besoin de repos et ne s'épuiseront pas au volant. L'hypothèse est qu'en établissant les voitures autonomes comme mode de transport viable, nous pouvons réduire le nombre de conducteurs humains. Cela devrait à son tour signifier que nous réduirons sommairement le nombre annuel de décès et de blessures humaines dus à des accidents de voiture.

Certains experts ont déclaré que nous nous retrouverions avec zéro décès et zéro blessure, et que ces voitures autonomes seraient censées être indestructibles, mais il s'agit d'un ensemble d'attentes tout à fait absurdes et totalement fausses. J'ai expliqué pourquoi c'est si hypocrite à le lien ici.

Dans tous les cas, supposons que nous allons avoir un certain nombre d'accidents de voiture dans lesquels des voitures autonomes sont impliquées. Supposons également que ces accidents de voiture feront un certain nombre de morts et de blessés. La question qui est angoissée est de savoir si nous, en tant que société, sommes prêts à tolérer de tels cas. Certains disent que si même un décès ou une blessure survient à la suite de véritables voitures autonomes, l'ensemble du kit et du kaboodle devrait être fermé.

Le point de vue opposé est que si les vies sauvées réduisent les décomptes annuels, il faut continuer à encourager l'avènement des voitures autonomes et ne pas réagir de manière aussi illogique. Nous devrons accepter la prémisse qu'un certain nombre de décès et de blessures existeront toujours, même avec les voitures autonomes, et pourtant réaliser que le nombre annuel, s'il diminue, suggère que nous sommes sur la bonne voie.

Bien sûr, certains soutiennent que nous ne devrions pas avoir de voitures autonomes sur nos voies publiques tant qu'elles ne sont pas autorisées à un tel usage à la suite de simulations informatiques approfondies et exhaustives ou via des essais privés en circuit fermé. Le contre-argument est que le seul moyen viable et le plus rapide de faire fonctionner les voitures autonomes est d'utiliser les voies publiques et que tout retard dans l'adoption des voitures autonomes va autrement permettre aux nombres horribles de collisions de voitures conduites par l'homme de continuer. J'ai couvert plus longuement ce débat dans mes colonnes et exhorte les lecteurs à regarder ces discussions pour avoir le plein sens des perspectives sur cette question controversée.

Concluons les choses pour l'instant.

Des accidents d'IA vont se produire. Nous devons résister à l'envie d'interpréter un accident d'IA comme apparemment accidentellement et ergo faussement laisser les fabricants et ceux qui déploient l'IA être catégoriquement décrochés.

Il y a une tournure supplémentaire que je vous laisse avec une dernière pensée intrigante pour votre journée.

Le comédien Dane Cook aurait raconté cette blague sur les accidents de voiture : « Il y a quelques jours, j'ai eu un accident de voiture. Ce n'est pas ma faute. Même si ce n'est pas de votre faute, l'autre personne sort de sa voiture et vous regarde comme si c'était de votre faute : pourquoi vous êtes-vous arrêté à un feu rouge et laissez-moi vous frapper en faisant 80 ! »

Là où la torsion vient au premier plan, c'est la possibilité qu'un système d'IA choisisse d'insister pour que lorsqu'un accident d'IA se produit impliquant cette IA particulière, l'IA vante que l'incident était la faute de l'humain et certainement pas la faute de l'IA. Soit dit en passant, cela pourrait être tout à fait vrai et l'humain pourrait essayer de faire de l'IA un bouc émissaire en prétendant que c'était la faute de l'IA.

Ou peut-être que l'IA essaie de faire de l'humain un bouc émissaire.

Vous voyez, l'IA que nous concevons pourrait être délicate de cette façon, par accident ou non.

Source : https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- conduire-des-voitures-aussi/