Éthique de l'IA et systèmes autonomes Leçons tirées de ce récent vol d'Alaska Airlines où le pilote et le copilote n'étaient pas d'accord avant de décoller et ont brusquement choisi de revenir au terminal et de se séparer

Les compagnies aériennes ont beaucoup fait parler d'elles ces derniers temps.

Nous sommes dans la crise estivale des vols. Les passagers fatigués et frustrés se retrouvent confrontés à toutes sortes de perturbations de vol et de contorsions des horaires des compagnies aériennes. Les vols sont annulés de manière inattendue. Les vols sont retardés. Les passagers fument. Il y a malheureusement eu de nombreux cas de passagers qui ont permis à ces vexations d'éclater, et nous avons vu beaucoup trop de vidéos virales d'affrontements en tête-à-tête et parfois de coups de poing.

Plus rares sont les informations sur les conflits entre un pilote et un copilote qui peuvent survenir dans le cockpit.

C'est toute une surprise.

En effet, nous sommes naturellement surpris de penser qu'un pilote et un copilote auraient un semblant de désaccord sérieux à n'importe quelle étape d'un vol. Si le désaccord porte sur la meilleure marque de café, nous supposons que cela n'empièterait pas sur l'effort de travail impliquant de piloter l'avion. Les deux ignoreraient simplement leur manque de contact sur un sujet apparemment sans rapport avec le vol. Leur comportement professionnel et leur formation de pilote de longue date entreraient en jeu et ils se concentreraient de nouveau sur les détails du vol.

Considérez cependant quand un désaccord professionnel intervient.

Je vais brièvement partager avec vous une nouvelle largement publiée sur un cas récent de quelque chose qui s'est produit lors d'un vol aux États-Unis concernant un prétendu désaccord professionnel dans le cockpit.

Ceci est principalement cité ici afin que nous puissions explorer un sujet connexe qui est d'une grande importance pour l'avènement de l'intelligence artificielle (IA). Vous voyez, il peut y avoir une forme de, dirons-nous, un désaccord professionnel entre non seulement les humains dans un désaccord entre humains, mais nous pouvons également avoir quelque chose de similaire au milieu de l'adoption de l'IA et, par conséquent, des désaccords professionnels entre l'homme et l'IA. . Toutes sortes de considérations sur l'éthique de l'IA se posent. Pour ma couverture étendue et continue des questions d'éthique de l'IA et d'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Préparez-vous pour un conte fascinant.

Comme récemment rapporté dans les nouvelles, un cas de "désaccord professionnel" s'est apparemment produit lors d'un vol d'Alaska Airline qui allait de Washington à San Francisco. Selon les dépêches, le vol s'était éloigné de la porte d'embarquement et attendait sur le tarmac l'autorisation de rouler et de prendre son envol. Une tempête était en cours et a entraîné un retard de vol de plus d'une heure et demie. Il s'avère que l'avion a finalement fait demi-tour et s'est dirigé vers la porte, ce que certains passagers auraient normalement pu supposer qu'il s'agissait simplement d'une mesure de sécurité liée à la tempête.

Selon divers tweets, il semble que le pilote et le copilote aient eu une sorte de querelle hors de vue pendant leur séjour dans le cockpit et en sont venus à la conclusion que l'approche la plus prudente serait de nettoyer le vol et de retourner au terminal. . Des tweets ont suggéré que le capitaine et le premier officier ne pouvaient apparemment pas s'entendre. La compagnie aérienne a ensuite publié une déclaration selon laquelle la situation était malheureuse (la situation n'a pas été explicitement énoncée ou expliquée en soi), les deux officiers de bord ont été évalués par la direction et jugés aptes à voler, les équipages ont été échangés et le vol a finalement eu lieu. et plus tard atteint San Francisco.

Dans un sens, si en fait le pilote et le copilote avaient un désaccord professionnel sur la question de savoir si l'avion était convenablement prêt à décoller ou si le risque de voler à travers une tempête se situait dans une plage de sécurité appropriée, ces passagers devraient être soulagés et reconnaissant que l'avion ait été ramené à la porte. Il vaut mieux être prudent que désolé. Avoir un retard supplémentaire vaut bien la réduction présumée des risques associés à un voyage de vol considéré comme accidenté ou défavorable.

Certaines personnes pourraient être surprises qu'un tel désaccord professionnel puisse survenir.

On a peut-être la fausse impression que tout ce qui se passe dans le cockpit est entièrement précis et bien scénarisé. Toute forme de discrétion humaine a apparemment été arrachée au processus. Sur la base de cartes précises et minutieusement calculées, un vol peut être effectué ou non. Il ne peut y avoir de désaccord lorsque l'ensemble du kit et du caboodle est censé être basé sur un calcul irréfutable de faits et de chiffres.

Ce n'est pas toute la vérité sur la question. Bien sûr, il existe une multitude de protocoles et toutes sortes de freins et contrepoids, mais cela n'élimine pas tout le jugement humain. Les pilotes et les copilotes exercent toujours un jugement humain. Heureusement, ce jugement humain est aiguisé par des années de vol. Il y a de fortes chances qu'un pilote et un copilote dans un avion commercial de passagers aient une expérience de vol antérieure et tirent facilement parti de leurs nombreuses années de raisonnement et de jugement approfondis associés au fait d'être aux commandes de vol.

Compte tenu du rôle notable du jugement humain, on pourrait logiquement anticiper qu'un pilote et un copilote vont parfois avoir des désaccords professionnels. La plupart du temps, il y a vraisemblablement très peu de désaccords de ce genre. Le pilote et le copilote pour les vols quotidiens sont susceptibles d'être bien alignés la plupart du temps. Ce n'est que lorsqu'un scénario de vol pourrait sortir des limites conventionnelles que nous nous attendrions à ce que des frottements plus intenses surviennent.

S'il y a une forte divergence d'opinions entre les deux, j'oserais dire que nous voulons qu'ils le sachent.

Imaginez une situation où le pilote veut ardemment continuer mais le copilote perçoit que les risques sont trop élevés. Le simple fait que le copilote se prosterne devant le pilote semblerait indésirable. Le copilote est un frein à ce qu'un pilote pourrait penser à faire. Pour ceux qui veulent qu'un copilote se taise et agisse uniquement sans réfléchir à tout ce que le pilote décrète, eh bien, ce n'est pas vraiment rassurant. Un copilote n'est pas simplement un "pilote" de réserve qui n'entre en scène que lorsque le pilote est totalement incapable. C'est une compréhension erronée de la valeur d'avoir un pilote et un copilote dans le cockpit.

Il y a l'autre angle à cela.

Considérez le cas d'un pilote qui ne croit pas qu'un vol devrait avoir lieu et pendant ce temps, le copilote est impatient de se lever dans les airs. Quoi alors ? Par la hiérarchie attendue, le pilote est censé prévaloir classiquement sur le copilote. Le rôle désigné d'être le principal responsable fait du pilote le plus grand de ce qui est autrement quelque peu égal. Normalement, le pilote a plus de temps de vol que le copilote et, par conséquent, le copilote est hiérarchiquement censé s'en remettre aux souhaits du pilote (lorsque cela est raisonnable).

En tout cas, je pense que nous pouvons tous convenir que choisir de ne pas voler est un choix assurément moins risqué que de décider de voler. Une fois que l'avion est en l'air, les niveaux de risque deviennent énormes par rapport à n'importe quel sol stable ordinaire. Un vol commercial habituel qui revient simplement au terminal sans avoir pris l'air serait une solution assez amicale à tout débat houleux sur le vol.

Changeons de vitesse et utilisons cette nouvelle courageuse dans un but tout à fait différent mais pertinent.

Nous avons progressivement parmi nous une prévalence de systèmes autonomes basés sur l'IA. Parfois, l'IA dirige le spectacle, pour ainsi dire. L'IA fait tout de A à Z, et nous pourrions interpréter cela comme une IA totalement autonome ou presque. Dans d'autres cas, nous pouvons avoir une IA qui interagit avec et, dans une certaine mesure, est programmée pour dépendre d'un humain dans la boucle.

J'aimerais me concentrer sur la question d'un système autonome ou semi-autonome basé sur l'IA qui, dès le départ, a un humain dans la boucle. L'IA et l'humain sont intentionnellement poussés ensemble et censés travailler en tandem l'un avec l'autre. Ils sont des cohortes dans l'exécution d'une tâche particulière à accomplir. L'IA seule n'est pas censée agir sur la tâche. L'IA doit interagir avec l'humain dans la boucle désigné.

J'évoque cette caractérisation pour différencier des situations où l'humain dans la boucle est considéré comme une facette facultative. En substance, l'IA a carte blanche. Si l'IA choisit d'utiliser l'humain, qu'il en soit ainsi. Il n'est pas nécessaire que l'IA soit en contact ou travaille main dans la main avec l'humain désigné. Les analyses que je vais rapporter sont certainement pertinentes à ce genre de optionnel arrangement d'interaction, mais ce n'est pas ce que je vise spécifiquement dans cette discussion particulière.

D'accord, nous avons donc une sorte de tâche sur laquelle un humain et une IA vont travailler ensemble, inséparablement l'un de l'autre. Dans un sens abstrait, nous avons un humain assis dans un siège et un système d'IA assis dans l'autre siège qui l'accompagne. Je dis cela effrontément parce que nous ne limitons pas cette discussion à un robot par exemple qui pourrait en fait être assis sur un siège. Je fais allusion métaphoriquement à la notion que l'IA participe quelque part à la tâche, tout comme l'humain. Physiquement, leur localisation n'est pas particulièrement vitale pour la discussion.

Vous ne savez peut-être pas quand une telle circonstance pourrait survenir.

Peasy facile.

Je parlerai plus tard de l'avènement des véhicules autonomes et des voitures autonomes. A certains niveaux d'autonomie, l'IA et l'humain sont censés travailler ensemble. L'IA peut conduire la voiture et demander à l'humain de prendre en charge les commandes de conduite. L'humain peut conduire la voiture et activer l'IA pour prendre les commandes. Ils se relaient aux commandes de conduite.

De plus, certaines conceptions font en sorte que l'IA soit essentiellement active tout le temps (ou, à moins qu'elle ne soit désactivée), de sorte que l'IA est toujours prête. De plus, l'IA peut intervenir directement, même sans que l'humain ne le demande, en fonction de la situation qui se déroule. Supposons par exemple que l'humain semble s'être endormi au volant. Étant donné que l'humain ne peut apparemment pas activer l'IA (parce que la personne dort), l'IA peut être programmée pour prendre le contrôle de l'humain.

Certaines conceptions intègrent l'IA et les humains dans une approche de conduite double. L'IA conduit et l'humain conduit. Ou, si vous préférez, l'humain conduit et l'IA conduit également. Ils conduisent chacun le véhicule. Je compare cela à ces voitures spécialement équipées que vous avez peut-être utilisées lors de votre formation de conducteur et il y avait deux ensembles de commandes de conduite dans le véhicule, un pour l'élève conducteur et un pour l'instructeur de conduite.

Ce n'est qu'un exemple d'un cadre dans lequel l'IA et les humains pourraient travailler conjointement sur une tâche. Toutes sortes de possibilités existent. D'autres types de véhicules autonomes pourraient être conçus de la même manière, tels que les avions, les drones, les submersibles, les navires de surface, les trains, etc. Nous ne devons pas seulement considérer les paramètres des véhicules et des transports. Imaginez le domaine médical et les interventions chirurgicales effectuées conjointement par un médecin et un système d'IA. La liste est interminable.

J'ai presque envie de faire référence à la blague classiquement tonitruante sur un humain et une IA qui entrent ensemble dans un bar. C'est assez amusant pour ceux qui aiment l'IA.

Sérieusement, revenons à l'objectif d'un humain et d'un système d'IA qui travaillent ensemble sur une tâche donnée. Tout d'abord, je veux éviter d'anthropomorphiser l'IA, ce sur quoi je vais insister tout au long. L'IA n'est pas sensible. Veuillez garder cela à l'esprit.

Voici quelque chose à méditer : Un human-in-the-loop désigné sera-t-il toujours en parfait accord avec une IA co-équipée ?

Pour toute tâche complexe, il semblerait peu probable que l'humain et l'IA soient entièrement et toujours entièrement en phase. L'humain peut parfois être en désaccord avec l'IA. Nous pouvons amener cette hypothèse jusqu'à la banque.

J'aimerais que vous considériez également cette possibilité peut-être surprenante : L'IA sera-t-elle toujours en parfait accord avec un human-in-the-loop désigné ?

Encore une fois, pour toute tâche complexe, il semblerait tout à fait concevable que l'IA ne soit pas d'accord avec les humains à certaines occasions. Si vous penchez déjà vers l'idée que l'IA doit toujours avoir tort alors que les humains doivent toujours avoir raison, il serait sage de repenser cette conclusion hâtive. Imaginez une voiture dans laquelle un humain et une IA conduisent conjointement le véhicule semi-autonome. L'humain se dirige vers un mur de briques. Pourquoi? Nous ne savons pas, peut-être que l'humain est en état d'ébriété ou s'est endormi, mais nous savons que s'écraser contre un mur de briques n'est pas une bonne idée, toutes choses étant égales par ailleurs. L'IA pourrait détecter la calamité à venir et chercher à s'éloigner de la barrière imminente.

Tout compte fait, nous allons avoir la possibilité distincte que l'IA et l'humain soient en désaccord l'un avec l'autre. L'autre façon de dire la même chose est que les humains et l'IA sont en désaccord les uns avec les autres. Notez que je ne veux pas que le séquençage de l'IA-et-humain par rapport à l'humain-et-IA suggère quoi que ce soit sur la direction ou la plausibilité du désaccord.

Les deux travailleurs, l'un humain et l'autre IA, sont en désaccord l'un avec l'autre.

Nous pourrions déclarer par avance que chaque fois qu'un désaccord survient entre une IA donnée et un humain donné, nous proclamons d'avance que l'humain prévaut sur l'IA. Cela étant dit, mon exemple illustratif sur la voiture qui fonce dans un mur de briques semblerait nous dissuader que l'humain aura toujours forcément raison.

Nous pourrions, en revanche, choisir de déclarer à l'avance que chaque fois qu'un désaccord survient, nous aurons préalablement établi que l'IA a raison et que l'humain a tort. Il ne s'agit pas non plus d'une disposition raisonnablement généralisable. Imaginez une voiture dans laquelle l'IA a une erreur ou un bogue de logiciel intégré, et l'IA essaie de diriger le véhicule hors de la route et dans un fossé. En supposant que toutes choses égales par ailleurs, l'humain devrait être capable de surmonter cette action de conduite de l'IA et d'empêcher le véhicule d'atterrir dans le ravin.

Faisons un petit résumé de ceci :

  • Un human-in-the-loop sera-t-il toujours en parfait accord avec l'IA ? Réponse No.
  • L'IA sera-t-elle toujours en parfait accord avec un human-in-the-loop ? Réponse Non.
  • Un human-in-the-loop aura-t-il toujours raison par rapport à l'IA ? Réponse Pas nécessairement.
  • L'IA aura-t-elle toujours raison par rapport à l'humain dans la boucle ? Réponse : Pas nécessairement.

Vous pouvez certainement configurer l'IA pour qu'elle soit considérée par défaut comme la "mauvaise" partie ou la plus faible et donc toujours s'en remettre à l'humain chaque fois qu'un désaccord apparaît. De même, vous pouvez configurer l'IA pour supposer que l'IA est considérée comme "correcte" chaque fois qu'un humain est en désaccord avec l'IA. Je tiens à préciser que nous pouvons le faire par programmation si nous le souhaitons. Je prétends cependant qu'en général, ce ne sera pas toujours le cas. Il y a assurément des contextes dans lesquels on ne sait pas à l'avance si l'IA a « raison » ou l'humain a « raison » d'opter pour l'un ou l'autre sur un désaccord lié à une tâche donnée.

Je vous ai amené à une question très importante et très compliquée.

Que devons-nous faire lorsqu'un désaccord professionnel survient entre l'humain dans la boucle et l'IA (ou, de manière équivalente, nous pouvons formuler cela comme étant entre l'IA et l'humain dans la boucle) ?

N'essayez pas d'esquiver la question.

Certains pourraient dire que cela n'arriverait jamais, mais comme je l'ai expliqué dans mon exemple sur la voiture, cela pourrait sûrement arriver. Certains pourraient soutenir qu'un humain est évidemment supérieur et doit être le vainqueur de tout désaccord. Mon exemple de la voiture et du mur de briques fait tomber celui-là. Il y a des partisans de l'IA qui pourraient insister sur le fait que l'IA doit être la gagnante, en raison du dépassement ostensible des émotions humaines et de la pensée gratuite de ces humains à la pensée floue au hasard. Encore une fois, mon autre exemple impliquant la voiture se dirigeant vers le fossé contredit cette affirmation.

Dans le monde réel, l'IA et les humains vont être en désaccord, même lorsque les deux sont délibérément amenés dans une situation d'équipe pour effectuer une tâche entreprise conjointement. Ça va arriver. Nous ne pouvons pas nous mettre la tête dans le sable et prétendre que cela ne se produira pas.

Nous avons vu que les humains qui pilotaient l'avion étaient apparemment en désaccord. Heureusement, ils ont accepté d'être en désaccord, semble-t-il. Ils ont ramené l'avion au terminal. Ils ont trouvé un moyen de régler le désaccord. La résolution de leur désaccord a bien fonctionné, par rapport à s'ils s'étaient peut-être battus dans le cockpit ou s'étaient envolés dans les airs et continuaient à être combatifs les uns avec les autres. C'est un scénario douloureux qui est intenable, et nous pouvons être reconnaissants qu'il ne se soit pas produit.

Permettez-moi de fournir ma liste des différentes manières dont les désaccords entre l'IA et l'humain dans la boucle (ou l'humain dans la boucle et l'IA) pourraient être résolus :

  • L'IA et l'humain en équipe s'arrangent (à l'amiable ou non)
  • L'humain l'emporte sur l'IA, par défaut
  • L'IA l'emporte sur l'humain, par défaut
  • Une autre résolution fixe prédéterminée prévaut, par défaut
  • L'humain tiers est bouclé et son indication prévaut sur les parties
  • L'IA tierce est bouclée et son indication prévaut sur les parties
  • L'humain tiers remplace l'humain existant, les choses recommencent
  • L'IA tierce remplace l'IA existante, les choses recommencent
  • L'humain tiers remplace l'IA existante, les choses recommencent (maintenant d'humain à humain)
  • L'IA tierce remplace l'humain existant, les choses recommencent (maintenant AI-to-AI)
  • Autre

Ceux-ci sont amplement dignes d'être déballés.

Avant d'entrer dans un peu plus de viande et de pommes de terre sur les considérations sauvages et laineuses sous-jacentes à la façon de traiter l'IA et les désaccords humains, exposons quelques principes fondamentaux supplémentaires sur des sujets profondément essentiels. Nous devons brièvement nous plonger dans l'éthique de l'IA et en particulier l'avènement de l'apprentissage automatique (ML) et de l'apprentissage en profondeur (DL).

Vous savez peut-être vaguement que l'une des voix les plus fortes ces jours-ci dans le domaine de l'IA et même en dehors du domaine de l'IA consiste à réclamer un plus grand semblant d'IA éthique. Voyons ce que signifie faire référence à l'éthique de l'IA et à l'IA éthique. En plus de cela, nous explorerons ce que je veux dire lorsque je parle d'apprentissage automatique et d'apprentissage en profondeur.

Un segment ou une partie particulière de l'éthique de l'IA qui a retenu l'attention des médias est l'IA qui présente des préjugés et des inégalités fâcheux. Vous savez peut-être que lorsque la dernière ère de l'IA a commencé, il y a eu un énorme élan d'enthousiasme pour ce que certains appellent maintenant AI pour de bon. Malheureusement, dans la foulée de cette excitation jaillissante, nous avons commencé à être témoins AI pour le mal. Par exemple, divers systèmes de reconnaissance faciale basés sur l'IA se sont révélés contenir des préjugés raciaux et des préjugés sexistes, dont j'ai discuté à le lien ici.

Des efforts pour lutter contre AI pour le mal sont activement en cours. En plus bruyant légal Dans le but de freiner les actes répréhensibles, il y a aussi une poussée substantielle vers l'adoption de l'éthique de l'IA pour redresser la méchanceté de l'IA. L'idée est que nous devons adopter et approuver les principes clés de l'IA éthique pour le développement et la mise en service de l'IA afin de saper le AI pour le mal et simultanément annonçant et promouvant le meilleur AI pour de bon.

Dans le même ordre d'idées, je préconise d'essayer d'utiliser l'IA dans le cadre de la solution aux problèmes de l'IA, en combattant le feu par le feu de cette façon de penser. Nous pourrions par exemple intégrer des composants d'IA éthique dans un système d'IA qui surveillera comment le reste de l'IA fait les choses et donc potentiellement détecter en temps réel tout effort discriminatoire, voir ma discussion sur le lien ici. Nous pourrions également avoir un système d'IA distinct qui agit comme un type de moniteur d'éthique de l'IA. Le système d'IA sert de surveillant pour suivre et détecter quand une autre IA entre dans l'abîme contraire à l'éthique (voir mon analyse de ces capacités sur le lien ici).

Dans un instant, je partagerai avec vous quelques principes fondamentaux qui sous-tendent l'éthique de l'IA. Il y a beaucoup de ce genre de listes qui flottent ici et là. On pourrait dire qu'il n'existe pas encore de liste unique d'appel universel et de concurrence. C'est la malheureuse nouvelle. La bonne nouvelle est qu'il existe au moins des listes d'éthique de l'IA facilement disponibles et qu'elles ont tendance à être assez similaires. Tout compte fait, cela suggère que par une sorte de convergence raisonnée, nous trouvons notre chemin vers une communauté générale de ce en quoi consiste l'éthique de l'IA.

Tout d'abord, couvrons brièvement certains des préceptes généraux de l'IA éthique pour illustrer ce qui devrait être une considération vitale pour quiconque élabore, met en service ou utilise l'IA.

Par exemple, comme l'a déclaré le Vatican dans le Appel de Rome pour l'éthique de l'IA et comme je l'ai couvert en profondeur à le lien ici, voici les six principaux principes éthiques de l'IA qu'ils ont identifiés :

  • Transparence: En principe, les systèmes d'IA doivent être explicables
  • Inclusion: Les besoins de tous les êtres humains doivent être pris en considération pour que chacun puisse en bénéficier, et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer et s'épanouir.
  • Responsabilité: Ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder avec responsabilité et transparence
  • Impartialité: Ne créez pas ou n'agissez pas selon des préjugés, préservant ainsi l'équité et la dignité humaine
  • Fiabilité: Les systèmes d'IA doivent pouvoir fonctionner de manière fiable
  • Sécurité et confidentialité: Les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs.

Comme indiqué par le département américain de la Défense (DoD) dans leur Principes éthiques pour l'utilisation de l'intelligence artificielle et comme je l'ai couvert en profondeur à le lien ici, voici leurs six principes éthiques principaux en matière d'IA :

  • Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.
  • Équitable: Le Département prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités d'IA.
  • Traçable: Les capacités d'IA du Ministère seront développées et déployées de manière à ce que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris des méthodologies transparentes et vérifiables, des sources de données, ainsi que des procédures et de la documentation de conception.
  • Fiable: Les capacités d'IA du Ministère auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
  • Gouvernable: Le Département concevra et mettra au point des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter les conséquences imprévues, et la capacité de désengager ou de désactiver les systèmes déployés qui présentent un comportement imprévu.

J'ai également discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et comment ils doivent être généralement observés, alors que c'est une situation beaucoup plus compliquée dans le codage de l'IA devant être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme indiqué précédemment, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Assurons-nous également que nous sommes sur la même longueur d'onde quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur sensible AI, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Gardons les choses plus terre à terre et considérons l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Revenons à notre concentration sur les désaccords entre l'IA et un humain.

J'ai indiqué précédemment que voici quelques-unes des stratégies de résolution des désaccords :

  • L'IA et l'humain en équipe s'arrangent (à l'amiable ou non)
  • L'humain l'emporte sur l'IA, par défaut
  • L'IA l'emporte sur l'humain, par défaut
  • Une autre résolution fixe prédéterminée prévaut, par défaut
  • L'humain tiers est bouclé et son indication prévaut sur les parties
  • L'IA tierce est bouclée et son indication prévaut sur les parties
  • L'humain tiers remplace l'humain existant, les choses recommencent
  • L'IA tierce remplace l'IA existante, les choses recommencent
  • L'humain tiers remplace l'IA existante, les choses recommencent (maintenant d'humain à humain)
  • L'IA tierce remplace l'humain existant, les choses recommencent (maintenant AI-to-AI)
  • Autre

Il est temps de les déballer.

D'abord, considérez qu'il s'agit de professionels désaccords.

Un désaccord professionnel est vaguement défini comme un désaccord associé à une tâche liée au travail.

Par exemple, un désaccord qui survient entre un pilote et un copilote sur l'opportunité de poursuivre un vol face à une tempête pourrait raisonnablement être qualifié de désaccord professionnel. En revanche, un désaccord véhément sur la marque de café que le pilote préconise par rapport à la marque que le copilote préfère est facilement classé comme un désaccord non professionnel dans ce contexte particulier.

Bien entendu, si un désaccord non professionnel s'immisce dans un désaccord professionnel, on pourrait finalement s'intéresser au désaccord non professionnel comme source ou étincelle présumée du désaccord professionnel. Imaginez qu'un pilote et un copilote se disputent amèrement pour savoir quelle marque de café est la meilleure, ce qui se répercute ensuite malheureusement sur des préoccupations spécifiques au vol (jeu de mots !), comme s'il faut décoller ou non.

Deuxièmement, nous devons garder à l'esprit l'ampleur du désaccord professionnel.

Peut-être le pilote et le copilote ou en léger désaccord sur la poursuite du vol. Ils ne sont pas à couteaux tirés et se contentent d'envisager le pour et le contre du décollage. Ce n'est pas le calibre ou l'ampleur d'un désaccord professionnel que nous examinons habituellement ici. Le fait est qu'il se peut que le désaccord professionnel soit transitoire et que les deux parties trouvent une solution cordialement ou du moins en temps opportun. En règle générale, les désaccords professionnels dans le champ d'application sont ceux qui semblent insolubles, et les deux parties restent fermement en désaccord.

Troisièmement, il doit généralement y avoir quelque chose de sérieux en jeu pour que ces lignes directrices entrent en jeu.

Choisir de voler ou de ne pas voler est une décision de vie ou de mort si le vol est menacé en raison d'une tempête ou si l'avion n'est pas entièrement préparé pour un tel voyage. C'est une affaire sérieuse. Nous pouvons toujours appliquer les lignes directrices aux désaccords professionnels les moins percutants, bien que cela puisse être plus gênant que cela n'en vaut la peine.

D'accord, nos considérations sont les suivantes :

  • Le désaccord est principalement orienté professionnellement plutôt que sur quelque chose de non professionnel
  • Le désaccord est de nature durable et non simplement transitoire ou autrement facilement résolu
  • Le désaccord prédit des conséquences graves et a généralement un impact important
  • Les partis sont à couteaux tirés et ils semblent intraitables

Examinons maintenant de plus près chacune de mes directives ou approches suggérées concernant la façon de faire face à de tels désaccords professionnels.

L'IA et l'humain en équipe s'arrangent (à l'amiable ou non)

Je commence la liste par la simple possibilité que l'IA et l'humain dans la boucle soient capables de résoudre le désaccord professionnel entre eux. Il semble que peut-être l'exemple des deux humains, le pilote et le copilote illustrent ce genre de circonstance. Ils ont en quelque sorte résolu de retourner au terminal et de se séparer. Il se peut qu'un système d'IA et un humain soient capables de trouver une approche de résolution qui soit généralement satisfaisante pour les deux parties et que l'affaire soit ainsi conclue de manière satisfaisante.

L'humain l'emporte sur l'IA, par défaut

Lors de la configuration de l'IA, nous pourrions programmer une règle selon laquelle l'humain dans la boucle prévaudra toujours en cas de désaccord professionnel. Ce serait la valeur par défaut explicitement codée. Nous pourrions également autoriser une certaine forme de dérogation, juste au cas où, bien que la règle permanente soit que l'humain l'emporte.

L'IA l'emporte sur l'humain, par défaut

Lors de la configuration de l'IA, nous pourrions programmer une règle selon laquelle l'IA prévaudra toujours sur l'humain dans la boucle chaque fois qu'un désaccord professionnel survient. Il s'agit de la valeur par défaut explicitement codée. Nous pourrions également autoriser une certaine forme de dérogation, juste au cas où, bien que la règle permanente soit que l'IA prévaut.

Une autre résolution fixe prédéterminée prévaut, par défaut

Lors de la configuration de l'IA, nous pourrions programmer une règle qui dit qu'une autre résolution fixe prédéterminée prévaudra chaque fois qu'un désaccord professionnel survient avec l'humain dans la boucle. L'humain dans la boucle ne prévaut pas par défaut. L'IA ne prévaut pas par défaut. Il existe une autre solution pré-identifiée. Par exemple, il y a peut-être le tirage au sort qui sera utilisé pour décider laquelle des deux parties est considérée comme la bonne voie à suivre. Cela semblerait évidemment assez arbitraire ; ainsi, un autre exemple d'approche serait qu'une règle spécialisée entre en jeu qui calcule une valeur basée sur les entrées des deux parties et arrive à un résultat en tant que bris d'égalité.

L'humain tiers est bouclé et son indication prévaut sur les parties

Lors d'un désaccord professionnel, une règle pourrait être qu'un tiers qui est un être humain soit invoqué et mis en boucle dans le cadre pour prendre une décision sur la résolution du désaccord. L'IA est programmée pour s'en remettre à tout ce que l'humain tiers décide. L'humain déjà dans l'humain-dans-la-boucle a été informé à l'avance que si une telle situation se présentait, il devait également s'en remettre à l'humain tiers. Soit dit en passant, vous pouvez probablement anticiper que l'humain dans la boucle pourrait avoir de l'angoisse à l'idée d'accéder à tout ce que l'humain tiers décide si la décision n'est pas d'accord avec la posture de l'humain dans la boucle.

L'IA tierce est bouclée et son indication prévaut sur les parties

En cas de désaccord professionnel, une règle pourrait être qu'un tiers qui est un système d'IA différent soit invoqué et mis en boucle dans le cadre pour prendre une décision sur la résolution du désaccord. L'IA d'origine est programmée pour s'en remettre à tout ce que l'IA tierce décide. L'humain déjà dans l'human-in-the-loop a été informé à l'avance que si une telle situation se présentait, il devait également s'en remettre à l'IA tierce. Soit dit en passant, vous pouvez probablement anticiper que l'humain dans la boucle pourrait avoir de l'angoisse à l'idée d'accéder à tout ce que l'IA tierce décide si la décision n'est pas d'accord avec la posture de l'humain dans la boucle.

L'humain tiers remplace l'humain existant, les choses recommencent

Lors d'un désaccord professionnel, l'humain-dans-la-boucle est remplacé par un tiers qui est un humain et qui devient désormais l'humain-dans-la-boucle. L'humain qui était l'humain dans la boucle d'origine pour la tâche n'est plus considéré comme faisant partie de la tâche à accomplir. C'est un aspect ouvert quant à ce qui se passe autrement avec l'humain dans la boucle maintenant remplacé, mais nous disons qu'il est certain qu'ils n'ont plus de rôle continu dans la tâche de travail.

L'IA tierce remplace l'IA existante, les choses recommencent

Lors d'un désaccord professionnel, l'IA est remplacée par une IA tierce et celle-ci devient désormais l'IA utilisée pour la tâche à accomplir. L'IA qui était initialement utilisée pour la tâche n'est plus considérée comme faisant partie de la tâche en cours. C'est un aspect ouvert quant à ce qui se passe autrement avec l'IA désormais remplacée, mais nous disons qu'à coup sûr, l'IA n'a plus de rôle permanent dans la tâche de travail.

L'humain tiers remplace l'IA existante, les choses recommencent (maintenant d'humain à humain)

En cas de désaccord professionnel, l'IA est remplacée par un tiers humain pour qui cette personne devient désormais la partie co-équipée considérée qui sera utilisée pour la tâche à accomplir. L'IA qui était initialement utilisée pour la tâche n'est plus considérée comme faisant partie de la tâche en cours. C'est un aspect ouvert quant à ce qui se passe autrement avec l'IA désormais remplacée, mais nous disons qu'à coup sûr, l'IA n'a plus de rôle permanent dans la tâche de travail. En bref, cela devient maintenant une tâche effectuée d'homme à homme à deux.

L'IA tierce remplace l'humain existant, les choses recommencent (maintenant AI-to-AI)

Lors d'un désaccord professionnel, l'human-in-the-loop est remplacé par une IA tierce et cette IA devient désormais le remplaçant de l'human-in-the-loop précédent. L'humain qui était l'humain dans la boucle d'origine pour la tâche n'est plus considéré comme faisant partie de la tâche à accomplir. C'est un aspect ouvert quant à ce qui se passe autrement avec l'humain dans la boucle maintenant remplacé, mais nous disons qu'il est certain qu'ils n'ont plus de rôle continu dans la tâche de travail. En bref, cela devient maintenant une IA à deux parties pour effectuer la tâche.

Autre

D'autres variantes peuvent être conçues pour faire face à un désaccord professionnel, mais nous avons couvert ici certaines des clés de voûte.

Comment allons-nous décider laquelle de ces approches sera la bonne pour une situation donnée?

Une grande variété de questions entrent en jeu pour faire un tel choix. Il y a des considérations technologiques. Il y a des considérations commerciales. Il y a des considérations juridiques et éthiques.

Dans une certaine mesure, c'est pourquoi l'éthique de l'IA et l'IA éthique sont un sujet si crucial. Les préceptes de l'IA Ethics nous incitent à rester vigilants. Les technologues en IA peuvent parfois devenir préoccupés par la technologie, en particulier l'optimisation de la haute technologie. Ils ne tiennent pas nécessairement compte des ramifications sociétales plus larges. Avoir une mentalité d'éthique de l'IA et le faire intégralement pour le développement et la mise en service de l'IA est essentiel pour produire une IA appropriée, y compris (peut-être de manière surprenante ou ironique) l'évaluation de la façon dont l'éthique de l'IA est adoptée par les entreprises.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. En fait, ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux.

À ce stade de cette discussion importante, je parierais que vous êtes désireux d'exemples illustratifs qui pourraient présenter ce sujet. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur la résolution des désaccords entre l'IA et l'homme, et si oui, qu'est-ce que cela montre ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles où l'IA conduit la voiture entièrement seule et il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de véritable voiture autonome au niveau 5, et nous ne savons même pas encore si cela sera possible d'y parvenir, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et désaccord entre l'intelligence artificielle et l'humain

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournira une litanie suffisante de mises en garde pour étayer ce que je suis sur le point de raconter.

Pour les véhicules entièrement autonomes, il n'y a peut-être aucune chance de désaccord professionnel entre un humain et l'IA en raison de la possibilité qu'il n'y ait pas d'humain dans la boucle pour commencer. L'aspiration de nombreux constructeurs de voitures autonomes d'aujourd'hui est de retirer complètement le conducteur humain de la tâche de conduite. Le véhicule ne contiendra même pas de commandes de conduite accessibles à l'homme. Dans ce cas, un conducteur humain, s'il est présent, ne pourra pas participer à la tâche de conduite car il n'a accès à aucune commande de conduite.

Pour certains véhicules entièrement autonomes, certaines conceptions permettent toujours à un humain d'être dans la boucle, bien que l'humain n'ait pas besoin d'être disponible ou de participer du tout au processus de conduite. Ainsi, un humain peut participer à la conduite, s'il le souhaite. À aucun moment cependant, l'IA ne dépend de l'humain pour effectuer l'une des tâches de conduite.

Dans le cas des véhicules semi-autonomes, il existe une relation main dans la main entre le conducteur humain et l'IA. Le conducteur humain peut prendre entièrement en charge les commandes de conduite et empêcher essentiellement l'IA de participer à la conduite. Si le conducteur humain souhaite réintégrer l'IA dans le rôle de conduite, il peut le faire, bien que cela oblige parfois l'humain à abandonner les commandes de conduite.

Une autre forme de fonctionnement semi-autonome impliquerait que le conducteur humain et l'IA travaillent ensemble en équipe. L'IA conduit et l'humain conduit. Ils roulent ensemble. L'IA pourrait s'en remettre à l'humain. L'humain pourrait s'en remettre à l'IA.

À un moment donné, le système de conduite IA et le conducteur humain dans la boucle pourraient atteindre un point de « désaccord professionnel » quant à la tâche de conduite à accomplir.

Pour illustrer comment certaines des règles susmentionnées de traitement d'un désaccord professionnel peuvent être difficiles à mettre en œuvre, considérons le cas d'invoquer un tiers humain pour entrer dans l'affaire et proposer une décision pour résoudre le problème non résolu.

Supposons qu'un constructeur automobile ou une entreprise de technologie autonome ait pris des dispositions pour que des opérateurs humains à distance aient accès aux commandes de conduite des véhicules de leur flotte. L'opérateur humain est assis dans un bureau éloigné ou dans un cadre apparenté. Via un système informatique, ils peuvent visualiser la scène de conduite en accédant aux caméras et autres dispositifs de détection chargés sur la voiture autonome. Pour eux, c'est presque comme jouer à un jeu vidéo en ligne, même si, bien sûr, les circonstances de la vie réelle ont des conséquences potentiellement désastreuses.

Un système d'intelligence artificielle et un conducteur humain à l'intérieur de la voiture conduisent un véhicule semi-autonome sur une longue autoroute. Tout d'un coup, l'IA veut se diriger vers un fossé. Le conducteur humain ne veut pas faire ça. Les deux se disputent les commandes de conduite.

Comment cela sera-t-il résolu ?

On aurait peut-être pu instituer d'avance que l'humain gagne toujours. Supposons cependant que nous avons choisi de ne pas le faire.

Nous aurions pu instituer à l'avance que l'IA gagne toujours. Supposons que nous avons choisi de ne pas le faire. Dans l'ensemble, nous n'avons adopté aucune de ces règles, si ce n'est que nous avons décidé de permettre à un tiers humain d'intervenir et de résoudre un différend professionnel de quelque nature que ce soit.

Dans ce cas d'utilisation, l'IA et le conducteur humain au volant se battent pour les commandes de conduite. Ceci est, disons, transmis à l'opérateur humain distant (notre humain tiers). L'opérateur humain à distance examine ce qui se passe et décide de s'éloigner du fossé, évitant apparemment ce que l'IA essayait de faire. En même temps, supposons que l'opérateur humain à distance se dirige vers le trafic venant en sens inverse, ce que peut-être ni l'IA ni le conducteur humain à l'intérieur de la voiture n'avaient voulu faire.

Le fait est que la manière dont cette règle a été mise en œuvre est que l'opérateur humain tiers est capable de remplacer complètement à la fois l'IA et l'humain dans la boucle. Que cela produise un bon résultat n'est assurément pas assuré.

Je vais utiliser cet exemple pour mettre en évidence quelques idées supplémentaires sur ces questions.

Vous ne pouvez pas faire l'hypothèse effrontée que simplement parce que l'une de ces règles est mise en place, le résultat du désaccord résolu est nécessairement un bon résultat garanti. Ce n'est peut-être pas le cas. Il n'y a pas de type de règle à toute épreuve qui puisse être sélectionné.

Ensuite, certaines de ces règles pourraient ne pas être mises en œuvre de manière viable.

Prenons l'exemple de l'opérateur humain à distance intervenant lorsque l'IA et le conducteur humain se disputent les commandes de conduite. Cela peut prendre plusieurs secondes à l'opérateur humain distant pour comprendre ce qui se passe. À ce moment-là, le véhicule pourrait déjà s'être retrouvé dans le fossé ou avoir eu un autre résultat négatif. Supposons également que l'emplacement du véhicule empêche l'accès à distance, par exemple dans un endroit où il n'y a pas de connectivité électronique réseau. Ou peut-être que les fonctionnalités de mise en réseau du véhicule ne fonctionnent pas à ce moment précis.

Comme vous pouvez le voir, la règle peut sembler dandy sur le papier, bien que l'application réelle de la règle puisse être une approche très difficile ou très risquée. Voir ma couverture de l'œil critique sur l'opérateur à distance des véhicules autonomes et des voitures autonomes à le lien ici.

J'aimerais aborder brièvement un autre sujet connexe que j'aborderai plus en profondeur dans une prochaine analyse.

L'une des préoccupations croissantes concernant les véhicules autonomes et les voitures autonomes semi-autonomes est la soi-disant Syndrome de la patate chaude.

Voici l'affaire.

Un système de conduite IA et un humain co-conduisent. Une situation difficile surgit. L'IA a été programmée pour abandonner la tâche de conduite et remettre les choses à l'humain lorsqu'un moment difficile se produit. Cela semble peut-être « sensé » dans la mesure où nous semblons invoquer la règle selon laquelle l'être humain est le « gagnant » par défaut de tout désaccord professionnel potentiel.

Mais l'abandon de l'IA pourrait être à des fins plus néfastes ou considérées comme insidieuses. Il se peut que le constructeur automobile ou l'entreprise de technologie autonome ne veuille pas que son IA soit considérée comme la « partie fautive » lorsqu'un accident de voiture se produit. Pour éviter apparemment d'être coincé comme ça, l'IA remet brusquement les commandes à l'humain. Voila, l'humain est maintenant vraisemblablement entièrement responsable du véhicule.

Le kicker est que supposons que l'IA effectue ce transfert avec, disons, une seconde avant qu'un crash ne se produise.

L'humain aurait-il vraiment du temps pour éviter le crash ?

Probablement pas.

Supposons que l'IA effectue le transfert avec quelques millisecondes ou nanosecondes restantes. J'ose dire que l'humain n'a pratiquement aucune chance de faire quoi que ce soit pour éviter le crash.

Du point de vue du constructeur automobile ou de l'entreprise de voitures autonomes, ils peuvent essayer d'agir comme si leurs mains étaient propres lorsqu'un tel accident de voiture se produit. La voiture était conduite par un humain. L'IA ne conduisait pas la voiture. La seule conclusion "logique" semblerait être que l'humain doit être fautif et que l'IA doit être totalement irréprochable.

C'est un pot.

J'en parlerai plus en détail dans une prochaine chronique.

Conclusion

Des désaccords professionnels vont survenir.

Il est difficile d'imaginer une tâche complexe impliquant deux parties co-exécutant la tâche et pour laquelle il n'y aurait jamais de désaccords professionnels. Cela ressemble à un pays imaginaire ou du moins à une grande rareté.

Aujourd'hui, nous avons de très nombreux cas de désaccords professionnels entre humains, pour lesquels des résolutions sont quotidiennement pacifiquement et raisonnablement trouvées d'une manière ou d'une autre. En fait, nous mettons souvent en place des situations intentionnellement pour favoriser et faire émerger des désaccords professionnels. Vous pourriez dire que cela met en valeur la célèbre sagesse selon laquelle parfois deux têtes valent mieux qu'une.

À mesure que l'IA deviendra plus répandue, nous aurons de nombreux exécutants de tâches bipartites IA-humain ou humain-IA et il y aura désaccords professionnels cela se produira. L'approche paresseuse consiste à toujours s'en remettre à l'humain. Ce n'est peut-être pas l'approche la plus appropriée. L'IA pourrait être le meilleur choix. Ou l'une des autres règles susmentionnées pourrait être une approche plus judicieuse.

Il y a cette ligne sage souvent répétée selon laquelle nous devrions tous être généralement en mesure d'accepter d'être en désaccord, bien que lorsqu'il s'agit du fil, un désaccord doit parfois être résolu sans équivoque, sinon le problème en cours conduira à une calamité indicible. Nous ne pouvons pas simplement laisser un désaccord languir sur la vigne. Le temps presse peut-être et des vies peuvent être en jeu.

Il existe une exigence claire pour certains moyens prudents de résoudre les désaccords, même s'ils ne sont pas nécessairement agréables, y compris lorsque l'IA et un humain dans la boucle ne sont pas d'accord ni octet à octet.

J'espère que vous ne serez pas en désaccord avec cette affirmation tout à fait agréable.

Source : https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- le-pilote-et-le-co-pilote-étaient-en-désaccord-avant-le-décollage-et-ont-brusquement-choisi-de-retourner-au-terminal-et-se-parallèlement/