L'éthique de l'IA est sceptique quant à l'établissement de soi-disant lois d'alerte rouge sur l'IA pour dénoncer les algorithmes biaisés dans les systèmes d'IA autonomes

Parlons des lois du drapeau rouge.

Vous savez sans doute que la notion de Red Flag Laws a été largement couverte par l'actualité ces derniers temps. Les titres couvrant le sujet sont nombreux. Les passions et les débats passionnés sur ces questions sont au premier plan des préoccupations de la société et impliquent les lois actuelles et émergentes sur les armes à feu Red Flag.

J'oserais dire cependant que vous ne connaissez peut-être pas d'autres lois sur le drapeau rouge promulguées à la fin des années 1800 concernant les véhicules motorisés et les précurseurs des automobiles modernes d'aujourd'hui. Oui, c'est vrai, les lois du drapeau rouge remontent à l'histoire, bien qu'elles couvrent d'autres sujets par rapport à l'orientation contemporaine d'aujourd'hui. Celles-ci sont généralement appelées lois de circulation Red Flag.

Ces lois maintenant centenaires et tout à fait caduques exigeaient que tout chariot motorisé ou moteur propulsé par la vapeur devait à l'époque avoir un adulte devant le véhicule et porter un drapeau rouge à des fins d'avertissement. L'idée était que le bétail pourrait être alarmé par ces engins bruyants et acariâtres qui dévalaient lentement et de manière inégale la terre ou les routes légèrement pavées, ainsi faire marcher quelqu'un devant l'appareil tout en agitant vigoureusement un drapeau rouge pourrait, espérons-le, éviter les calamités. Au cas où vous vous poseriez la question, les chemins de fer et les trains étaient considérés comme exclus des mêmes lois car ils étaient des véhicules intégralement liés aux rails et avaient d'autres lois couvrant leurs actions.

Imaginez devoir agiter des drapeaux rouges aujourd'hui comme une exigence pour chaque voiture sur nos routes publiques.

Par exemple, un automobiliste ordinaire descendant la rue de votre quartier devrait s'assurer qu'un adulte agitant un drapeau rouge soit présent et défile devant la voiture en mouvement. Cela devrait avoir lieu pour chaque véhicule passant dans votre rue. Peut-être que les gens deviendraient des jobbers de drapeau rouge qui embauchaient des automobilistes de passage qui, autrement, n'avaient pas d'ami ou de parent qui pourrait aller devant eux et faire l'action stipulée.

On a tendance aujourd'hui à associer le drapeau rouge lié à l'autoroute aux chantiers de construction de chaussée. Lorsque vous vous approcherez d'une route creusée, des travailleurs brandiront un drapeau rouge pour attirer votre attention. Cela vous indique de ralentir et d'être en alerte. Il pourrait y avoir un bulldozer qui va se faufiler sur votre chemin. Un trou géant peut se trouver devant vous et vous devrez le contourner avec précaution.

Mais revenons à l'utilisation des drapeaux rouges dans les années 1800.

Croyez-le ou non, le porte-drapeau rouge était censé avoir au moins un huitième de mille d'avance sur la prochaine machine motorisée. Cela semble être une distance assez longue. On suppose cependant que cela avait beaucoup de sens à l'époque. Les bruits surprenants du moteur et peut-être la simple vue du véhicule pourraient suffire à énerver les animaux. Certaines des lois du drapeau rouge de cette époque exigeaient également qu'un feu rouge brillant soit maintenu en l'air pendant la nuit afin qu'un avertissement de précaution rouge visuellement apparent puisse être vu d'une distance sombre.

En général, je pense qu'il est juste d'affirmer qu'en tant que société, nous avons tendance à associer un drapeau rouge à une sorte de signal ou de signalisation indiquant que quelque chose ne va pas ou du moins nécessite notre attention.

Préparez-vous à une petite tournure sur ce phénomène de drapeau rouge.

Il y a une affirmation selon laquelle nous devrions exiger des dispositions de drapeau rouge en ce qui concerne l'intelligence artificielle (IA).

C'est un peu surprenant et un concept surprenant qui fait gratter beaucoup de têtes. Vous pourriez être perplexe quant à savoir comment ou pourquoi il devrait y avoir de soi-disant Lois sur l'IA Red Flag. Veuillez noter que j'appelle cela les lois sur l'IA du drapeau rouge pour différencier la question des lois sur la circulation du drapeau rouge (telles que celles de la fin des années 1800) et aussi pour les distinguer des autres lois sur les armes à feu du drapeau rouge plus répandues d'aujourd'hui.

Avons-nous réellement besoin de lois Red Flag sur l'IA qui soient distinctement et uniquement axées sur les questions d'IA ?

Ceux qui sont favorables à l'approche proposée insisteraient sur le fait que nous avons absolument besoin de dispositions juridiques qui aideraient à réprimer l'IA qui contient des préjugés indus et agit de manière discriminatoire. À l'heure actuelle, la construction et le déploiement de l'IA s'apparentent à une circonstance à tout faire du Far West. Les efforts visant à freiner la mauvaise IA dépendent actuellement de la formulation et de l'adoption de lignes directrices sur l'éthique de l'IA. Pour ma couverture continue et étendue de l'éthique de l'IA et de l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Les lois qui encadrent la mauvaise IA sont lentement conçues et promulguées, voir ma couverture sur le lien ici. Certains craignent que les législateurs n'aillent pas assez vite. Il semble que les vannes permettant de favoriser l'IA biaisée dans le monde soient largement ouvertes en ce moment. La torsion des mains dit qu'au moment où de nouvelles lois entreront dans les livres, le génie maléfique sera déjà sorti de la bouteille.

Pas si vite, les contre-arguments vont. Les inquiétudes sont que si les lois sont mises en place trop rapidement, nous tuerons la poule aux œufs d'or, pour ainsi dire, par laquelle les efforts d'IA se tariront et nous n'obtiendrons pas les avantages sociétaux des nouveaux systèmes d'IA. Les développeurs d'IA et les entreprises souhaitant utiliser l'IA pourraient être effrayés si un éventail byzantin de nouvelles lois régissant l'IA est soudainement mis en place aux niveaux fédéral, étatique et local, sans parler des lois internationales liées à l'IA qui progressent également.

Dans cette affaire désordonnée vient l'appel aux lois Red Flag sur l'IA.

Avant d'entrer dans un peu plus de viande et de pommes de terre sur les considérations sauvages et laineuses qui sous-tendent la loi envisagée sur l'IA Red Flag, établissons quelques principes fondamentaux supplémentaires sur des sujets profondément essentiels. Nous devons brièvement nous plonger dans l'éthique de l'IA et en particulier l'avènement de l'apprentissage automatique (ML) et de l'apprentissage en profondeur (DL).

Vous savez peut-être vaguement que l'une des voix les plus fortes ces jours-ci dans le domaine de l'IA et même en dehors du domaine de l'IA consiste à réclamer un plus grand semblant d'IA éthique. Voyons ce que signifie faire référence à l'éthique de l'IA et à l'IA éthique. En plus de cela, nous explorerons ce que je veux dire lorsque je parle d'apprentissage automatique et d'apprentissage en profondeur.

Un segment ou une partie particulière de l'éthique de l'IA qui a retenu l'attention des médias est l'IA qui présente des préjugés et des inégalités fâcheux. Vous savez peut-être que lorsque la dernière ère de l'IA a commencé, il y a eu un énorme élan d'enthousiasme pour ce que certains appellent maintenant AI pour de bon. Malheureusement, dans la foulée de cette excitation jaillissante, nous avons commencé à être témoins AI pour le mal. Par exemple, divers systèmes de reconnaissance faciale basés sur l'IA se sont révélés contenir des préjugés raciaux et des préjugés sexistes, dont j'ai discuté à le lien ici.

Des efforts pour lutter contre AI pour le mal sont activement en cours. En plus bruyant légal Dans le but de freiner les actes répréhensibles, il y a aussi une poussée substantielle vers l'adoption de l'éthique de l'IA pour redresser la méchanceté de l'IA. L'idée est que nous devons adopter et approuver les principes clés de l'IA éthique pour le développement et la mise en service de l'IA afin de saper le AI pour le mal et simultanément annonçant et promouvant le meilleur AI pour de bon.

Dans le même ordre d'idées, je préconise d'essayer d'utiliser l'IA dans le cadre de la solution aux problèmes de l'IA, en combattant le feu par le feu de cette façon de penser. Nous pourrions par exemple intégrer des composants d'IA éthique dans un système d'IA qui surveillera comment le reste de l'IA fait les choses et donc potentiellement détecter en temps réel tout effort discriminatoire, voir ma discussion sur le lien ici. Nous pourrions également avoir un système d'IA distinct qui agit comme un type de moniteur d'éthique de l'IA. Le système d'IA sert de surveillant pour suivre et détecter quand une autre IA entre dans l'abîme contraire à l'éthique (voir mon analyse de ces capacités sur le lien ici).

Dans un instant, je partagerai avec vous quelques principes fondamentaux qui sous-tendent l'éthique de l'IA. Il y a beaucoup de ce genre de listes qui flottent ici et là. On pourrait dire qu'il n'existe pas encore de liste unique d'appel universel et de concurrence. C'est la malheureuse nouvelle. La bonne nouvelle est qu'il existe au moins des listes d'éthique de l'IA facilement disponibles et qu'elles ont tendance à être assez similaires. Tout compte fait, cela suggère que par une sorte de convergence raisonnée, nous trouvons notre chemin vers une communauté générale de ce en quoi consiste l'éthique de l'IA.

Tout d'abord, couvrons brièvement certains des préceptes généraux de l'IA éthique pour illustrer ce qui devrait être une considération vitale pour quiconque élabore, met en service ou utilise l'IA.

Par exemple, comme l'a déclaré le Vatican dans le Appel de Rome pour l'éthique de l'IA et comme je l'ai couvert en profondeur à le lien ici, voici les six principaux principes éthiques de l'IA qu'ils ont identifiés :

  • Transparence: En principe, les systèmes d'IA doivent être explicables
  • Inclusion: Les besoins de tous les êtres humains doivent être pris en considération pour que chacun puisse en bénéficier, et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer et s'épanouir.
  • Responsabilité: Ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder avec responsabilité et transparence
  • Impartialité: Ne créez pas ou n'agissez pas selon des préjugés, préservant ainsi l'équité et la dignité humaine
  • Fiabilité: Les systèmes d'IA doivent pouvoir fonctionner de manière fiable
  • Sécurité et confidentialité: Les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs.

Comme indiqué par le département américain de la Défense (DoD) dans leur Principes éthiques pour l'utilisation de l'intelligence artificielle et comme je l'ai couvert en profondeur à le lien ici, voici leurs six principes éthiques principaux en matière d'IA :

  • Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.
  • Équitable: Le Département prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités d'IA.
  • Traçable: Les capacités d'IA du Ministère seront développées et déployées de manière à ce que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris des méthodologies transparentes et vérifiables, des sources de données, ainsi que des procédures et de la documentation de conception.
  • Fiable: Les capacités d'IA du Ministère auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
  • Gouvernable: Le Département concevra et mettra au point des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter les conséquences imprévues, et la capacité de désengager ou de désactiver les systèmes déployés qui présentent un comportement imprévu.

J'ai également discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et comment ils doivent être généralement observés, alors que c'est une situation beaucoup plus compliquée dans le codage de l'IA devant être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme indiqué précédemment, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Assurons-nous également que nous sommes sur la même longueur d'onde quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur sensible AI, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Gardons les choses plus terre à terre et considérons l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Revenons à notre concentration sur les lois Red Flag AI.

Le concept sous-jacent est que les gens pourraient lever un drapeau rouge chaque fois qu'ils croyaient qu'un système d'IA fonctionnait de manière indûment biaisée ou discriminatoire. Vous ne lèveriez pas un drapeau physique en soi, et au lieu de cela utiliseriez simplement des moyens électroniques pour faire connaître vos préoccupations. La partie drapeau rouge du schéma ou de l'approche est plus une métaphore qu'une incarnation physique.

Imaginez que vous demandiez un prêt immobilier. Vous choisissez d'utiliser un service bancaire en ligne pour demander un prêt. Après avoir saisi certaines données personnelles, vous attendez momentanément que le système d'IA utilisé décide si vous êtes digne de prêt ou non. L'IA vous dit que vous avez été refusé pour le prêt. En demandant une explication de la raison pour laquelle vous avez été rejeté, le récit textuel semble vous suggérer que l'IA utilisait des facteurs biaisés indus dans le cadre de l'algorithme de prise de décision.

Il est temps de lever un drapeau rouge sur l'IA.

Où exactement ce drapeau rouge flottera-t-il ?

C'est une question à un million de dollars.

Un point de vue est que nous devrions mettre en place une base de données nationale qui permettrait aux gens de marquer leurs drapeaux rouges concernant l'IA. Certains disent que cela devrait être réglementé par le gouvernement fédéral. Les agences fédérales seraient chargées d'examiner les drapeaux rouges et de venir en aide au grand public quant à la véracité et à la gestion de la «mauvaise IA» présumée qui a alimenté les décomptes des rapports de drapeaux rouges.

Une loi nationale sur l'IA du drapeau rouge serait apparemment établie par le Congrès. La loi préciserait ce qu'est un drapeau rouge pertinent pour l'IA. La loi décrirait comment ces drapeaux rouges grincheux de l'IA sont levés. Etc. Il se pourrait également que des États individuels choisissent également d'élaborer leurs propres lois sur l'IA Red Flag. Peut-être le font-ils au lieu d'une initiative nationale, ou ils le font pour amplifier les détails qui sont particulièrement attrayants pour leur état spécifique.

Les détracteurs d'un programme d'IA Red Flag soutenu par le gouvernement fédéral ou tout autre gouvernement soutiendraient que c'est quelque chose que l'industrie privée peut faire et que nous n'avons pas besoin que Big Brother vienne au premier plan. L'industrie pourrait établir un référentiel en ligne dans lequel les gens peuvent enregistrer des signaux d'alarme concernant les systèmes d'IA. Une action d'autocontrôle de la part de l'industrie réglerait suffisamment ces problèmes.

Un scrupule à propos de l'approche prétendue de l'industrie est qu'elle semble sentir le copinage. Les entreprises seraient-elles disposées à se conformer à une base de données privée Red Flag AI ? De nombreuses entreprises ignoreraient potentiellement les drapeaux rouges marqués concernant leur IA. Il n'y aurait pas de dents acérées pour amener les entreprises à faire face aux drapeaux rouges saisis.

Hé, les partisans de l'approche du secteur privé sonnent, cela s'apparenterait à un service national de type Yelp. Les consommateurs pourraient regarder les drapeaux rouges et décider eux-mêmes s'ils veulent faire affaire avec des entreprises qui ont accumulé une multitude de drapeaux rouges axés sur l'IA. Une banque qui recevait des tonnes de drapeaux rouges à propos de son IA devrait faire attention et réorganiser ses systèmes d'IA, d'après la logique, sinon les consommateurs éviteraient l'entreprise comme la peste.

Que toute cette approche soit entreprise par le gouvernement ou par l'industrie n'est que la pointe de l'iceberg sur les questions épineuses auxquelles est confronté le postulat proposé des lois Red Flag sur l'IA.

Mettez-vous dans la peau d'une entreprise qui a développé ou utilise l'IA. Il se pourrait que les consommateurs lèvent des drapeaux rouges même s'il n'y avait aucune raison valable de le faire. Si les gens pouvaient librement publier un drapeau rouge sur l'IA, ils pourraient être tentés de le faire sur un coup de tête, ou peut-être pour se venger d'une entreprise qui, autrement, n'a rien fait de mal envers le consommateur.

En bref, il pourrait y avoir beaucoup de drapeaux rouges faussement positifs concernant l'IA.

Une autre considération est la taille massive ou l'ampleur des drapeaux rouges qui en résultent. Il pourrait facilement y avoir des millions et des millions de drapeaux rouges levés. Qui va donner suite à tous ces drapeaux rouges ? Quel en serait le coût? Qui paiera les efforts de suivi du drapeau rouge ? Etc.

Si vous deviez dire que toute personne enregistrant ou signalant un drapeau rouge sur l'IA doit payer des frais, vous êtes entré dans un domaine trouble et insidieux. Le souci serait que seuls les riches seraient en mesure de se permettre de lever des drapeaux rouges. Cela implique à son tour que les pauvres ne seraient pas en mesure de participer de manière égale aux activités du drapeau rouge et n'auraient essentiellement aucun lieu pour avertir de l'IA indésirable.

Juste une autre tournure supplémentaire pour l'instant, à savoir que ce type de lois ou de lignes directrices sur l'IA semble être après coup plutôt que de servir d'avertissement à l'avance.

Pour en revenir aux lois sur la circulation du drapeau rouge, l'accent mis sur l'utilisation d'un drapeau rouge était d'éviter d'avoir une calamité pour commencer. Le porte-drapeau rouge était censé être bien en avance sur la voiture à venir. En étant devant le véhicule, le bétail serait alerté et ceux qui gardaient le bétail sauraient qu'ils devraient prendre des précautions en raison de l'arrivée imminente de la source inquiétante.

Si les gens ne peuvent que lever un drapeau rouge sur l'IA qui a apparemment déjà nui ou sapé leurs droits, le cheval proverbial est déjà sorti de la grange. Tout ce que cela semblerait accomplir, c'est que, espérons-le, d'autres personnes sauront désormais se méfier de ce système d'IA. Pendant ce temps, la personne prétendument lésée a déjà souffert.

Certains suggèrent que nous pourrions peut-être permettre aux gens de lever des drapeaux rouges sur l'IA qu'ils suspect peuvent être biaisés, même s'ils n'ont pas utilisé l'IA et n'ont pas été directement touchés par l'IA. Ainsi, le drapeau rouge est agité avant que le mal ne soit fait.

Yikes, va la réplique, vous allez vraiment transformer les drapeaux rouges de l'IA en une affaire totalement ingérable et chaotique. Si quelqu'un, pour quelque raison que ce soit, peut lever un drapeau rouge sur un système d'IA, bien qu'il n'ait rien fait du tout avec cette IA, vous serez inondé de drapeaux rouges. Pire encore, vous ne pourrez pas discerner le bon grain de l'ivraie. Toute l'approche du drapeau rouge s'effondrera sous son propre poids, supprimant la bonté de l'idée en permettant à l'épave et à la racaille de couler tout le navire.

Vertigineux et déroutant.

À ce stade de cette discussion importante, je parierais que vous êtes désireux d'exemples illustratifs qui pourraient présenter ce sujet. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur les lois Red Flag AI, et si oui, qu'est-ce que cela met en valeur ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles où l'IA conduit la voiture entièrement seule et il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de véritable voiture autonome au niveau 5, et nous ne savons même pas encore si cela sera possible d'y parvenir, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et lois sur l'IA du drapeau rouge

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournira une litanie suffisante de mises en garde pour étayer ce que je suis sur le point de raconter.

Esquissons un scénario qui pourrait tirer parti d'une loi Red Flag sur l'IA.

Vous montez dans une voiture autonome basée sur l'IA et souhaitez que le véhicule autonome vous conduise à votre épicerie locale. Au cours du trajet relativement bref, l'IA emprunte un chemin qui vous semble quelque peu raté. Plutôt que d'emprunter le chemin le plus direct, l'IA navigue dans des rues à l'écart, ce qui rend le temps de conduite plus élevé qu'il ne pourrait l'être normalement.

Que se passe-t-il?

En supposant que vous payez pour l'utilisation de la voiture autonome, vous pourriez vous douter que l'IA a été programmée pour parcourir un itinéraire plus long pour essayer d'augmenter le tarif ou le coût du voyage. Quiconque a déjà pris un taxi conventionnel à conduite humaine connaît la ruse qui peut avoir lieu pour obtenir plus de pâte sur le compteur. Bien sûr, avec des personnes ayant un GPS sur leur smartphone alors qu'elles roulent dans un taxi ou équivalent, vous pouvez facilement attraper un conducteur humain qui semble prendre sournoisement des itinéraires inutilement longs.

Il s'avère que vous avez un autre souci concernant le choix de l'itinéraire, quelque chose qui vous ronge vraiment.

Supposons que le routage ait été fait pour éviter certaines parties de la ville en raison de facettes raciales. Il existe des cas documentés de conducteurs humains qui ont été surpris en train de faire ce genre de choix, voir ma discussion sur le lien ici. Peut-être que l'IA a été programmée à l'encontre de celui-ci.

Vous décidez de lever un drapeau rouge.

Supposons, pour les besoins de la discussion, qu'une loi Red Flag sur l'IA a été promulguée et couvre votre juridiction. Il peut s'agir du droit local, du droit de l'État, du droit fédéral ou international. Pour une analyse que j'ai co-écrite avec l'Autonomous Vehicle Policy Initiative (AVPI) de Harvard sur l'importance croissante du leadership local lorsque les communautés adoptent l'utilisation de voitures autonomes, voir le lien ici.

Ainsi, vous accédez en ligne à une base de données Red Flag AI. Dans la base de données des incidents, vous saisissez les informations sur le trajet en voiture autonome. Cela inclut la date et l'heure du trajet en voiture, ainsi que la marque et le modèle de la voiture autonome. Vous entrez alors dans la route de navigation qui semblait suspecte, et vous suggérez ou prétendez carrément que l'IA a été conçue avec une intention et des capacités biaisées ou discriminatoires.

Nous devrions spéculer sur les autres détails de la loi Red Flag AI quant à ce qui se passera ensuite dans ce scénario particulier. En théorie, il y aurait une disposition pour que quelqu'un examine le drapeau rouge. Ils chercheraient vraisemblablement à ce que le constructeur automobile ou l'entreprise de technologie autonome explique son point de vue sur le drapeau rouge enregistré. Combien d'autres drapeaux rouges de ce type ont été enregistrés ? Quels résultats ces drapeaux rouges ont-ils produits ?

Et ainsi de suite.

Conclusion

Absurde, exhortent certains sceptiques.

Nous n'avons pas besoin des lois Red Flag AI, elles exercent sévèrement. Faire quoi que ce soit de la sorte gâchera les travaux en ce qui concerne le rythme et les progrès de l'IA. De telles lois seraient lourdes. Vous créeriez un problème qui ne résout pas un problème. Il existe d'autres façons de traiter l'IA qui sont mauvaises. Ne saisissez pas aveuglément des pailles pour faire face à une IA biaisée.

En changeant de vitesse, nous savons tous que les toreros utilisent des capes rouges pour attirer apparemment l'attention du taureau en colère. Bien que le rouge soit la couleur que nous associons le plus à cette pratique, vous pourriez être surpris d'apprendre que les scientifiques disent que les taureaux ne perçoivent pas la couleur rouge de la muleta (ils sont daltoniens au rouge). L'émission populaire MythBusters a fait un examen assez amusant de cette question. Le mouvement de la cape est l'élément clé plutôt que la couleur choisie.

Pour ceux qui ont mis de côté le besoin de lois Red Flag sur l'IA, une demande reconventionnelle est que nous avons besoin de quelque chose d'une nature dramatique et sans équivoque pour s'assurer que les développeurs d'IA et les entreprises qui déploient l'IA éviteront une IA biaisée ou mauvaise. Si ce n'est pas pour un drapeau rouge, peut-être qu'une cape flottante ou fondamentalement n'importe quel type d'approche d'alerte pourrait être du domaine de l'attention.

Nous savons avec certitude que la mauvaise IA existe et que beaucoup plus de mauvaises IA vont se diriger vers nous. Il est crucial de trouver des moyens de se protéger des IA indésirables. De même, il est tout aussi important de mettre en place des garde-corps pour essayer d'empêcher la mauvaise IA d'entrer dans le monde.

Ernest Hemingway a déclaré que personne ne vit sa vie jusqu'au bout, à l'exception des toreros. Nous devons nous assurer que les humains peuvent vivre leur vie jusqu'au bout, malgré la méchanceté ou la folie de l'IA qui nous est promulguée.

Source : https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- algorithmes biaisés dans les systèmes d'IA autonomes/