L'éthique de l'IA dit que l'IA devrait être particulièrement déployée lorsque les préjugés humains sont nombreux

Les humains ont appris à connaître leurs limites.

Vous vous souviendrez peut-être de la phrase célèbre sur la connaissance de nos limites, prononcée avec véhémence par le personnage de Dirty Harry dans le film de 1973 intitulé Magnum Force (selon les paroles prononcées par l'acteur Clint Eastwood dans son rôle mémorable d'inspecteur Harry Callahan). La notion générale est que nous avons parfois tendance à négliger nos propres limites et à nous mettre dans l'eau chaude en conséquence. Que ce soit par orgueil, égocentrisme ou simplement aveugle à nos propres capacités, le précepte d'être conscient et de prendre en compte explicitement nos penchants et nos défauts est extrêmement sensé et utile.

Ajoutons une nouvelle tournure au sage conseil.

L'intelligence artificielle (IA) a appris à connaître ses limites.

Qu'est-ce que je veux dire par cette variante du slogan vénéré ?

Il s'avère que la précipitation initiale pour utiliser l'IA moderne en tant que résolveur plein d'espoir des problèmes du monde a été entachée et complètement brouillée par la prise de conscience que l'IA d'aujourd'hui a des limites assez sévères. Nous sommes passés des gros titres édifiants de AI pour de bon et nous sommes de plus en plus embourbés dans AI pour le mal. Vous voyez, de nombreux systèmes d'IA ont été développés et mis en service avec toutes sortes de préjugés raciaux et sexistes fâcheux, et une myriade d'autres inégalités épouvantables.

Pour ma couverture étendue et continue de l'éthique de l'IA et de l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Les biais découverts dans ces systèmes d'IA ne sont pas du type, dirons-nous, "intentionnel" que nous attribuerions au comportement humain. Je mentionne cela pour souligner que l'IA d'aujourd'hui n'est pas sensible. Malgré ces gros titres qui suggèrent le contraire, il n'y a tout simplement aucune IA nulle part qui se rapproche même de la sensibilité. En plus de cela, nous ne savons pas comment faire entrer l'IA dans la tranche de sensibilité, et personne ne peut dire avec certitude si nous atteindrons un jour la sensibilité de l'IA. Peut-être que cela arrivera un jour, ou peut-être pas.

Donc, ce que je veux dire, c'est que nous ne pouvons pas particulièrement attribuer une intention au type d'IA que nous possédons actuellement. Cela étant dit, nous pouvons abondamment attribuer une intention à ceux qui élaborent des systèmes d'IA. Certains développeurs d'IA ne sont pas conscients du fait qu'ils ont conçu un système d'IA qui contient des biais peu recommandables et peut-être illégaux. Pendant ce temps, d'autres développeurs d'IA se rendent compte qu'ils imprègnent des biais dans leurs systèmes d'IA, le faisant potentiellement d'une manière intentionnellement répréhensible.

Quoi qu'il en soit, le résultat est toujours inconvenant et probablement illégal.

Des efforts acharnés sont en cours pour promulguer des principes d'éthique de l'IA qui éclaireront les développeurs d'IA et fourniront des conseils appropriés pour éviter d'intégrer des préjugés dans leurs systèmes d'IA. Cela vous aidera de deux manières. Premièrement, ceux qui fabriquent l'IA n'auront plus l'excuse prête qu'ils n'étaient tout simplement pas conscients des préceptes à suivre. Deuxièmement, ceux qui s'écartent des conditions éthiques de l'IA seront plus facilement attrapés et montrés comme évitant ce qu'ils ont été prévenus de faire et de ne pas faire.

Prenons un moment pour examiner brièvement certains des préceptes clés de l'IA éthique pour illustrer ce à quoi les constructeurs d'IA devraient réfléchir et entreprendre rigoureusement d'une position d'éthique de l'IA.

Comme l'a déclaré le Vatican dans le Appel de Rome pour l'éthique de l'IA et comme je l'ai couvert en profondeur à le lien ici, voici les six principaux principes éthiques de l'IA qu'ils ont identifiés :

  • Transparence: En principe, les systèmes d'IA doivent être explicables
  • Inclusion: Les besoins de tous les êtres humains doivent être pris en considération pour que chacun puisse en bénéficier, et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer et s'épanouir.
  • Responsabilité: Ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder avec responsabilité et transparence
  • Impartialité: Ne créez pas ou n'agissez pas selon des préjugés, préservant ainsi l'équité et la dignité humaine
  • Fiabilité: Les systèmes d'IA doivent pouvoir fonctionner de manière fiable
  • Sécurité et confidentialité: Les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs.

Comme indiqué par le département américain de la Défense (DoD) dans leur Principes éthiques pour l'utilisation de l'intelligence artificielle et comme je l'ai couvert en profondeur à le lien ici, voici leurs six principes éthiques principaux en matière d'IA :

  • Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.
  • Équitable: Le Département prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités d'IA.
  • Traçable: Les capacités d'IA du Département seront développées et déployées de telle sorte que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris avec des méthodologies transparentes et vérifiables, des sources de données et une procédure de conception et une documentation.
  • Fiable: Les capacités d'IA du Ministère auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
  • Gouvernable: Le Département concevra et mettra au point des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter les conséquences imprévues, et la capacité de désengager ou de désactiver les systèmes déployés qui présentent un comportement imprévu.

J'ai également discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et sur la manière dont ils doivent être généralement observés, alors que la situation est beaucoup plus compliquée lorsque le codage de l'IA doit être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie du développement et de l'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Sachez qu'il faut tout un village pour concevoir et déployer l'IA. Pour lequel tout le village doit rester attentif à l'éthique de l'IA.

Quoi qu'il en soit, maintenant que j'ai compris que l'IA peut contenir des biais, nous pouvons peut-être tous être d'accord sur ces deux faits apparents :

1. Les humains peuvent avoir de nombreux préjugés fâcheux et peuvent agir en conséquence

2. L'IA peut avoir de nombreux préjugés fâcheux et peut agir sur ces préjugés

Je suis quelque peu détesté d'empiler les humains contre l'IA dans ce contexte, car cela pourrait impliquer d'une manière ou d'une autre que l'IA a des capacités sensibles comparables à celles des humains. Ce n'est assurément pas le cas. Je reviendrai momentanément sur les préoccupations croissantes concernant l'anthropomorphisation de l'IA un peu plus loin dans cette discussion.

Qu'est-ce qui est pire, les humains qui présentent des préjugés fâcheux ou l'IA qui le fait ?

J'ose dire que la question pose un de ces choix austères. C'est le proverbial moindre de deux maux, pourrait-on dire. Nous souhaiterions que les humains n'incarnent pas de préjugés fâcheux. Nous souhaiterions en outre que même si les humains ont des préjugés fâcheux, ils n'agissent pas sur ces préjugés. On pourrait dire la même chose de l'IA. Nous souhaiterions que l'IA n'intègre pas de biais fâcheux et que même s'il existe de tels biais codés en interne, l'IA n'agisse au moins pas en conséquence.

Les souhaits ne dirigent pas nécessairement le monde (pour mon analyse de l'apparence montante et inquiétante de soi-disant Réalisation des souhaits de l'IA par la société dans son ensemble, voir le lien ici).

D'accord, nous voulons évidemment que les humains connaissent leurs limites. Il est important de reconnaître quand vous avez des préjugés fâcheux. Il est tout aussi important d'essayer d'empêcher ces préjugés fâcheux d'être infusés dans vos actions et vos décisions. Aujourd'hui, les entreprises essaient toutes sortes d'approches pour empêcher leurs employés de tomber dans les pièges néfastes des préjugés. Une formation spécialisée est dispensée aux employés sur la façon d'effectuer leur travail de manière éthique. Les processus sont façonnés autour des employés pour les alerter lorsqu'ils semblent montrer des mœurs contraires à l'éthique. Etc.

Un autre moyen de faire face aux humains et à leurs préjugés serait d'automatiser le travail humain. Oui, supprimez simplement l'humain de la boucle. Ne permettez pas à un humain d'effectuer une tâche de prise de décision et vous n'aurez probablement plus de soucis persistants concernant le comportement humain envers les préjugés fâcheux. Il n'y a pas d'humain impliqué et donc le problème des préjugés humains potentiels semble être résolu.

J'en parle parce que nous assistons à une évolution progressive et massive vers l'utilisation de l'IA dans une prise de décision algorithmique (ADM). Si vous pouvez remplacer un travailleur humain par l'IA, il y a de fortes chances que de nombreux avantages en découlent. Comme déjà mentionné, vous ne vous inquiétez plus des préjugés humains de ce travailleur humain (celui qui ne fait plus ce travail). Il y a de fortes chances que l'IA soit globalement moins coûteuse par rapport à un horizon temporel à long terme. Vous vous débarrassez de toutes les autres difficultés assorties qui font partie intégrante des travailleurs humains. Etc.

Une proposition qui gagne du terrain semble être celle-ci : Lorsque vous essayez de décider où placer au mieux l'IA, regardez d'abord les paramètres qui impliquent déjà des préjugés humains fâcheux de la part de vos employés et pour lesquels ces préjugés sapent ou compliquent excessivement des tâches de prise de décision particulières.

En fin de compte, il semblerait prudent de tirer le meilleur parti de votre argent en termes d'investissement dans l'IA en visant directement les tâches de prise de décision humaine très exposées qui sont difficiles à contrôler du point de vue de l'infusion de biais fâcheux. Supprimez les travailleurs humains dans ce rôle. Remplacez-les par l'IA. L'hypothèse est que l'IA n'aurait pas de tels biais fâcheux. Par conséquent, vous pouvez avoir votre gâteau et le manger aussi, à savoir, entreprendre les tâches de décision et le faire sans le spectre éthique et juridique des préjugés fâcheux.

Lorsque vous mettez cela au crayon, le retour sur investissement (ROI) ferait probablement de l'adoption de l'IA un choix évident.

Voici comment cela se passe généralement.

Examinez l'ensemble de votre entreprise et essayez d'identifier les tâches de prise de décision qui ont un impact sur les clients. Parmi ces tâches, lesquelles sont les plus susceptibles d'être influencées de manière inappropriée si les travailleurs incarnent des préjugés fâcheux ? Si vous avez déjà essayé de maîtriser ces préjugés, peut-être avez-vous laissé les choses telles quelles. D'un autre côté, si les préjugés continuent de réapparaître et que l'effort pour les éliminer est onéreux, envisagez de laisser tomber une IA pertinente dans ce rôle. Ne gardez pas les travailleurs dans le mélange car ils pourraient outrepasser l'IA ou repousser l'IA directement dans l'abîme des préjugés fâcheux. Assurez-vous également que l'IA peut effectuer la tâche avec compétence et que vous avez suffisamment capturé les facettes de prise de décision nécessaires pour effectuer le travail.

Rincer et répéter.

Je me rends compte que cela semble être une notion simple, mais je me rends compte qu'il existe de nombreuses façons dont le remplacement des travailleurs humains par l'IA peut facilement mal tourner. De nombreuses entreprises étaient impatientes de prendre de telles mesures et n'ont pas consciencieusement réfléchi à la manière de le faire. En conséquence, ils ont souvent fait un gâchis bien pire que ce qu'ils avaient entre les mains au départ.

Je tiens à préciser et à souligner que l'IA n'est pas une panacée.

En parlant de cela, il y a un énorme problème à propos de la propreté de jeter apparemment les décideurs à tendance humaine avec l'IA prétendument impartiale. Le hic, c'est que vous pourriez simplement remplacer un ensemble de préjugés fâcheux par un autre. Selon l'indication précédente, l'IA peut contenir des biais fâcheux et peut agir sur ces biais. Faire l'hypothèse effrontée que l'échange d'humains biaisés contre une IA impartiale n'est pas tout ce qu'il est censé être.

En bref, voici l'affaire lorsque l'on considère la question strictement à partir des facteurs de biais :

  • L'IA n'a pas de biais fâcheux et, par conséquent, l'ADM basé sur l'IA est pratique à déployer
  • L'IA a les mêmes préjugés fâcheux que les humains remplacés et donc l'ADM basé sur l'IA est troublant
  • L'IA introduit de nouveaux préjugés fâcheux au-delà de ceux des humains remplacés et aggravera probablement les choses en conséquence
  • L'IA semble d'abord bien, puis vacille progressivement dans des biais fâcheux
  • Autre

Nous pouvons brièvement déballer ces possibilités.

La première est la version idéalisée de ce qui pourrait arriver. L'IA n'a pas de biais fâcheux. Vous mettez l'IA en place et elle fait le travail superbement. Bien pour vous! Bien sûr, on pourrait espérer que vous avez également géré de manière adroite le déplacement des travailleurs humains en raison de l'inclusion de l'IA.

Dans le second cas, vous mettez en place l'IA et découvrez que l'IA présente les mêmes préjugés fâcheux que les travailleurs humains avaient. Comment se peut-il? Un moyen courant de tomber dans ce piège consiste à utiliser l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL) sur la base des données collectées sur la façon dont les humains dans le rôle prenaient auparavant leurs décisions.

Accordez-moi un instant pour vous expliquer.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont fait le travail pendant des années et des années ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La correspondance de modèles de calcul d'apprentissage automatique ou d'apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement étendus, des biais soient toujours intégrés dans les modèles d'appariement de modèles du ML/DL.

Tout compte fait, vous pourriez vous retrouver à la case départ. Les mêmes biais fâcheux des humains sont maintenant reflétés par calcul dans le système d'IA. Vous n'avez pas éradiqué les préjugés.

Pire encore, vous pourriez être moins susceptible de réaliser que l'IA a des biais. Dans le cas des humains, vous pourriez normalement être sur vos gardes que les humains ont des préjugés fâcheux. C'est une attente de base. L'utilisation de l'IA peut faire croire aux dirigeants que l'automatisation a complètement supprimé tout type de préjugé humain. Ils s'accusent ainsi de s'être tiré une balle dans le pied. Ils se sont débarrassés des humains avec des préjugés fâcheux apparemment connus, remplacés par une IA dont on pensait qu'elle n'avait pas de tels préjugés, et pourtant ils ont maintenant utilisé une IA remplie des mêmes préjugés déjà connus.

Cela peut vraiment faire loucher les choses. Vous avez peut-être supprimé d'autres garde-fous utilisés avec les travailleurs humains qui ont été établis pour détecter et empêcher l'émergence de ces préjugés humains déjà anticipés. L'IA a désormais carte blanche. Rien n'est en place pour le rattraper avant d'agir. L'IA pourrait alors commencer à vous conduire sur un chemin austère de la vaste accumulation d'actions biaisées.

Et, vous êtes dans la posture maladroite et peut-être responsable que vous connaissiez autrefois les préjugés et que vous avez maintenant laissé ces préjugés faire des ravages. C'est peut-être une chose de ne jamais avoir rencontré de tels préjugés fâcheux, puis soudain, à l'improviste, l'IA les fait jaillir. Vous pourriez essayer d'excuser cela avec le genre de distracteur "qui aurait deviné" (pas très convaincant, peut-être). Mais pour avoir maintenant mis en place une IA qui fait les mêmes actions biaisées qu'auparavant, eh bien, vos excuses deviennent de plus en plus minces et boiteuses.

Une tournure à cela implique que l'IA présente des biais fâcheux qui n'avaient pas été rencontrés auparavant lorsque les humains effectuaient la tâche. On pourrait dire que cela est peut-être plus difficile à éviter car il s'agit de « nouveaux » biais que l'entreprise n'avait pas recherchés auparavant. En fin de compte, cependant, les excuses pourraient ne pas vous apporter beaucoup de soulagement. Si le système d'IA s'est aventuré dans un territoire à la fois contraire à l'éthique et illégal, votre oie pourrait être cuite.

Une autre facette à garder à l'esprit est que l'IA peut très bien commencer et ensuite se frayer un chemin dans des biais fâcheux. Cela est particulièrement probable lorsque l'utilisation de l'apprentissage automatique ou de l'apprentissage en profondeur a lieu de manière continue pour maintenir l'IA à jour. Que le ML/DL fonctionne en temps réel ou effectue périodiquement des mises à jour, l'attention doit être portée sur la possibilité que l'IA ingère des données qui contiennent maintenant des biais et qui n'étaient pas présentes auparavant.

Pour les dirigeants qui pensent qu'ils obtiennent un déjeuner gratuit en agitant une baguette magique pour remplacer les travailleurs humains biaisés par l'IA, ils s'attendent à un réveil très brutal. Voir ma discussion sur l'importance de responsabiliser les dirigeants avec les préceptes de l'éthique de l'IA à le lien ici.

À ce stade de cette discussion, je parierais que vous êtes désireux d'exemples concrets qui pourraient mettre en évidence l'énigme du remplacement (ou non) des préjugés fâcheux humains par des préjugés fâcheux basés sur l'IA.

Je suis content que vous ayez posé la question.

Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur les biais fâcheux de l'IA, et si oui, qu'est-ce que cela montre ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles que l'IA conduit entièrement seule et qu'il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de vraie voiture autonome au niveau 5, que nous ne savons même pas encore si cela sera possible, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et IA avec des biais fâcheux

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournit une litanie suffisante de mises en garde pour sous-tendre ce que je suis sur le point de raconter.

Nous sommes maintenant prêts à plonger profondément dans les voitures autonomes et les possibilités de l'IA éthique impliquant l'exploration de l'IA et des préjugés fâcheux.

Prenons un exemple simple et simple. Une voiture autonome basée sur l'IA est en cours dans les rues de votre quartier et semble conduire en toute sécurité. Au début, vous aviez accordé une attention particulière à chaque fois que vous parveniez à entrevoir la voiture autonome. Le véhicule autonome se distinguait par son rack de capteurs électroniques comprenant des caméras vidéo, des radars, des dispositifs LIDAR, etc. Après plusieurs semaines passées à parcourir votre communauté en voiture autonome, vous la remarquez à peine. En ce qui vous concerne, ce n'est qu'une voiture de plus sur les voies publiques déjà très fréquentées.

De peur que vous ne pensiez qu'il est impossible ou invraisemblable de se familiariser avec la vue de voitures autonomes, j'ai souvent écrit sur la façon dont les lieux qui sont dans le cadre des essais de voitures autonomes se sont progressivement habitués à voir les véhicules rafraîchis, voir mon analyse sur ce lien ici. De nombreux habitants sont finalement passés d'un regard bouche bée à un bâillement expansif d'ennui pour assister à ces méandres de voitures autonomes.

À l'heure actuelle, la principale raison pour laquelle ils pourraient remarquer les véhicules autonomes est probablement le facteur d'irritation et d'exaspération. Les systèmes de conduite par intelligence artificielle garantissent que les voitures respectent toutes les limites de vitesse et les règles de la route. Pour les conducteurs humains trépidants dans leurs voitures traditionnelles à conduite humaine, vous êtes parfois contrarié lorsque vous êtes coincé derrière les voitures autonomes basées sur l'IA et strictement respectueuses de la loi.

C'est quelque chose auquel nous devrions tous nous habituer, à tort ou à raison.

Revenons à notre histoire.

Il s'avère que deux préoccupations inconvenantes commencent à surgir à propos des voitures autonomes basées sur l'IA, par ailleurs inoffensives et généralement bien accueillies, en particulier :

un. Où l'IA parcourt les voitures autonomes pour prendre des courses est devenue une préoccupation anxieuse dans la communauté dans son ensemble

b. La façon dont l'IA traite les piétons en attente qui n'ont pas le droit de passage est également un problème croissant

Au début, l'IA parcourait les voitures autonomes dans toute la ville. Quiconque voulait demander un tour dans la voiture autonome avait essentiellement une chance égale d'en héler un. Peu à peu, l'IA a commencé à garder principalement les voitures autonomes en itinérance dans une seule partie de la ville. Cette section était plus lucrative et le système d'IA avait été programmé pour essayer de maximiser les revenus dans le cadre de l'utilisation dans la communauté.

Les membres de la communauté dans les quartiers pauvres de la ville étaient moins susceptibles de pouvoir se faire conduire à partir d'une voiture autonome. En effet, les voitures autonomes étaient plus éloignées et erraient dans la partie la plus rentable de la région. Lorsqu'une demande provenait d'une partie éloignée de la ville, toute demande provenant d'un endroit plus proche qui se trouvait probablement dans la partie «estimée» de la ville obtiendrait une priorité plus élevée. Finalement, la possibilité d'obtenir une voiture autonome dans n'importe quel endroit autre que la partie la plus riche de la ville était presque impossible, ce qui était exaspérant pour ceux qui vivaient dans ces zones désormais dépourvues de ressources.

Vous pourriez affirmer que l'IA a pratiquement atterri sur une forme de discrimination par procuration (également souvent appelée discrimination indirecte). L'IA n'a pas été programmée pour éviter ces quartiers pauvres. Au lieu de cela, il a "appris" à le faire via l'utilisation du ML/DL.

Le fait est que les conducteurs humains de covoiturage étaient connus pour faire la même chose, mais pas nécessairement exclusivement en raison de l'angle de gagner de l'argent. Il y avait certains des chauffeurs humains de covoiturage qui avaient un parti pris fâcheux de prendre des passagers dans certaines parties de la ville. C'était un phénomène quelque peu connu et la ville avait mis en place une approche de surveillance pour attraper les conducteurs humains qui le faisaient. Les conducteurs humains pourraient avoir des ennuis pour avoir mené des pratiques de sélection peu recommandables.

On supposait que l'IA ne tomberait jamais dans ce même genre de sable mouvant. Aucune surveillance spécialisée n'a été mise en place pour savoir où allaient les voitures autonomes basées sur l'IA. Ce n'est qu'après que les membres de la communauté ont commencé à se plaindre que les dirigeants de la ville ont réalisé ce qui se passait. Pour en savoir plus sur ces types de problèmes à l'échelle de la ville que les véhicules autonomes et les voitures autonomes vont présenter, consultez ma couverture sur ce lien ici et qui décrit une étude dirigée par Harvard que j'ai co-écrit sur le sujet.

Cet exemple des aspects d'itinérance des voitures autonomes basées sur l'IA illustre l'indication antérieure qu'il peut y avoir des situations impliquant des humains avec des préjugés fâcheux, pour lesquelles des contrôles sont mis en place, et que l'IA remplaçant ces conducteurs humains est laissée pour compte. libre. Malheureusement, l'IA peut alors s'enliser progressivement dans des biais similaires et le faire sans suffisamment de garde-corps en place.

Un deuxième exemple implique que l'IA détermine s'il faut s'arrêter pour attendre des piétons qui n'ont pas le droit de passage pour traverser une rue.

Vous avez sans doute conduit et rencontré des piétons qui attendaient pour traverser la rue et pourtant ils n'avaient pas le droit de passage pour le faire. Cela signifiait que vous aviez le pouvoir discrétionnaire de vous arrêter et de les laisser traverser. Vous pouvez continuer sans les laisser traverser tout en respectant pleinement les règles de conduite légales.

Des études sur la façon dont les conducteurs humains décident de s'arrêter ou de ne pas s'arrêter pour ces piétons ont suggéré que parfois les conducteurs humains font le choix en fonction de préjugés fâcheux. Un conducteur humain peut regarder le piéton et choisir de ne pas s'arrêter, même s'il se serait arrêté si le piéton avait eu une apparence différente, par exemple en raison de sa race ou de son sexe. J'ai examiné cela à le lien ici.

Imaginez que les voitures autonomes basées sur l'IA soient programmées pour répondre à la question de savoir s'il faut s'arrêter ou non pour les piétons qui n'ont pas la priorité. Voici comment les développeurs d'IA ont décidé de programmer cette tâche. Ils ont collecté des données à partir des caméras vidéo de la ville qui sont placées partout dans la ville. Les données présentent les conducteurs humains qui s'arrêtent pour les piétons qui n'ont pas le droit de passage et les conducteurs humains qui ne s'arrêtent pas. Tout est collecté dans un grand ensemble de données.

En utilisant Machine Learning et Deep Learning, les données sont modélisées par calcul. Le système de conduite IA utilise ensuite ce modèle pour décider quand s'arrêter ou ne pas s'arrêter. Généralement, l'idée est que quelle que soit la coutume locale, c'est ainsi que l'IA va diriger la voiture autonome.

À la surprise des dirigeants de la ville et des habitants, l'IA choisissait évidemment de s'arrêter ou de ne pas s'arrêter en fonction de l'apparence du piéton, y compris sa race et son sexe. Les capteurs de la voiture autonome scanneraient le piéton en attente, transmettraient ces données au modèle ML/DL, et le modèle émettrait à l'IA s'il fallait s'arrêter ou continuer. Malheureusement, la ville avait déjà beaucoup de préjugés humains à cet égard et l'IA imitait maintenant la même chose.

La bonne nouvelle est que cela soulève un problème que presque personne ne connaissait auparavant. La mauvaise nouvelle, c'est que depuis que l'IA a été surprise en train de faire cela, c'est elle qui en est le plus responsable. Cet exemple illustre qu'un système d'IA pourrait simplement dupliquer les préjugés fâcheux déjà préexistants des humains.

Conclusion

Il existe une multitude de façons d'essayer d'éviter de concevoir une IA qui, soit à l'extérieur, a des biais fâcheux, soit qui, au fil du temps, glane des biais. Une approche consiste à s'assurer que les développeurs d'IA sont conscients de ce qui se passe et les gardent donc sur leurs gardes pour programmer l'IA afin d'éviter le problème. Une autre piste consiste à demander à l'IA de s'auto-surveiller pour les comportements contraires à l'éthique (voir ma discussion sur le lien ici) et/ou avoir un autre élément d'IA qui surveille d'autres systèmes d'IA pour des comportements potentiellement contraires à l'éthique (j'ai couvert cela à le lien ici).

Pour récapituler, nous devons réaliser que les humains peuvent avoir des préjugés fâcheux et qu'ils doivent en quelque sorte connaître leurs limites. De même, l'IA peut avoir des biais fâcheux, et d'une manière ou d'une autre, nous devons connaître leurs limites.

Pour ceux d'entre vous qui adoptent avidement l'éthique de l'IA, j'aimerais terminer maintenant avec une autre ligne célèbre que tout le monde doit déjà connaître. À savoir, veuillez continuer à utiliser et à partager l'importance de l'IA éthique. Et ce faisant, je dirais effrontément ceci : "Allez-y, faites ma journée."

Source : https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-specially-deployed-when-human-biases-are-aplenty/