L'éthique de l'IA et la loi sur l'IA clarifient ce qui est en fait une IA digne de confiance

La confiance est tout, dit-on.

Le célèbre philosophe Lao Tzu a déclaré que ceux qui ne font pas suffisamment confiance ne seront pas dignes de confiance. Ernest Hemingway, un romancier estimé, a déclaré que la meilleure façon de savoir si vous pouvez faire confiance à quelqu'un est de lui faire confiance.

En attendant, il semble que la confiance soit à la fois précieuse et fragile. La confiance que l'on a peut s'effondrer comme un château de cartes ou éclater soudainement comme un ballon éclaté.

L'ancien tragédien grec Sophocle affirmait que la confiance meurt mais que la méfiance fleurit. Le philosophe et mathématicien français Descartes a soutenu qu'il est prudent de ne jamais faire entièrement confiance à ceux qui nous ont trompés ne serait-ce qu'une seule fois. L'extraordinaire investisseur milliardaire Warren Buffett a exhorté qu'il faut vingt ans pour bâtir une réputation digne de confiance et cinq minutes pour la ruiner.

Vous pourriez être surpris d'apprendre que toutes ces opinions variées et provocatrices sur la confiance sont essentielles à l'avènement de l'intelligence artificielle (IA).

Oui, il y a quelque chose qu'on appelle vivement IA digne de confiance qui ne cesse de faire l'objet de beaucoup d'attention ces jours-ci, y compris des cris de chat dans le domaine de l'IA et également des explosions bruyantes de la part de ceux qui ne font pas partie du domaine de l'IA. La notion globale implique que la société soit ou non disposée à faire confiance à des systèmes comme les IA.

Vraisemblablement, si la société ne veut pas ou ne peut pas faire confiance à l'IA, il y a de fortes chances que les systèmes d'IA ne parviennent pas à s'imposer. L'IA telle que nous la connaissons actuellement sera mise de côté et ne fera que ramasser la poussière. Étonnamment, l'IA pourrait se retrouver sur le tas de ferraille, reléguée historiquement à rien de plus qu'une expérience de haute technologie désespérément essayée mais spectaculairement ratée. Tout effort visant à revigorer l'IA serait potentiellement confronté à une énorme bataille difficile et serait arrêté par toutes sortes d'objections et de protestations directes. Apparemment, en raison d'un manque de confiance dans l'IA.

Que devons-nous faire, devons-nous faire confiance à l'IA ou ne devons-nous pas faire confiance à l'IA ?

Essentiellement, allons-nous vraiment avoir une IA digne de confiance ?

Ce sont des questions anciennes et non résolues. Déballons-le.

L'éthique de l'IA et la lutte pour une IA digne de confiance

La conviction de beaucoup au sein de l'IA est que les développeurs de systèmes d'IA peuvent gagner la confiance en l'IA en concevant de manière appropriée une IA digne de confiance. L'essentiel est que vous ne pouvez pas espérer gagner la confiance si l'IA n'est pas apparemment digne de confiance au départ. En concevant des systèmes d'IA d'une manière perçue comme digne de confiance, il y a de fortes chances que les gens acceptent l'IA et adoptent les utilisations de l'IA.

Un scrupule déjà harcelant à cette considération digne de confiance de l'IA est que nous pourrions déjà être dans un déficit de confiance du public quand il s'agit d'IA. On pourrait dire que l'IA que nous avons déjà vue a creusé un trou et a détruit la confiance en quantités massives. Ainsi, plutôt que de commencer à partir d'une base de confiance suffisante, l'IA va devoir étonnamment sortir du déficit, en s'emparant de chaque once de confiance supplémentaire souhaitée qui sera nécessaire pour convaincre les gens que l'IA est en fait digne de confiance.

Dans ce défi viennent l'éthique de l'IA et la loi sur l'IA.

L'éthique de l'IA et la loi sur l'IA luttent énormément pour essayer de comprendre ce qu'il faudra pour rendre l'IA digne de confiance. Certains suggèrent qu'il existe une formule ou des lois à toute épreuve qui feront entrer l'IA dans les cieux dignes de confiance. D'autres indiquent qu'il faudra un travail acharné et une adhésion constante et implacable aux principes de l'éthique et de la loi sur l'IA pour obtenir la confiance tant vantée de la société.

L'énigme contemporaine de la confiance dans l'IA n'est pas particulièrement nouvelle en soi.

Vous pouvez facilement remonter à la fin des années 1990 et retracer l'émergence d'un désir recherché d'« informatique de confiance » à cette époque. Il s'agissait d'un effort à grande échelle de l'industrie technologique pour déterminer si les ordinateurs pouvaient être fabriqués d'une manière qui serait interprétée comme digne de confiance par la société.

Les questions clés consistaient en :

  • Le matériel informatique pouvait-il être fabriqué de manière à être digne de confiance ?
  • Un logiciel pourrait-il être conçu de telle sorte qu'il soit digne de confiance ?
  • Pourrions-nous mettre en place des ordinateurs en réseau mondial qui seraient dignes de confiance ?
  • Et ainsi de suite.

Le sentiment qui prévaut alors et qui continue à ce jour est que l'informatique digne de confiance reste un type de Saint Graal qui n'est malheureusement pas encore tout à fait à notre portée (comme indiqué dans un article intitulé "Trustworthy AI" dans le Communications de l'ACM). Vous pourriez affirmer de manière convaincante que l'IA est un autre élément de l'enveloppe de fiabilité informatique, mais l'IA rend la poursuite de la confiance encore plus difficile et incertaine. L'IA est devenue le spoiler potentiel dans la lutte pour atteindre une informatique fiable. Peut-être le maillon le plus faible de la chaîne, pour ainsi dire.

Jetons un coup d'œil sur les raisons pour lesquelles l'IA nous a fait penser qu'elle n'était pas digne de confiance. En outre, nous explorerons les principes de l'éthique de l'IA qui, nous l'espérons, contribueront à renforcer la confiance perçue déjà semi-sous-marine (ou la méfiance bouillonnante) de l'IA d'aujourd'hui. Pour ma couverture continue et étendue de l'éthique de l'IA, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Un segment ou une partie particulière de l'éthique de l'IA qui a retenu l'attention des médias est l'IA qui présente des préjugés et des inégalités fâcheux. Vous savez peut-être que lorsque la dernière ère de l'IA a commencé, il y a eu un énorme élan d'enthousiasme pour ce que certains appellent maintenant AI pour de bon. Malheureusement, dans la foulée de cette excitation jaillissante, nous avons commencé à être témoins AI pour le mal. Par exemple, divers systèmes de reconnaissance faciale basés sur l'IA se sont révélés contenir des préjugés raciaux et des préjugés sexistes, dont j'ai discuté à le lien ici.

Des efforts pour lutter contre AI pour le mal sont activement en cours. En plus bruyant légal Dans le but de freiner les actes répréhensibles, il y a aussi une poussée substantielle vers l'adoption de l'éthique de l'IA pour redresser la méchanceté de l'IA. L'idée est que nous devons adopter et approuver les principes clés de l'IA éthique pour le développement et la mise en service de l'IA afin de saper le AI pour le mal et simultanément annonçant et promouvant le meilleur AI pour de bon.

Dans le même ordre d'idées, je préconise d'essayer d'utiliser l'IA dans le cadre de la solution aux problèmes de l'IA, en combattant le feu par le feu de cette façon de penser. Nous pourrions par exemple intégrer des composants d'IA éthique dans un système d'IA qui surveillera comment le reste de l'IA fait les choses et donc potentiellement détecter en temps réel tout effort discriminatoire, voir ma discussion sur le lien ici. Nous pourrions également avoir un système d'IA distinct qui agit comme un type de moniteur d'éthique de l'IA. Le système d'IA sert de surveillant pour suivre et détecter quand une autre IA entre dans l'abîme contraire à l'éthique (voir mon analyse de ces capacités sur le lien ici).

Dans un instant, je partagerai avec vous quelques principes fondamentaux qui sous-tendent l'éthique de l'IA. Il y a beaucoup de ce genre de listes qui flottent ici et là. On pourrait dire qu'il n'existe pas encore de liste unique d'appel universel et de concurrence. C'est la malheureuse nouvelle. La bonne nouvelle est qu'il existe au moins des listes d'éthique de l'IA facilement disponibles et qu'elles ont tendance à être assez similaires. Tout compte fait, cela suggère que par une sorte de convergence raisonnée, nous trouvons notre chemin vers une communauté générale de ce en quoi consiste l'éthique de l'IA.

Tout d'abord, couvrons brièvement certains des préceptes généraux de l'IA éthique pour illustrer ce qui devrait être une considération vitale pour quiconque élabore, met en service ou utilise l'IA.

Par exemple, comme l'a déclaré le Vatican dans le Appel de Rome pour l'éthique de l'IA et comme je l'ai couvert en profondeur à le lien ici, voici les six principaux principes éthiques de l'IA qu'ils ont identifiés :

  • Transparence: En principe, les systèmes d'IA doivent être explicables
  • Inclusion: Les besoins de tous les êtres humains doivent être pris en considération pour que chacun puisse en bénéficier, et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer et s'épanouir.
  • Responsabilité: Ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder avec responsabilité et transparence
  • Impartialité: Ne créez pas ou n'agissez pas selon des préjugés, préservant ainsi l'équité et la dignité humaine
  • Fiabilité: Les systèmes d'IA doivent pouvoir fonctionner de manière fiable
  • Sécurité et confidentialité: Les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs.

Comme indiqué par le département américain de la Défense (DoD) dans leur Principes éthiques pour l'utilisation de l'intelligence artificielle et comme je l'ai couvert en profondeur à le lien ici, voici leurs six principes éthiques principaux en matière d'IA :

  • Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.
  • Équitable: Le Département prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités d'IA.
  • Traçable: Les capacités d'IA du Ministère seront développées et déployées de manière à ce que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris des méthodologies transparentes et vérifiables, des sources de données, ainsi que des procédures et de la documentation de conception.
  • Fiable: Les capacités d'IA du Ministère auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
  • Gouvernable: Le Département concevra et mettra au point des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter les conséquences imprévues, et la capacité de désengager ou de désactiver les systèmes déployés qui présentent un comportement imprévu.

J'ai également discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et comment ils doivent être généralement observés, alors que c'est une situation beaucoup plus compliquée dans le codage de l'IA devant être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme indiqué précédemment, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Assurons-nous également que nous sommes sur la même longueur d'onde quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur sensible AI, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Gardons les choses plus terre à terre et considérons l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Relions cela à la question sur l'IA digne de confiance

Nous ne semblons certainement pas disposés à faire confiance à une IA qui présente des préjugés défavorables et des actions discriminatoires. Notre conviction, dans ce cas, serait qu'une telle IA n'est décidément pas digne de confiance, nous aurions donc tendance à nous méfier activement de l'IA. Sans aller trop loin dans une comparaison anthropomorphique (j'en dirai plus sur l'anthropomorphisation de l'IA dans un instant), un humain qui présentait des préjugés fâcheux serait également soumis à une évaluation comme n'étant pas particulièrement digne de confiance.

Creuser dans la confiance et la fiabilité

Peut-être devrions-nous examiner ce que nous voulons dire lorsque nous affirmons que nous faisons ou ne faisons pas confiance à quelqu'un ou à quelque chose. Considérons d'abord plusieurs définitions quotidiennes de la confiance dans les dictionnaires.

Voici des exemples de ce que la confiance signifie par définition :

  • Confiance assurée dans le caractère, la capacité, la force ou la vérité de quelqu'un ou de quelque chose (Dictionnaire en ligne Merriam-Webster).
  • Dépendance à l'intégrité, à la force, à la capacité, à la caution, etc., d'une personne ou d'une chose (Dictionnaire.com)
  • Croyance ferme en la fiabilité, la vérité, la capacité ou la force de quelqu'un ou de quelque chose (Dictionnaire en ligne des langues d'Oxford).

J'aimerais souligner que toutes ces définitions font référence à « quelqu'un » et font également référence à « quelque chose » comme étant potentiellement digne de confiance. Ceci est remarquable puisque certains pourraient insister sur le fait que nous ne faisons confiance qu'aux humains et que l'acte de confiance est réservé exclusivement à l'humanité en tant que cible de notre fiabilité. Pas si. Vous pouvez faire confiance à votre grille-pain de cuisine. S'il semble faire votre toast de manière fiable et fonctionne régulièrement pour le faire, vous pouvez assurément avoir un semblant de confiance quant à savoir si le grille-pain est en fait digne de confiance.

Dans cette même ligne de pensée, l'IA peut également faire l'objet de notre point de vue sur la confiance. Il y a de fortes chances que la confiance associée à l'IA soit beaucoup plus compliquée que, disons, un grille-pain banal. Un grille-pain ne peut généralement effectuer qu'une poignée d'actions. Un système d'IA est susceptible d'être beaucoup plus complexe et semble fonctionner de manière moins transparente. Notre capacité à évaluer et à vérifier la fiabilité de l'IA sera forcément beaucoup plus difficile et présentera des défis distincts.

En plus d'être plus complexe, un système d'IA typique est dit non déterministe et potentiellement autorégulateur ou autoajustable. Nous pouvons brièvement explorer cette notion.

Une machine déterministe a tendance à faire les mêmes choses encore et encore, de manière prévisible et avec un modèle de fonctionnement perceptible de manière viable. Vous pourriez dire qu'un grille-pain commun grille à peu près de la même manière et possède des commandes de grillage qui modèrent le grillage, qui sont généralement prévisibles par la personne qui utilise le grille-pain. En revanche, les systèmes d'IA complexes sont souvent conçus pour être non déterministes, ce qui signifie qu'ils peuvent faire des choses très différentes au-delà de ce que vous auriez pu attendre autrement. Cela pourrait également être partiellement amplifié si l'IA est écrite pour s'auto-ajuster, un aspect qui peut avantageusement permettre à l'IA de s'améliorer dans le cas de ML/DL, mais peut également provoquer de manière inquiétante l'IA à faiblir ou à entrer dans les rangs. de la méchanceté de l'IA. Vous ne savez peut-être pas ce qui vous a frappé, en quelque sorte, car vous avez été pris au dépourvu par les actions de l'IA.

Que pourrions-nous faire pour essayer de rapprocher l'IA de la fiabilité ?

Une approche consiste à essayer de s'assurer que ceux qui construisent et mettent en service l'IA respectent un ensemble de préceptes d'éthique de l'IA. Comme l'ont mentionné ces chercheurs en intelligence artificielle : « La confiance est une attitude selon laquelle un agent se comportera comme prévu et sur lequel on peut compter pour atteindre son objectif. La confiance s'effondre après une erreur ou un malentendu entre l'agent et la personne qui fait confiance. L'état psychologique de confiance dans l'IA est une propriété émergente d'un système complexe, impliquant généralement de nombreux cycles de conception, de formation, de déploiement, de mesure de la performance, de réglementation, de reconception et de recyclage » (indiqué dans le Communications de l'ACM, « Trust, Regulation, and Human-in-the-Loop AI Within the European Region » par Stuart Middleton, Emmanuel Letouze, Ali Hossaini et Adriane Chapman, avril 2022).

L'essentiel est que si nous pouvons amener les développeurs d'IA à respecter l'IA éthique, ils finiront, espérons-le, par produire une IA digne de confiance. C'est bien beau, mais cela semble quelque peu irréalisable dans le monde réel, bien que ce soit absolument une voie qui mérite d'être poursuivie.

Voici ce que je veux dire.

Supposons qu'un effort diligent soit entrepris par des développeurs d'IA qui élaborent un système d'IA dans un but que nous appellerons généralement X. Ils s'assurent soigneusement que l'IA respecte les préceptes de transparence de l'éthique de l'IA. Ils veillent vivement à ce que la confidentialité soit correctement intégrée à l'IA. Pour presque tous les principes habituels d'éthique de l'IA, les constructeurs d'IA s'assurent de manière exhaustive que l'IA respecte le précepte donné.

Devriez-vous maintenant faire confiance à cette IA ?

Permettez-moi de vous aider à approfondir vos réflexions sur cette question ouverte.

Il s'avère que les cyber-escrocs ont réussi à infiltrer l'IA et à obtenir sournoisement que l'IA exécute X tout en fournissant aux cyber-pirates toutes les données que l'IA collecte. Ce faisant, ces malfaiteurs sapent insidieusement le précepte de la vie privée. Vous ignorez parfaitement que cela se passe sous le capot de l'IA.

Avec cette information supplémentaire, je vais vous reposer la même question.

Faites-vous confiance à cette IA ?

J'ose dire que la plupart des gens déclareraient tout de suite qu'ils le font assurément ne sauraient faites confiance à cette IA particulière. Ils auraient pu lui faire confiance plus tôt. Ils choisissent maintenant de ne plus considérer l'IA digne de confiance.

Quelques idées clés basées sur cet exemple simple méritent d'être méditées :

  • Dynamique de confiance. Même les meilleures intentions de couvrir toutes les bases pour s'assurer que l'éthique de l'IA est intégrée dans un système d'IA ne garantissent pas ce que l'IA pourrait devenir ou devenir. Une fois l'IA mise en service, les étrangers peuvent potentiellement saper les gains de l'IA éthique.
  • Saper la confiance de l'intérieur. L'acte de saper la fiabilité ne doit pas nécessairement être des étrangers. Un initié qui entretient régulièrement le système d'IA pourrait commettre une erreur et affaiblir l'IA en la rendant moins fiable. Ce développeur d'IA n'a peut-être aucune idée de ce qu'il a fait.
  • Compromis involontaires de confiance. Une IA auto-ajustable ou autorégulatrice pourrait à un moment donné s'adapter et virer dans le territoire indigne de confiance. Peut-être que l'IA tente de renforcer la transparence de l'IA tout en compromettant simultanément et de manière inappropriée les facettes de la confidentialité.
  • Diffusion de la confiance. Essayer d'atteindre tous les principes d'éthique de l'IA au même degré de fiabilité n'est généralement pas facilement viable car ils sont souvent à contre-courant ou ont d'autres conflits potentiels inhérents. C'est une perspective plutôt idéalisée de croire que tous les préceptes éthiques de l'IA sont parfaitement alignés et tous réalisables à un degré maximisable égal.
  • La confiance peut être coûteuse à atteindre. Le coût pour essayer d'obtenir un semblant d'IA digne de confiance en entreprenant les différentes étapes approfondies et exhaustives et en respectant la litanie des principes d'éthique de l'IA va être relativement élevé. Vous pouvez facilement affirmer que le coût serait prohibitif en termes d'utilisation de certains systèmes d'IA qui ont autrement une valeur importante pour la société, même si l'IA était, dirons-nous, moins qu'idéale d'un désir de fiabilité.
  • Et ainsi de suite.

N'interprétez pas à tort les remarques précédentes pour suggérer que nous devrions en quelque sorte éviter l'effort de construire et de mettre en place une IA digne de confiance. Vous seriez en train de jeter sommairement le bébé avec l'eau du bain, pour ainsi dire. L'interprétation correcte est que nous devons faire ces activités de confiance pour que l'IA soit considérée comme digne de confiance, et pourtant cela seul n'est pas une panacée ou une solution miracle.

Chemins à plusieurs volets vers une IA digne de confiance

Il existe d'autres moyens importants à plusieurs volets pour tendre vers une IA digne de confiance.

Par exemple, comme je l'ai déjà expliqué dans mes articles, une myriade de nouvelles lois et réglementations concernant l'IA visent à inciter les fabricants d'IA à concevoir une IA digne de confiance, voir le lien ici ainsi que le lien ici.

Ces garde-fous juridiques sont cruciaux en tant que moyen global de s'assurer que ceux qui conçoivent l'IA sont tenus pleinement responsables de leur IA. Sans ces recours juridiques potentiels et ces sanctions légales, ceux qui lancent pêle-mêle l'IA sur le marché continueront probablement à le faire sans se soucier sérieusement d'obtenir une IA digne de confiance. Je pourrais notamment ajouter que si ces lois et réglementations sont mal conçues ou insuffisamment mises en œuvre, elles pourraient malheureusement saper la poursuite d'une IA digne de confiance, peut-être ironiquement et curieusement favoriser une IA non fiable par rapport à une IA digne de confiance (voir mes discussions de chroniques pour plus d'explications).

J'ai également été un ardent défenseur de ce que j'appelle ardemment Robots ange gardien IA (voir ma couverture sur le lien ici). Il s'agit d'une méthode ou d'une approche à venir pour essayer de combattre le feu par le feu, à savoir utiliser l'IA pour nous aider à traiter avec d'autres IA qui pourraient ou non être dignes de confiance.

Tout d'abord, un peu de contexte sera utile.

Supposons que vous choisissiez de vous fier à un système d'IA dont vous n'êtes pas sûr de sa fiabilité. Une préoccupation clé pourrait être que vous êtes seul dans vos tentatives de découvrir si l'IA est digne de confiance ou non. L'IA est potentiellement plus rapide que vous en termes de calcul et peut profiter de vous. Vous avez besoin de quelqu'un ou de quelque chose de votre côté pour vous aider.

Une perspective est qu'il devrait toujours y avoir un humain dans la boucle qui vous aidera lorsque vous utilisez un système d'IA. C'est cependant une solution problématique. Si l'IA fonctionne en temps réel, ce dont nous parlerons dans un instant en ce qui concerne l'avènement des voitures autonomes basées sur l'IA, avoir un humain dans la boucle pourrait ne pas être suffisant. L'IA pourrait agir en temps réel et au moment où un humain désigné dans la boucle entre en scène pour déterminer si l'IA fonctionne correctement, un résultat catastrophique pourrait déjà s'être produit.

Soit dit en passant, cela soulève un autre facteur concernant la confiance. Nous attribuons généralement un niveau de confiance en fonction du contexte ou des circonstances auxquels nous sommes confrontés. Vous pouvez faire entièrement confiance à votre fils ou à votre fille pour qu'il vous soit fidèle, mais si vous faites de la randonnée et que vous décidez de compter sur le tout-petit pour vous dire s'il est sûr de marcher sur le bord d'une falaise, je pense que vous seriez sage. pour déterminer si le tout-petit peut fournir ce genre de conseils de vie ou de mort. L'enfant pourrait le faire avec sérieux et sincérité, et néanmoins être incapable de donner un tel conseil de manière adéquate.

La même notion est associée à la confiance en matière d'IA. Un système d'IA que vous utilisez pour jouer aux dames ou aux échecs n'est probablement pas impliqué dans des délibérations de vie ou de mort. Vous pouvez être plus à l'aise avec votre mission de confiance. Une voiture autonome basée sur l'IA qui roule sur une autoroute à grande vitesse nécessite un niveau de confiance beaucoup plus ardu. Le moindre problème du système de conduite IA pourrait entraîner directement votre mort et la mort d'autres personnes.

Dans une interview publiée de Beena Ammanath, directrice exécutive du Global Deloitte AI Institute et auteur du livre IA digne de confiance, un accent similaire sur la prise en compte des facettes contextuelles de l'endroit où la fiabilité de l'IA entre en jeu : « Si vous construisez une solution d'IA qui effectue le diagnostic des patients, l'équité et les préjugés sont extrêmement importants. Mais si vous construisez un algorithme qui prédit une panne de moteur à réaction, l'équité et le biais ne sont pas aussi importants. L'IA digne de confiance est vraiment une structure pour vous aider à commencer à réfléchir aux dimensions de la confiance au sein de votre organisation » (VentureBeat, 22 mars 2022).

Lorsque vous discutez d'une IA digne de confiance, vous pouvez interpréter ce sujet de multiples façons.

Par exemple, IA digne de confiance est quelque chose que nous considérons tous comme un objectif souhaitable et ambitieux, à savoir que nous devrions être désireux de concevoir et de promulguer une IA digne de confiance. Il y a une autre utilisation du slogan. Une utilisation quelque peu alternative est que IA digne de confiance est un état de condition ou de mesure, tel que quelqu'un pourrait affirmer qu'il a conçu un système d'IA qui est une instance d'IA digne de confiance. Vous pouvez également utiliser la phrase IA digne de confiance pour suggérer une méthode ou une approche qui peut être utilisée pour atteindre la fiabilité de l'IA. Etc.

Dans le même ordre d'idées, j'espère que vous vous rendez compte que toutes les IA ne sont pas identiques et que nous devons veiller à ne pas faire de déclarations générales sur l'ensemble de l'IA. Un système d'IA particulier est susceptible d'être très différent d'un autre système d'IA. L'un de ces systèmes d'IA peut être hautement fiable, tandis que l'autre peut être légèrement fiable. Soyez prudent en supposant d'une manière ou d'une autre que l'IA est un monolithe qui est soit entièrement digne de confiance, soit entièrement non digne de confiance.

Ce n'est simplement pas le cas.

J'aimerais maintenant aborder brièvement certaines de mes recherches en cours sur l'IA digne de confiance qui pourraient vous intéresser, couvrant le rôle émergent de Robots ange gardien IA.

Voici comment ça se passe.

Vous seriez armé d'un système d'IA (un robot ange gardien d'IA) conçu pour évaluer la fiabilité d'un autre système d'IA. Le bot ange gardien IA a pour objectif primordial votre sécurité. Pensez-y comme si vous aviez les moyens de surveiller l'IA sur laquelle vous comptez en ayant un système d'IA différent dans votre véritable poche, fonctionnant peut-être sur votre smartphone ou d'autres appareils similaires. Votre gardien proverbial de l'IA peut calculer sur la base de ce que l'IA sur laquelle vous comptez le fait également, travaillant à des vitesses rapides et calculant la situation en temps réel, bien plus rapidement qu'un humain dans la boucle ne pourrait le faire.

Vous pourriez, à première vue, penser que l'IA sur laquelle vous comptez déjà devrait avoir interne Garde-corps IA qui font la même chose que ce robot ange gardien IA calculant séparément. Oui, ce serait certainement souhaité. Un problème est que les garde-corps de l'IA intégrés dans un système d'IA pourraient être alignés intégralement et de manière préjudiciable sur l'IA en soi, ainsi le garde-corps supposé de l'IA n'est plus en mesure de vérifier ou de valider l'IA de manière indépendante.

L'idée contrastée est que votre bot ange gardien IA est un mécanisme d'IA indépendant ou tiers qui est distinct de l'IA sur laquelle vous comptez. Il se trouve en dehors de l'autre IA, restant dévoué à vous et non consacré à l'IA surveillée ou évaluée.

Un moyen simple de réfléchir à cela peut être exprimé par les déclarations simplifiées suivantes, semblables à des équations. On pourrait dire que « P » souhaite potentiellement faire confiance à « R » pour effectuer une tâche particulière « X » :

Ce serait le suivant lorsque seules des personnes sont impliquées :

  • La personne P fait confiance à la personne R pour effectuer la tâche X.

Lorsque nous choisissons de nous fier à l'IA, la déclaration se transforme en ceci :

  • La personne P fait confiance à AI instance-R pour effectuer la tâche X.

Nous pouvons ajouter le bot ange gardien IA en disant ceci :

  • La personne P fait confiance à l'instance AI-R pour effectuer la tâche X comme étant surveillée par l'instance-Z du bot ange gardien AI

Le robot ange gardien IA évalue sans relâche et sans relâche l'IA sur laquelle vous comptez. En tant que tel, votre gardien IA pratique pourrait vous alerter que la confiance de cette autre IA est injustifiée. Ou, le tuteur de l'IA peut interagir électroniquement avec l'autre IA pour essayer de s'assurer que tout écart par rapport à la fiabilité est rapidement corrigé, et ainsi de suite (voir ma couverture sur ces détails à le lien ici).

La métaphore du réservoir Trusty Trust

Étant donné que nous discutons de différents niveaux de confiance, vous pourriez trouver utile une métaphore pratique sur la fiabilité en concevant la confiance comme un type de réservoir.

Vous avez une certaine confiance pour une personne ou une chose particulière dans une circonstance particulière à un moment donné. Le niveau de confiance augmentera ou diminuera, selon ce qui se passe d'autre concernant cette personne ou cette chose en particulier. La confiance pourrait être à un niveau zéro lorsque vous n'avez aucune confiance en la personne ou la chose. La confiance peut être négative lorsque vous vous aventurez à vous méfier de cette personne ou de cette chose.

Dans le cas des systèmes d'IA, votre réservoir de confiance pour l'IA particulière sur laquelle vous comptez dans une circonstance particulière augmentera ou diminuera en fonction de votre évaluation de la fiabilité de l'IA. À certains moments, vous pourriez être bien conscient de ce niveau variable de confiance à l'égard de l'IA, tandis que dans d'autres cas, vous pourriez être moins conscient et plus encore en portant des jugements sur la fiabilité.

Les moyens dont nous avons discuté ici pour augmenter les niveaux de confiance envers l'IA incluent :

  • Adhésion à l'éthique de l'IA. Si l'IA sur laquelle vous comptez a été conçue en essayant de respecter les préceptes d'éthique de l'IA appropriés, vous utiliserez probablement cette compréhension pour augmenter le niveau de votre réservoir de confiance pour ce système d'IA particulier. En passant, il est également possible que vous généralisiez à d'autres systèmes d'IA quant à leur fiabilité, même si cela peut parfois être une forme trompeuse de ce que j'appelle L'aura de confiance de l'IA se répand (soyez prudent en faisant cela!).
  • Utilisez un Human-In-The-Loop. Si l'IA a un humain dans la boucle, vous pourriez ajouter positivement à votre confiance perçue dans l'IA.
  • Établir des lois et des règlements. S'il existe des lois et des réglementations associées à ce type particulier d'IA, vous pouvez également augmenter votre niveau de confiance.
  • Employez un robot ange gardien IA. Si vous avez un robot ange gardien IA à portée de main, cela augmentera également votre niveau de confiance.

Comme mentionné précédemment, la confiance peut être assez fragile et s'effondrer en un instant (c'est-à-dire que le réservoir de confiance vide rapidement et soudainement toute la confiance accumulée).

Imaginez que vous êtes à l'intérieur d'une voiture autonome basée sur l'IA et que la conduite de l'IA effectue soudainement un virage radical à droite, provoquant un grincement des roues et forçant presque le véhicule autonome à effectuer un retournement dangereux. Qu'adviendrait-il de votre niveau de confiance ? Il semblerait que même si vous teniez auparavant l'IA à un niveau de confiance accru, vous baisseriez considérablement et brusquement votre niveau de confiance, de manière raisonnable.

À ce stade de cette discussion importante, je parierais que vous êtes désireux d'exemples illustratifs supplémentaires qui pourraient montrer la nature et la portée d'une IA digne de confiance. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur la poursuite d'une IA digne de confiance, et si oui, qu'est-ce que cela met en valeur ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles où l'IA conduit la voiture entièrement seule et il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de véritable voiture autonome au niveau 5, et nous ne savons même pas encore si cela sera possible d'y parvenir, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et IA digne de confiance

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournit une litanie suffisante de mises en garde pour sous-tendre ce que je suis sur le point de raconter.

Nous sommes maintenant prêts à plonger profondément dans les voitures autonomes et l'IA digne de confiance.

La confiance est primordiale, en particulier dans le cas des voitures autonomes basées sur l'IA.

La société semble se méfier de l'émergence des voitures autonomes. D'une part, il y a un grand espoir que l'avènement de véritables voitures autonomes réduira manifestement le nombre de décès annuels liés à la voiture. Rien qu'aux États-Unis, il y a environ 40,000 2.5 décès annuels et environ XNUMX millions de blessés dus à des accidents de voiture, voir ma collection de statistiques sur le lien ici. Les humains boivent et conduisent. Les humains conduisent en étant distraits. La tâche de conduire une voiture semble consister à être capable de se concentrer de manière répétitive et infaillible sur la conduite et d'éviter d'avoir des accidents de voiture. En tant que tel, nous pourrions espérer rêveusement que les systèmes de conduite IA guideront les voitures autonomes de manière répétitive et infaillible. Vous pouvez interpréter les voitures autonomes comme un double, consistant à réduire le nombre de décès et de blessures dans les accidents de voiture, tout en rendant potentiellement la mobilité disponible sur une base beaucoup plus large et accessible.

Mais entre-temps, l'inquiétude plane sur les perceptions de la société quant à savoir si les voitures autonomes seront suffisamment sûres pour être sur nos routes publiques en général.

Si même une voiture autonome tombe dans un accident ou une collision qui entraîne un seul décès ou une blessure grave, vous pouvez probablement anticiper que la confiance quelque peu établie d'aujourd'hui envers ces voitures sans conducteur basées sur l'IA va chuter précipitamment. Nous avons vu cela se produire lorsque l'incident désormais tristement célèbre s'est produit en Arizona, impliquant une voiture quelque peu (pas vraiment) autonome qui a heurté et tué un piéton (voir ma couverture sur ce lien ici).

Certains experts soulignent qu'il est injuste et inapproprié de fonder la confiance des voitures autonomes IA sur le fait qu'un seul de ces prochains accidents ou collisions mortels pourrait saper les essais routiers publics déjà relativement sans accident. De plus, sur une autre base injuste, il y a de fortes chances que, quelle que soit la marque ou le modèle de voiture autonome à intelligence artificielle qui soit impliqué dans un incident douloureux, la société blâme indubitablement toutes les marques de voitures autonomes.

L'intégralité des voitures autonomes pourrait être sommairement salie et l'industrie dans son ensemble pourrait subir un énorme contrecoup conduisant à un éventuel arrêt de tous les essais routiers publics.

Un contributeur à un tel retour de flamme se trouve dans les proclamations absurdes des partisans déclarés des voitures autonomes selon lesquelles toutes les voitures sans conducteur ne s'écraseront pas. Cette idée d'être incassable n'est pas seulement complètement fausse (voir le lien ici), il installe insidieusement l'industrie de la voiture autonome pour un ensemble d'attentes totalement déjanté. Ces déclarations farfelues et irréalisables selon lesquelles il n'y aura aucun décès dû aux voitures autonomes alimentent l'idée fausse que tout accident de voiture sans conducteur est un signe certain que tout le kit et le kaboodle ne servent à rien.

Il y a une tristesse distincte à réaliser que les progrès vers les voitures autonomes et l'accumulation d'un pouce à la fois de la confiance sociétale pourraient être anéantis en un instant. Cela va être une sacrée vitrine sur la fragilité de la confiance.

Conclusion

De nombreux constructeurs automobiles et entreprises technologiques autonomes respectent généralement les principes d'éthique de l'IA, le faisant pour essayer de construire et de mettre en place une IA fiable en termes de voitures autonomes sûres et fiables basées sur l'IA. Sachez que certaines de ces entreprises sont plus fortes et plus dévouées aux préceptes éthiques de l'IA que d'autres. Il existe également occasionnellement des startups marginales ou novices liées aux voitures autonomes qui semblent mettre de côté une grande partie des pierres angulaires de l'éthique de l'IA (voir mon avis sur le lien ici).

Sur d'autres fronts, de nouvelles lois et réglementations concernant les voitures autonomes ont progressivement été inscrites dans les livres légaux. Qu'ils aient les dents nécessaires pour les soutenir est une autre question, tout comme si l'application de ces lois est prise au sérieux ou négligée (voir mes colonnes pour des analyses à ce sujet).

Il y a aussi l'angle de la haute technologie à cela aussi. J'ai prédit que nous verrons progressivement des variantes de robots anges gardiens IA qui viendront au premier plan dans le domaine des véhicules autonomes et des voitures autonomes. Nous n'en sommes pas encore là. Cela deviendra plus répandu une fois que la popularité des voitures autonomes se généralisera.

Ce dernier point évoque une phrase célèbre sur la confiance que vous connaissez sans doute déjà par cœur.

Faites confiance, mais vérifiez.

Nous pouvons nous permettre d'étendre notre confiance, peut-être généreusement. En attendant, nous devons également veiller comme un faucon pour nous assurer que la confiance que nous générons est vérifiée à la fois par les paroles et les actes. Faisons confiance à l'IA, mais vérifions sans cesse que nous plaçons notre confiance de manière appropriée et les yeux grands ouverts.

Vous pouvez me faire confiance là-dessus.

Source : https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/