Selon l'éthique de l'IA et la loi sur l'IA, l'implantation d'un raisonnement juridique dans l'IA pourrait atteindre intelligemment l'alignement des valeurs humaines

Dans la chronique d'aujourd'hui, je vais tisser ensemble une myriade de sujets apparemment disparates liés à l'IA en un seul tissu bien tissé.

Es-tu prêt?

Imaginez que vous utilisez une application alimentée par l'IA qui vous aide tout en entreprenant une sorte de tâche importante. Peut-être que la question est financière ou pourrait être liée à la santé. L'essentiel est que vous dépendez de l'IA pour faire ce qu'il faut et agir d'une manière présumée sûre et saine.

Supposons que l'IA se dirige vers un territoire contraire à l'éthique.

Vous ne réalisez peut-être pas que l'IA le fait.

Par exemple, l'IA pourrait s'appuyer sur des facteurs discriminatoires potentiellement cachés tels que la race ou le sexe, bien que vous n'ayez peut-être aucun moyen viable de discerner l'utilisation fâcheuse. Vous êtes là, tout seul, à prendre le petit bout du bâton via une IA qui a été conçue dès le départ de manière problématique ou qui a réussi à se diriger vers une mise en danger éthique risquée et limite (j'en dirai plus sur ceci dans un instant).

Que pouvez-vous faire ou que pouvez-vous faire à propos de l'IA qui choisit de suivre une voie contraire à l'éthique ?

En plus d'essayer de construire au préalable l'IA afin qu'elle ne fasse pas ce genre d'action insidieuse, j'ai également expliqué précédemment qu'il existe un intérêt croissant pour l'intégration d'un Vérification de l'éthique de l'IA composant dans le bourbier bourgeonnant de systèmes d'IA autrement Far West, tout va bien, qui sont lancés sur le marché. L'idée est que pour essayer d'empêcher une application infusée d'IA d'aller au-delà des dimensions éthiques, nous pourrions utiliser une IA supplémentaire pour faire un contrôle et un équilibre. Cette IA ajoutée peut être en dehors de l'application d'IA ciblée ou peut être un composant intégré ou implanté directement dans l'IA sur laquelle nous souhaitons effectuer une double vérification.

Comme je l'ai déjà dit, voir le lien ici: "Une tendance émergente récente consiste à essayer de construire des garde-fous éthiques dans l'IA qui s'accrocheront au fur et à mesure que le reste d'un système d'IA commencera à dépasser les limites éthiques prédéfinies. Dans un sens, l'objectif est d'utiliser l'IA elle-même pour éviter de déraper sur le plan éthique. Vous pourriez dire que nous visons à ce que l'IA se guérisse elle-même » (Lance Eliot, « Crafting Ethical AI That Monitors Unethical AI And Trys To Deter Bad AI From Acting Up », Forbes, 28 mars 2022).

Vous pourriez également trouver d'intérêt pertinent mon livre sur Robots gardiens IA, parfois appelés anges gardiens, qui couvre les fondements techniques de ces double-vérificateurs intégrés à la fine pointe de l'IA dans l'IA, voir le lien ici.

En fin de compte, votre bacon pourrait heureusement être sauvé grâce à l'utilisation d'un élément de mesure de l'éthique de double vérification de l'IA intégré qui a été conçu et implanté dans une application d'IA que vous utilisez. Mais cela suffira-t-il à un gardien pour vraiment s'assurer que l'IA ne vous raidit pas complètement et ne s'aventure pas même sur un terrain dangereux ?

Vous voyez, l'application AI pourrait fonctionner ostensiblement illégal actes.

C'est une chose d'avoir une IA qui entre dans une zone grise de ce que nous considérons comme des comportements éthiques ou contraires à l'éthique. Un comportement tout aussi déconcertant et une aggravation probable de l'inquiétude impliquent une IA qui saute juste le requin pour ainsi dire et descend dans l'obscurité de mauvaise qualité d'actes illégaux purs et simples.

L'IA illégale est mauvaise. Laisser une IA illégale passer sans surveillance est mauvais. Certains juristes craignent ouvertement que l'avènement et l'omniprésence de l'IA ne sapent progressivement et de manière terrifiante notre apparence de primauté du droit, voir mon analyse sur le lien ici.

Attendez une seconde, vous pourriez dire.

Vous pourriez être tenté de penser que les développeurs d'IA n'allons jamais programmer leur IA pour aller à l'encontre de la loi. Inimaginable. Seuls les méchants maléfiques le feraient (ce qui, soit dit en passant, garde à l'esprit qu'il y a ceux qui conçoivent et utilisent intentionnellement l'IA à des fins malveillantes, un domaine d'intérêt croissant pour les criminels et d'autres personnes souhaitant utiliser l'IA pour des activités néfastes).

Désolé, mais c'est un vœu pieux de supposer que tous les développeurs d'IA non pervers s'assureront strictement que leur IA respecte pleinement la loi. Il se pourrait que l'IA s'adapte d'elle-même et se lance dans des activités illégales. Bien sûr, il est également possible que les développeurs de l'IA veuillent que l'IA agisse illégalement ou qu'ils ne savaient pas ce qui constituait des actes illégaux par rapport à des actes légaux lorsqu'ils fabriquaient l'IA (oui, c'est tout à fait possible, à savoir qu'un une équipe d'IA entièrement technologique peut ignorer les manigances légales de leur IA, ce qui n'est pas excusable et se produit pourtant avec une fréquence alarmante).

Que peut-on faire à ce sujet?

Encore une fois, en plus d'essayer de s'assurer que l'IA out-the-gate est à toute épreuve et légale, une approche supplémentaire pour gagner en puissance consiste à intégrer ou à implanter un composant d'IA qui effectue une double vérification légale pour le reste de l'application AI. Assise tranquillement et souvent non annoncée, cette IA supplémentaire observe le reste de l'IA pour essayer de discerner si l'IA va devenir voyou ou au moins dépasser les limites des restrictions imposées par la loi ou la réglementation.

Nous avons maintenant deux types de double vérification de l'IA qui sont potentiellement intégrés dans une application d'IA :

  • Double vérification de l'éthique de l'IA : En temps réel, ce composant ou complément d'IA évalue le reste de l'IA pour les comportements éthiques et contraires à l'éthique que l'IA présente
  • Double vérification juridique de l'IA : En temps réel, ce composant ou complément d'IA évalue le reste de l'IA pour s'assurer de rester dans les limites légales et pour détecter les activités illégales émergentes par l'IA.

Pour clarifier, ce sont des conceptions relativement nouvelles et en tant que telles, l'IA que vous utilisez aujourd'hui pourrait être dans l'une de ces conditions actuelles :

  • IA qui n'a aucun double vérificateur inclus
  • IA qui a un double-vérificateur d'éthique de l'IA inclus mais pas d'autres double-vérificateurs
  • IA qui a un double-vérificateur AI Legal inclus mais pas d'autres double-vérificateurs
  • IA dotée à la fois d'un double-vérificateur d'éthique de l'IA et d'un double-vérificateur d'IA juridique
  • Autre

Il y a des aspects très délicats à faire travailler côte à côte dans une application d'IA en tant que frère et sœur apparentés, à la fois le double vérificateur d'éthique de l'IA et le double vérificateur d'IA Legal. C'est un type de dualisme qui peut être plus difficile à coordonner que vous ne le pensez (je pense que nous savons tous que les frères et sœurs peuvent avoir les liens les plus étroits, bien qu'ils puissent aussi se battre comme des dickens de temps en temps et s'opposer vigoureusement vues).

J'ai longuement discuté de ce type de travail ardu dualisme: "Un dualisme négligé se produit dans l'IA pour le bien social, impliquant le manque d'englober à la fois le rôle de l'agence morale artificielle et le raisonnement juridique artificiel dans les systèmes d'IA avancés. Les efforts des chercheurs en IA et des développeurs d'IA ont eu tendance à se concentrer sur la façon de concevoir et d'intégrer des agents moraux artificiels pour guider la prise de décision morale lorsqu'un système d'IA fonctionne sur le terrain, mais ils n'ont pas également mis l'accent sur l'utilisation de capacités de raisonnement juridique artificiel et ne les ont pas couplées. , ce qui est tout aussi nécessaire pour des résultats moraux et juridiques solides » (Lance Eliot, « The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good », Harvard University CRCS Annual Conference 2020, Société du Centre de recherche et de calcul de Harvard)

Si vous souhaitez expliquer pourquoi il pourrait y avoir des tensions entre un double vérificateur d'éthique de l'IA et un double vérificateur juridique de l'IA, vous pourriez trouver cette citation remarquable d'une valeur conceptuelle époustouflante : "La loi peut autoriser un acte particulier, même si cet acte est immoral; et la loi peut interdire un acte, même si cet acte est moralement permis, voire moralement requis » (Shelly Kagan, Les limites de la morale, 1998).

Déplaçons légèrement notre attention et voyons comment ces doubles vérificateurs s'intègrent dans un autre sujet d'IA très scruté, à savoir IA responsable ou une réflexion concertée sur l'alignement des valeurs humaines et de l'IA.

La notion générale est que nous voulons une IA qui respecte les valeurs humaines appropriées et souhaitables. Certains appellent cela IA responsable. D'autres discutent de la même manière IA responsable, IA digne de confianceet Alignement de l'IA, qui touchent tous au même principe fondamental. Pour ma discussion sur ces questions importantes, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Comment pouvons-nous aligner l'IA sur les valeurs humaines ?

Comme suggéré précédemment, nous espérons que les développeurs d'IA seraient conscients de développer une IA qui atteint l'adhésion à l'IA responsable. Malheureusement, ils pourraient ne pas le faire, selon les raisons expliquées précédemment. De plus, ils pourraient essayer de le faire, et pourtant l'IA finit par s'adapter au-delà du domaine saillant des comportements éthiques ou éventuellement dans des eaux illégales.

Très bien, nous devons alors considérer nos dandy double-vérificateurs pratiques comme un moyen de consolider ces risques et expositions. L'utilisation d'un double vérificateur d'éthique de l'IA bien conçu peut aider matériellement à aligner l'IA sur les valeurs humaines. De même, l'utilisation d'un double vérificateur juridique de l'IA bien conçu peut considérablement aider à aligner l'IA sur les valeurs humaines.

Ainsi, un moyen crucial et pas encore bien connu de chercher à parvenir à une IA responsable, une IA digne de confiance, une IA responsable, un alignement de l'IA, etc., impliquerait l'utilisation de double-vérificateurs d'IA tels qu'un double-vérificateur d'éthique de l'IA et un AI Legal double-checker qui fonctionnerait sans relâche comme une double vérification de l'IA dans laquelle ils sont intégrés.

Dans cette discussion, j'aimerais entrer un peu plus dans les détails de la nature et des constructions des double-vérificateurs juridiques de l'IA qui pourraient être intégrés à l'IA. Pour ce faire, il peut être utile de partager avec vous quelques informations supplémentaires sur le sujet général de IA et droit.

Pour un examen pratique de la façon dont l'IA et la loi se mélangent, voir ma discussion sur le lien ici. Dans mon regard perspicace sur le IA et droit couplage, je propose cette conception simple de deux manières majeures d'interconnecter l'IA et la loi :

  • (1) Loi appliquée à l'IA : La formulation, la promulgation et l'application de lois appliquées à la réglementation ou à la gouvernance de l'intelligence artificielle dans notre société
  • (2) IA appliquée au droit : Technologie d'intelligence artificielle conçue et appliquée dans la loi, y compris le raisonnement juridique basé sur l'IA (AILR) infusé dans les applications de haute technologie LegalTech pour effectuer de manière autonome ou semi-autonome des tâches d'avocat

Le premier point de vue répertorié consiste à considérer comment les lois existantes et nouvelles vont régir l'IA. La deuxième perspective répertoriée concerne l'application de l'IA à la loi.

Cette dernière catégorie implique généralement l'utilisation du raisonnement juridique basé sur l'IA (AILR) dans divers outils en ligne utilisés par les avocats. Par exemple, l'IA peut faire partie d'un package de gestion du cycle de vie des contrats (CLM) qui aide les avocats en identifiant le langage contractuel qui sera utile pour rédiger de nouveaux contrats ou peut détecter les contrats qui ont un langage juridiquement insipide qui permet des mésaventures ou des lacunes juridiques. (pour mon regard sur les soi-disant «odeurs de loi» qui peuvent être discernées par l'IA, voir le lien ici).

Nous aurons inévitablement une IA appliquée à la loi qui devient accessible au grand public et qui ne nécessite pas qu'un avocat soit au courant. À l'heure actuelle, en raison de diverses restrictions, y compris l'UPL (Unauthorized Practical of Law), la mise à disposition d'applications de conseil juridique basées sur l'IA est une question épineuse et controversée, voir ma discussion sur le lien ici.

J'ai évoqué cette introduction sur l'IA et le droit pour souligner qu'une autre utilisation instrumentale de l'IA appliquée au droit serait de créer des double-vérificateurs juridiques de l'IA.

Oui, le même type de prouesses technologiques impliquées dans l'application de l'IA à la loi peut remplir une double fonction en utilisant l'IA pour servir de double-vérificateur juridique intégré ou implanté de l'IA. Le double-vérificateur AI Legal est un composant qui doit être versé dans les facettes juridiques. Lorsque le reste de l'application AI effectue diverses actions, le double vérificateur AI Legal évalue si l'application AI le fait légalement et dans les limites légales.

Un composant de double vérification AI Legal n'a pas nécessairement besoin de couvrir toute la gamme de tout ce qu'il y a à savoir sur la loi. Selon la nature de l'application AI quant à l'objectif et aux actions de l'IA dans son ensemble, le double vérificateur AI Legal peut être beaucoup plus étroit en termes d'expertise juridique qu'il contient.

J'ai identifié un cadre utile pour montrer comment l'IA dans le domaine juridique s'étend sur une série de capacités autonomes, appelées niveaux d'autonomie (LoA). Pour un aperçu voir mon Forbes publication dans la colonne du 21 novembre 2022, « The No-Nonsense Comprehensive Compelling Case For Why Lawyers Need To Know About AI And The Law » sur le lien ici, et pour une description technique détaillée, voir mon article de recherche approfondi dans le Journal de droit informatique du MIT du 7 décembre 2021, cf. le lien ici.

Le cadre explique cinq niveaux d'IA tels qu'utilisés dans les efforts juridiques :

  • Niveau 0 : Pas d'automatisation pour le travail juridique basé sur l'IA
  • Niveau 1 : Automatisation simple de l'assistance pour le travail juridique basé sur l'IA
  • Niveau 2 : Automatisation avancée de l'assistance pour le travail juridique basé sur l'IA
  • Niveau 3 : Automatisation semi-autonome pour le travail juridique basé sur l'IA
  • Niveau 4 : Domaine autonome pour le travail juridique basé sur l'IA
  • Niveau 5 : Entièrement autonome pour le travail juridique basé sur l'IA

Je vais les décrire brièvement ici.

Le niveau 0 est considéré comme le niveau sans automatisation. Le raisonnement juridique et les tâches juridiques sont effectués via des méthodes manuelles et se produisent principalement via des approches sur papier.

Le niveau 1 consiste en une simple automatisation de l'assistance au raisonnement juridique de l'IA. Des exemples de cette catégorie incluraient l'utilisation quotidienne du traitement de texte informatisé, l'utilisation quotidienne de tableurs informatiques, l'accès à des documents juridiques en ligne qui sont stockés et récupérés électroniquement, etc.

Le niveau 2 consiste en une automatisation avancée de l'assistance pour le raisonnement juridique de l'IA. Des exemples de cette catégorie incluraient l'utilisation d'un traitement du langage naturel (NLP) rudimentaire de style requête, des éléments simplistes d'apprentissage automatique (ML), des outils d'analyse statistique pour les prédictions de cas juridiques, etc.

Le niveau 3 consiste en une automatisation semi-autonome pour le raisonnement juridique de l'IA. Des exemples de cette catégorie incluraient l'utilisation de systèmes avancés basés sur les connaissances (KBS) pour le raisonnement juridique, l'utilisation de l'apprentissage automatique et de l'apprentissage en profondeur (ML/DL) pour le raisonnement juridique, le NLP avancé, etc.

Le niveau 4 consiste en des systèmes informatiques autonomes de domaine pour le raisonnement juridique de l'IA. Ce niveau réutilise la notion conceptuelle de domaines de conception opérationnelle (ODD), telle qu'elle est utilisée pour les voitures autonomes, mais telle qu'appliquée au domaine juridique. Les domaines juridiques peuvent être classés par domaines fonctionnels, tels que le droit de la famille, le droit immobilier, le droit des faillites, le droit de l'environnement, le droit fiscal, etc.

Le niveau 5 consiste en des systèmes informatisés entièrement autonomes pour le raisonnement juridique de l'IA. En un sens, le niveau 5 est le sur-ensemble du niveau 4 en termes d'englobement de tous les domaines juridiques possibles. S'il vous plaît, réalisez que c'est un défi de taille.

Vous pouvez concevoir ces niveaux d'autonomie à égalité avec les utilisations similaires lorsque vous discutez de voitures autonomes et de véhicules autonomes (également basés sur la norme officielle SAE, voir ma couverture sur le lien ici). Nous n'avons pas encore de voitures autonomes SAE niveau 5. Nous nous rapprochons des voitures autonomes SAE niveau 4. La plupart des voitures conventionnelles sont au niveau SAE 2, tandis que certaines des voitures les plus récentes passent au niveau SAE 3.

Dans le domaine juridique, nous n'avons pas encore de niveau 5 AILR. Nous touchons à certains niveaux 4, bien que dans des ODD extrêmement étroits. Le niveau 3 commence à voir le jour, alors que le pilier de l'AILR aujourd'hui se situe principalement au niveau 2.

Un article de recherche récent sur l'IA appliquée à la loi a proposé une typification connue sous le nom de La loi informe le code. Le chercheur déclare ceci : « L'un des principaux objectifs de la La loi informe le code est d'apprendre à l'IA à suivre l'esprit de la loi » (John J. Nay, « Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans », Northwestern Journal de la technologie et de la propriété intellectuelle, tome 20, à paraître). Il y a quelques considérations essentielles que le La loi informe le code mantra évoque et je vais vous guider à travers plusieurs de ces préceptes clés.

Avant de plonger dans le sujet, j'aimerais d'abord poser quelques bases essentielles sur l'IA et en particulier sur l'éthique de l'IA et le droit de l'IA, afin de m'assurer que la discussion sera sensible au contexte.

La prise de conscience croissante de l'IA éthique et aussi de la loi sur l'IA

L'ère récente de l'IA a d'abord été considérée comme AI pour de bon, ce qui signifie que nous pourrions utiliser l'IA pour le bien de l'humanité. Sur les talons de AI pour de bon est venu la réalisation que nous sommes également immergés dans AI pour le mal. Cela inclut l'IA qui est conçue ou auto-modifiée pour être discriminatoire et fait des choix de calcul imprégnant des biais indus. Parfois, l'IA est construite de cette façon, tandis que dans d'autres cas, elle vire dans ce territoire fâcheux.

Je veux m'assurer que nous sommes sur la même page quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur l'IA sensible, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Je suggérerais fortement que nous gardions les choses sur terre et que nous considérions l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

Soyez très prudent lorsque vous anthropomorphisez l'IA d'aujourd'hui.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Tout cela a des implications particulièrement importantes sur l'éthique de l'IA et offre une fenêtre pratique sur les leçons apprises (avant même que toutes les leçons ne se produisent) lorsqu'il s'agit d'essayer de légiférer sur l'IA.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. Ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux.

Dans les colonnes précédentes, j'ai couvert les divers efforts nationaux et internationaux pour élaborer et promulguer des lois réglementant l'IA, voir le lien ici, par exemple. J'ai également couvert les divers principes et directives d'éthique de l'IA que divers pays ont identifiés et adoptés, y compris par exemple l'effort des Nations Unies tel que l'ensemble d'éthique de l'IA de l'UNESCO que près de 200 pays ont adopté, voir le lien ici.

Voici une liste clé utile de critères ou de caractéristiques éthiques de l'IA concernant les systèmes d'IA que j'ai déjà explorés de près :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA sont sincèrement censés être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA.

Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme souligné précédemment ici, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

J'ai aussi récemment examiné le Charte des droits de l'IA qui est le titre officiel du document officiel du gouvernement américain intitulé « Blueprint for an AI Bill of Rights : Making Automated Systems Work for the American People » qui est le résultat d'un effort d'un an par l'Office of Science and Technology Policy (OSTP ). L'OSTP est une entité fédérale qui sert à conseiller le président américain et le bureau exécutif américain sur divers aspects technologiques, scientifiques et d'ingénierie d'importance nationale. En ce sens, vous pouvez dire que cette déclaration des droits de l'IA est un document approuvé et approuvé par la Maison Blanche américaine existante.

Dans la Déclaration des droits de l'IA, il existe cinq catégories clés :

  • Des systèmes sûrs et efficaces
  • Protections contre la discrimination algorithmique
  • Confidentialité des données
  • Avis et explication
  • Alternatives humaines, considération et repli

J'ai soigneusement passé en revue ces préceptes, voir le lien ici.

Maintenant que j'ai jeté des bases utiles sur ces sujets liés à l'éthique de l'IA et à la loi sur l'IA, nous sommes prêts à nous lancer dans le sujet captivant des doubles vérificateurs juridiques de l'IA et du domaine de La loi informe le code.

Double-vérificateurs juridiques de l'IA intégrés à l'IA pour l'alignement de la valeur humaine

je me réfère parfois à Double-vérificateurs juridiques de l'IA via un acronyme de AI-LDC. C'est un peu choquant visuellement pour ceux qui ne connaissent pas l'acronyme. En tant que tel, je n'utiliserai pas cet acronyme particulier dans cette discussion, mais je voulais vous le mentionner en guise d'avertissement.

Pour déballer certaines des complexités des double-vérificateurs AI Legal, abordons ces points majeurs :

  • Utilisation des doubles vérificateurs juridiques de l'IA comme mécanisme d'alignement des valeurs humaines de l'IA
  • Une IA plus expansive nécessitera en conséquence des double-vérificateurs juridiques d'IA plus robustes
  • Les double-vérificateurs juridiques de l'IA promulguent la loi et ne font notamment pas de loi (vraisemblablement)
  • Équilibre délicat entre IA Incarnation juridique de la loi en tant que règles et normes
  • Exiger une preuve du pudding lorsqu'il s'agit de l'IA qui respecte la loi

En raison de contraintes d'espace, je ne couvrirai que ces cinq points pour l'instant, mais soyez à l'affût d'une couverture supplémentaire dans ma colonne couvrant des considérations supplémentaires et tout aussi remarquables sur ces questions en évolution rapide et en évolution rapide.

En ce moment, attachez votre ceinture de sécurité et préparez-vous pour un voyage revigorant.

  • Utilisation des doubles vérificateurs juridiques de l'IA comme mécanisme d'alignement des valeurs humaines de l'IA

Il existe de nombreuses façons d'essayer d'atteindre un alignement harmonieux entre l'IA et les valeurs humaines.

Comme mentionné précédemment, nous pouvons produire et promulguer des préceptes d'éthique de l'IA et chercher à amener les développeurs d'IA et ceux qui mettent en œuvre et exploitent l'IA à respecter ces principes fondamentaux. Malheureusement, cela seul ne fera pas l'affaire. Vous avez des concepteurs qui inévitablement ne comprendront pas le message. Vous avez des inventeurs qui afficheront l'IA éthique et tenteront de contourner les principes prescrits quelque peu lâches. Etc.

L'utilisation d'approches de «droit souple» impliquant l'éthique de l'IA doit presque inexorablement être associée à des voies de «droit dur» telles que l'adoption de lois et de règlements qui enverront un signal fort à tous ceux qui créent ou utilisent l'IA. Le long bras de la loi pourrait venir vous chercher si vous n'exploitez pas judicieusement l'IA. Le bruit des portes de prison qui claquent pourrait attirer l'attention.

Un gros problème cependant est que parfois la porte de la grange a déjà laissé les chevaux sortir. Une IA qui est déployée produira potentiellement toutes sortes d'actes illégaux et continuera de le faire non seulement jusqu'à ce qu'elle soit attrapée, mais aussi jusqu'à ce que certaines forces de l'ordre interviennent enfin pour endiguer le flux d'actions illégales. Tout cela peut prendre du temps. Pendant ce temps, les humains sont blessés d'une manière ou d'une autre.

Dans cette incursion vient le double vérificateur AI Legal.

En résidant dans une application d'IA, le double vérificateur AI Legal est capable de détecter immédiatement quand l'IA semble enfreindre la loi. Le double vérificateur légal de l'IA pourrait arrêter l'IA dans son élan. Ou le composant pourrait alerter les humains des activités illégales détectées, le faire en temps opportun, ce qui pourrait inciter les superviseurs à prendre des mesures correctives urgentes. Il y a aussi la journalisation formalisée considérée que le composant pourrait créer, fournissant un semblant tangible de piste d'audit aux fins de codifier les actions indésirables de l'IA.

On dit que nos lois sont une forme de conglomérat multi-agents de telle sorte que les lois sont inévitablement un mélange de ce que la société a cherché à établir comme un équilibre entre des points de vue probablement contradictoires sur les comportements sociétaux appropriés et inappropriés. Un double vérificateur AI Legal basé sur nos lois incarne donc ce mélange.

Notamment, il ne s'agit pas simplement de programmer une liste de règles juridiques définitives. Les lois ont tendance à être plus malléables et s'efforcent d'atteindre des normes globales, plutôt que de spécifier les règles microscopiques les plus minutieuses. Les complexités sont nombreuses.

En revenant au document de recherche mentionné précédemment, voici comment ces considérations peuvent également être considérées concernant la poursuite de l'alignement de l'IA : « La loi, la philosophie appliquée de l'alignement multi-agents, remplit ces critères de manière unique. L'alignement est un problème parce que nous ne pouvons pas ex ante spécifier des règles qui orientent pleinement et de manière prouvée le bon comportement de l'IA. De même, les parties à un contrat légal ne peuvent pas prévoir toutes les éventualités de leur relation, et les législateurs ne peuvent pas prédire les circonstances spécifiques dans lesquelles leurs lois seront appliquées. C'est pourquoi une grande partie du droit est une constellation de normes » (ibid.).

Incorporer la loi dans un double vérificateur AI Legal est beaucoup plus difficile que vous ne le pensez au premier abord.

Au fur et à mesure que l'IA progresse, nous devrons tirer parti de ces avancées en conséquence. Il s'avère que ce qui est bon pour l'oie est aussi bon pour le jars. Ceux d'entre nous qui progressent dans l'IA telle qu'elle est appliquée à la loi repoussent les limites de l'IA et forgent indubitablement de nouvelles avancées qui peuvent finalement alimenter les progrès de l'IA dans son ensemble.

  • Une IA plus expansive nécessitera en conséquence des double-vérificateurs juridiques d'IA plus robustes

Un jeu du chat et de la souris confronte ce sujet.

Il y a de fortes chances qu'à mesure que l'IA progresse, tout composant de double vérification AI Legal trouvera les choses de plus en plus difficiles à gérer. Par exemple, une application d'IA en cours d'examen pourrait avoir récemment conçu des moyens super sournois pour cacher les actions illégales que l'IA entreprend. Même si l'IA n'emprunte pas une voie sournoise, la complexité globale de l'IA pourrait à elle seule constituer un obstacle de taille pour chercher à faire évaluer le double vérificateur juridique de l'IA.

Voici comment cela devient particulièrement important.

Supposons qu'un développeur d'IA ou une entreprise utilisant l'IA proclame qu'il existe un double vérificateur juridique d'IA qui a été intégré à l'application basée sur l'IA. Voila, ils semblent maintenant s'être lavé les mains de toute autre préoccupation. Le double vérificateur AI Legal s'occupera de tout.

Pas du tout.

Le double vérificateur AI Legal peut être insuffisant pour la nature de l'application AI impliquée. Il est également possible que le double vérificateur AI Legal devienne obsolète, peut-être pas mis à jour avec les dernières lois relatives à l'application AI. On peut prévoir une multitude de raisons pour lesquelles la simple présence d'un double vérificateur AI Legal ne sera pas une solution miracle.

Considérez ces idées par la recherche citée précédemment : « À mesure que l'état de l'art de l'IA progresse, nous pouvons établir des barres itérativement plus élevées de capacités de compréhension juridique démontrées. Si un développeur affirme que son système a des capacités avancées sur les tâches, il doit démontrer une compréhension juridique avancée et des capacités de raisonnement juridique de l'IA, qui n'ont pratiquement aucun plafond de difficulté lorsqu'on considère le fatras de lois et de réglementations à travers le temps, les précédents et la juridiction. » (ibid.).

  • Les double-vérificateurs juridiques de l'IA promulguent la loi et ne font notamment pas de loi (vraisemblablement)

Je suis sûr que certains d'entre vous sont consternés à l'idée d'avoir ces double-vérificateurs AI Legal.

Une préoccupation souvent exprimée est que nous allons apparemment permettre à l'IA de décider de nos lois pour nous. Bon sang, vous pensez peut-être qu'une partie de l'automatisation dépassera l'humanité. Ces sacrés double-vérificateurs juridiques intégrés à l'IA deviendront les rois par défaut de nos lois. Quoi qu'ils fassent, ce sera ce que la loi semble être.

Les humains seront gouvernés par l'IA.

Et ces double-vérificateurs AI Legal sont la pente glissante qui nous y mène.

Un contre-argument est qu'un tel discours relève des théories du complot. Vous postulez sauvagement et vous vous mettez dans le pétrin. La réalité est que ces double-vérificateurs juridiques de l'IA ne sont pas sensibles, ils ne vont pas prendre le contrôle de la planète, et le battage médiatique sur leur risque existentiel est tout simplement absurde et immensément exagéré.

Dans l'ensemble, en restant dans une posture calme et raisonnée, nous devons être conscients que les double-vérificateurs juridiques de l'IA servent à refléter de manière appropriée la loi et non pas par conception ni par accident aller plus loin pour faire défaut d'une manière ou d'une autre dans le domaine vénéré de faire droit. Mis à part les extrapolations de la sensibilité, nous pouvons certainement convenir qu'il existe une préoccupation réelle et pressante que le double vérificateur AI Legal puisse finir par déformer la véritable nature d'une loi donnée.

À son tour, vous pourriez prétendre que, par conséquent, cette loi particulière «déformée» est essentiellement en train d'être refaite puisqu'elle ne signifie plus correctement ce qui était prévu par la loi réelle. J'espère que vous pouvez franchement voir à quel point il s'agit d'une considération subtile mais révélatrice. À tout moment, le double vérificateur juridique de l'IA pourrait sur une base virtuelle en créant ou dirons-nous "halluciner" de nouvelles lois simplement par la façon dont le composant de l'IA interprète la loi telle qu'énoncée à l'origine ou incorporée dans l'IA (pour ma couverture de l'IA soi-disant hallucinations, Voir le lien ici).

Il faut faire preuve de prudence à cet égard.

À ce sujet, l'étude de recherche susmentionnée propose cette pensée parallèle en termes de tentative d'éviter de franchir cette ligne sacrée : « Nous ne visons pas à ce que l'IA ait la légitimité pour faire des lois, établir un précédent juridique ou appliquer la loi. En fait, cela saperait notre approche (et nous devrions investir des efforts considérables pour empêcher cela). Au contraire, l'objectif le plus ambitieux de Law Informing Code est d'encoder par calcul et d'intégrer la généralisabilité des concepts et normes juridiques existants dans des performances d'IA validées » (ibid).

  • Équilibre délicat entre IA Incarnation juridique de la loi en tant que règles et normes

Les lois sont désordonnées.

Pour à peu près n'importe quelle loi dans les livres, il existe probablement une multitude d'interprétations de ce que la loi stipule dans la pratique réelle. Dans le langage du domaine de l'IA, nous nous référons aux lois comme étant sémantiquement ambiguës. C'est ce qui fait du développement de l'IA appliquée à la loi un défi à la fois passionnant et frustrant. Contrairement aux calculs précis que vous pourriez voir pour les applications d'IA à vocation financière, par exemple, le désir d'incarner nos lois dans l'IA implique de faire face à un tsunami d'ambiguïtés sémantiques.

Dans le livre de ma fondation sur les principes fondamentaux du raisonnement juridique de l'IA (AILR), j'explique comment les tentatives antérieures de simplement codifier les lois en un ensemble de règles délimitées ne nous ont pas menés aussi loin que nous le souhaiterions dans le domaine juridique (voir le lien ici). L'AILR d'aujourd'hui doit englober une intégration entre l'utilisation des règles et ce que l'on pourrait appeler les normes globales que représente la loi.

Cet équilibre important peut être exprimé de la manière suivante : « Dans la pratique, la plupart des dispositions juridiques se situent quelque part sur un spectre entre la règle pure et la norme pure, et la théorie juridique peut aider à estimer la bonne combinaison de « règle » et de « standardité ». lors de la spécification des objectifs des systèmes d'IA » (ibid).

  • Exiger une preuve du pudding lorsqu'il s'agit de l'IA qui respecte la loi

Vouloir quelque chose est différent d'avoir quelque chose.

Cette pointe de sagesse apparaît lorsque l'on dit que même si nous souhaitons avoir des double-vérificateurs juridiques d'IA, nous devons absolument nous assurer qu'ils fonctionnent et fonctionnent correctement. Notez que cela présente un autre obstacle difficile et exténuant. J'ai couvert précédemment les dernières avancées et défis dans la vérification et la validation de l'IA, voir le lien ici.

Comme indiqué dans le document de recherche : « Pour combler cette lacune, avant que les modèles d'IA ne soient déployés dans des capacités de plus en plus agentiques, par exemple des véhicules entièrement autonomes sur les routes principales, la partie qui déploie doit démontrer la compréhension du système des objectifs humains, des politiques et des normes juridiques. Une procédure de validation pourrait illustrer la 'compréhension' par l'IA du 'sens' des concepts juridiques » (ibid).

Conclusion

Je vous exhorte à envisager de vous joindre à moi dans cette noble quête pour construire et mettre en place des doubles vérificateurs juridiques d'IA. Nous avons besoin de plus d'attention et de ressources consacrées à cette poursuite vertueuse.

Cela fournit également un double devoir, comme mentionné précédemment, vers la réalisation du raisonnement juridique de l'IA (AILR) qui peut être utilisé pour aider les avocats et potentiellement utilisé directement par le grand public. En effet, certains soutiennent avec véhémence que le seul moyen viable d'arriver à un sens plus complet de l'accès à la justice (A2J) sera via l'élaboration d'une IA qui incarne les capacités juridiques et accessible à tous.

Un dernier point rapide pour le moment.

Jusqu'à présent, la discussion a souligné que le double vérificateur juridique de l'IA serait intégré ou implanté dans l'IA. C'est en effet l'objectif principal de ceux qui recherchent et entreprennent ce domaine émergent.

Voici une question qui mérite réflexion.

Mettez votre casquette de réflexion.

Pourquoi ne pas utiliser les double-vérificateurs AI Legal dans tous les logiciels ?

L'essentiel est que plutôt que d'utiliser exclusivement les double-vérificateurs juridiques de l'IA dans l'IA, nous devrions peut-être élargir notre point de vue. Tous les types de logiciels peuvent s'égarer légalement. L'IA a certes attiré la part du lion de l'attention en raison de la manière dont l'IA est généralement utilisée, comme la prise de décisions déchirantes qui ont un impact sur les humains dans leur vie quotidienne. Vous pouvez cependant facilement affirmer qu'il existe de nombreux systèmes non IA qui font de même.

Essentiellement, nous ne devrions laisser aucun logiciel avoir le tour gratuit d'éviter ou d'éviter la loi.

Rappelons aussi plus tôt que j'évoquais les deux catégories de combinaison de l'IA et de la loi. Nous nous sommes concentrés ici sur l'utilisation de l'IA telle qu'elle est appliquée à la loi. De l'autre côté de la médaille se trouve l'application de la loi à l'IA. Supposons que nous promulguons des lois qui exigent l'utilisation de double-vérificateurs AI Legal.

Cela pourrait dans un premier temps se limiter aux systèmes d'IA, en particulier ceux considérés comme particulièrement à haut risque. Progressivement, la même exigence de double vérification AI Legal pourrait également être étendue aux logiciels non-IA. Encore une fois, pas de trajets gratuits.

Pendant que vous nouillez sur cette considération ci-dessus, je vais pimenter les choses comme un teaser de clôture. Si nous essayons d'exiger des double-vérificateurs juridiques d'IA, nous pourrions aussi bien faire de même pour les double-vérificateurs d'éthique d'IA. L'utilisation d'un double vérificateur AI Legal n'est que la moitié de l'histoire, et nous ne pouvons pas non plus négliger ou oublier les préoccupations en matière d'éthique de l'IA.

Je terminerai ce discours désinvolte avec une de mes citations préférées. Selon les sages paroles d'Earl Warren, le célèbre juriste qui a été juge en chef des États-Unis : "Dans la vie civilisée, la loi flotte dans une mer d'éthique".

Il serait peut-être préférable d'utiliser avec avidité ces double-vérificateurs juridiques et éthiques de l'IA en herbe et bouillonnants si nous voulons garder la tête au-dessus des mers lourdes potentiellement imminentes de l'IA aigre et de nos systèmes non-IA qui mettent en danger notre sécurité .

Ils pourraient être le gilet de sauvetage de l'humanité.

Source : https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- et-ai-law/