L'éthique de l'IA et la loi sur l'IA évaluent les principaux moyens de mettre en œuvre la déclaration des droits de l'IA récemment publiée, y compris et étonnamment en utilisant l'IA de manière directe

Il ne fait aucun doute que nous avons besoin de plans dans notre vie quotidienne.

Si vous envisagez de construire votre maison de rêve depuis longtemps, il serait sage de commencer par élaborer un plan utilisable.

Un plan présente de manière tangible et documentée toute perspective visionnaire aux yeux écarquillés qui pourrait être enfermée dans votre caboche. Ceux qui seront appelés à construire votre propriété chérie pourront se référer au plan et préciser les détails de la façon de faire le travail. Les plans sont pratiques. L'absence d'un plan directeur est forcément problématique pour s'attaquer à tout type de tâche ou de projet complexe.

Déplaçons cet hommage quelque peu sentimental mais authentique aux plans dans le domaine de l'intelligence artificielle (IA).

Ceux d'entre vous qui s'intéressent de près à l'IA savent peut-être vaguement qu'un important programme axé sur les politiques plan a été récemment publié aux États-Unis et concerne manifestement l'avenir de l'IA. Connu officieusement sous le nom de Charte des droits de l'IA, le titre officiel du livre blanc proclamé est « Blueprint for an AI Bill of Rights : Making Automated Systems Work for the American People » et est facilement disponible en ligne.

Le document est le résultat d'un effort d'un an et d'une étude approfondie par le Bureau de la politique scientifique et technologique (OSTP). L'OSTP est une entité fédérale qui a été créée au milieu des années 1970 et sert à conseiller le président américain et le bureau exécutif américain sur divers aspects technologiques, scientifiques et techniques d'importance nationale. En ce sens, vous pouvez dire que cette déclaration des droits de l'IA est un document approuvé et approuvé par la Maison Blanche américaine existante.

La déclaration des droits de l'IA décrit les droits de l'homme que l'humanité devrait avoir en ce qui concerne l'avènement de l'IA dans notre vie quotidienne. J'insiste sur ce point important parce que certaines personnes ont d'abord été perplexes sur le fait qu'il s'agissait peut-être d'une sorte de reconnaissance de la personnalité juridique de l'IA et qu'il s'agissait d'une litanie de droits pour l'IA sensible et les robots humanoïdes. Non, nous n'en sommes pas encore là. Comme vous le verrez dans un instant, nous ne sommes pas proches de l'IA sensible, malgré les gros titres qui semblent nous dire le contraire.

D'accord, avons-nous besoin d'un plan qui énonce les droits de l'homme à l'ère de l'IA ?

Oui, nous le faisons assurément.

Il faudrait presque être enfermé dans une grotte et être privé d'accès à Internet pour ne pas savoir que l'IA empiète déjà et de plus en plus sur nos droits. L'ère récente de l'IA a d'abord été considérée comme AI pour de bon, ce qui signifie que nous pourrions utiliser l'IA pour le bien de l'humanité. Sur les talons de AI pour de bon est venu la réalisation que nous sommes également immergés dans AI pour le mal. Cela inclut l'IA qui est conçue ou auto-modifiée pour être discriminatoire et fait des choix de calcul imprégnant des biais indus. Parfois, l'IA est construite de cette façon, tandis que dans d'autres cas, elle vire dans ce territoire fâcheux.

Pour ma couverture et mon analyse continues et étendues du droit de l'IA, de l'éthique de l'IA et d'autres tendances technologiques et sociétales clés de l'IA, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Déballage de la déclaration des droits de l'IA

J'ai déjà discuté de la déclaration des droits de l'IA et je ferai un bref récapitulatif ici.

En passant, si vous souhaitez connaître mes avantages et inconvénients détaillés de la déclaration des droits de l'IA récemment publiée, j'ai détaillé mon analyse dans une publication au Juriste, Voir le lien iciL’ Juriste est un site d'actualités juridiques et de commentaires en ligne remarquable, largement connu comme un service d'actualités juridiques primé alimenté par une équipe mondiale d'étudiants en droit journalistes, éditeurs, commentateurs, correspondants et développeurs de contenu, et dont le siège est à l'Université de Pittsburgh School of Droit à Pittsburgh, où il a commencé il y a plus de 25 ans. Bravo à l'équipe exceptionnelle et travailleuse de Juriste.

Dans la Déclaration des droits de l'IA, il existe cinq catégories clés :

  • Des systèmes sûrs et efficaces
  • Protections contre la discrimination algorithmique
  • Confidentialité des données
  • Avis et explication
  • Alternatives humaines, considération et repli

Notez que je ne les ai pas numérotés de un à cinq car cela pourrait impliquer qu'ils sont dans une séquence particulière ou que l'un des droits est apparemment plus important que l'autre. Nous supposerons qu'ils sont chacun de leurs propres mérites. Ils sont tous en un sens également méritoires.

Pour une brève indication de ce que chacun consiste, voici un extrait du livre blanc officiel :

  • Systèmes sûrs et efficaces : « Vous devez être protégé contre les systèmes dangereux ou inefficaces. Les systèmes automatisés doivent être développés en consultation avec diverses communautés, parties prenantes et experts du domaine pour identifier les préoccupations, les risques et les impacts potentiels du système.
  • Protections contre la discrimination algorithmique: « Vous ne devriez pas faire face à une discrimination par des algorithmes et les systèmes devraient être utilisés et conçus de manière équitable. La discrimination algorithmique se produit lorsque les systèmes automatisés contribuent à un traitement différent injustifié ou ont un impact défavorable sur les personnes en raison de leur race, couleur, origine ethnique, sexe (y compris grossesse, accouchement et conditions médicales connexes, identité de genre, statut intersexué et orientation sexuelle), religion, âge , l'origine nationale, le handicap, le statut d'ancien combattant, les informations génétiques ou toute autre classification protégée par la loi. »
  • Confidentialité des données: "Vous devez être protégé contre les pratiques abusives en matière de données via des protections intégrées et vous devez avoir le pouvoir sur la manière dont les données vous concernant sont utilisées. Vous devez être protégé contre les violations de la vie privée grâce à des choix de conception qui garantissent que ces protections sont incluses par défaut, notamment en veillant à ce que la collecte de données soit conforme aux attentes raisonnables et que seules les données strictement nécessaires au contexte spécifique soient collectées.
  • Avis et explication : « Vous devez savoir qu'un système automatisé est utilisé et comprendre comment et pourquoi il contribue aux résultats qui vous concernent. Les concepteurs, développeurs et déployeurs de systèmes automatisés doivent fournir une documentation généralement accessible en langage clair comprenant des descriptions claires du fonctionnement global du système et du rôle joué par l'automatisation, un avis indiquant que ces systèmes sont utilisés, la personne ou l'organisation responsable du système et des explications sur des résultats clairs, opportuns et accessibles.
  • Alternatives humaines, considération et repli: « Vous devriez pouvoir vous désinscrire, le cas échéant, et avoir accès à une personne qui peut rapidement examiner et remédier aux problèmes que vous rencontrez. Vous devriez pouvoir vous retirer des systèmes automatisés en faveur d'une alternative humaine, le cas échéant. »

Dans l'ensemble, ce sont des facettes des droits de l'homme qui ont été évoquées pendant un certain temps dans le contexte de l'éthique de l'IA et de la loi sur l'IA, voir ma couverture comme sur le lien ici. Le livre blanc ne sort apparemment pas comme par magie un lapin d'un chapeau quant à un droit nouvellement découvert ou déterré qui n'a jusqu'à présent pas été élucidé dans un contexte de l'ère de l'IA.

C'est bon.

Vous pourriez affirmer que leur compilation en une seule collection soigneusement emballée et formalisée fournit un service vital. De plus, en étant oint comme un acclamé Charte des droits de l'IA, cela met encore toute la question ouvertement et habilement dans la conscience de la sphère publique. Il fusionne une pléthore existante de discussions disparates en un ensemble singulier qui peut désormais être claironné et transmis à toutes sortes de parties prenantes.

Permettez-moi de proposer cette liste de réactions favorables à l'annonce de la déclaration des droits de l'IA :

  • Fournit une compilation essentielle des principes clés
  • Sert de modèle ou de base sur laquelle s'appuyer
  • Agit comme un appel vocalisé à l'action
  • Suscite l'intérêt et montre qu'il s'agit de considérations sérieuses
  • Rassemble une multitude de discussions disparates
  • Suscite et contribue aux efforts d'adoption de l'IA éthique
  • Alimentera sans aucun doute l'établissement de lois sur l'IA
  • Autre

Nous devons également tenir compte des réactions moins que favorables, en tenant compte du fait qu'il reste encore beaucoup de travail à faire et que ce n'est que le début d'un long voyage sur la route ardue de la gouvernance de l'IA.

En tant que telles, les critiques quelque peu dures ou dirons-nous constructives faites à propos de la Déclaration des droits de l'IA incluent :

  • Non juridiquement exécutoire et totalement non contraignant
  • Conseil uniquement et non considéré comme une politique gouvernementale
  • Moins complet par rapport aux autres ouvrages publiés
  • Se compose principalement de concepts généraux et manque de détails de mise en œuvre
  • Il va être difficile de se transformer en véritables lois pratiques viables
  • Apparemment silencieux sur la question imminente de l'éventuelle interdiction de l'IA dans certains contextes
  • Reconnaît marginalement les avantages d'utiliser une IA bien conçue
  • Autre

Le commentaire acide le plus important a peut-être porté sur le fait que cette déclaration des droits de l'IA n'est pas juridiquement exécutoire et ne tient donc pas la route lorsqu'il s'agit d'établir des objectifs clairs. Certains ont dit que bien que le livre blanc soit utile et encourageant, il manque décidément de mordant. Ils se demandent ce qui peut advenir d'un ensemble de préceptes astucieux soi-disant creux.

J'aborderai ces remarques mordantes dans un instant.

Pendant ce temps, le livre blanc énonce abondamment les limites de ce que cette déclaration des droits de l'IA implique :

  • « Le Blueprint for an AI Bill of Rights n'est pas contraignant et ne constitue pas la politique du gouvernement américain. Il ne remplace, ne modifie ni n'oriente l'interprétation d'aucune loi, réglementation, politique ou instrument international existant. Il ne constitue pas une orientation contraignante pour le public ou les agences fédérales et n'exige donc pas le respect des principes décrits ici. Il n'est pas non plus déterminant de ce que sera la position du gouvernement américain dans toute négociation internationale. L'adoption de ces principes peut ne pas répondre aux exigences des statuts, règlements, politiques ou instruments internationaux existants, ou aux exigences des agences fédérales qui les appliquent. Ces principes ne visent pas à interdire ou à limiter toute activité légale d'un organisme gouvernemental, y compris les activités d'application de la loi, de sécurité nationale ou de renseignement » (selon le livre blanc).

Pour ceux qui n'ont pas tardé à saper la déclaration des droits de l'IA comme étant juridiquement non contraignante, faisons une petite expérience de réflexion sur cette allégation cinglante. Supposons que le livre blanc soit publié et ait force de loi. J'ose dire que le résultat serait quelque peu cataclysmique, du moins dans la mesure des réponses juridiques et sociétales à la proclamation.

Les législateurs seraient révoltés que l'effort n'ait pas entrepris les processus normatifs et les procédures juridiques pour élaborer de telles lois. Les entreprises seraient furieuses, à juste titre, de voir de nouvelles lois provenir sans notification suffisante ni connaissance de ce que sont ces lois. Toutes sortes de consternation et d'indignation s'ensuivraient.

Ce n'est pas un bon moyen de s'orienter vers le renforcement des droits de l'humanité à l'ère de l'IA.

Rappelez-vous que j'avais déjà commencé cette discussion en évoquant la valeur et la vitalité des plans.

Imaginez que quelqu'un saute l'étape de l'élaboration de plans et saute immédiatement dans la construction de la maison de vos rêves. Selon vous, à quoi ressemblerait la maison ? Il semble raisonnable de parier que la maison ne correspondrait pas particulièrement à ce que vous aviez en tête. La ferme qui en résulte pourrait être un gâchis total.

L'essentiel est que nous avons besoin de plans et nous en avons maintenant un pour aller de l'avant dans l'élaboration de lois judicieuses sur l'IA et l'autonomisation des adoptions éthiques de l'IA.

Je voudrais donc aborder les manières dont ce projet de déclaration des droits de l'IA peut être transformé en maison, pour ainsi dire. Comment allons-nous utiliser le plan ? Quelles sont les prochaines étapes appropriées ? Ce plan peut-il suffire ou a-t-il besoin de plus de viande sur les os ?

Avant de nous lancer dans ces questions lourdes, je voudrais d'abord m'assurer que nous sommes tous sur la même longueur d'onde sur la nature de l'IA et en quoi consiste le statut actuel.

Mettre les pendules à l'heure sur l'IA d'aujourd'hui

Je voudrais faire une déclaration extrêmement catégorique.

Es-tu prêt?

Il n'y a pas d'IA aujourd'hui qui soit sensible.

Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur l'IA sensible, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Je suggérerais fortement que nous gardions les choses sur terre et que nous considérions l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

Soyez très prudent lorsque vous anthropomorphisez l'IA d'aujourd'hui.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Tout cela a des implications particulièrement importantes sur l'éthique de l'IA et offre une fenêtre pratique sur les leçons apprises (avant même que toutes les leçons ne se produisent) lorsqu'il s'agit d'essayer de légiférer sur l'IA.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. Ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux.

Dans les colonnes précédentes, j'ai couvert les divers efforts nationaux et internationaux pour élaborer et promulguer des lois réglementant l'IA, voir le lien ici, par exemple. J'ai également couvert les divers principes et directives d'éthique de l'IA que divers pays ont identifiés et adoptés, y compris par exemple l'effort des Nations Unies tel que l'ensemble d'éthique de l'IA de l'UNESCO que près de 200 pays ont adopté, voir le lien ici.

Voici une liste clé utile de critères ou de caractéristiques éthiques de l'IA concernant les systèmes d'IA que j'ai déjà explorés de près :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA sont sincèrement censés être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA.

Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme souligné précédemment ici, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Maintenant que j'ai posé des bases utiles, nous sommes prêts à approfondir la Déclaration des droits de l'IA.

Quatre façons essentielles de mettre en œuvre la déclaration des droits de l'IA

Quelqu'un vous tend un plan et vous dit de vous mettre au travail.

Que faites-vous?

Dans le cas de la Déclaration des droits de l'IA en tant que modèle, considérez ces quatre étapes essentielles pour aller de l'avant :

  • Servir de contribution à la formulation des lois sur l'IA : Utilisez le plan directeur pour aider à formuler des lois sur l'IA, en le faisant, espérons-le, sur une base alignée aux niveaux fédéral, étatique et local (peut-être en aidant également les efforts juridiques internationaux en matière d'IA).
  • Aide à faire adopter plus largement l'éthique de l'IA : Utiliser le plan directeur pour favoriser les formulations d'éthique de l'IA (parfois appelées «lois souples» par rapport aux «lois dures» juridiquement contraignantes), le faire pour inspirer et guider les entreprises, les particuliers, les entités gouvernementales et d'autres circonscriptions vers une éthique meilleure et plus cohérente. Résultats de l'IA.
  • Activités de développement de Shape AI : Utilisez le plan directeur pour stimuler la création de méthodologies de développement d'IA et d'aspects de formation, en faisant cela pour essayer d'amener les développeurs d'IA et ceux qui utilisent ou emploient l'IA à être plus conscients de la façon de concevoir l'IA selon les préceptes d'éthique de l'IA souhaitables et en prévision de la promulgation imminente de lois sur l'IA.
  • Motiver l'avènement de l'IA pour aider à contrôler l'IA : Utilisez le plan pour concevoir une IA qui sera utilisée pour essayer de servir de frein et d'équilibre contre d'autres IA qui pourraient virer dans le territoire fâcheux. C'est l'un de ces points de vue macroscopiques par lequel nous pouvons utiliser la chose même que nous trouvons ostensiblement inquiétante pour aussi (ironiquement, pourrait-on dire) aider à nous protéger.

J'ai discuté de chacune de ces quatre étapes susmentionnées tout au long de mes publications.

Pour cette discussion, j'aimerais me concentrer sur la quatrième étape répertoriée, à savoir que la Déclaration des droits de l'IA peut servir de motivation à l'avènement de l'IA pour aider à contrôler l'IA. Il s'agit d'une étape quelque peu choquante ou surprenante pour beaucoup de ceux qui ne sont pas encore pleinement entrés dans ce domaine de l'IA.

Permettez-moi de développer.

Une simple analogie devrait faire l'affaire. Nous sommes tous habitués ces jours-ci aux failles de cybersécurité et aux effractions des pirates. Presque tous les jours, nous entendons parler ou sommes touchés par une dernière faille dans nos ordinateurs qui permettra à des malfaiteurs infâmes de s'emparer de nos données ou de placer un ignoble rançongiciel sur nos ordinateurs portables.

Un moyen de lutter contre ces tentatives ignobles consiste à utiliser des logiciels spécialisés qui tentent d'empêcher ces effractions. Vous avez presque certainement un logiciel antivirus sur votre ordinateur à la maison ou au travail. Il y a probablement quelque chose de similaire sur votre smartphone, que vous réalisiez qu'il s'y trouve ou non.

Ce que je veux dire, c'est que parfois vous devez combattre le feu par le feu (voir ma couverture à ce sujet, comme à le lien ici ainsi que le lien ici).

Dans le cas de l'IA qui atterrit dans le domaine verboten de AI pour le mal, on peut chercher à utiliser AI pour de bon qui fait face à ce malicieux AI pour le mal. Ce n'est bien sûr pas un remède miracle. Comme vous le savez, il y a un jeu continuel du chat et de la souris entre les malfaiteurs qui cherchent à s'introduire dans nos ordinateurs et les progrès réalisés dans les protections de la cybersécurité. C'est un jeu presque sans fin.

Nous pouvons utiliser l'IA pour essayer de gérer l'IA qui a emprunté un chemin interdit. Cela vous aidera. Ce ne sera pas particulièrement une solution miracle puisque l'IA adverse ciblée sera presque certainement conçue pour éviter de telles protections. Ce sera le chat et la souris continus de l'IA contre l'IA.

Dans tous les cas, l'IA que nous utilisons pour nous protéger fournira une certaine protection contre la mauvaise IA. Ainsi, nous devons indubitablement concevoir une IA qui puisse nous protéger ou nous protéger. Et nous devrions également chercher à concevoir l'IA de protection pour qu'elle s'adapte à mesure que la mauvaise IA s'adapte. Il y aura un semblant féroce de chat et de souris à la vitesse de l'éclair.

Tout le monde n'apprécie pas cet élargissement du rôle de l'IA.

Ceux qui perçoivent déjà l'IA comme un conglomérat homogène et amorphe auraient la chair de poule et des cauchemars face à ce faux jeu IA contre IA. Si nous essayons d'opposer feu contre feu, peut-être que nous faisons simplement un feu encore plus grand. L'IA va devenir un feu de joie massif, que nous ne contrôlons plus et qui choisira d'asservir l'humanité ou de nous éliminer de la planète. Lorsqu'il s'agit de discuter de l'IA en tant que risque existentiel, nous sommes généralement amenés à croire que toutes les IA vont se regrouper, voir ma discussion sur ces questions à le lien ici. Vous voyez, on nous dit que chaque élément de l'IA s'emparera de ses frères IA et deviendra une grande famille unitaire suzerain.

C'est le scénario épouvantable et résolument troublant de l'IA sensible en tant que mafia transparente tout pour un et un pour tous.

Bien que vous soyez librement invités à faire de telles conjectures concernant le fait que cela pourrait un jour se produire, je vous assure que pour l'instant, l'IA que nous avons aujourd'hui se compose de camions de programmes d'IA disparates et déconnectés qui n'ont aucun moyen particulier de conspirer les uns avec les autres.

Cela dit, je suis sûr que ceux qui croient avec ferveur aux théories du complot sur l'IA insisteront sur le fait que j'ai délibérément dit cela pour cacher la vérité. Ah ! Peut-être que je suis payé par l'IA d'aujourd'hui qui prévoit déjà la grande prise de contrôle de l'IA (oui siree, je baignerai dans la richesse une fois que les seigneurs de l'IA auront régné). Ou, et je ne privilégie certainement pas cet autre angle, peut-être que je suis aveuglément inconscient de la façon dont l'IA complote secrètement dans notre dos. Je suppose que nous devrons attendre et voir si je fais partie du coup d'État de l'IA ou un idiot abject de l'IA (aïe, ça fait mal).

Pour en revenir aux considérations terrestres, explorons brièvement comment l'IA contemporaine peut être utilisée pour aider à la mise en œuvre de la Déclaration des droits de l'IA. Je ferai commodément et sommairement référence à cela comme Bonne IA.

Nous utiliserons les cinq clés de voûte incorporées dans la déclaration des droits de l'IA :

  • Bonne IA pour la promotion Systèmes sûrs et efficaces: Chaque fois que vous êtes soumis à ou utilisez un système d'IA, la bonne IA essaie de déterminer si l'IA utilisée est dangereuse ou inefficace. Lors d'une telle détection, la bonne IA peut vous alerter ou prendre d'autres mesures, notamment le blocage de la mauvaise IA.
  • Bonne IA pour fournir Protections contre la discrimination algorithmique: Lors de l'utilisation d'un système d'IA qui pourrait contenir des algorithmes discriminatoires, le Bonne IA tente de déterminer s'il existe des protections inadéquates pour vous et cherche à déterminer si des préjugés indus existent effectivement dans l'IA utilisée. La bonne IA pourrait vous informer et potentiellement signaler automatiquement l'autre IA à diverses autorités, comme cela pourrait être stipulé par les lois et les exigences légales en matière d'IA.
  • Bonne IA pour préserver Confidentialité des données: Ce type de bonne IA essaie de vous protéger des atteintes à la confidentialité des données. Lorsqu'une autre IA cherche à demander des données dont vous n'avez peut-être pas vraiment besoin, la bonne IA vous informera de l'action de dépassement. La bonne IA peut également potentiellement masquer vos données d'une manière qui, une fois transmise à l'autre IA, préservera toujours vos droits à la confidentialité des données. Etc.
  • Bonne IA pour établir Avis et explication: Nous sommes tous susceptibles de rencontrer des systèmes d'IA qui manquent cruellement de fournir des notifications appropriées et appropriées et qui malheureusement ne présentent pas une explication adéquate de leurs actions. Une bonne IA peut essayer d'interpréter ou d'interroger l'autre IA, le faisant pour potentiellement identifier les notifications et les explications qui auraient dû être fournies. Même si cela n'est pas faisable dans un cas donné, la bonne IA vous alertera au moins des défaillances de l'autre IA, et éventuellement signalera l'IA aux autorités désignées en fonction des lois et des exigences légales stipulées en matière d'IA.
  • Bonne IA pour offrir Alternatives humaines, considération et repli: Supposons que vous utilisez un système d'IA et que l'IA n'est apparemment pas à la hauteur de la tâche à accomplir. Vous pourriez ne pas réaliser que les choses tournent mal, ou vous pourriez être quelque peu méfiant et ne pas savoir quoi faire face à la situation. Dans un tel cas, Good AI examinerait silencieusement ce que fait l'autre IA et pourrait vous avertir des préoccupations vitales concernant cette IA. Vous seriez alors invité à demander une alternative humaine à l'IA (ou la bonne IA pourrait le faire en votre nom).

Pour mieux comprendre comment ce genre de Bonne IA peut être développé et mis en service, voir mon livre sur l'IA populaire et très bien noté (honoré de dire qu'il a été noté comme un "Top Ten") sur ce que j'ai généralement appelé les anges gardiens de l'IA, voir le lien ici.

Conclusion

Je sais ce que vous pensez. Si nous avons une bonne IA conçue pour nous protéger, supposons que la bonne IA soit corrompue pour devenir une mauvaise IA. Le célèbre ou tristement célèbre slogan latin semble tout à fait pertinent à cette possibilité : Quis custodiet ipsos custodes ?

La phrase est attribuée au poète romain Juvénal et se retrouve dans son ouvrage intitulé satires, et peut être vaguement traduit comme signifiant qui gardera ou surveillera les gardes eux-mêmes. De nombreux films et émissions de télévision tels que Star Trek ont exploité cette ligne à plusieurs reprises.

C'est sûrement parce que c'est un excellent point.

Effectivement, toutes les lois sur l'IA promulguées devront englober à la fois la mauvaise IA et même la bonne IA qui tourne mal. C'est pourquoi il sera crucial de rédiger des lois sensées et complètes sur l'IA. Les législateurs qui essaient simplement de jeter un jargon juridique aléatoire sur le mur et espèrent que cela respectera les lois sur l'IA vont se retrouver à manquer profondément la cible.

Nous n'avons pas besoin de ça.

Nous n'avons ni le temps ni les dépenses sociales nécessaires pour faire face à des lois sur l'IA insuffisamment conçues. J'ai souligné que malheureusement, nous assistons parfois à de nouvelles lois liées à l'IA qui sont mal rédigées et remplies de toutes sortes de maladies juridiques, voir par exemple mon analyse approfondie de la loi d'audit sur les biais de l'IA de la ville de New York (NYC) à le lien ici.

Assurons-nous d'utiliser de manière appropriée le plan directeur de la Charte des droits de l'IA que nous avons maintenant en main concernant l'IA. Si nous ignorons le plan, nous avons perdu d'avoir intensifié notre jeu. Si nous mettons mal en œuvre le schéma directeur, honte à nous d'avoir usurpé une base utile.

L'estimé poète romain Juvenal a dit autre chose que nous pouvons exploiter dans cette circonstance : Anima sana in corpore sano.

Généralement, cela se traduit par l'affirmation qu'il serait prudent d'avoir à la fois un esprit sain ou sain et un corps sain ou sain. Cela nous permet d'endurer n'importe quel labeur, selon Juvénal, et sera assurément le seul chemin vers une vie de paix ou de vertu.

Il est temps pour nous d'utiliser un esprit et un corps sains pour nous assurer que nous veillons à ce que nos droits humains soient préservés et solidement renforcés dans le monde émergent de l'IA omniprésente et parfois fâcheuse. C'est un bon conseil des Romains que nous devons suivre dans la ruée d'aujourd'hui au milieu d'une époque pêle-mêle d'IA et d'un avenir résolument rempli de bonnes et de mauvaises IA.

Source : https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- déclaration-des-droits-incluant-et-étonnamment-en-utilisant-ai-absolument/