L'éthique de l'IA se méfie de l'aggravation de l'asymétrie de l'IA chez les humains

Parfois, vous êtes du mauvais côté du bâton.

Ce langage familier peut être appliqué à la notion d'asymétrie.

Oui, je vais parler d'asymétrie. Comme vous l'avez probablement rencontré dans ce monde à l'envers dans lequel nous vivons, il y a des occasions où vous pourriez vous retrouver avec moins de connaissances sur un sujet qui est relativement important pour vous. C'est ce qu'on appelle formellement Asymétrie de l'information.

La clé est que vous avez moins de connaissances ou d'informations que vous ne le souhaiteriez, et que vous en avez décidément moins que l'autre partie impliquée dans l'affaire. Vous êtes nettement désavantagé par rapport à l'autre partie. Ils savent quelque chose que vous ne savez pas. Ils peuvent tirer parti de ce qu'ils savent, en particulier de ce que vous ne savez pas, et prendre le dessus dans toutes les délibérations ou négociations difficiles avec vous.

Eh bien, il y a un petit nouveau en ville, connu sous le nom de Asymétrie de l'IA.

Ce dernier slogan fait référence à la possibilité que vous affrontiez quelqu'un qui est armé d'IA, alors que vous n'êtes pas aussi armé.

Ils ont l'IA de leur côté, alors que vous n'avez, eh bien, que vous. Les choses sont déséquilibrées. Vous êtes présumément désavantagé. L'autre côté pourra faire des cercles autour de vous grâce à l'augmentation de l'IA. Cela pourrait être dans le célèbre dicton selon lequel tout est juste en amour et en guerre (un proverbe de longue date inventé en Euphes par John Lyly, 1578), bien que la dynamique et les dangers de l'asymétrie de l'IA soulèvent des problèmes d'IA éthique difficiles. Pour ma couverture continue et étendue de l'éthique de l'IA et de l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Avant de nous lancer dans le domaine de l'IA et ses abondantes complexités concernant l'asymétrie de l'IA, explorons d'abord la version régulière quotidienne de l'asymétrie de l'information. Cela préparera le terrain pour entrer dans le nouveau proverbial de l'IA sur le bloc.

Un récit bref et délibérément instructif pourrait vous ouvrir l'appétit.

L'autre jour, j'ai eu une crevaison sur la route et je cherchais rapidement à trouver un pneu de remplacement approprié qui pourrait être installé immédiatement. À l'aide de mon smartphone, j'ai regardé en ligne les magasins de pneus à proximité pour déterminer la distance que je devais parcourir avec mon pneu à plat et si des magasins étaient ouverts. De plus, j'ai fait une évaluation rapide de leurs avis clients en ligne et j'ai essayé de glaner quelque chose d'utile sur la durée de leur activité et d'autres facteurs qui pourraient mettre en valeur leur valeur.

En appelant l'un des magasins de pneus, le commis m'a donné un devis simple pour le coût du pneu et son installation. Le pneu n'était pas exactement ce que j'avais en tête, mais le commis m'a assuré qu'ils seraient le seul magasin de la région qui pourrait faire le travail immédiatement. Selon le commis, aucun des autres magasins de pneus à proximité n'aurait de tels pneus en stock et il faudrait au moins une journée à ces concurrents pour obtenir un pneu approprié d'un entrepôt semi-éloigné.

J'étais au milieu d'une asymétrie d'information.

Le greffier a prétendu en savoir plus sur le statut local des magasins de pneus et en particulier sur le type de pneus dont j'avais besoin. J'étais dans une région que je ne faisais que de passage et je n'avais aucune connaissance directe des magasins de pneus de cette zone géographique particulière. Pour autant que je sache, le greffier était sur place et me donnait la vérité sans fard.

Mais le greffier le faisait-il ?

Peut-être que oui, peut-être que non.

Il se pourrait que le greffier ait cru sincèrement tout ce qu'on me transmettait. Pour le greffier, c'était la vérité. Ou peut-être que le greffier déformait quelque peu la vérité. Il était possible que ce qui était dit soit vrai, bien que la manière dont cela était décrit impliquait que c'était la vérité absolue et irréfutable. Bien sûr, cela aurait aussi pu être une baliverne complète et le commis ne faisait que shilling pour que le magasin de pneus recueille mes affaires. Une commission juteuse aurait-elle pu être en jeu ?

J'ose dire que personne n'aime être dans une telle position d'opprimé.

Les enjeux de la situation sont un facteur essentiel dans l'importance d'une asymétrie d'information. Si la question à résoudre est de nature vitale ou mortelle, être dans la niche et dépendre de l'autre partie pour ce qu'elle sait ou prétend savoir est une posture sommaire et hautement indésirable. Lorsque les enjeux sont faibles , comme commander votre dîner dans un restaurant et le serveur vous dit que le plat de poisson est divin, mais que vous n'y avez jamais mangé auparavant et que vous êtes sous-informé, vous pouvez accepter ce minimum d'asymétrie d'information sans trop d'angoisse (je supposons également que vous pariez également que le serveur ne risquerait pas de donner des conseils acerbes et de manquer un pourboire décent).

Pour en revenir à l'histoire des pneus usés (un jeu de mots !), Je n'aurais eu aucun moyen instantané de savoir si le greffier me donnait des informations fiables et informatives. Vous vous demandez peut-être ce qui s'est passé. J'ai décidé d'appeler plusieurs autres magasins de pneus à proximité.

Êtes-vous prêt pour ce que j'ai découvert?

Tous les autres magasins de pneus avaient le pneu souhaité en stock et n'allaient pas essayer de me persuader de prendre un pneu différent (comme le premier vendeur a essayé de le faire). Ils pourraient également faire le travail dans le même délai que le premier magasin de pneus que j'ai appelé par hasard. A peu près au même prix.

Un soupir de soulagement bienvenu s'est produit de ma part, je vous assure.

Ironiquement, dans la loi de Murphy sur la malchance, le premier endroit que j'ai contacté était le seul qui semblait être sorti déjeuner, pour ainsi dire. Je suis content d'avoir cherché à obtenir plus d'informations. Cela a réduit l'écart d'asymétrie d'information. Je m'applaudissais d'avoir collé à mes armes et de ne pas avoir accédé à la première place que j'appelais.

Cela étant dit, il y avait un certain coût pour obtenir des informations supplémentaires. J'ai passé environ quatre appels qui ont chacun pris environ quinze à vingt minutes pour être pleinement exécutés. En ce sens, j'ai utilisé environ une heure et demie pour trouver où prendre ma voiture. Si j'avais immédiatement amené ma voiture à cette première place, le nouveau pneu aurait presque été sur ma voiture à ce moment-là. D'un autre côté, j'aurais presque certainement, plus tard, regretté la décision rapide que j'ai prise alors que j'étais dans une ignoble liaison d'asymétrie de l'information.

Parfois, vous devez serrer les dents et prendre la redoutable asymétrie de l'information comme elle vient. Vous espérez juste que quelle que soit la décision que vous prendrez, elle sera assez bonne. Ce n'est peut-être pas une décision «parfaite» et vous pourriez regretter plus tard le choix fait. L'autre angle est que vous pourriez essayer de renforcer votre côté de l'équation de l'information, même si cela n'est pas nécessairement gratuit et pourrait également vous faire perdre un temps précieux, selon que le temps précieux est ou non essentiel.

Maintenant que vous êtes sans aucun doute rassuré de savoir que ma voiture fonctionne bien avec son pneu neuf et correct, je peux passer à l'émergence de l'asymétrie de l'IA.

Considérez un conte de malheur d'IA.

Vous cherchez à obtenir un prêt immobilier. Il existe un analyseur de demande de prêt hypothécaire en ligne qu'une banque particulière utilise. Le système en ligne utilise les capacités d'intelligence artificielle avancées d'aujourd'hui. Pas besoin de parler avec un agent de prêt humain. L'IA fait tout.

Le système d'IA vous guide à travers une série d'invites. Vous remplissez consciencieusement les formulaires et répondez au système d'IA. Cette IA est très bavarde. Alors que dans le passé, vous utilisiez peut-être un système de formulaire informatique conventionnel, cette variante de l'IA s'apparente davantage à une interaction avec un agent humain. Pas tout à fait, mais suffisamment pour que vous puissiez presque commencer à croire qu'un humain était de l'autre côté de cette activité.

Après avoir fait de votre mieux pour « discuter » de votre demande avec cette IA, au final, celle-ci vous informe que malheureusement la demande de prêt n'est pas approuvée. Cela vous fait en quelque sorte comprendre que l'IA semble présenter des excuses, comme si l'IA voulait approuver le prêt, mais ces humains mesquins qui supervisent la banque ne laisseront pas l'IA le faire. Pour ma couverture de la tromperie de ce genre d'excuses présumées de l'IA, voir le lien ici.

Vous ne savez pas pourquoi vous avez été refusé. L'IA ne donne aucune explication. Peut-être que l'IA a fait une erreur ou s'est trompée dans ses calculs. Pire encore, supposons que l'IA ait utilisé des considérations très discutables telles que votre race ou votre sexe pour décider du prêt. Tout ce que vous savez, c'est que vous sembliez avoir perdu votre temps et, entre-temps, vous avez remis une tonne de données privées à l'IA et à la banque. Leur IA vous a battu.

Cela serait étiqueté comme un exemple d'asymétrie de l'IA.

C'était toi contre la banque. La banque était armée d'IA. Vous n'étiez pas également armé. Vous aviez votre intelligence et votre école de sagesse pour les coups durs, mais pas d'IA résidant dans votre poche arrière. L'esprit contre une machine. Malheureusement, la machine a gagné dans ce cas.

Qu'est-ce que tu dois faire ?

Premièrement, nous devons, sur une base sociétale, réaliser que cette asymétrie de l'IA se développe et devient presque omniprésente. Les humains rencontrent l'IA dans tous les systèmes avec lesquels nous interagissons quotidiennement. Parfois, l'IA est le seul élément avec lequel nous interagissons, comme dans cet exemple sur la demande de prêt. Dans d'autres cas, un humain peut être dans la boucle qui s'appuie sur l'IA pour l'aider à exécuter un service donné. Pour le prêt, il se peut que la banque vous demande de parler avec un agent humain au lieu d'interagir avec l'IA, mais pour lequel l'agent humain utilise un système informatique pour accéder à l'IA qui guide l'agent humain pendant le processus de demande de prêt (et, vous êtes presque toujours assuré que l'agent humain agit comme s'il était emprisonné en devant faire strictement tout ce que l'IA "lui dit de faire").

Quoi qu'il en soit, l'IA est toujours dans le mélange.

Deuxièmement, nous devons essayer de nous assurer que l'asymétrie de l'IA est au moins effectuée sur une base éthique de l'IA.

Permettez-moi d'expliquer cette remarque apparemment étrange. Vous voyez, si nous pouvons être quelque peu assurés que l'IA agit d'une manière éthiquement saine, nous pourrions avoir un certain réconfort quant à l'asymétrie qui est en jeu. Sur une base quelque peu analogue mais aussi lâche, vous pourriez dire que si mon interaction avec le premier employé du magasin de pneus avait mis en place et appliqué des directives éthiques stridentes, peut-être qu'on ne m'aurait pas raconté l'histoire qu'on m'a racontée, ou du moins je n'aurait peut-être pas eu à chercher tout de suite à savoir si on me racontait une fable.

J'expliquerai plus sur l'éthique de l'IA dans un instant.

Troisièmement, nous devrions rechercher des moyens de réduire l'asymétrie de l'IA. Si vous aviez une IA qui était de votre côté, s'efforçant d'être votre entraîneur ou votre protecteur, vous pourriez être en mesure d'utiliser cette IA pour contrer l'autre IA avec laquelle vous vous affrontez. Comme on dit, il est parfois logique de combattre le feu par le feu.

Avant d'entrer dans un peu plus de viande et de pommes de terre sur les considérations sauvages et laineuses sous-jacentes à l'asymétrie de l'IA, établissons quelques principes fondamentaux supplémentaires sur des sujets profondément essentiels. Nous devons brièvement nous plonger dans l'éthique de l'IA et en particulier l'avènement de l'apprentissage automatique (ML) et de l'apprentissage en profondeur (DL).

Vous savez peut-être vaguement que l'une des voix les plus fortes ces jours-ci dans le domaine de l'IA et même en dehors du domaine de l'IA consiste à réclamer un plus grand semblant d'IA éthique. Voyons ce que signifie faire référence à l'éthique de l'IA et à l'IA éthique. En plus de cela, nous explorerons ce que je veux dire lorsque je parle d'apprentissage automatique et d'apprentissage en profondeur.

Un segment ou une partie particulière de l'éthique de l'IA qui a retenu l'attention des médias est l'IA qui présente des préjugés et des inégalités fâcheux. Vous savez peut-être que lorsque la dernière ère de l'IA a commencé, il y a eu un énorme élan d'enthousiasme pour ce que certains appellent maintenant AI pour de bon. Malheureusement, dans la foulée de cette excitation jaillissante, nous avons commencé à être témoins AI pour le mal. Par exemple, divers systèmes de reconnaissance faciale basés sur l'IA se sont révélés contenir des préjugés raciaux et des préjugés sexistes, dont j'ai discuté à le lien ici.

Des efforts pour lutter contre AI pour le mal sont activement en cours. En plus bruyant légal Dans le but de freiner les actes répréhensibles, il y a aussi une poussée substantielle vers l'adoption de l'éthique de l'IA pour redresser la méchanceté de l'IA. L'idée est que nous devons adopter et approuver les principes clés de l'IA éthique pour le développement et la mise en service de l'IA afin de saper le AI pour le mal et simultanément annonçant et promouvant le meilleur AI pour de bon.

Dans le même ordre d'idées, je préconise d'essayer d'utiliser l'IA dans le cadre de la solution aux problèmes de l'IA, en combattant le feu par le feu de cette façon de penser. Nous pourrions par exemple intégrer des composants d'IA éthique dans un système d'IA qui surveillera comment le reste de l'IA fait les choses et donc potentiellement détecter en temps réel tout effort discriminatoire, voir ma discussion sur le lien ici. Nous pourrions également avoir un système d'IA distinct qui agit comme un type de moniteur d'éthique de l'IA. Le système d'IA sert de surveillant pour suivre et détecter quand une autre IA entre dans l'abîme contraire à l'éthique (voir mon analyse de ces capacités sur le lien ici).

Dans un instant, je partagerai avec vous quelques principes fondamentaux qui sous-tendent l'éthique de l'IA. Il y a beaucoup de ce genre de listes qui flottent ici et là. On pourrait dire qu'il n'existe pas encore de liste unique d'appel universel et de concurrence. C'est la malheureuse nouvelle. La bonne nouvelle est qu'il existe au moins des listes d'éthique de l'IA facilement disponibles et qu'elles ont tendance à être assez similaires. Tout compte fait, cela suggère que par une sorte de convergence raisonnée, nous trouvons notre chemin vers une communauté générale de ce en quoi consiste l'éthique de l'IA.

Tout d'abord, couvrons brièvement certains des préceptes généraux de l'IA éthique pour illustrer ce qui devrait être une considération vitale pour quiconque élabore, met en service ou utilise l'IA.

Par exemple, comme l'a déclaré le Vatican dans le Appel de Rome pour l'éthique de l'IA et comme je l'ai couvert en profondeur à le lien ici, voici les six principaux principes éthiques de l'IA qu'ils ont identifiés :

  • Transparence: En principe, les systèmes d'IA doivent être explicables
  • Inclusion: Les besoins de tous les êtres humains doivent être pris en considération pour que chacun puisse en bénéficier, et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer et s'épanouir.
  • Responsabilité: Ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder avec responsabilité et transparence
  • Impartialité: Ne créez pas ou n'agissez pas selon des préjugés, préservant ainsi l'équité et la dignité humaine
  • Fiabilité: Les systèmes d'IA doivent pouvoir fonctionner de manière fiable
  • Sécurité et confidentialité: Les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs.

Comme indiqué par le département américain de la Défense (DoD) dans leur Principes éthiques pour l'utilisation de l'intelligence artificielle et comme je l'ai couvert en profondeur à le lien ici, voici leurs six principes éthiques principaux en matière d'IA :

  • Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.
  • Équitable: Le Département prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités d'IA.
  • Traçable: Les capacités d'IA du Ministère seront développées et déployées de manière à ce que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris des méthodologies transparentes et vérifiables, des sources de données, ainsi que des procédures et de la documentation de conception.
  • Fiable: Les capacités d'IA du Ministère auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
  • Gouvernable: Le Département concevra et mettra au point des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter les conséquences imprévues, et la capacité de désengager ou de désactiver les systèmes déployés qui présentent un comportement imprévu.

J'ai également discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et comment ils doivent être généralement observés, alors que c'est une situation beaucoup plus compliquée dans le codage de l'IA devant être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme indiqué précédemment, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Assurons-nous également que nous sommes sur la même longueur d'onde quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur sensible AI, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Gardons les choses plus terre à terre et considérons l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Revenons à notre concentration sur l'asymétrie de l'IA.

Voici un bref récapitulatif de mes trois recommandations identifiées ci-dessus :

1) Prendre conscience que l'Asymétrie IA existe et se développe

2) Chercher à garantir que l'asymétrie de l'IA est limitée par l'éthique de l'IA

3) Essayez de faire face à l'asymétrie de l'IA en vous armant d'IA

Nous examinerons de plus près ce dernier point de combattre le feu par le feu.

Imaginez que lorsque vous cherchiez à obtenir un prêt, vous disposiez d'une IA qui travaillait de votre côté. Il peut s'agir d'une application basée sur l'IA sur votre smartphone qui a été conçue pour obtenir des prêts. Ce n'est pas une application par l'une des banques et est plutôt conçue de manière indépendante pour agir en votre nom. J'ai détaillé ce genre d'applications dans mon livre sur les robots anges gardiens basés sur l'IA, voir le lien ici.

Lors de votre demande de prêt, vous pouvez vous référer à cette application au fur et à mesure que vous suivez le processus de demande par l'autre IA. Ces deux systèmes d'IA sont distincts et complètement séparés l'un de l'autre. L'IA de votre smartphone a été "formée" pour connaître toutes les astuces utilisées par l'autre IA. Ainsi, les réponses que vous entrez dans l'IA de la banque seront basées sur ce que votre IA vous conseille.

Une autre variante consiste à ce que votre IA réponde aux questions posées par l'autre IA. Pour autant que l'autre IA puisse le vérifier, c'est vous qui saisissez les réponses. Au lieu de cela, vous pourriez simplement regarder les interactions se dérouler entre les deux systèmes d'IA qui se battent. Cela vous permet de voir ce que votre IA propose. De plus, vous pouvez potentiellement ajuster votre IA selon que vous êtes satisfait de ce que votre IA fait en votre nom.

J'ai prédit que nous allons tous nous armer progressivement d'une IA qui sera de notre côté dans ces situations d'asymétrie de l'IA.

Voyons comment cela va fonctionner.

Voici les principaux impacts sur la condition d'asymétrie de l'IA que j'avais définie :

  • Aplatir l'asymétrie de l'IA en votre faveur (vous amenant vers le haut, espérant atteindre des niveaux égaux)
  • Stimuler une asymétrie de l'IA en votre faveur (vous élevant à un avantage alors que vous êtes déjà égaux)
  • Renforcer une asymétrie de l'IA en votre faveur extraordinaire (gagner un avantage plus large alors qu'il a déjà un avantage)
  • Réduction involontaire de l'asymétrie de l'IA à votre détriment (lorsque vous aviez un avantage préexistant et que l'IA vous a abattu par inadvertance)

Il est temps de plonger profondément dans ces possibilités intrigantes.

Aplatir l'asymétrie de l'IA en votre faveur

Aplatir l'asymétrie de l'IA est la considération la plus évidente et la plus souvent discutée, à savoir que vous vous armez d'IA pour essayer d'aller de pair avec l'IA utilisée par l'autre partie dans l'affaire en cours. Le paramètre d'asymétrie de l'IA a commencé avec vous avec un désavantage décisif. Vous n'aviez pas d'IA dans votre coin. Vous étiez sur le côté bas des choses. L'autre côté avait une IA et ils étaient sur les hauteurs.

Ainsi, vous vous êtes judicieusement armé d'une IA qui viserait à vous mettre sur un pied d'égalité avec les autres IA.

Une nuance importante et peut-être surprenante à garder à l'esprit est que les systèmes d'IA utilisés ne s'équilibreront pas toujours de manière égale. Vous pourriez vous armer d'une IA qui est, dirons-nous, moins puissante que l'IA que l'autre côté utilise. Dans ce cas, vous avez heureusement augmenté votre position à la baisse, bien que vous ne soyez pas entièrement à égalité avec l'autre côté et son IA.

C'est pourquoi j'appelle cela l'aplatissement de l'asymétrie de l'IA. Vous pourrez peut-être réduire l'écart, mais pas complètement le combler. Le but ultime serait d'utiliser l'IA de votre côté qui vous amènera à une posture complètement égale. Le fait est que cela pourrait ou non être faisable. L'autre côté pourrait éventuellement avoir une IA très chère et vous essayez de rivaliser avec la version maman et pop économe de l'IA.

Toutes les IA ne sont pas identiques.

Stimuler une asymétrie de l'IA en votre faveur

Cette circonstance n'est pas quelque chose dont on parle beaucoup aujourd'hui, en partie parce qu'elle est rare en ce moment. Un jour, ce sera monnaie courante. L'idée est que supposons que vous êtes sans IA et pourtant sur un pied d'égalité avec le côté qui a l'IA.

Bien pour vous.

Les humains ont leur intelligence à leur sujet.

Mais vous voudrez peut-être obtenir un avantage sur l'autre côté. S'armer d'IA vous emmène vers un niveau supérieur. Vous avez maintenant votre intelligence et votre fidèle IA en main. Vous avez acquis un avantage qui prévaudra probablement sur l'IA de l'autre côté.

Renforcer une asymétrie de l'IA en votre faveur extraordinaire

En utilisant une logique similaire à l'aspect de stimuler une asymétrie de l'IA en votre nom, supposons que vous êtes déjà au-dessus des capacités de l'autre côté qui utilise l'IA. Ergo, vous ne commencez pas à une posture égale. Heureusement, vous êtes déjà sur le dessus.

Vous voudrez peut-être de toute façon obtenir un avantage encore plus grand. Par conséquent, vous vous armez d'IA. Cela prend votre tête et vos épaules au-dessus de l'autre côté.

Réduction involontaire de l'asymétrie de l'IA à votre détriment

Je doute que vous vouliez entendre parler de cette possibilité. S'il vous plaît, réalisez que traiter avec l'IA n'est pas que des roses et des gâteaux à la crème glacée.

Il se peut que lorsque vous vous armez d'IA, vous vous saperez en fait. Si vous étiez déjà inférieur à l'IA de l'autre côté, vous êtes maintenant dans un trou plus profond. Si vous étiez sur un pied d'égalité, vous êtes maintenant désavantagé. Si vous étiez au-dessus de l'autre côté, vous êtes maintenant égal ou inférieur à celui-ci.

Comment cela a-t-il pu arriver ?

Vous pourriez être choqué de penser que l'IA que vous adoptez va vous égarer. Cela pourrait facilement se produire. Ce n'est pas parce que vous avez l'IA dans votre coin qu'elle est utile. Vous utilisez peut-être l'IA et elle fournit des conseils que vous ne pensez pas nécessairement appropriés, mais vous décidez quand même de l'utiliser. Votre logique à l'époque était que puisque vous vous êtes donné la peine d'obtenir l'IA, vous pouviez aussi bien en dépendre.

L'IA que vous utilisez est peut-être défectueuse. Ou il pourrait être mal conçu. Il y a une multitude de raisons pour lesquelles l'IA pourrait vous donner des conseils fragiles. Ceux qui acceptent aveuglément tout ce que l'IA dit de faire sont condamnés à se retrouver dans un monde de souffrance. J'ai couvert de telles situations difficiles dans ma chronique, telles que le lien ici.

L'essentiel est qu'il n'y a absolument aucune garantie que simplement parce que vous vous armez d'IA, vous allez gagner au jeu AI Asymmetry.

Vous pourriez arriver à un terrain de jeu égal. Vous pourriez gagner un avantage. Et, malheureusement, vous devez être prudent car il se peut que vous tombiez à des niveaux inférieurs lorsque vous êtes armé d'IA.

Dans une certaine mesure, c'est pourquoi l'éthique de l'IA et l'IA éthique sont un sujet si crucial. Les préceptes de l'IA Ethics nous incitent à rester vigilants. Les technologues en IA peuvent parfois devenir préoccupés par la technologie, en particulier l'optimisation de la haute technologie. Ils ne tiennent pas nécessairement compte des ramifications sociétales plus larges. Avoir un état d'esprit éthique de l'IA et le faire intégralement pour le développement et la mise en service de l'IA est essentiel pour produire une IA appropriée.

Outre l'utilisation de l'éthique de l'IA, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. En fait, ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux. Voir par exemple ma couverture sur le lien ici ainsi que le lien ici.

À ce stade de cette discussion importante, je parierais que vous êtes désireux d'exemples illustratifs qui pourraient présenter ce sujet. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur l'asymétrie de l'IA, et si oui, qu'est-ce que cela met en valeur ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles où l'IA conduit la voiture entièrement seule et il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de véritable voiture autonome au niveau 5, et nous ne savons même pas encore si cela sera possible d'y parvenir, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et asymétrie de l'IA

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournira une litanie suffisante de mises en garde pour étayer ce que je suis sur le point de raconter.

Esquissons un scénario qui présente l'asymétrie de l'IA.

Considérez la question apparemment sans conséquence de savoir où les voitures autonomes se déplaceront pour prendre des passagers. Cela semble être un sujet tout à fait inoffensif.

Dans un premier temps, supposons que les voitures autonomes IA parcourront des villes entières. Quiconque souhaite demander un trajet dans une voiture autonome a essentiellement une chance égale d'en héler une. Peu à peu, l'IA commence à garder principalement les voitures autonomes en itinérance dans une seule section de la ville. Cette section est plus lucrative et l'IA a été programmée pour essayer de maximisent revenus dans le cadre de l'utilisation dans la communauté au sens large (cela souligne l'état d'esprit sous-jacent à l'optimisation, à savoir se concentrer sur une seule métrique particulière et négliger d'autres facteurs cruciaux dans le processus).

Les membres de la communauté dans les quartiers pauvres de la ville s'avèrent moins susceptibles de pouvoir se faire conduire à partir d'une voiture autonome. En effet, les voitures autonomes étaient plus éloignées et erraient dans la partie la plus rentable de la ville. Lorsqu'une demande provient d'une partie éloignée de la ville, toute autre demande provenant d'un endroit plus proche obtiendrait une priorité plus élevée. Finalement, la possibilité d'obtenir une voiture autonome dans n'importe quel endroit autre que la partie la plus riche de la ville est presque impossible, ce qui est exaspérant pour ceux qui vivaient dans ces zones désormais pauvres en ressources.

Exit les rêves vantés de mobilité pour tous que les voitures autonomes sont censées concrétiser.

Vous pourriez affirmer que l'IA a tout à fait atterri sur une forme de biais statistique et de calcul, semblable à une forme de discrimination par procuration (également souvent appelée discrimination indirecte). Sachez que l'IA n'a pas été programmée pour éviter ces quartiers pauvres. Soyons clairs à ce sujet dans ce cas. Non, il a été conçu à la place pour simplement optimiser les revenus, un objectif apparemment acceptable, mais cela a été fait sans que les développeurs d'IA envisagent d'autres ramifications potentielles. Cette optimisation a à son tour involontairement et inévitablement conduit à un résultat indésirable.

S'ils avaient inclus les considérations d'éthique de l'IA dans leur état d'esprit d'optimisation, ils auraient peut-être réalisé à l'avance qu'à moins d'avoir conçu l'IA pour faire face à ce type de surdimensionnement sur une seule métrique, ils auraient peut-être évité des résultats aussi sombres. Pour en savoir plus sur ces types de problèmes que l'adoption généralisée des véhicules autonomes et des voitures autonomes est susceptible d'entraîner, consultez ma couverture sur ce lien ici, décrivant une étude dirigée par Harvard que j'ai co-écrit sur ces sujets.

Dans tous les cas, supposez que le cheval est déjà sorti de l'écurie et que la situation ne se prête pas immédiatement à des solutions globales.

Que pourraient faire ceux qui veulent utiliser ces voitures autonomes ?

L'approche la plus évidente serait de travailler avec les dirigeants de la communauté pour amener le constructeur automobile ou l'entreprise de technologie autonome à reconsidérer la façon dont ils ont mis en place l'IA. Peut-être faire pression sur les licences ou les permis qui ont été accordés pour le déploiement de ces voitures autonomes dans cette ville ou ce village. Ce sont probablement des moyens viables d'apporter des changements positifs, bien que cela puisse prendre un certain temps avant que ces efforts ne portent leurs fruits.

Un autre angle serait de vous armer d'IA.

Imaginez que quelqu'un ait intelligemment conçu une application basée sur l'IA qui fonctionne sur votre smartphone et traite l'IA du constructeur automobile ou de l'opérateur de flotte qui accepte les demandes de courses. Il se peut que l'IA que vous utilisez exploite des éléments clés de l'autre IA, de sorte qu'une demande de voiture autonome de votre part se voit accorder une priorité accrue. Notez que je ne suggère pas que quelque chose d'illégal se passe, mais plutôt que l'IA de votre côté a été développée sur la base de "fonctionnalités" découvertes ou même de failles dans l'autre IA.

Conclusion

L'histoire de la lutte effrontée contre l'IA de l'opérateur de flotte de voitures autonomes en s'armant d'IA soulève d'autres controverses et considérations sur l'éthique de l'IA.

Par exemple :

  • Si une personne peut utiliser l'IA pour lui donner un avantage sur une IA d'un autre système, jusqu'où cela peut-il aller en termes de dépassement éventuel des limites de l'éthique de l'IA (je convainc les voitures autonomes de venir vers moi et mes amis, à l'exclusion de tous les autres) ?
  • En outre, y a-t-il un semblant de considération d'éthique de l'IA selon laquelle si quelqu'un connaît ou est armé de l'IA pour se battre avec d'autres IA, les personnes restantes qui n'ont pas cette IA d'équilibrage devraient-elles être d'une manière ou d'une autre alertées de l'IA et pouvoir s'armer en conséquence aussi ?

En fin de compte, tout cela nous emmène vers un avenir qui semble étrange, consistant en une course aux armements de l'IA. Qui aura l'IA dont il a besoin pour se déplacer et survivre et qui n'en aura pas ? Y aura-t-il toujours une IA de plus qui se présentera et déclenchera le besoin d'une IA de contrepoids ?

Carl Sagan, le scientifique vénéré, a fourni cette sage sagesse sur les courses aux armements particulièrement cataclysmiques : "La course aux armements nucléaires est comme deux ennemis jurés debout dans l'essence jusqu'à la taille, l'un avec trois allumettes, l'autre avec cinq."

Nous devons viser de manière décisive à garder les pieds au sec et la tête claire lorsqu'il s'agit d'une course aux armements IA toujours imminente.

Source : https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- du-bâton/