L'éthique de l'IA et la loi sur l'IA posent des questions difficiles sur ce nouvel engagement des fabricants de robots dansants disant qu'ils éviteront l'armement de l'IA

Vous avez peut-être vu la semaine dernière dans les actualités ou remarqué sur les réseaux sociaux l'engagement annoncé par certains fabricants de robots concernant leurs objectifs déclarés d'éviter la militarisation par l'IA des robots à usage général. Je vous expliquerai les détails dans un instant, alors ne vous inquiétez pas si vous n'aviez pas eu vent de l'affaire.

La réaction à cette proclamation a été rapide et, peut-être comme d'habitude dans notre société polarisée, a été à la fois élogieuse et parfois critique par moquerie ou carrément méchamment sceptique.

C'est une histoire de deux mondes.

Dans un monde, certains disent que c'est exactement ce dont nous avons besoin pour responsables Développeurs de robots IA à déclarer.

Dieu merci d'être du bon côté d'un problème qui va progressivement devenir plus visible et plus inquiétant. Ces mignons robots dansants sont troublants car il est assez facile de les réorganiser pour qu'ils portent des armes et soient utilisés de la pire des manières (vous pouvez le vérifier vous-même en vous rendant sur les réseaux sociaux et il existe de nombreuses vidéos présentant des robots dansants armés de mitrailleuses et autres armements).

Le revers de la médaille dit que le soi-disant gage n'est rien de plus qu'un stratagème de marketing ou de relations publiques (en passant, quelqu'un connaît-il la différence entre un gage et un don ?). Quoi qu'il en soit, les sceptiques exhortent qu'il s'agit d'un signal de vertu débridé dans le contexte des robots dansants. Vous voyez, déplorer le fait que les robots à usage général peuvent être transformés en armes est certainement une considération valable et sincèrement recherchée, bien que le simple fait de prétendre qu'un fabricant ne le fera pas est probablement une promesse creuse, insistent certains.

Dans l'ensemble, l'ensemble de la question soulève un ensemble assez lourd de considérations sur l'éthique de l'IA et la loi sur l'IA. Nous déballerons méticuleusement le sujet et verrons en quoi il s'agit d'un double coup dur d'un bourbier d'IA éthique et juridique. Pour ma couverture continue et étendue de l'éthique de l'IA et du droit de l'IA, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Je ferai également référence tout au long de cette discussion à mes analyses antérieures des dangers de la militarisation de l'IA, telles que mon évaluation approfondie à le lien ici. Vous voudrez peut-être jeter un œil à ce discours pour plus de détails sur les coulisses.

La lettre ouverte qui ouvre une boîte de vers

Commençons cette analyse en explorant attentivement, étape par étape, la lettre ouverte récemment publiée par six fabricants de robots avancés relativement connus, à savoir Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics et Unitree. Dans l'ensemble, je suppose que vous avez vu principalement les robots de Boston Dynamics, comme ceux qui se promènent à quatre pattes. Ils ressemblent à des chiens et nous aimons les voir gambader.

Comme je l'ai prévenu précédemment et à plusieurs reprises, l'utilisation de tels robots "dansants" comme moyen de convaincre le grand public que ces robots sont mignons et adorables est malheureusement trompeuse et dévie dans les pièges abondants de leur anthropomorphisation. Nous commençons à penser à ces morceaux de métal et de plastique durcis comme s'ils étaient l'équivalent d'un chien fidèle et câlin. Notre volonté d'accepter ces robots est fondée sur un faux sentiment de sécurité et d'assurance. Bien sûr, vous devez gagner de l'argent et les chances de le faire sont améliorées en défilant autour de robots dansants, mais cela omet malheureusement ou cache apparemment le fait réel que ces robots sont des robots et que l'IA contrôlant les robots peut être conçue à tort ou aller de travers.

Considérez ces ramifications de l'IA (extraites de mon article sur la militarisation de l'IA, trouvé sur le lien ici):

  • L'IA peut rencontrer une erreur qui la fait s'égarer
  • L'IA peut être submergée et se bloquer sans répondre
  • L'IA peut contenir des bogues de développement qui provoquent un comportement erratique
  • L'IA pourrait être corrompue par un virus malveillant implanté
  • L'IA pourrait être prise en charge par les cyberhackers en temps réel
  • L'IA peut être considérée comme imprévisible en raison de sa complexité
  • L'IA pourrait prendre la "mauvaise" décision par calcul (relativement)
  • Etc

Ce sont des points concernant l'IA qui est du type qui est véritablement conçu au départ pour faire la bonne chose.

En plus de ces considérations, vous devez inclure des systèmes d'IA conçus dès le départ pour faire de mauvaises choses. Vous pouvez avoir une IA qui est faite à des fins bénéfiques, souvent appelées AI pour de bon. Vous pouvez également avoir une IA intentionnellement conçue à de mauvaises fins, connue sous le nom de AI pour le mal. De plus, vous pouvez avoir AI pour de bon qui est corrompu ou transformé en devenir AI pour le mal.

Soit dit en passant, rien de tout cela n'a rien à voir avec le fait que l'IA devienne sensible, ce que je mentionne parce que certains continuent de s'exclamer que l'IA d'aujourd'hui est sensible ou sur le point de l'être. Pas si. Je démonte ces mythes dans mon analyse à le lien ici.

Assurons-nous alors que nous sommes sur la même longueur d'onde sur la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur l'IA sensible, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Je suggérerais fortement que nous gardions les choses sur terre et que nous considérions l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

Soyez très prudent lorsque vous anthropomorphisez l'IA d'aujourd'hui.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Tout cela a des implications particulièrement importantes sur l'éthique de l'IA et offre une fenêtre pratique sur les leçons apprises (avant même que toutes les leçons ne se produisent) lorsqu'il s'agit d'essayer de légiférer sur l'IA.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. Ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux.

Dans les colonnes précédentes, j'ai couvert les divers efforts nationaux et internationaux pour élaborer et promulguer des lois réglementant l'IA, voir le lien ici, par exemple. J'ai également couvert les divers principes et directives d'éthique de l'IA que divers pays ont identifiés et adoptés, y compris par exemple l'effort des Nations Unies tel que l'ensemble d'éthique de l'IA de l'UNESCO que près de 200 pays ont adopté, voir le lien ici.

Voici une liste clé utile de critères ou de caractéristiques éthiques de l'IA concernant les systèmes d'IA que j'ai déjà explorés de près :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA sont sincèrement censés être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA.

Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme souligné précédemment ici, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Maintenant que j'ai posé une base utile pour entrer dans la lettre ouverte, nous sommes prêts à plonger.

Le titre officiel du sujet de la lettre ouverte est le suivant :

  • "Une lettre ouverte à l'industrie de la robotique et à nos communautés, les robots à usage général ne devraient pas être militarisés» (selon la publication en ligne).

Jusqu'ici, tout va bien.

Le titre ressemble presque à de la crème glacée et de la tarte aux pommes. Comment quelqu'un pourrait-il contester cela comme un ancien appel à éviter la militarisation des robots IA ?

Lisez la suite pour voir.

Tout d'abord, comme matière à réflexion, voici le paragraphe d'ouverture officiel de la Lettre ouverte :

  • « Nous sommes quelques-unes des principales entreprises mondiales dédiées à l'introduction de nouvelles générations de robotique mobile avancée dans la société. Ces nouvelles générations de robots sont plus accessibles, plus faciles à utiliser, plus autonomes, abordables et adaptables que les générations précédentes, et capables de naviguer dans des endroits auparavant inaccessibles aux technologies automatisées ou télécommandées. Nous pensons que les robots mobiles avancés apporteront de grands avantages à la société en tant que collègues dans l'industrie et compagnons dans nos foyers »(tel que publié en ligne).

Le bon côté de l'avènement de ces types de robots est que nous pouvons anticiper l'émergence de nombreux avantages. Aucun doute là dessus. Vous pourriez avoir un robot dans votre maison qui peut faire ces activités de type Jetson telles que nettoyer votre maison, laver votre vaisselle et d'autres tâches ménagères. Nous aurons des robots avancés à utiliser dans les usines et les installations de fabrication. Les robots peuvent potentiellement ramper ou manœuvrer dans des espaces restreints, par exemple lorsqu'un bâtiment s'effondre et que des vies humaines sont en jeu pour être sauvées. Etc.

En passant, vous trouverez peut-être intéressant ma récente couverture oculaire critique de la Tesla AI Day, au cours de laquelle certaines sortes de robots marcheurs ont été décrits par Elon Musk comme l'avenir de Tesla et de la société, voir le lien ici.

Revenons à l'affaire en cours. Lorsque nous discutons sérieusement de robots dansants ou de robots marchants, nous devons prendre en compte les compromis ou le retour sur investissement total (retour sur investissement) de cette utilisation de l'IA. Nous ne devrions pas nous laisser séduire par les avantages alors qu'il y a aussi des coûts à prendre en compte.

Un nouveau jouet brillant peut avoir des bords plutôt tranchants.

Tout cela suscite un point important mais quelque peu silencieux selon lequel une partie de la raison pour laquelle le problème de la militarisation de l'IA se pose maintenant est due à l'avancement de l'IA vers une activité autonome. Nous nous attendions généralement à ce que les armes soient généralement actionnées par l'homme. Un humain prend la décision de tirer ou d'engager l'arme. Nous pouvons vraisemblablement tenir cet humain responsable de ses actes.

Une IA conçue pour fonctionner de manière autonome ou qui peut être amenée à le faire retirerait apparemment l'humain de la boucle. L'IA prend alors de manière algorithmique des décisions informatiques qui peuvent finir par tuer ou blesser des humains. Outre les préoccupations évidentes concernant le manque de contrôle sur l'IA, vous avez également le scrupule que nous pourrions avoir du mal à déterminer la responsabilité des actions de l'IA. Nous n'avons pas d'humain qui soit notre instigateur évident.

Je me rends compte que certains pensent que nous devrions simplement et directement tenir l'IA responsable de ses actions, comme si l'IA avait atteint la sensibilité ou s'était autrement vu accorder la personnalité juridique (voir ma couverture des débats sur l'acquisition de la personnalité juridique par l'IA à le lien ici). Cela ne fonctionnera pas pour l'instant. Nous allons devoir retracer l'IA jusqu'aux humains qui l'ont conçue ou qui l'ont mise en service. Ils essaieront sans aucun doute d'esquiver légalement leur responsabilité en essayant de soutenir que l'IA est allée au-delà de ce qu'ils avaient envisagé. Il s'agit d'une controverse croissante à laquelle nous devons faire face (voir mes écrits sur la loi sur l'IA pour un aperçu des questions litigieuses impliquées).

Les Nations Unies (ONU) via la Convention sur certaines armes classiques (CCW) à Genève ont établi onze principes directeurs non contraignants sur les armes létales autonomes, selon le rapport officiel publié en ligne (comprenant des références aux dispositions pertinentes du droit international humanitaire ou du DIH) , y compris:

a) Le droit international humanitaire continue de s'appliquer pleinement à tous les systèmes d'armes, y compris la mise au point et l'utilisation potentielles de systèmes d'armes létaux autonomes ;

b) La responsabilité humaine des décisions relatives à l'utilisation des systèmes d'armes doit être conservée puisque la responsabilité ne peut être transférée aux machines. Cela devrait être pris en compte tout au long du cycle de vie du système d'armes ;

c) L'interaction homme-machine, qui peut prendre diverses formes et être mise en œuvre à divers stades du cycle de vie d'une arme, devrait garantir que l'utilisation potentielle de systèmes d'armes basés sur des technologies émergentes dans le domaine des systèmes d'armes létaux autonomes est en le respect du droit international applicable, en particulier du DIH. Pour déterminer la qualité et l'étendue de l'interaction homme-machine, une série de facteurs doivent être pris en compte, notamment le contexte opérationnel, ainsi que les caractéristiques et les capacités du système d'armes dans son ensemble ;

d) La responsabilité pour le développement, le déploiement et l'utilisation de tout système d'armes émergent dans le cadre de la CCAC doit être assurée conformément au droit international applicable, notamment par l'exploitation de ces systèmes au sein d'une chaîne responsable de commandement et de contrôle humain ;

e) Conformément aux obligations des États en vertu du droit international, lors de l'étude, de la mise au point, de l'acquisition ou de l'adoption d'une nouvelle arme, d'un nouveau moyen ou d'une nouvelle méthode de guerre, il faut déterminer si son emploi serait, dans certaines ou dans toutes les circonstances, interdit par le droit international;

f) Lors du développement ou de l'acquisition de nouveaux systèmes d'armes basés sur des technologies émergentes dans le domaine des systèmes d'armes létaux autonomes, de la sécurité physique, des garanties non physiques appropriées (y compris la cybersécurité contre le piratage ou l'usurpation de données), le risque d'acquisition par des groupes terroristes et le risque de prolifération doit être pris en compte ;

g) Les évaluations des risques et les mesures d'atténuation devraient faire partie du cycle de conception, de développement, d'essai et de déploiement des technologies émergentes dans tous les systèmes d'armes;

h) Il convient d'envisager l'utilisation de technologies émergentes dans le domaine des systèmes d'armes létales autonomes pour assurer le respect du DIH et des autres obligations juridiques internationales applicables ;

(i) Lors de l'élaboration de mesures politiques potentielles, les technologies émergentes dans le domaine des systèmes d'armes létales autonomes ne devraient pas être anthropomorphisées ;

(j) Les discussions et toutes les mesures politiques potentielles prises dans le cadre de la CCAC ne devraient pas entraver les progrès ou l'accès aux utilisations pacifiques des technologies autonomes intelligentes ;

k) La CCAC offre un cadre approprié pour traiter de la question des technologies émergentes dans le domaine des systèmes d'armes létales autonomes dans le contexte des objectifs et buts de la Convention, qui cherche à trouver un équilibre entre nécessité militaire et considérations humanitaires.

Ces lois et autres lois de la guerre et lois sur les conflits armés, ou DIH (lois humanitaires internationales), servent de guide vital et toujours prometteur pour examiner ce que nous pourrions essayer de faire face à l'avènement de systèmes autonomes qui sont militarisés, que ce soit par clé de voûte conception ou par des méthodes après coup.

Certains disent que nous devrions interdire purement et simplement les systèmes autonomes d'IA qui sont militarisables. C'est vrai, le monde devrait poser son pied et exiger avec véhémence que les systèmes autonomes d'IA ne soient jamais militarisés. Une interdiction totale doit être prononcée. Fin de l'histoire. Point final, point final.

Eh bien, nous pouvons sincèrement souhaiter qu'une interdiction des systèmes autonomes armés létaux soit strictement et docilement observée. Le problème est qu'une grande marge de manœuvre est inévitablement trouvée sournoisement dans l'une des interdictions les plus sincères. Comme on dit, les règles sont faites pour être enfreintes. Vous pouvez parier que là où les choses sont lâches, les racailles dénicheront des lacunes et essaieront de contourner les règles.

Voici quelques failles potentielles dignes de considération :

  • Revendications non létales. Fabriquez des systèmes d'armes autonomes non létaux (apparemment corrects puisqu'ils sont en dehors de la limite d'interdiction), que vous pouvez ensuite transformer en un rien de temps pour devenir létaux (vous ne serez au-delà de l'interdiction qu'à la dernière minute).
  • Revendications du système autonome uniquement. Maintenez l'interdiction en ne créant pas de systèmes autonomes axés sur la létalité, en attendant, faites autant de progrès dans la conception de systèmes autonomes quotidiens qui ne sont pas (encore) militarisés, mais que vous pouvez sur un centime moderniser pour être militarisés.
  • Revendications de non intégré comme un. Fabriquez des systèmes autonomes qui ne sont pas du tout militarisés et, le moment venu, une militarisation de sorte que vous puissiez tenter d'affirmer avec véhémence qu'il s'agit de deux éléments distincts et donc affirmer qu'ils ne relèvent pas de la rubrique tout-en-un. système d'arme autonome ou son cousin.
  • Affirme qu'il n'est pas autonome. Faire un système d'arme qui ne semble pas avoir de capacités autonomes. Laissez de la place dans ce système présumé non autonome pour l'arrivée de l'autonomie basée sur l'IA. En cas de besoin, branchez l'autonomie et vous êtes prêt à rouler (jusque-là, apparemment, vous ne violiez pas l'interdiction).
  • Autre

Il y a beaucoup d'autres difficultés exprimées à essayer d'interdire purement et simplement les systèmes d'armes létaux autonomes. Je vais en couvrir quelques autres.

Certains experts soutiennent qu'une interdiction n'est pas particulièrement utile et qu'il devrait plutôt y avoir des dispositions réglementaires. L'idée est que ces engins seront autorisés mais strictement contrôlés. Une litanie d'utilisations licites est présentée, ainsi que des méthodes de ciblage licites, des types de capacités licites, une proportionnalité licite, etc.

Selon eux, une interdiction pure et simple revient à se mettre la tête dans le sable et à prétendre que l'éléphant dans la pièce n'existe pas. Cette affirmation fait cependant bouillir le sang de ceux qui s'opposent à l'argument selon lequel en instituant une interdiction, vous êtes en mesure de réduire considérablement la tentation de poursuivre ce type de systèmes. Bien sûr, certains afficheront l'interdiction, mais au moins, espérons-le, la plupart ne le feront pas. Vous pouvez alors concentrer votre attention sur les flâneurs et ne pas avoir à vous concentrer sur tout le monde.

Tour et tour ces débats vont.

Une autre préoccupation souvent notée est que même si les bons respectent l'interdiction, les mauvais ne le feront pas. Cela met le bon dans une mauvaise posture. Les méchants auront ce genre de systèmes autonomes armés et les bons non. Une fois que les choses seront révélées que les mauvais les ont, il sera trop tard pour que les bons les rattrapent. Bref, la seule chose astucieuse à faire est de se préparer à combattre le feu par le feu.

Il y a aussi l'argument classique de la dissuasion. Si les bons choisissent de fabriquer des systèmes autonomes armés, cela peut être utilisé pour dissuader les mauvais de chercher à se battre. Soit les bons seront mieux armés et dissuaderont ainsi les mauvais, soit les bons seront prêts lorsque les mauvais dévoileront peut-être qu'ils ont subrepticement conçu ces systèmes depuis le début.

Un contre à ces contre est qu'en fabriquant des systèmes autonomes armés, vous faites une course aux armements. L'autre côté cherchera à avoir la même chose. Même s'ils sont technologiquement incapables de recréer de tels systèmes, ils pourront désormais voler les plans des "bons", désosser les entrailles de la haute technologie ou imiter tout ce qu'ils semblent considérer comme une solution éprouvée. moyen de faire le travail.

Aha, certains rétorquent, tout cela pourrait conduire à une réduction des conflits par un semblant de mutuelle. Si le côté A sait que le côté B possède ces armes mortelles de systèmes autonomes, et que le côté B sait que le côté A les possède, ils pourraient rester tranquilles et ne pas en venir aux mains. Cela a cette aura distincte de vibrations de destruction mutuelle assurée (MAD).

Et ainsi de suite.

Regarder attentivement le deuxième paragraphe

Nous avons déjà couvert beaucoup de terrain ici et n'avons jusqu'ici considéré que le premier paragraphe ou paragraphe d'ouverture de la Lettre ouverte (il y a quatre paragraphes au total).

Il est temps de jeter un œil au deuxième paragraphe, voilà :

  • "Comme pour toute nouvelle technologie offrant de nouvelles capacités, l'émergence de robots mobiles avancés offre la possibilité d'une mauvaise utilisation. Des personnes non dignes de confiance pourraient les utiliser pour violer les droits civils ou pour menacer, blesser ou intimider d'autres personnes. La militarisation est un domaine particulièrement préoccupant. Nous pensons que l'ajout d'armes à des robots télécommandés ou autonomes, largement accessibles au public et capables de naviguer vers des endroits auparavant inaccessibles où les gens vivent et travaillent, soulève de nouveaux risques de préjudice et de graves problèmes éthiques. Les applications militarisées de ces robots nouvellement capables nuiront également à la confiance du public dans la technologie d'une manière qui nuira aux énormes avantages qu'ils apporteront à la société. Pour ces raisons, nous ne soutenons pas la militarisation de nos robots polyvalents à mobilité avancée. Pour ceux d'entre nous qui se sont exprimés sur cette question dans le passé, et ceux qui s'engagent pour la première fois, nous ressentons maintenant une urgence renouvelée à la lumière de l'inquiétude croissante du public ces derniers mois causée par un petit nombre de personnes qui ont visiblement rendu public leur improvisation efforts pour militariser les robots disponibles dans le commerce » (selon la publication en ligne).

En lisant ce deuxième paragraphe, j'espère que vous pourrez voir comment mon discours précédent sur la militarisation de l'IA vient au premier plan.

Examinons quelques points supplémentaires.

Un certain scrupule à propos d'un aspect particulier de la formulation qui a soulevé les squames de certains est que le récit semble souligner que des «personnes indignes de confiance» pourraient abuser de ces robots IA. Oui, en effet, il pourrait s'agir de mauvaises personnes ou de malfaiteurs qui provoquent des actes ignobles qui "abuseront" des robots IA.

Dans le même temps, comme indiqué au début de cette discussion, nous devons également préciser que l'IA elle-même pourrait mal tourner, peut-être en raison de bogues ou d'erreurs intégrés et d'autres complications de ce type. La préoccupation exprimée est que le fait de ne mettre l'accent que sur les chances de personnes indignes de confiance est qu'il semble ignorer d'autres possibilités défavorables. Bien que la plupart des entreprises et des fournisseurs d'IA répugnent à l'admettre, il existe une pléthore de problèmes de systèmes d'IA qui peuvent compromettre la sécurité et la fiabilité des systèmes autonomes. Pour ma couverture de la sécurité de l'IA et du besoin de garanties rigoureuses et prouvables, voir le lien ici, Par exemple.

Un autre point notable qui a été soulevé parmi ceux qui ont examiné la lettre ouverte implique l'affirmation incluse selon laquelle il pourrait finir par saper la confiance du public associée aux robots IA.

D'une part, c'est une affirmation valable. Si les robots IA sont utilisés pour faire des enchères diaboliques, vous pouvez parier que le public sera assez énervé. Lorsque le public sera cuit à la vapeur, vous pouvez parier que les législateurs se lanceront dans l'incursion et chercheront à promulguer des lois qui répriment les robots IA et les fabricants de robots IA. Cela pourrait à son tour paralyser l'industrie de la robotique de l'IA si les lois sont globales et arrêter les efforts impliquant les avantages de la robotique de l'IA. En un sens, le bébé pourrait être jeté avec l'eau du bain (une vieille expression, méritant probablement d'être retirée).

La question évidente soulevée est également de savoir si cette affirmation sur le fait d'éviter une réduction de la confiance du public dans les robots IA est un credo quelque peu intéressé ou si c'est pour le bien de nous tous (peut-il être les deux ?).

Tu décides.

Nous arrivons maintenant à la partie particulièrement charnue de la Lettre ouverte :

  • "Nous nous engageons à ne pas militariser nos robots polyvalents à mobilité avancée ou les logiciels que nous développons qui permettent la robotique avancée et nous n'aiderons pas les autres à le faire. Dans la mesure du possible, nous examinerons attentivement les applications prévues par nos clients afin d'éviter toute militarisation potentielle. Nous nous engageons également à explorer le développement de fonctionnalités technologiques qui pourraient atténuer ou réduire ces risques. Pour être clair, nous ne contestons pas les technologies existantes que les nations et leurs agences gouvernementales utilisent pour se défendre et faire respecter leurs lois » (selon la publication en ligne).

On peut déballer ça.

Asseyez-vous et préparez-vous en conséquence.

Êtes-vous prêt pour une polarisation ardente ?

Du côté favorable, certains annoncent à voix haute que ces fabricants de robots IA feraient une telle promesse. Il semble que ces fabricants de robots chercheront heureusement à ne pas militariser leurs robots « polyvalents à mobilité avancée ». De plus, la lettre ouverte indique qu'ils ne soutiendront pas les autres qui le font.

Les critiques se demandent s'il y a des mots intelligents en cours.

Par exemple, où commence et où finit la « mobilité avancée » ? Si un fabricant de robots conçoit un simple-un robot IA de mobilité plutôt qu'un robot avancé (qui est un morceau indéfini de jargon technique), est-ce que cela est exclu de la portée de ce qui sera ne sauraient être armé ? Ainsi, apparemment, il est acceptable d'armer des robots IA à mobilité simple, tant qu'ils ne sont pas soi-disant Avancée.

Il en va de même pour le phrasé des robots polyvalents. Si un robot IA est conçu spécifiquement pour la militarisation et n'est donc pas dirons-nous un à usage général robot, cela devient-il une exclusion viable du champ d'application ?

Vous pourriez ergoter avec ces arguties et affirmer avec ferveur qu'il ne s'agit que d'une lettre ouverte et non d'un document juridique de cinquante pages qui énonce tous les coins et recoins.

Cela nous amène au scrupule apparemment plus macro-niveau exprimé par certains. Essentiellement, qu'est-ce qu'un « gage » signifie ?

Certains demandent, où est le boeuf ?

Une entreprise qui fait une promesse comme celle-ci le fait apparemment sans véritable intérêt dans le jeu. Si les hauts gradés d'une entreprise qui souscrit à cet engagement décident de ne plus honorer l'engagement, qu'arrive-t-il à cette entreprise ? Les cadres seront-ils sommairement mis en boîte? L'entreprise fermera-t-elle ses portes et s'excusera-t-elle abondamment d'avoir violé l'engagement ? Etc.

Autant qu'on puisse en déduire, il n'y a pas de pénalité ou de sanction particulière pour toute violation du gage.

Vous pourriez soutenir qu'il existe une possibilité d'atteinte à la réputation. Une entreprise de mise en gage pourrait être sonnée sur le marché pour avoir fait une promesse qu'elle n'a plus respectée. Bien sûr, cela suppose également que les gens se souviennent que la promesse a été faite. Cela suppose également que la violation de l'engagement sera détectée d'une manière ou d'une autre (il semble clairement peu probable qu'une entreprise dise tout si elle le fait). Le contrevenant à l'engagement devrait être appelé et pourtant un tel problème pourrait devenir un simple bruit dans le tsunami en cours de nouvelles sur les fabricants de robotique IA.

Considérez un autre angle qui s'est présenté.

Une entreprise de mise en gage est rachetée par une entreprise plus grande. La plus grande entreprise choisit de commencer à transformer les robots polyvalents à mobilité avancée en versions militarisées par l'IA.

Est-ce une violation de l'engagement?

La plus grande entreprise pourrait insister sur le fait qu'il ne s'agit pas d'une violation puisqu'elle (la plus grande entreprise) n'a jamais pris l'engagement. Pendant ce temps, les robots IA inoffensifs que la petite entreprise a assemblés et conçus, le faisant avec les intentions apparemment les plus altruistes, sont presque du jour au lendemain transformés en armes.

Une sorte de sape l'engagement, même si vous pourriez dire que la petite entreprise ne savait pas que cela arriverait un jour. Ils étaient sincères dans leur désir. C'était hors de leur contrôle quant à ce que la plus grande entreprise d'achat a choisi de faire.

Certains demandent également s'il existe une responsabilité légale à cet égard.

Une entreprise de mise en gage décide dans quelques mois qu'elle n'honorera pas la mise en gage. Ils ont changé d'avis. L'entreprise peut-elle être poursuivie pour avoir renoncé au gage qu'elle a pris ? Qui porterait plainte ? Quelle serait la base du procès? Une multitude de problèmes juridiques se posent. Comme on dit, vous pouvez poursuivre à peu près n'importe qui, mais savoir si vous l'emporterez est une tout autre affaire.

Pensez à cela d'une autre manière. Une entreprise de promesses de dons a l'opportunité de faire une très grosse affaire pour vendre tout un tas de ses robots polyvalents à mobilité avancée à une énorme entreprise qui est prête à payer par le nez pour obtenir les robots. C'est l'une de ces offres d'achat uniques d'une valeur de plusieurs milliards de dollars.

Que doit faire l'entreprise de robotique IA ?

Si la société de promesses de dons en robotique IA est cotée en bourse, elle visera presque certainement à réaliser la vente (on pourrait en dire autant d'une société privée, mais pas tout à fait). Imaginez que la société de mise en gage s'inquiète que l'acheteur essaie d'armer les robots, même si disons qu'il n'y a pas de telle discussion sur la table. On dit juste que l'acheteur pourrait le faire.

En conséquence, la société de mise en gage précise dans sa licence que les robots ne doivent pas être transformés en armes. L'acheteur rechigne à ce langage et s'éloigne de l'achat.

De combien de bénéfices la société de robotique IA qui s'est engagée vient-elle de s'éloigner ?

Y a-t-il un moment où le profit en main l'emporte sur l'inclusion de l'exigence de restriction de licence (ou peut-être sur la formulation juridique de la restriction pour permettre une marge de manœuvre tout en permettant à l'accord de se concrétiser) ? Je pense que vous pouvez voir le dilemme impliqué. Des tonnes de tels scénarios sont facilement évoqués. La question est de savoir si cet engagement aura du mordant. Si oui, quel type de dents ?

En bref, comme mentionné au début de cette discussion, certains sont convaincus que ce type d'engagement est pris, tandis que d'autres voient d'un mauvais œil si l'engagement tiendra la route.

Nous passons à autre chose.

Obtenir une promesse de don

Le quatrième et dernier paragraphe de la Lettre ouverte dit ceci :

  • « Nous comprenons que notre engagement à lui seul ne suffit pas pour faire face pleinement à ces risques, et nous appelons donc les décideurs politiques à travailler avec nous pour promouvoir une utilisation sûre de ces robots et interdire leur utilisation abusive. Nous appelons également chaque organisation, développeur, chercheur et utilisateur de la communauté robotique à prendre des engagements similaires de ne pas construire, autoriser, soutenir ou permettre la fixation d'armes à de tels robots. Nous sommes convaincus que les avantages pour l'humanité de ces technologies l'emportent largement sur le risque d'utilisation abusive, et nous sommes enthousiasmés par un avenir radieux dans lequel les humains et les robots travailleront côte à côte pour relever certains des défis mondiaux » (selon la publication en ligne).

Cette dernière partie de la Lettre ouverte contient plusieurs éléments supplémentaires qui ont suscité l'ire.

Faire appel aux décideurs politiques peut être judicieux ou malavisé, affirment certains. Vous pourriez avoir des décideurs politiques qui ne connaissent pas ces questions qui font ensuite le jugement classique et élaborent des lois et des réglementations qui usurpent les progrès des robots IA. Selon le point soulevé précédemment, peut-être que l'innovation qui fait avancer les avancées robotiques de l'IA sera perturbée ou piétinée.

Mieux vaut être sûr que vous savez ce que vous demandez, disent les critiques.

Bien sûr, le contre-argument est que le récit indique clairement que les décideurs politiques devraient travailler avec les entreprises de robotique d'IA pour déterminer comment élaborer raisonnablement de telles lois et réglementations. Le contre-argument du contre-argument est que les décideurs politiques pourraient être considérés comme étant redevables aux fabricants de robotique IA s'ils répondent à leurs caprices. Le contre-pied du contre-argument est qu'il est naturellement nécessaire de travailler avec ceux qui connaissent la technologie, sinon le résultat sera potentiellement un problème. Etc.

Sur une base peut-être d'ergotage, certains ont eu des brûlures d'estomac sur la ligne qui appelle tout le monde à faire des promesses similaires pour ne pas attachant des armes aux robots polyvalents à mobilité avancée. Le mot clé y est le mot attachant. Si quelqu'un fabrique un robot IA qui intègre ou intègre de manière transparente des armes, cela semble contourner le libellé de attachant quelque chose. Vous pouvez le voir maintenant, quelqu'un arguant avec véhémence que l'arme n'est pas attachée, elle fait complètement partie intégrante du robot IA. Dépassez-vous, s'exclament-ils, nous ne sommes pas dans le cadre de cet engagement, et ils auraient même pu dire autrement qu'ils l'étaient.

Cela soulève une autre plainte concernant le manque d'adhérence de l'engagement.

Une entreprise ou toute personne qui choisit de faire ce gage peut-elle se déclarer non gagée à tout moment qu'elle souhaite le faire et pour quelque raison qu'elle le souhaite ?

Apparemment oui.

Il y a beaucoup de discussions autour de la prise de promesses et de la traction qu'elles confèrent.

Conclusion

Aïe, pourrait-on dire, ces entreprises qui essaient de faire ce qu'il faut se font malmener pour avoir essayé de faire ce qu'il faut.

Qu'est devenu notre monde ?

Quiconque fait une telle promesse devrait avoir le bénéfice du doute, vous pourriez le soutenir passionnément. Ils entrent dans la sphère publique pour apporter une contribution audacieuse et vitale. Si nous commençons à les salir pour cela, cela aggravera assurément les choses. Personne ne voudra faire une telle promesse. Les entreprises et autres n'essaieront même pas. Ils se cacheront et ne préviendront pas la société de ce en quoi ces adorables robots dansants peuvent être dangereusement transformés.

Les sceptiques proclament que la façon de rendre la société plus sage implique d'autres actions, telles que l'abandon de l'acte fantaisiste de présenter les robots IA dansants qui gambadent. Ou du moins en faire un acte plus équilibré. Par exemple, plutôt que d'imiter uniquement les chiens fidèles aux animaux de compagnie bien-aimés, illustrez comment les robots dansants peuvent s'apparenter davantage à des loups sauvages déchaînés en colère qui peuvent déchirer les humains en lambeaux sans aucune hésitation.

Cela attirera plus d'attention que de promesses, implorent-ils.

Les promesses peuvent sans aucun doute être une véritable énigme.

Comme l'a dit avec éloquence le Mahatma Gandhi : "Peu importe le degré d'explicitation de l'engagement, les gens tourneront et déformeront le texte en fonction de leurs propres objectifs."

Peut-être pour conclure ici sur une note édifiante, Thomas Jefferson a dit ceci à propos des promesses : « Nous nous engageons mutuellement nos vies, nos fortunes et notre honneur sacré.

En ce qui concerne les robots IA, leur autonomie, leur militarisation, etc., nous finirons tous par être tous ensemble. Notre engagement mutuel doit au moins être que nous garderons ces questions au premier plan, nous nous efforcerons de trouver des moyens de faire face à ces avancées et de trouver d'une manière ou d'une autre notre chemin pour assurer notre honneur, notre fortune et nos vies.

Pouvons-nous nous y engager ?

Je l'espère.

Source : https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- les fabricants de robots disent qu'ils éviteront l'armement de l'IA/