L'éthique de l'IA et la loi sur l'IA pourraient être poussées et incitées à rendre obligatoires des avertissements de sécurité sur toutes les IA existantes et futures

Vos activités quotidiennes sont sans aucun doute bombardées d'un millier ou plus d'avertissements de précaution d'un type ou d'un autre.

Essayez ceux-ci pour la taille :

  • Des lunettes de sécurité doivent être portées en tout temps
  • Danger : produits chimiques dangereux à proximité
  • Haute tension - Tenir à l'écart
  • Avertissement : Soyez conscient de votre environnement
  • Les objets dans le miroir sont plus proches qu'ils ne le paraissent
  • Retirez l'enfant avant de le plier (comme indiqué sur les poussettes)
  • Attention : Assurez-vous d'ignorer ce message

La plupart d'entre eux sont des signes ou des étiquettes pratiques et tout à fait réfléchis qui servent à nous garder, espérons-le, en sécurité.

Sachez que j'ai glissé quelques "valeurs aberrantes" sur la liste pour faire quelques remarques remarquables.

Par exemple, certaines personnes pensent qu'il est fou que les poussettes aient une étiquette apposée qui vous avertit de ne pas plier la poussette pendant que le bébé est encore assis dans l'engin. Bien que le signe soit certainement approprié et consciencieusement utile, il semblerait que le bon sens de base serait déjà suffisant.

Quelle personne ne se rendrait pas compte, de son propre gré, qu'elle doit d'abord retirer le bébé ?

Eh bien, d'autres soulignent que de telles étiquettes servent un objectif important. Tout d'abord, quelqu'un pourrait vraiment ignorer qu'il doit retirer le bébé avant de plier la poussette. Peut-être la personne a-t-elle supposé que la poussette était astucieusement conçue pour s'assurer que l'opération de pliage ne blesserait pas le bébé. Ou peut-être y a-t-il des dispositifs de sécurité intégrés qui empêchent le pliage lorsqu'il y a un enfant dans la poussette. Etc.

De plus, il se peut que la personne ait été distraite et ait plié la poussette sans réfléchir, englobant bébé et tout, mais l'étiquette a heureusement incité la personne à ne pas le faire (certains diront qu'il semble peu probable qu'une telle personne remarque l'étiquette De toute façon). Il y a aussi le fait que quelqu'un pourrait poursuivre le fabricant de la poussette si une telle étiquette n'était pas présente. Vous pouvez imaginer l'un de ces procès lourds où un bébé a été blessé et le parent a décidé de recueillir un million de dollars parce que la poussette n'avait pas de panneau d'avertissement affiché dessus. L'entreprise de poussettes regretterait de ne pas avoir dépensé les quelques centimes nécessaires pour fabriquer et coller les panneaux d'avertissement sur leurs poussettes.

Examinez également de près le dernier des messages d'avertissement que j'avais énumérés ci-dessus.

J'ai choisi de placer le message smarmy sur le fait de s'assurer d'ignorer le message car il existe de nos jours de nombreuses fausses étiquettes d'avertissement que les gens achètent ou fabriquent juste pour le plaisir. Celui-ci est un véritable casse-tête philosophique. Si vous lisez l'avertissement qui dit d'ignorer l'avertissement, que devez-vous faire exactement après avoir lu l'avertissement ? Vous l'avez déjà lu, donc c'est ostensiblement dans votre esprit. Bien sûr, vous pouvez l'ignorer, mais encore une fois, vous n'êtes pas du tout informé de ce que vous êtes censé ignorer. Ronde et ronde, cette blague va.

Bien sûr, les étiquettes d'avertissement de bonne foi ne sont généralement pas de nature plaisante ou humoristique.

Nous sommes censés prendre les avertissements très au sérieux.

Habituellement, si vous ne respectez pas un avertissement noté, vous le faites à un risque personnel grave. Et, il se peut aussi que si vous n'observez pas et ne vous conformez pas à l'avertissement, vous exposez potentiellement les autres à des risques indus. Considérez le fait de conduire une voiture. Au moment où vous êtes au volant d'une voiture, vos actions en tant que conducteur peuvent vous blesser, ainsi que vous pouvez blesser vos passagers et vous pouvez blesser d'autres personnes telles que des personnes dans d'autres voitures ou des piétons à proximité. En ce sens, un avertissement n'est pas uniquement à votre avantage, il est probablement aussi à l'avantage des autres.

Pourquoi est-ce que je couvre ces facettes des avertissements et des mises en garde ?

Parce que certains affirment avec véhémence que nous avons besoin de signes d'avertissement et de mise en garde sur l'intelligence artificielle (IA) d'aujourd'hui.

En fait, l'idée est de mettre de telles étiquettes sur l'IA d'aujourd'hui et sur l'IA future également. Dans l'ensemble, toutes les IA finiraient par avoir une forme ou une variante d'un avertissement ou d'une indication de mise en garde qui lui serait associée.

Bonne ou mauvaise idée ?

Pratique ou pas pratique ?

Allons-y, décortiquons la conception et voyons ce que nous pouvons en faire.

J'aimerais d'abord poser quelques bases essentielles sur l'IA et en particulier sur l'éthique de l'IA et la loi sur l'IA, afin de m'assurer que le sujet des avertissements de l'IA sera sensible au contexte. Pour ceux d'entre vous qui s'intéressent généralement à l'IA éthique et au droit de l'IA, consultez ma couverture étendue et continue sur le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

La prise de conscience croissante de l'IA éthique et aussi de la loi sur l'IA

L'ère récente de l'IA a d'abord été considérée comme AI pour de bon, ce qui signifie que nous pourrions utiliser l'IA pour le bien de l'humanité. Sur les talons de AI pour de bon est venu la réalisation que nous sommes également immergés dans AI pour le mal. Cela inclut l'IA qui est conçue ou auto-modifiée pour être discriminatoire et fait des choix de calcul imprégnant des biais indus. Parfois, l'IA est construite de cette façon, tandis que dans d'autres cas, elle vire dans ce territoire fâcheux.

Je veux m'assurer que nous sommes sur la même page quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur l'IA sensible, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Je suggérerais fortement que nous gardions les choses sur terre et que nous considérions l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

Soyez très prudent lorsque vous anthropomorphisez l'IA d'aujourd'hui.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Tout cela a des implications particulièrement importantes sur l'éthique de l'IA et offre une fenêtre pratique sur les leçons apprises (avant même que toutes les leçons ne se produisent) lorsqu'il s'agit d'essayer de légiférer sur l'IA.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. Ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux.

Dans les colonnes précédentes, j'ai couvert les divers efforts nationaux et internationaux pour élaborer et promulguer des lois réglementant l'IA, voir le lien ici, par exemple. J'ai également couvert les divers principes et directives d'éthique de l'IA que divers pays ont identifiés et adoptés, y compris par exemple l'effort des Nations Unies tel que l'ensemble d'éthique de l'IA de l'UNESCO que près de 200 pays ont adopté, voir le lien ici.

Voici une liste clé utile de critères ou de caractéristiques éthiques de l'IA concernant les systèmes d'IA que j'ai déjà explorés de près :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA sont sincèrement censés être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA.

Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme souligné précédemment ici, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

J'ai aussi récemment examiné le Charte des droits de l'IA qui est le titre officiel du document officiel du gouvernement américain intitulé « Blueprint for an AI Bill of Rights : Making Automated Systems Work for the American People » qui est le résultat d'un effort d'un an par l'Office of Science and Technology Policy (OSTP ). L'OSTP est une entité fédérale qui sert à conseiller le président américain et le bureau exécutif américain sur divers aspects technologiques, scientifiques et d'ingénierie d'importance nationale. En ce sens, vous pouvez dire que cette déclaration des droits de l'IA est un document approuvé et approuvé par la Maison Blanche américaine existante.

Dans la Déclaration des droits de l'IA, il existe cinq catégories clés :

  • Des systèmes sûrs et efficaces
  • Protections contre la discrimination algorithmique
  • Confidentialité des données
  • Avis et explication
  • Alternatives humaines, considération et repli

J'ai soigneusement passé en revue ces préceptes, voir le lien ici.

Maintenant que j'ai posé des bases utiles sur ces sujets liés à l'éthique de l'IA et à la loi sur l'IA, nous sommes prêts à aborder le sujet passionnant de savoir si l'IA devrait ou non avoir des étiquettes d'avertissement.

Préparez-vous pour un voyage informatif révélateur.

Mettre des étiquettes d'avertissement sur l'IA comme moyen de protéger l'humanité

Il y a de plus en plus de rumeurs selon lesquelles l'IA devrait peut-être être accompagnée d'un avertissement quelconque.

Par exemple, dans un article récent de MIT Technology Review qui a discuté de l'intérêt croissant pour les audits de l'IA, l'idée de fournir des signaux d'avertissement est apparue : « La croissance de ces audits suggère qu'un jour nous pourrions voir des avertissements de type paquet de cigarettes indiquant que les systèmes d'IA pourraient nuire à votre santé et à votre sécurité. D'autres secteurs, tels que les produits chimiques et l'alimentation, font l'objet d'audits réguliers pour s'assurer que les produits peuvent être utilisés en toute sécurité. Est-ce que quelque chose comme ça pourrait devenir la norme en IA ? » (MIT Technology Review, Melissa Heikkilä, 24 octobre 2022).

Parlons un peu globalement des signes d'avertissement et de mise en garde.

Nous sommes tous déjà généralement familiarisés avec les panneaux d'avertissement et de mise en garde sur de nombreux produits et services de la vie quotidienne. Parfois, les panneaux de sécurité sont stipulés par la loi comme étant obligatoires, tandis que dans d'autres cas, il existe un pouvoir discrétionnaire quant à l'utilisation de ces panneaux. De plus, certains panneaux de sécurité sont normalisés, comme étant spécifiés par la norme ANSI Z535 et la norme OSHA 1910.14. Ces normes couvrent des aspects tels que le libellé de l'enseigne, les couleurs et les polices utilisées, la forme de l'enseigne et diverses autres particularités.

Il est logique d'avoir des normes pour ces panneaux d'avertissement. Chaque fois que vous voyez un tel signe, s'il répond aux normes énoncées, vous êtes plus susceptible de croire que le signe est légitime, et vous avez besoin de moins de traitement cognitif pour analyser et donner un sens au signe. Pour les signes qui ne sont pas d'une approche standardisée, vous devez souvent calculer mentalement ce que le signe vous dit, peut-être perdre un temps précieux pour agir ou vous pourriez complètement mal juger le signe et ne pas bien comprendre l'avertissement à portée de main.

Une gamme de ces signes peut exister, pour laquelle ils sont souvent classés un peu comme ceci :

  • Signe de danger : Préoccupation la plus élevée et indicatif d'un danger immédiat avec des conséquences graves probables
  • Panneau d'avertissement : indicatif d'un danger qui est moins qu'un « danger » mais qui reste assez grave
  • Signe de mise en garde : Indicatif d'un danger potentiel qui est moins qu'un "avertissement" mais toujours sérieux
  • Signe de notification : indicatif d'un avertissement informatif qui est moins que "prudence" mais qui comporte toujours des aspects inquiétants

Compte tenu du contexte qui précède concernant les avertissements et les signes de mise en garde, nous pouvons aller de l'avant et essayer d'appliquer cela de manière contextuelle à l'utilisation de l'IA.

Premièrement, nous pourrions potentiellement convenir que la signalisation de l'IA pourrait être dans une gamme de gravité similaire à celle habituelle avec les panneaux de tous les jours, de sorte que :

  • Panneau de danger IA : IA la plus préoccupante et indiquant un danger immédiat avec des conséquences graves probables
  • Panneau d'avertissement IA : AI indicatif d'un danger qui est moins qu'un « danger » mais qui reste assez grave
  • Panneau de mise en garde IA : AI indiquant un danger potentiel qui est moins qu'un "avertissement" mais toujours sérieux
  • Signe de notification IA : IA indiquant un avertissement informatif qui est moins que "prudent" mais qui comporte toujours des aspects inquiétants

L'essentiel est que toutes les IA ne seront pas d'une préoccupation tout aussi déconcertante. Il se pourrait qu'une IA pose des risques énormes ou n'ait que des risques marginaux. En conséquence, la signalisation doit refléter qui est quoi. Si tous les avertissements ou signes de mise en garde de l'IA étaient simplement présentés comme étant du même calibre, nous ne saurions probablement pas ou ne saurions pas s'il faut être très préoccupé ou seulement légèrement préoccupé par l'IA. L'utilisation d'un schéma de formulation typé peut faciliter la vie lors de la visualisation et de l'interprétation des signes avant-coureurs liés à l'IA.

Vous vous demandez peut-être ce que les panneaux diraient d'autre en termes de spécificités du message à transmettre.

C'est certainement une question plus difficile à aborder. Les possibilités de l'IA de faire des choses considérées comme dangereuses ou inquiétantes seraient extrêmement grandes, presque infinies. Pouvons-nous les résumer en un ensemble routinier qui est énoncé en une poignée de mots chacun ? Ou allons-nous devoir permettre une approche plus libre de la façon dont le libellé ira?

Je vous laisse réfléchir à cette question ouverte.

En continuant, nous avons tendance à voir des panneaux d'avertissement affichés sur les objets. Un système d'IA n'est pas forcément un « objet » au sens de l'apposition habituelle de panneaux. Cela soulève la question de savoir où les signes avant-coureurs de l'IA vont être présentés.

Il se peut que lorsque vous exécutez une application sur votre smartphone, s'il utilise l'IA, un message contenant l'avertissement lié à l'IA s'affiche. L'application vous alertera sur l'utilisation sous-jacente de l'IA. Cela peut être un message contextuel ou peut être présenté de différentes manières visuelles et même auditives.

Il y a aussi la situation où vous utilisez un service soutenu par l'IA, même si vous n'interagissez peut-être pas directement avec l'IA. Par exemple, vous pourriez avoir une conversation avec un agent humain sur l'obtention d'un prêt immobilier, pour lequel l'agent est silencieusement en coulisses en utilisant un système d'IA pour guider ses efforts.

Ainsi, nous devrions prévoir que les signes avant-coureurs de l'IA devraient être présents dans les deux cas d'utilisation de l'IA, tels que :

  • IA spécifique au produit : L'IA en tant que produit devrait avoir des signes d'avertissement ou de mise en garde absolus
  • IA orientée services : L'IA en tant que service (directement ou indirectement) devrait avoir des signes d'avertissement ou de mise en garde de l'IA

Les sceptiques seraient certainement prompts à suggérer que le signe d'avertissement de l'IA pourrait être sournoisement déguisé par le fabricant de l'application afin que l'alerte ne soit pas particulièrement perceptible. Peut-être que l'avertissement apparaît pendant un bref instant et vous ne remarquez vraiment pas qu'il a été affiché. Une autre astuce sournoise serait d'en faire une sorte de jeu, en sous-estimant apparemment la gravité de l'alerte et en faisant croire aux gens que l'avertissement est sans conséquence.

Oui, vous pouvez à peu près parier que tous les panneaux d'avertissement liés à l'IA seront trompés et utilisés d'une manière qui ne correspond pas à l'esprit et à l'intention des messages d'avertissement qu'ils sont censés transmettre.

Tous ces scepticismes se rapportent à la question de savoir si nous utiliserions l'éthique de l'IA comme des «lois souples» pour essayer de faire avancer les avertissements et les mises en garde liés à l'IA, ou si nous utiliserions des «lois dures», y compris des lois promulguées avec le soutien des tribunaux. En théorie, la poussée de la législation non contraignante permettrait un plus grand semblant de jouer avec la question, tandis que les lois dans les livres viendraient avec le potentiel d'application par le gouvernement et apporteraient une plus grande rigueur.

Une autre préoccupation est de savoir si la signalisation AI ferait de toute façon une différence.

De nombreuses recherches sur le comportement des consommateurs ont tendance à donner des résultats confus lorsqu'il s'agit de fournir des étiquettes d'avertissement aux consommateurs. Parfois, les avertissements sont efficaces, parfois non. Appliquons une partie de cette recherche au contexte de l'IA.

Considérez ces facettes :

  • Détection: Ceux qui utilisent une IA qui contient un panneau d'avertissement d'IA viable remarqueraient-ils ou détecteraient-ils activement que le panneau leur est montré (en supposant qu'une telle signalisation se produise) ?
  • Compréhension: Pour ceux qui l'ont remarqué, comprendraient-ils ou saisiraient-ils ce que le panneau d'avertissement de l'IA essaie de leur suggérer ?
  • D'action: Pour ceux qui font ce saut mental, le signe d'avertissement de l'IA les incitera-t-il à agir ou servira-t-il autrement à guider leur comportement en conséquence ?

Vous pouvez vous attendre à ce que si l'élan augmente pour avoir des signes avant-coureurs d'IA, les chercheurs vont étudier de près la question. L'idée serait d'aider à clarifier dans quelles circonstances les avertissements sont utiles et quand ils ne le sont pas. Cela concerne à son tour la conception et l'aspect et la sensation impliqués. On pourrait également s'attendre à ce que le grand public ait besoin d'être éduqué ou informé de l'émergence de ces signes d'avertissement et de mise en garde de l'IA afin qu'il s'y habitue.

Il y a beaucoup de rebondissements à prendre en compte.

L'avertissement ou le signe de mise en garde de l'IA ne doit-il se produire qu'au démarrage de l'application utilisée ? Peut-être que le point de départ n'est pas suffisant en soi. Une personne pourrait à première vue penser que l'application ne fait que jouer la sécurité en utilisant un avertissement, et donc ne pas accorder beaucoup d'importance à l'avertissement. Une fois que la personne est à mi-chemin dans l'utilisation de l'application, un avertissement supplémentaire serait peut-être justifié. À ce stade, la personne est plus consciente de ce que l'application entreprend et elle a peut-être déjà oublié le message d'avertissement indiqué précédemment.

L'avertissement ou la mise en garde de l'IA peut alors se produire :

  • Avant de démarrer l'application et juste au moment où l'application est sur le point d'être invoquée
  • Présenté une fois l'application démarrée et uniquement au point de départ
  • Montré au début et à nouveau à mi-parcours
  • Montré plusieurs fois tout au long de l'utilisation de l'IA
  • Donné à la fin de l'utilisation de l'application
  • Fournir après avoir quitté l'application et peut-être même quelques minutes, heures ou jours plus tard
  • Etc

Pensez-vous que la personne utilisant l'IA doit confirmer ou reconnaître ces avertissements ou signes de mise en garde ?

Certains insisteraient pour que la personne soit tenue de reconnaître qu'elle a vu les avertissements. Cela préviendrait potentiellement ceux qui prétendraient qu'il n'y avait pas de message d'avertissement. Cela pourrait également amener les gens à prendre les messages plus au sérieux, étant donné qu'on leur demande de confirmer qu'ils ont observé l'indication d'avertissement.

Voici une question difficile pour vous.

Si TOUTE L'IA doit fournir un avertissement ou une indication de sécurité ?

Vous pourriez dire que oui, toutes les IA doivent avoir cela. Même si l'IA ne représente qu'un risque marginal pour la sécurité, elle devrait toujours avoir une forme de panneau d'avertissement, éventuellement juste une notification ou une indication d'information. D'autres contesteront cette affirmation. Ils répliqueraient que vous allez trop loin. Toutes les IA n'ont pas besoin de cela. De plus, si vous forcez toutes les IA à l'avoir, vous diluerez le but. Les gens deviendront insensibles à la vue des indications d'avertissement. Toute l'approche deviendra une farce.

Sous un angle connexe, considérez ce que les fabricants d'IA sont susceptibles de dire.

Un point de vue serait que cela va être une douleur dans le vous-savez-quoi mettre en place. Devoir modifier tous vos systèmes d'IA et ajouter cette fonctionnalité pourrait être coûteux. L'ajouter à l'avenir pourrait être moins coûteux, bien qu'il y ait néanmoins un coût associé à l'inclusion de cette disposition.

Le flou est une autre plainte potentielle. Quel type de message doit être affiché ? S'il n'y a pas de normes, cela signifie que les fabricants d'IA devront créer quelque chose de nouveau. Non seulement ce coût supplémentaire, mais il ouvre peut-être la porte à des poursuites. Vous pouvez imaginer qu'un fabricant d'IA pourrait être amené à la tâche que son avertissement n'était pas aussi bon qu'un autre système d'IA. Les avocats finiront par faire un paquet de la confusion qui en résulte.

On craint également que les gens soient indûment effrayés par ces messages de sécurité.

Un fabricant d'IA pourrait voir une chute précipitée du nombre d'utilisateurs en raison d'un message de sécurité qui vise simplement à fournir une mise en garde informative. Les gens ne sauront pas quoi penser du message. S'ils n'ont jamais vu de tels messages auparavant, ils pourraient immédiatement paniquer et éviter inutilement l'utilisation de l'IA.

Je mentionne ces facettes parce que certains proclament déjà que « ça ne peut pas faire de mal » de commencer à inclure des avertissements ou des messages de sécurité sur l'IA. Pour eux, l'idée est aussi idéale qu'une tarte aux pommes. Personne ne pourrait sérieusement réfuter les avantages de toujours exiger la sécurité ou les avertissements liés à l'IA. Mais bien sûr, ce n'est pas une façon réelle de penser à la question.

Vous pourriez même aller plus loin et affirmer que les messages d'avertissement de l'IA pourraient produire une forme d'hystérie de masse. Si nous commencions tout à coup à forcer les systèmes d'IA à avoir de tels messages, les gens pourraient mal interpréter l'intention. Vous voyez, il y a beaucoup d'exhortations selon lesquelles nous sommes confrontés à une crise existentielle de l'IA, par laquelle l'IA va conquérir le monde et anéantir l'humanité, voyez le lien ici pour mon analyse de ce genre de revendications.

L'utilisation du message d'avertissement de l'IA pourrait "inspirer" certaines personnes à croire que la fin est proche. Sinon, pourquoi les messages apparaîtraient-ils maintenant ? Certes, c'est une indication que finalement, l'IA se prépare à devenir nos suzerains oppressifs.

Une sorte de résultat désespérément sombre d'essayer de faire la bonne chose en sensibilisant le public à la façon dont l'IA peut être imprégnée de capacités discriminatoires ou d'autres AI pour le mal aspects.

Conclusion

James Russell Lowell, le célèbre poète américain, a dit un jour ceci : "Une épine d'expérience vaut tout un désert d'avertissement."

J'évoque la noble remarque pour faire quelques commentaires de conclusion sur la question des avertissements ou des messages de sécurité de l'IA.

Il y a de fortes chances que tant que nous n'aurons pas une prise de conscience assez répandue de l'IA commettant de mauvaises actions, il n'y aura pas beaucoup de clameur pour les messages d'avertissement liés à l'IA. Les fabricants d'IA qui choisissent de le faire volontairement seront peut-être félicités, bien qu'ils puissent également se retrouver injustement harcelés par inadvertance. Certains experts pourraient les poursuivre pour avoir exploité une IA qui a apparemment besoin d'avertissements, pour commencer, tout en négligeant de se rendre compte qu'ils essayaient d'aller en premier et que tous ces autres fabricants d'IA sont à la traîne.

Maudit si vous le faites, peut-être pas maudit si vous ne le faites pas.

Une autre considération consiste à transformer ce qui semble être une belle idée conceptuelle en une pratique pratique et utile. Il est facile d'agiter les mains et de crier vaguement aux vents que l'IA devrait avoir des messages d'avertissement et de sécurité. La partie la plus difficile vient lorsqu'il s'agit de décider de ce que ces messages devraient être, quand et où ils devraient être présentés, si ou dans quelle mesure leur coût génère des avantages suffisants, etc.

Nous donnerons ici à James Russell Lowell le dernier mot (poétiquement) sur ce sujet pour l'instant : "La créativité n'est pas la découverte d'une chose, mais la fabrication de quelque chose après qu'elle a été trouvée."

Je suppose qu'il est temps de se retrousser les manches et de se mettre au travail. Et ce n'est pas seulement un avertissement, c'est une action.

Source : https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- avertissements-sur-tous-les-ai-existants-et-futurs/