L'éthique de l'IA et l'inoculation psychologique induite par l'IA pour aider les humains à lutter contre la désinformation

Qu'allons-nous faire face à la surabondance massive de désinformation et de mésinformation ?

Tout est manifestement de pire en pire, chaque jour qui passe.

Peut-être que l'intelligence artificielle (IA) peut venir à notre secours. Oui, c'est vrai, nous pourrions être en mesure d'exploiter les utilisations bénéfiques de l'IA pour faire face à notre tsunami incessant de désinformation et de mésinformation. Nous ferions peut-être bien d'essayer de le faire. Chaque piste de solution potentielle semblerait digne d'être poursuivie.

En aparté, j'aimerais immédiatement reconnaître et noter que l'IA va sans aucun doute aussi être une partie du problème aussi. Il ne fait aucun doute que les humains peuvent facilement tirer parti de l'IA pour générer de la désinformation et de la mésinformation. De plus, l'IA peut être utilisée insidieusement pour faire apparaître la désinformation et la mésinformation comme incroyablement valides et faire croire aux humains que les informations présentées sont d'une exactitude et d'un fait factuels séduisants. Un côté résolument triste de ce que l'IA apporte à la table. Nous reviendrons sur cette énigme négative vers la fin de cette discussion.

Pour l'instant, mettons nos visages souriants et explorons comment l'IA est bénéfique pour mettre la désinformation et la mésinformation à genoux. Un courant sous-jacent important sera que tout cela concorde avec des éléments vitaux de l'éthique de l'IA. La couverture de ma chronique sur l'éthique de l'IA et l'IA éthique est continue et étendue, y compris le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Considérez ces moyens fondamentaux par lesquels l'IA peut être un allié particulièrement utile dans la guerre contre la désinformation et la mésinformation :

  • Arrêtez-vous au départ : L'IA peut être utilisée pour détecter et essayer d'éliminer la désinformation et la mésinformation avant qu'elle ne se répande
  • Filtrer avant d'être vu : L'IA peut être utilisée pour filtrer la désinformation et la mésinformation afin que vous n'ayez pas à vous soucier de la voir
  • Préparez-vous à être immunisé : L'IA peut être utilisée pour renforcer votre préparation et votre capacité à faire face à la désinformation et à la mésinformation (connue un peu formellement comme fournissant une sorte d'inoculation psychologique)
  • Autre

Le premier point énuméré implique d'essayer d'arrêter la désinformation et la mésinformation le plus tôt possible, avant que le contenu ne soit diffusé dans le monde.

C'est une approche très problématique. Certains diront avec véhémence qu'il pourrait s'agir d'une tentative de Big Brother de supprimer la liberté d'expression. Jusqu'où cette IA pourrait-elle aller ? Pourrait-il empêcher les gens d'exprimer librement leurs opinions ? Cela pourrait étrangement devenir une pente glissante de l'IA, devenant finalement le pire cauchemar des résultats pervers qui ont commencé innocemment avec les meilleures intentions.

Je suis sûr que vous obtenez l'image.

Le deuxième point est un peu plus modéré et suggère que nous pourrions utiliser l'IA pour filtrer le contenu pour nous.

Vous pourriez avoir un bot de filtrage AI qui analysera tous vos flux de données entrants provenant de diverses nouvelles et d'autres sources. L'IA est conçue pour détecter toute désinformation ou mésinformation qui correspond à vos critères personnels. Ainsi, dans un tel scénario, ce n'est pas une situation de censure Big Brother. Vous contrôlez l'IA et la façon dont elle filtre votre véritable boîte de réception d'informations en votre nom.

Ça sonne plutôt bien.

Il y a cependant quelques préoccupations notables.

Par exemple, nous sommes déjà fortement polarisés dans nos opinions et cette utilisation de l'IA pourrait rendre cette polarisation plus profonde et plus sombre. Imaginez qu'avec cette intelligence artificielle qui fonctionne sans interruption 24 heures sur 7, XNUMX jours sur XNUMX, vous n'ayez jamais besoin de voir la moindre information que vous avez classée comme étant potentiellement de la désinformation et de la mésinformation. Votre perspective polarisée est maintenant presque garantie de rester intacte. Toute la journée et chaque fois que vous cherchez à jeter un œil à l'information qui attend votre attention, elle est toujours entièrement présélectionnée, et aucune chance de jeter un coup d'œil à la soi-disant désinformation et désinformation.

Je dis que la désinformation et la mésinformation peuvent être soi-disant parce qu'il y a énormément de controverse sur ce qui constitue réellement la désinformation et la mésinformation. Certains experts insistent sur le fait qu'il existe une base absolue pour déterminer ce qui est de la désinformation et ce qui est de la désinformation. Il y a du vrai et du faux. Tout peut être calculé sans se tromper que quelque chose est soit de la désinformation, soit de la mésinformation.

Tout le monde ne voit pas les choses aussi clairement.

On dit que le proverbial contraste de dichotomie marche-arrêt mutuellement exclusif est un état d'esprit trompeur. La désinformation d'une personne peut ne pas être considérée comme de la désinformation pour une autre personne. De même pour la désinformation. L'affirmation est que la désinformation et la mésinformation varient en termes de nature et d'ampleur. Essayer de classer définitivement toutes les informations dans une pile ou dans l'autre est beaucoup plus difficile que ne le suggère le geste de la main.

L'essentiel est que le deuxième point sur l'utilisation de l'IA comme mécanisme de filtrage a ses inconvénients. Il ne fait aucun doute que l'IA sera de plus en plus utilisée à cette fin. Dans le même temps, nous devons être conscients des défis que cette IA va mettre en avant. L'IA en tant que filtre pour la désinformation et la mésinformation n'est pas une solution miracle ou un slam dunk.

Cela nous amène au troisième point, à savoir la possibilité d'utiliser l'IA pour améliorer la capacité des humains à faire face à la désinformation et à la mésinformation.

Je doute que vous ayez probablement beaucoup entendu parler de cette troisième voie d'utilisation de l'IA dans ce contexte. Il commence à peine à émerger. Vous êtes maintenant à la pointe de quelque chose qui va probablement se développer et être progressivement mis en service. Sachez cependant qu'à mesure que cette popularité augmente, la controverse quant à savoir si c'est une approche appropriée va également devenir très visible.

Une partie du problème est que l'IA est en quelque sorte utilisée pour ce que certains appelleraient de manière péjorative jouer à des jeux d'esprit avec des humains.

Cela semble inquiétant.

Cela nous amène également au domaine de l'éthique de l'IA.

Tout cela est également lié aux préoccupations sobrement émergentes concernant l'IA d'aujourd'hui et en particulier l'utilisation de l'apprentissage automatique et de l'apprentissage en profondeur en tant que forme de technologie et la manière dont elle est utilisée. Vous voyez, il y a des utilisations de ML/DL qui ont tendance à impliquer que l'IA soit anthropomorphisée par le grand public, croyant ou choisissant de supposer que le ML/DL est soit une IA sensible, soit proche de (ce n'est pas le cas). En outre, ML/DL peut contenir des aspects de la correspondance de modèles de calcul qui sont indésirables ou carrément inappropriés, ou illégaux d'un point de vue éthique ou juridique.

Il pourrait être utile de clarifier d'abord ce que je veux dire lorsque je fais référence à l'IA dans son ensemble et de fournir également un bref aperçu de l'apprentissage automatique et de l'apprentissage en profondeur. Il y a beaucoup de confusion quant à ce qu'implique l'Intelligence Artificielle. Je voudrais également vous présenter les préceptes de l'éthique de l'IA, qui feront particulièrement partie intégrante de la suite de ce discours.

Énoncer le dossier sur l'IA

Assurons-nous que nous sommes sur la même longueur d'onde sur la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible.

Nous n'avons pas cela.

Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée The Singularity, voir ma couverture sur le lien ici).

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique et l'apprentissage en profondeur, qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

Une partie du problème est notre tendance à anthropomorphiser les ordinateurs et en particulier l'IA. Lorsqu'un système informatique ou une IA semble agir d'une manière que nous associons au comportement humain, il existe une envie presque écrasante d'attribuer des qualités humaines au système. C'est un piège mental commun qui peut saisir même le sceptique le plus intransigeant quant aux chances d'atteindre la sensibilité.

Dans une certaine mesure, c'est pourquoi l'éthique de l'IA et l'IA éthique sont un sujet si crucial.

Les préceptes de l'IA Ethics nous incitent à rester vigilants. Les technologues en IA peuvent parfois devenir préoccupés par la technologie, en particulier l'optimisation de la haute technologie. Ils ne tiennent pas nécessairement compte des ramifications sociétales plus larges. Avoir une mentalité d'éthique de l'IA et le faire intégralement pour le développement et la mise en service de l'IA est essentiel pour produire une IA appropriée, y compris l'évaluation de la façon dont l'éthique de l'IA est adoptée par les entreprises.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. Ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux. Voir par exemple ma couverture sur le lien ici.

Dans les colonnes précédentes, j'ai couvert les divers efforts nationaux et internationaux pour élaborer et promulguer des lois réglementant l'IA, voir le lien ici, par exemple. J'ai également couvert les divers principes et directives d'éthique de l'IA que divers pays ont identifiés et adoptés, y compris par exemple l'effort des Nations Unies tel que l'ensemble d'éthique de l'IA de l'UNESCO que près de 200 pays ont adopté, voir le lien ici.

Voici une liste clé utile de critères ou de caractéristiques éthiques de l'IA concernant les systèmes d'IA que j'ai déjà explorés de près :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA sont sincèrement censés être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme souligné précédemment ici, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Gardons les choses sur terre et concentrons-nous sur l'IA computationnelle non sensible d'aujourd'hui.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Je crois que j'ai maintenant préparé le terrain pour discuter suffisamment du rôle de l'IA en tant que moyen d'inoculation psychologique liée à la lutte contre la désinformation et la mésinformation.

Entrer dans l'esprit des humains

Commençons par les bases ou les fondamentaux sous-jacents à la mésinformation et à la désinformation.

Généralement, la désinformation fait référence à des informations fausses ou trompeuses.

La désinformation est à peu près la même, mais consiste en l'élément supplémentaire de intention. Nous interprétons normalement l'information comme étant de la désinformation lorsqu'il s'agit de l'information prévu désinformer.

Je pourrais vous dire qu'il est actuellement 10 heures du soir, ce qui disons est faux car il est vraiment minuit. Si je vous avais dit 10 heures comme une intuition et que je n'essayais pas de vous tromper, nous dirions généralement que je vous ai mal informé. J'avais véhiculé de la désinformation. Peut-être que j'étais paresseux ou peut-être que je croyais vraiment qu'il était 10 heures. D'un autre côté, si j'avais mentionné 10 heures parce que je voulais intentionnellement vous faire croire qu'il était 10 heures et que je savais qu'il était en fait minuit, cela pourrait être considéré comme une forme de désinformation. .

Un aspect notable de l'information dans son ensemble est que nous sommes généralement capables de diffuser l'information et que, par conséquent, l'information peut devenir quelque peu répandue. L'information peut véritablement couler comme de l'eau, au sens large.

Je vous dis qu'il est 10 heures du soir. Vous avez maintenant cette information particulière. Vous pourriez crier à haute voix à un groupe de personnes à proximité qu'il est 10 heures du soir. Ils ont maintenant aussi cette même information. Peut-être que certaines de ces personnes utilisent leur téléphone portable et appellent d'autres personnes pour leur dire qu'il est 10 heures. Dans l'ensemble, les informations peuvent être diffusées ou partagées et parfois faites si rapidement alors que dans d'autres cas, elles le sont si lentement.

Dans un sens, vous pourriez prétendre que l'information peut devenir virale.

Il existe un mot inventé ou une terminologie que vous n'avez peut-être pas particulièrement vu ou utilisé qui aide à décrire ce phénomène d'information virale, le mot est infodémique. Ce mot est un mélange à la fois d'information et d'épidémie. Dans l'ensemble, une infodémie est associée à des circonstances impliquant la propagation de fausses informations ou de désinformation. L'idée est que des informations fausses ou trompeuses peuvent devenir virales, de manière indésirable, similaire à la propagation indésirable d'une ou plusieurs maladies.

Dans l'exemple de l'heure à 10 heures du soir, ce fait apparent était une information qui a été diffusée au groupe de personnes à proximité. À leur tour, ils ont propagé le fait à d'autres. Si le 10 heures était un faux, alors ce cas particulier de désinformation ou de mésinformation s'est propagé à beaucoup d'autres. Ils ne savaient peut-être pas que l'information était de la désinformation ou peut-être de la désinformation.

J'espère que toutes ces définitions et principes fondamentaux semblent raisonnables et vous êtes à bord jusqu'à présent.

Super, continuons.

Je vous ai entraîné un peu subrepticement dans quelque chose qui suscite beaucoup de fascination et aussi d'angoisse. L'essentiel est qu'il existe sans doute des parallèles raisonnablement solides entre ce que les maladies font de manière virale et ce que la désinformation ou la désinformation fait de manière virale.

Tout le monde n'est pas d'accord avec ces prétendus parallèles. Néanmoins, ils sont intrigants et dignes de considération.

Permettez-moi de développer.

Vous voyez, nous pouvons essayer de tirer parti de l'analogie pratique consistant à faire référence aux maladies d'origine humaine et aux maladies qui se propagent, en comparant ainsi une possibilité similaire avec la propagation de la désinformation et de la désinformation. Pour essayer d'arrêter la propagation des maladies, nous pouvons viser à détecter précocement et chercher à contenir une source de maladie émergente pointant la propagation potentielle de la maladie. Une autre approche pour faire face à la propagation d'une maladie serait de se prémunir contre l'infection par l'utilisation prudente du port d'un masque ou d'un équipement de protection. Une troisième approche pourrait consister à se faire vacciner pour tenter de renforcer son immunité liée à la maladie.

Nous avons maintenant bouclé la boucle dans la mesure où ces mêmes approches pour faire face aux maladies peuvent être explicitement comparées à la gestion de la mésinformation et de la désinformation. J'ai mentionné plus tôt qu'il y a des efforts similaires en cours pour utiliser l'intelligence artificielle dans le but d'essayer de faire face à la désinformation et à la mésinformation, notamment (comme mentionné précédemment) :

  • Arrêtez-vous au départ : L'IA peut être utilisée pour détecter et essayer d'éliminer la désinformation et la mésinformation avant qu'elle ne se répande
  • Filtrer avant d'être vu : L'IA peut être utilisée pour filtrer la désinformation et la mésinformation afin que vous n'ayez pas à vous soucier de la voir
  • Préparez-vous à être immunisé : L'IA peut être utilisée pour renforcer votre préparation et votre capacité à faire face à la désinformation et à la mésinformation (connue un peu formellement comme fournissant une sorte d'inoculation psychologique)
  • Autre

Le troisième aspect sera le plus intéressant ici.

Voici l'affaire.

Nous savons que les maladies frappent généralement les corps humain. Avec l'analogie de la manière dont la mésinformation et la désinformation se produisent, nous pourrions suggérer que l'information frauduleuse frappe le esprit humain. Oui, vous pouvez vraisemblablement entrer en contact avec la désinformation ou la mésinformation qui coule dans votre esprit. La désinformation ou la mésinformation corrompt ou empoisonne potentiellement votre façon de penser.

Un corps humain peut être vacciné pour essayer de se préparer à entrer en contact avec des maladies. Une grande question se pose de savoir si nous pouvons faire la même chose pour l'esprit humain. Est-il possible d'essayer d'inoculer l'esprit de sorte que lorsque la désinformation ou la mésinformation vous vient à l'esprit, vous êtes prêt pour cela et avez été inoculé en conséquence ?

Un domaine d'étude connu sous le nom de inoculation psychologique postule que l'esprit peut en effet être inoculé dans le sens d'être prêt à gérer la mésinformation ou la désinformation.

Considérez cette description dans une étude de recherche récente concernant l'inoculation psychologique et ce qui est parfois étiqueté comme faisant prébunking:

  • «Démystifier la désinformation est également problématique car la correction de la désinformation n'annule pas toujours entièrement ses effets, un phénomène connu sous le nom d'effet d'influence continue. En conséquence, contrairement au démystification, le prébunking a pris de l'importance en tant que moyen de renforcer de manière préventive la résilience contre l'exposition anticipée à la désinformation. Cette approche est généralement fondée sur la théorie de l'inoculation. La théorie de l'inoculation suit une analogie avec l'immunisation médicale et postule qu'il est possible de développer une résistance psychologique contre les tentatives de persuasion non désirées, tout comme les inoculations médicales renforcent la résistance physiologique contre les agents pathogènes » (Science Advances, 24 août 2022, "Psychological Inoculation Improves Resilience Against Misinformation On Social Media" par les co-auteurs Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje et Stephan Lewandowsky).

Revenant à mon exemple sur l'heure étant 10 heures du soir, supposons que je vous ai dit précédemment que parfois l'heure annoncée n'est pas l'heure réelle. Vous disposez désormais d'une forme d'inoculation pour vous méfier des temps réclamés. Cette inoculation vous a préparé à entrer en contact avec des temps revendiqués qui sont de la désinformation ou de la mésinformation.

Si je vous avais prévenu il y a plusieurs années que les heures annoncées n'étaient pas des heures réelles, il est possible que vous ne pensiez pas à cet avertissement d'il y a longtemps. Ainsi, l'inoculation antérieure s'est (dirons-nous) dissipée. Ma vaccination pour vous pourrait avoir besoin d'être renforcée.

Il est également possible que l'inoculation n'ait pas été suffisamment spécifique pour que vous puissiez l'utiliser en cas de besoin. Si je vous avais averti il ​​y a des années des temps annoncés par rapport aux temps réels, cela pourrait être trop large. L'inoculation peut ne pas fonctionner dans le cas précis où l'on vous dit environ 10 heures. En ce sens, peut-être que mon inoculation aurait dû être que vous devriez vous méfier lorsqu'une heure revendiquée de 10 heures est utilisée. Bien sûr, les inoculations dans le cas des maladies sont un peu les mêmes, étant parfois très spécifiques à des affections connues, tandis que dans d'autres cas, elles couvrent un large spectre.

Une étude de recherche souvent citée réalisée en 1961 sur l'inoculation psychologique par William McGuire de l'Université de Columbia est généralement considérée aujourd'hui comme un classique dans ce domaine d'étude. Vous trouverez peut-être intéressants ces points clés qu'il a soulevés à l'époque :

  • « Une telle immunisation généralisée pourrait provenir de l'un ou l'autre de deux mécanismes. La pré-exposition pourrait choquer la personne en lui faisant réaliser que les « truismes » qu'elle a toujours acceptés sont en effet vulnérables, la poussant ainsi à développer une défense de sa croyance, avec pour résultat qu'elle est plus résistante aux contre-arguments forts lorsqu'ils se présentent. Alternativement, les réfutations impliquées dans la pré-exposition pourraient rendre tous les contre-arguments présentés par la suite contre la croyance moins impressionnants » (William McGuire, « Resistance To Persuasion Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments », Journal of Abnormal and Psychologie sociale, 1961).

Trouvez-vous cette analogie des inoculations et de la vaccination une comparaison utile et appropriée au domaine de la mésinformation et de la désinformation ?

Certains le font, d'autres non.

Aux fins de cette discussion, veuillez accepter que la prémisse est raisonnable et appropriée.

Comment allons-nous essayer d'inoculer ou d'immuniser l'esprit des gens ?

Nous pourrions amener les gens à lire des livres qui pourraient éclairer leur esprit. Nous pourrions leur en parler ou leur faire regarder des vidéos ou écouter des cassettes audio. Etc.

Et nous pourrions utiliser l'IA pour faire de même.

Un système d'IA pourrait être conçu pour être votre inoculateur. Chaque fois que vous commencez à vous connecter, par exemple en regardant sur Internet, une application basée sur l'IA peut vous préparer à votre voyage en ligne. L'IA peut vous fournir une infime quantité de désinformation étiquetée comme telle, vous permettant de réaliser que vous êtes sur le point de voir quelque chose qui est intentionnellement faux.

Après avoir été exposé à cette désinformation alimentée par l'IA, votre esprit est maintenant prêt à faire face à la désinformation ou à la mésinformation que vous pourriez rencontrer dans la nature sur Internet. Votre esprit a été préparé. Voila, vous voyez un blog sur Internet qui prétend que des créatures extraterrestres de Mars sont déjà ici sur terre et se cachent à la vue de tous, mais cette apparente désinformation ou mésinformation est facilement rejetée par votre esprit en raison de l'inoculation préalable (enfin, encore une fois, peut-être que c'est véridique et qu'ils sont vraiment là !).

Quoi qu'il en soit, j'espère que vous êtes en mesure de discerner maintenant comment il se fait que l'IA pourrait aider à vacciner ou à immuniser les humains contre la désinformation ou la mésinformation.

Diverses applications d'IA sont en cours de conception qui fonctionneront comme des inoculateurs de désinformation ou de désinformation. L'IA pourrait chercher à fournir une inoculation qui est large et donne un semblant global d'immunisation. L'IA pourrait également être conçue pour des formes d'inoculation plus spécifiques. De plus, l'IA peut travailler sur une base personnalisée adaptée à vos besoins ou intérêts particuliers. L'IA avancée dans cet espace tentera également de déterminer votre niveau de tolérance, votre taux d'absorption mentale, votre capacité de rétention et d'autres facteurs lors de la composition et de la présentation de soi-disant plans de vaccination, pour ainsi dire.

Semble bien pratique.

L'IA en tant que joueur de jeux d'esprit dangereux

L'IA utilisée de cette manière semblerait à première vue assez pratique (hé, je l'ai mentionné il y a juste une seconde).

Il existe une multitude d'inconvénients et de problèmes potentiels qui sont inquiétants et peut-être effrayants.

Dans mes chroniques, j'aborde souvent les capacités à double usage de l'IA, voir par exemple le lien ici. L'IA peut être un contributeur vital à l'humanité. Hélas, l'IA est également encombrée de nombreux dangers et de pièges malheureux.

Pour le cas de l'IA en tant qu'inculcateur, considérons ces problèmes liés à l'éthique de l'IA démonstrative :

  • Effets indésirables chez l'homme
  • Réactions non réactives chez l'homme
  • Mauvais ciblage de l'IA
  • Sous-ciblage de l'IA
  • Cyber ​​Violation de l'IA
  • Autre

Nous allons brièvement explorer ces préoccupations.

Effets indésirables par les humains

Supposons qu'un humain recevant ce type d'inoculation basée sur l'IA ait une réaction indésirable ou produise un effet indésirable.

La personne pourrait mal interpréter la vaccination et devenir soudainement insensible à toute information qu'elle reçoit. Ils bloquent toutes les informations. L'IA les a en quelque sorte incités à jeter le bébé avec l'eau du bain (un vieux dicton, qui vaut peut-être la peine de prendre sa retraite). Plutôt que d'essayer uniquement de faire face à la désinformation et à la mésinformation, la personne a réagi en décidant que toutes les informations sont toujours fausses.

Je ne pense pas que nous voulions que les gens en fassent autant.

Il existe une multitude de réactions indésirables que l'IA pourrait favoriser. Cela est dû en partie à la façon dont l'IA a tenté d'effectuer l'inoculation, mais nous devons également mettre une partie du problème aux pieds de l'humain qui a reçu l'inoculation. Ils pourraient avoir réagi de manière sauvage ou bizarre que d'autres recevant la même inoculation d'IA ne l'ont pas fait.

Encore une fois, vous pouvez comparer cela à l'analogie des inoculations pour les maladies.

En bref, il sera important que lorsque de tels efforts d'IA seront utilisés, ils soient faits de manière responsable qui cherche à minimiser les effets néfastes. Il devrait également y avoir un aspect de suivi de l'IA pour essayer de déterminer si une réaction indésirable s'est produite. Si une réaction indésirable est détectée, l'IA doit être conçue pour essayer d'aider la personne dans sa réaction indésirable et chercher à surmonter ou à atténuer la réaction.

Réactions non réactives par les humains

Une autre possibilité est que l'inoculation alimentée par l'IA n'ait aucun impact sur la personne qui la reçoit.

Une personne reçoit une inoculation basée sur l'IA liée à la mésinformation ou à la désinformation. Alors que la plupart des gens « l'attrapent » et se font vacciner, il y a forcément des gens qui ne réagiront pas du tout. Ils n'apprennent rien de l'inoculation. Ils ne réagissent pas à la tentative de l'IA de les immuniser contre tous ou certains types de mésinformation ou de désinformation.

Encore une fois, cela est comparable aux inoculations pour les maladies.

L'IA devrait être conçue pour faire face à une telle circonstance.

Mauvais ciblage de l'IA

Imaginez qu'une IA espère immuniser les gens sur un sujet particulier que nous dirons être le sujet X, mais il s'avère que le sujet Y est plutôt couvert. L'IA se trompe de cible.

C'est un double problème. Tout d'abord, le sujet X n'a ​​alors pas été abordé en tant que finalité présumée et espérée de l'inoculateur d'IA. Deuxièmement, le sujet Y est abordé mais nous n'aurions peut-être pas voulu que les gens soient immunisés sur ce sujet.

Oups.

Les questions ne manquent pas. Cela aurait-il pu être empêché de se produire ? Si cela se produit, pouvons-nous défaire le sujet de la vaccination Y ? Pouvons-nous chercher à couvrir le sujet de l'inoculation X, ou la personne sera-t-elle moins réceptive ou non réceptive en raison du mauvais ciblage par l'IA à l'origine ?

De nombreuses préoccupations problématiques se posent.

Sous-ciblage de l'IA

Une IA fournit une inoculation sur le sujet Z. Les personnes recevant l'inoculation semblent avoir une réaction minime ou presque négligeable. L'inoculation était insuffisante pour s'installer.

Vous pourriez être tenté de prétendre rapidement que cela est facilement résolu. Tout ce que vous avez à faire est de répéter l'inoculation. Peut-être que oui, peut-être que non.

L'inoculation de l'IA pourrait être d'une valeur si limitée que peu importe si vous avez des gens qui en font l'expérience cent fois, le résultat est toujours un résultat marginal. Vous devrez peut-être augmenter l'inoculation plutôt que de simplement la répéter.

Pendant ce temps, imaginez qu'une tentative est faite pour stimuler l'inoculation alimentée par l'IA, mais cela va trop loin. La version boostée provoque des hyper-réactions. Aïe, nous sommes allés de mal en pis.

Cyber ​​Violation De L'IA

Imaginez que l'IA est largement utilisée pour aider les gens à être vaccinés contre la désinformation et la mésinformation.

Une dépendance générale s'installe chez les gens. Ils savent et s'attendent à ce que l'IA leur présente des extraits qui leur ouvriront les yeux sur ce que l'on appelle la désinformation et la mésinformation.

Tout va bien, semble-t-il.

Un malfaiteur est en quelque sorte capable de faire une cyber-brèche sur l'IA. Ils forcent sournoisement dans l'IA une désinformation souhaitée qu'ils veulent que les gens pensent que ce n'est pas de la désinformation. L'IA est arrangée pour faire apparaître la désinformation réelle comme une information vraie. De plus, la véritable information est présentée comme de la désinformation.

Les gens sont complètement snookés. Ils sont désinformés par l'IA. En plus de cela, parce qu'ils étaient devenus dépendants de l'IA, et parce qu'ils étaient convaincus que l'IA faisait ce qu'il fallait, ils tombaient crochet, ligne et plomb pour cette IA violée. Sans hésitation.

Étant donné la facilité avec laquelle la désinformation peut se propager davantage, le malfaiteur pourrait apprécier que l'existence de ce type d'IA soit le moyen le plus simple et le plus rapide de faire circuler ses mensonges insidieux dans le monde entier. Ironiquement, bien sûr, avoir utilisé l'inoculateur d'IA pour propager essentiellement la maladie.

Conclusion

Devrions-nous que l'IA joue à des jeux d'esprit avec nous ?

L'IA pour la désinformation et l'inoculation de la désinformation pourrait-elle être un cheval de Troie menaçant ?

Vous pouvez faire un cas substantiel pour vous inquiéter d'un tel cauchemar.

D'autres se moquent d'une telle possibilité. Les gens sont assez intelligents pour savoir quand l'IA tente de les tromper. Les gens ne tomberont pas pour un tel dribble. Seuls les idiots se laisseraient tromper par une telle IA. Ce sont les répliques et les contre-arguments habituels.

Ne voulant pas paraître moins que pleinement admiratif des humains et de la nature humaine, je suggérerais simplement qu'il existe de nombreuses indications que les humains pourraient tomber amoureux de l'IA qui les induit en erreur.

Il y a un problème encore plus important qui plane peut-être sur tout cela.

Qui fabrique l'IA et comment l'IA décide-t-elle de manière algorithmique ce qui est considéré comme de la désinformation et de la mésinformation ?

Toute une fusillade se déroule aujourd'hui dans le monde entier sur ce qui constitue spécifiquement la désinformation et la mésinformation. Certains affirment que les faits sont des faits, il ne peut donc jamais y avoir de confusion entre les informations appropriées et les informations incorrectes. Le diable est parfois dans les détails, c'est sacrément sûr.

Une dernière remarque pour le moment. Abraham Lincoln a déclaré: "Vous pouvez tromper tout le monde une partie du temps et certaines personnes tout le temps, mais vous ne pouvez pas tromper tout le monde tout le temps."

L'IA, qui est utilisée pour aider à inoculer l'humanité contre la désinformation et la mésinformation, sera-t-elle un outil essentiel pour garantir que tout le monde ne peut pas être dupe tout le temps ? Ou pourrait-il être utilisé pour tromper plus de gens la plupart du temps ?

Le temps nous dira.

Et ce n'est assurément pas de la désinformation ou de la mésinformation.

Source : https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/