La «récession de la confiance» qui se prépare massivement vise à éroder l'IA responsable, déclare l'éthique de l'IA et la loi sur l'IA

Je suis sûr que vous connaissez le vieil adage selon lequel une marée montante soulève tous les bateaux. Il y a le revers de la médaille, peut-être moins connu, à savoir qu'une marée descendante coule tous les navires.

En fin de compte, parfois la marée détermine si vous montez ou descendez.

La marée va faire ce qu'elle fait. Vous n'avez peut-être pas votre mot à dire en la matière. Si votre bateau est amarré ou ancré dans la marée, vous êtes au gré de la marée. La clé est de réaliser que la marée existe, ainsi que d'anticiper dans quelle direction elle se dirige. Avec un peu de chance, vous pouvez remonter la marée et rester indemne.

Considérons comment toutes ces discussions maritimes sur les bateaux et les marées sont liées à l'intelligence artificielle (IA).

Tout d'abord, j'aimerais vous présenter le slogan de plus en plus populaire de IA responsable. La notion générale est que nous voulons une IA qui respecte les valeurs humaines appropriées et souhaitables. Certains appellent cela IA responsable. D'autres discutent de la même manière IA responsable, IA digne de confianceet Alignement de l'IA, qui touchent tous au même principe fondamental. Pour ma discussion sur ces questions importantes, voir le lien ici ainsi que le lien ici, pour n'en nommer que quelques-uns dans ma couverture continue et étendue de l'éthique de l'IA et du droit de l'IA dans ma chronique Forbes.

Un ingrédient crucial de l'énigme de l'alignement de l'IA implique un semblant de confiance. Pouvons-nous être sûrs que l'IA sera saine et sauve ? Pouvons-nous être sûrs que ceux qui conçoivent l'IA chercheront à le faire de manière responsable et appropriée ? Pouvons-nous faire confiance à ceux qui utilisent l'IA et qui sont engagés dans l'exploitation et la maintenance de l'IA ?

C'est beaucoup de confiance.

L'éthique de l'IA et la loi sur l'IA s'efforcent en permanence de renforcer le sentiment de confiance dans l'IA. La croyance est qu'en établissant des «lois souples» appropriées qui sont prescrites comme un ensemble de lignes directrices ou de préceptes éthiques d'IA, nous pourrions avoir une chance de convaincre les développeurs d'IA et les opérateurs d'IA de respecter des pratiques éthiquement saines. De plus, si nous élaborons et promulguons des lois et réglementations suffisamment attentives pour superviser ou régir l'IA, considérées comme des «lois dures» en raison de leur inscription dans les livres juridiques officiels, il est fort possible de guider l'IA vers une voie droite et légalement autorisée.

Si les gens ne font pas confiance à l'IA, ils ne pourront pas profiter des avantages que procure une bonne IA. Je soulignerai momentanément qu'il y a AI pour de bon et malheureusement il y a aussi AI pour le mal. Une mauvaise IA peut avoir un impact sur l'humanité d'une myriade de manières néfastes. Il y a une IA qui agit de manière discriminatoire et présente des préjugés indus. Il y a une IA qui peut indirectement ou indirectement nuire aux gens. Etc.

Donc, nous avons AI pour de bon que nous souhaitons ardemment voir imaginées et mises en œuvre. En attendant, il y a AI pour le mal que nous voulons limiter et essayer de prévenir. AI pour le mal tend à saper la confiance dans l'IA. AI pour de bon augmente généralement la confiance dans l'IA. Une lutte ardue s'ensuit entre les augmentations croissantes de la confiance qui sont continuellement réduites par l'atroce sape de la confiance.

Vers le haut, la confiance en l'IA, qui est par la suite battue en brèche. Ensuite, les niveaux de confiance en IA abaissés sont à nouveau augmentés. Dans les deux sens, les niveaux de confiance en IA oscillent. C'est presque suffisant pour vous donner le vertige. Votre estomac se noue, semblable à un semblant de mal de mer, comme si vous étiez dans un bateau qui se balance et se balance dans l'océan.

Pendant que cette bataille se déroule, vous pourriez affirmer qu'il existe un autre facteur macroscopique qui sert un effort encore plus grand sur les progrès de la mise à l'échelle de la confiance. Il y a quelque chose de beaucoup plus grand en jeu. Les hauts et les bas de la confiance de l'IA sont au gré d'une marée de monstres marins. Oui, la confiance de l'IA est comme un bateau flottant dans un royaume qui est finalement plus prononcé que les batailles et les escarmouches qui se déroulent entre AI pour de bon ainsi que AI pour le mal.

À quoi diable suis-je en train de faire référence, vous demandez-vous peut-être de façon interrogative ?

je fais allusion au « récession massive de la confiance » que notre société subit actuellement.

Permettez-moi d'élucider.

On parle beaucoup dans les médias aujourd'hui des récessions.

Au sens économique, une récession est considérée comme une contraction de l'économie généralement associée à une baisse de l'activité économique. Nous assistons ou vivons normalement une récession due à des conditions économiques telles que des baisses du revenu réel, une baisse du PIB (produit intérieur brut), un affaiblissement de l'emploi et des licenciements, une diminution de la production industrielle, etc. Je ne vais pas entrer dans une discussion approfondie sur les récessions économiques, pour lesquelles il y a beaucoup de débats sur ce qui constitue une récession de bonne foi par rapport à celles revendiquées ou prétendues (vous pouvez trouver de nombreuses têtes parlantes qui débattent passionnément de ce sujet).

La notion de « récession » s'est élargie pour inclure d'autres aspects de la société, allant au-delà de l'aspect économique. Vous pouvez vous référer à tout ralentissement d'une chose ou d'une autre comme étant peut-être embourbé dans une récession. C'est un mot pratique avec une multitude d'applications.

Préparez-vous pour une utilisation dont vous n'avez peut-être pas encore particulièrement entendu parler.

Une récession de la confiance.

C'est vrai, nous pouvons parler d'un phénomène connu sous le nom de confiance récession.

L'essentiel est que la société dans son ensemble peut connaître un ralentissement ou une diminution de la confiance. Vous l'avez sans doute ressenti. Si vous utilisez n'importe quel type de médias sociaux, il semble certainement que la confiance dans nos principales institutions telles que nos gouvernements ou nos principales entités a chuté précipitamment. Les choses se sentent bien de cette façon.

Vous n'êtes pas le seul à avoir ressenti cette teinte effrayante d'une baisse de confiance à l'échelle de la société.

Un article paru dans The Atlantic intitulé « La fin de la confiance » l'année dernière postulait ces principales conclusions sur la direction que prend notre société :

  • "Nous sommes peut-être en pleine récession de la confiance"
  • "La spirale de la confiance, une fois enclenchée, est difficile à renverser"
  • "Son déclin est vaguement ressenti avant d'être clairement vu"

Une sorte de récession de confiance se faufile sur nous tous. Petit à petit, la confiance s'affaiblit. Les efforts pour instaurer la confiance sont de plus en plus difficiles à réaliser. Le scepticisme règne en maître. Nous doutons que la confiance doive être accordée. Nous ne croyons même pas que la confiance puisse être particulièrement gagnée (en un sens, la confiance est un fantôme, un mensonge, elle ne peut pas être rendue concrète et fiable).

Le fait est que nous avons besoin de confiance dans notre société.

Selon ce même article : « Faites confiance. Sans elle, la main invisible d'Adam Smith reste dans sa poche ; Les « esprits animaux » de Keynes sont mis en sourdine. « Pratiquement chaque transaction commerciale comporte en elle-même un élément de confiance », a écrit l'économiste lauréat du prix Nobel Kenneth Arrow en 1972 » (cité dans « The End Of Trust », The Atlantic, 24 novembre 2021, Jerry Useem).

La recherche suggère qu'il existe un lien presque direct entre la performance économique et l'élément de confiance dans la société. C'est peut-être une affirmation controversée, bien qu'elle semble intuitivement tenir la route. Considérez cette affirmation remarquable : "Les économistes Paul Zak et Stephen Knack ont ​​découvert, dans une étude publiée en 1998, qu'une augmentation de 15 % de la croyance d'un pays selon laquelle" la plupart des gens peuvent faire confiance "ajoute un point de pourcentage complet à la croissance économique chaque année". (ibid.).

Prenez un moment et réfléchissez à votre propre point de vue sur la confiance.

Avez-vous aujourd'hui un niveau de confiance plus élevé ou un niveau de confiance moindre dans chacun de ces domaines respectifs :

  • Confiance dans le gouvernement
  • Confiance dans les entreprises
  • Faire confiance aux dirigeants
  • Confiance dans les nations
  • Faire confiance aux marques
  • Confiance dans les médias d'information
  • Confiance dans les individus

Si vous pouvez vraiment dire que votre confiance est plus élevée qu'elle ne l'était autrefois pour toutes ces facettes, un coup de chapeau à vous (vous vivez dans un monde de bonheur sans vergogne). Dans l'ensemble, j'ose dire que la majeure partie de la planète exprimerait le contraire en termes de confiance car ces éléments emblématiques sacrés ont disparu.

Nettement ainsi.

Les données semblent étayer l'affirmation selon laquelle la confiance s'est érodée dans notre société. Choisissez l'un des domaines susmentionnés. En ce qui concerne notre croyance dans les capacités gouvernementales : "La confiance dans le gouvernement a fortement chuté depuis son apogée en 1964, selon le Pew Research Center, et, à quelques exceptions près, n'a cessé de s'effondrer depuis" (ibid).

Vous pourriez être tenté de soutenir que la confiance dans les individus ne devrait pas figurer sur la liste. Certes, nous nous faisons toujours confiance. Ce ne sont que ces grandes mauvaises institutions en lesquelles nous n'avons plus confiance. De personne à personne, notre confiance doit être la même qu'elle l'a toujours été.

Désolé de vous dire ceci : « Les données sur la confiance entre les Américains sont plus difficiles à obtenir ; les enquêtes ont posé des questions sur la soi-disant confiance interpersonnelle de manière moins cohérente, selon Pew. Mais, selon une estimation, le pourcentage d'Américains qui croyaient que « la plupart des gens pouvaient faire confiance » oscillait autour de 45 % jusqu'au milieu des années 80 ; il est maintenant de 30 % » (ibid).

Brutal, mais vrai.

Une récente interview avec des experts de la confiance a conduit à cette exposition :

· « La mauvaise nouvelle est que si la confiance est cette ressource naturelle précieuse, elle est en danger. Ainsi, en 1972, environ la moitié des Américains étaient d'accord pour dire qu'on peut faire confiance à la plupart des gens. Mais en 2018, ce chiffre était tombé à environ 30 %. Nous faisons beaucoup moins confiance aux institutions qu'il y a 50 ans. Par exemple, en 1970, 80 % des Américains faisaient confiance au système médical. Maintenant, c'est 38 %. Les informations télévisées dans les années 1970 étaient de 46%. Maintenant, c'est 11 %. Congrès, 42% à 7%. Nous vivons une récession massive de la confiance et cela nous blesse de plusieurs manières dont la plupart des gens ignorent probablement totalement » (interview de Jonathan Chang et Meghna Chakrabarti, « Essential Trust : The Brain Science Of Trust », WBUR, novembre 29, 2022, et a cité les remarques de Jamil Zaki, professeur agrégé de psychologie à l'Université de Stanford et directeur du Stanford Social Neuroscience Lab).

Diverses études nationales et mondiales sur la confiance ont identifié des baromètres associés aux niveaux de confiance sociétaux. Même un coup d'œil rapide sur les résultats montre que la confiance est en baisse, en baisse, en baisse.

La version autrement moyenne d'un typique confiance récession a été "amélioré" pour être étiqueté comme un massif confiance récession. Nous n'avons pas seulement une récession banale des fiducies; nous avons à la place une récession massive de la confiance. Temps fort. De plus en plus gros. Il imprègne toutes les formes de notre existence. Et cette récession massive de la confiance touche chaque coin de ce que nous faisons et comment nos vies se déroulent.

Y compris l'intelligence artificielle.

Je suppose que vous avez vu cela venir. J'avais mentionné plus tôt qu'une bataille de AI pour de bon versus AI pour le mal se déroule. La plupart des acteurs de l'arène de l'éthique et de la loi sur l'IA sont quotidiennement confrontés aux hauts et aux bas de ces batailles d'antan. Nous voulons que l'IA responsable gagne. Étonnamment pour beaucoup de ceux qui sont en proie à ces batailles rangées, ils ne sont pas conscients des impacts dus à la récession massive de la confiance qui, en un sens, submerge tout ce qui se passe sur les champs de bataille de la confiance en IA.

La marée est la récession massive de la confiance. La confiance qui se bat autour de l'IA est un bateau qui monte et descend de lui-même, et malheureusement qui baisse globalement en raison de la marée descendante. Alors que la société dans son ensemble est infectée par la récession massive de la confiance, la confiance dans l'IA l'est aussi.

Je ne veux pas que cela paraisse défaitiste.

La lutte pour la confiance dans l'IA doit continuer. Tout ce que j'essaie de souligner, c'est qu'à mesure que ces batailles persistent, gardez à l'esprit que la confiance dans son ensemble s'épuise dans la société. Il y a de moins en moins de secousses ou de renforcement de la confiance à avoir. Les maigres restes de confiance vont rendre de plus en plus difficile de gagner le AI pour de bon ambitions de confiance.

Cette maudite marée détruit tous les navires, y compris la confiance dans l'IA.

Prenez un moment pour noodle sur ces trois questions plutôt frappantes :

  • Que pouvons-nous faire au sujet de la société omniprésente récession massive de la confiance quand il s'agit d'IA?
  • L'IA est-elle vouée à une confiance au niveau du sous-sol, peu importe ce que font l'éthique de l'IA ou la loi sur l'IA ?
  • Ceux qui travaillent dans le domaine de l'IA devraient-ils jeter l'éponge sur la confiance en l'IA ?

Je suis content que vous ayez demandé.

Avant de plonger profondément dans le sujet, j'aimerais d'abord jeter quelques bases essentielles sur l'IA et en particulier sur l'éthique de l'IA et le droit de l'IA, afin de m'assurer que la discussion sera sensible au contexte.

La prise de conscience croissante de l'IA éthique et aussi de la loi sur l'IA

L'ère récente de l'IA a d'abord été considérée comme AI pour de bon, ce qui signifie que nous pourrions utiliser l'IA pour le bien de l'humanité. Sur les talons de AI pour de bon est venu la réalisation que nous sommes également immergés dans AI pour le mal. Cela inclut l'IA qui est conçue ou auto-modifiée pour être discriminatoire et fait des choix de calcul imprégnant des biais indus. Parfois, l'IA est construite de cette façon, tandis que dans d'autres cas, elle vire dans ce territoire fâcheux.

Je veux m'assurer que nous sommes sur la même page quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur l'IA sensible, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Je suggérerais fortement que nous gardions les choses sur terre et que nous considérions l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

Soyez très prudent lorsque vous anthropomorphisez l'IA d'aujourd'hui.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Tout cela a des implications particulièrement importantes sur l'éthique de l'IA et offre une fenêtre pratique sur les leçons apprises (avant même que toutes les leçons ne se produisent) lorsqu'il s'agit d'essayer de légiférer sur l'IA.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. Ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux.

Dans les colonnes précédentes, j'ai couvert les divers efforts nationaux et internationaux pour élaborer et promulguer des lois réglementant l'IA, voir le lien ici, par exemple. J'ai également couvert les divers principes et directives d'éthique de l'IA que divers pays ont identifiés et adoptés, y compris par exemple l'effort des Nations Unies tel que l'ensemble d'éthique de l'IA de l'UNESCO que près de 200 pays ont adopté, voir le lien ici.

Voici une liste clé utile de critères ou de caractéristiques éthiques de l'IA concernant les systèmes d'IA que j'ai déjà explorés de près :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA sont sincèrement censés être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA.

Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme souligné précédemment ici, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

J'ai aussi récemment examiné le Charte des droits de l'IA qui est le titre officiel du document officiel du gouvernement américain intitulé « Blueprint for an AI Bill of Rights : Making Automated Systems Work for the American People » qui est le résultat d'un effort d'un an par l'Office of Science and Technology Policy (OSTP ). L'OSTP est une entité fédérale qui sert à conseiller le président américain et le bureau exécutif américain sur divers aspects technologiques, scientifiques et d'ingénierie d'importance nationale. En ce sens, vous pouvez dire que cette déclaration des droits de l'IA est un document approuvé et approuvé par la Maison Blanche américaine existante.

Dans la Déclaration des droits de l'IA, il existe cinq catégories clés :

  • Des systèmes sûrs et efficaces
  • Protections contre la discrimination algorithmique
  • Confidentialité des données
  • Avis et explication
  • Alternatives humaines, considération et repli

J'ai soigneusement passé en revue ces préceptes, voir le lien ici.

Maintenant que j'ai jeté des bases utiles sur ces sujets liés à l'éthique de l'IA et à la loi sur l'IA, nous sommes prêts à nous lancer dans le sujet captivant de l'exploration de la question ennuyeuse de la situation en cours récession massive de la confiance et son impact sur les niveaux de confiance de l'IA.

Obtenir un bateau plus grand pour renforcer la confiance dans l'IA

Reprenons mes questions postulées antérieures sur ce sujet :

  • Que pouvons-nous faire au sujet de la société omniprésente récession massive de la confiance quand il s'agit d'IA?
  • L'IA est-elle vouée à une confiance au niveau du sous-sol, peu importe ce que font l'éthique de l'IA ou la loi sur l'IA ?
  • Ceux qui travaillent dans le domaine de l'IA devraient-ils jeter l'éponge sur la confiance en l'IA ?

Je vais prendre le chemin de l'optimisme et dire que nous pouvons faire quelque chose à ce sujet.

Je dirais aussi avec véhémence qu'il ne faut pas jeter l'éponge. La clé est plutôt de travailler encore plus dur, et plus intelligemment, pour traiter la question de la confiance dans l'IA. La partie sur le fait d'être plus intelligent implique de réaliser que nous sommes dans une récession de confiance massive et de prendre sobrement en compte ce facteur macroscopique imminent. Oui, pour tout ce que nous faisons pendant les efforts fervents pour adopter et soutenir l'éthique et la loi sur l'IA, soyez vigilant et adaptez-vous en fonction de la marée descendante de la confiance.

Avant d'aller plus loin dans le choix du visage optimiste ou souriant, je suppose qu'il est juste d'offrir le point de vue contrasté. Bon, voilà. Nous ne pouvons rien faire contre la récession massive de la confiance. Inutile d'essayer de s'incliner contre les moulins à vent, comme on dit. Ainsi, continuez simplement à vous battre, et quoi qu'il arrive avec la marée, qu'il en soit ainsi.

Dans ce scénario de visage triste, vous pourriez suggérer qu'il s'agit d'un haussement d'épaules et d'une capitulation que la marée est la marée. Un jour, espérons-le, la récession massive de la confiance s'affaiblira et deviendra simplement une forme normale de récession de la confiance. Puis, avec un peu de chance, la récession de la confiance se résorbera et la confiance sera revenue. Nous pourrions même nous retrouver avec un sentiment de confiance en plein essor. Un boom de la confiance, pour ainsi dire.

Je classerai vos choix dans les cinq options suivantes :

1) L'inconscient. Ce sont ces défenseurs de l'arène de l'éthique et de la loi sur l'IA qui ne savent pas qu'il existe un récession massive de la confiance. Ils ne savent même pas qu'ils ne savent pas.

2) Le savoir mais s'en moquer. Ce sont ces défenseurs de l'éthique de l'IA et de la loi sur l'IA qui connaissent la récession massive de la confiance mais qui s'en débarrassent. Montez-le et ne faites rien d'autre de nouveau.

3) Le savoir et y faire face. Ce sont ces défenseurs de l'éthique de l'IA et du droit de l'IA qui connaissent la récession massive de la confiance et ont choisi d'y faire face. Ils ajustent leur messagerie ; ils ajustent leur approche. Parfois, cela implique d'intégrer la récession de la confiance dans leurs stratégies et leurs efforts pour renforcer la confiance dans l'IA et rechercher l'IA responsable insaisissable.

4) Le savoir et aggraver les choses par inadvertance. Ce sont ces défenseurs de l'éthique de l'IA et de la loi sur l'IA qui connaissent la récession massive de la confiance, et ils ont choisi de faire quelque chose à ce sujet, mais ils finissent par se tirer une balle dans le pied. En réagissant de manière inappropriée à la tendance sociétale, ils aggravent par erreur l'IA responsable et font tomber la confiance dans l'IA à des niveaux encore plus bas.

5) Autre (à expliquer, momentanément)

Dans laquelle de ces cinq options êtes-vous ?

J'ai délibérément donné la cinquième option pour ceux d'entre vous qui n'aiment aucune des quatre autres ou qui croient sincèrement qu'il existe d'autres possibilités et qu'aucune de celles énumérées ne caractérise adéquatement votre position.

Vous n'avez pas besoin d'être contraint à l'un des choix. Je propose simplement les sélections dans le but de générer une discussion réfléchie sur le sujet méritoire. Nous devons parler de la récession massive de la confiance, Je crois. Peu d'analyses approfondies ont encore eu lieu dans les détails des efforts d'IA responsable et d'IA digne de confiance en ce qui concerne la récession sociétale massive de la confiance.

Il est temps d'ouvrir ces vannes (d'accord, c'est peut-être exagéré avec ces jeux de mots et ces jeux de mots).

Si vous vous demandez en quoi pourrait consister une cinquième option, en voici une qui pourrait vous intéresser.

AI exceptionnalisme.

Il y a un contingent dans le domaine de l'IA qui croit que l'IA est une exception aux règles normales des choses. Ces partisans de l'exceptionnalisme de l'IA affirment que vous ne pouvez pas appliquer systématiquement d'autres manigances sociétales à l'IA. L'IA n'est pas impactée car c'est une exception grandiose.

Dans ce point de vue quelque peu dogmatique, mon analogie d'une marée et d'une confiance en IA en tant que bateau qui monte et descend serait jetée par la fenêtre comme une considération analogue. La confiance de l'IA est plus grande que la marée. Peu importe ce qui se passe dans la récession massive de la confiance, la confiance de l'IA ira où elle va. Si la marée monte, la confiance de l'IA peut monter ou descendre. Si la marée descend, la confiance de l'IA peut augmenter ou diminuer. Indépendamment de la marée, la confiance en IA a son propre destin, son propre destin, son propre chemin.

J'ai une autre tournure pour vous.

Certains pourraient prétendre que l'IA va avoir un impact matériel sur le récession massive de la confiance.

Vous voyez, le reste de cette discussion a fait reculer les choses, soi-disant. Ce n'est pas que la récession massive de la confiance va avoir un impact sur la confiance en l'IA, c'est plutôt l'inverse qui est vrai. Selon ce que nous faisons à propos de l'IA, la récession de la confiance va potentiellement s'aggraver ou se redresser. La confiance de l'IA déterminera le sort de la marée. Je suppose que vous pourriez affirmer que l'IA est si puissante en tant que force potentielle qu'elle s'apparente au soleil, à la lune et à la terre pour déterminer comment la marée va aller.

Si nous comprenons les aspects de la confiance en l'IA et si les gens font confiance à l'IA, cela renversera peut-être la récession de la confiance. Les gens changeront leur confiance dans tous les autres aspects de leur vie. Ils commenceront à accroître leur confiance dans le gouvernement, les entreprises, les dirigeants, etc., tout cela grâce à une IA fiable et omniprésente.

Farfelu?

Peut-être peut-être pas.

Sans vous mettre dans une ambiance sombre, réalisez que la perspective opposée sur la confiance en l'IA pourrait également émerger. Dans ce cas d'utilisation, nous tombons tous dans un manque total de confiance en l'IA. Nous devenons si méfiants que la méfiance déborde sur notre récession de confiance déjà massive. À son tour, cela fait de la récession massive de la confiance une récession super gigantesque et méga-massive de la confiance, bien pire que nous ne pourrions jamais l'imaginer.

Intégrez cette idée à la notion véhiculée de l'IA en tant que risque existentiel. Si l'IA commence à donner l'impression que le risque extrême se concrétise, à savoir que l'IA va prendre le contrôle de l'humanité et nous asservir ou nous anéantir tous, vous sembleriez certainement avoir un argument solide en faveur de la récession massive de la confiance. une spirale descendante assez sombre.

Je comprends ça.

Quoi qu'il en soit, espérons le côté le plus heureux des choses, d'accord ?

Conclusion

Maintenant que vous connaissez le récession massive de la confiance, que pouvez-vous faire concernant la confiance de l'IA ?

Tout d'abord, pour ceux d'entre vous qui sont imprégnés du domaine de l'éthique et de la loi sur l'IA, assurez-vous de calculer votre IA responsable et TruIA digne de ce nom activités via le contexte sociétal associé au fait d'être dans une récession de confiance. Vous devez faire attention à ne pas vous sentir découragé que vos propres efforts pour renforcer la confiance dans l'IA soient apparemment entravés ou moins que pleinement réussis par rapport à ce que vous attendiez. Il se peut que vos efforts aident au moins, pendant ce temps, à votre insu, la gouttière de la confiance usurpe votre vaillante activité d'une manière silencieuse et malheureusement préjudiciable. Ne désespérez pas. Il se pourrait que si la récession de la confiance n'était pas en cours, vous auriez vu des progrès considérables et des résultats extraordinairement louables.

Deuxièmement, nous devons faire plus d'analyses sur la façon de mesurer la récession de la confiance et de même sur la façon de mesurer les hauts et les bas de la confiance dans l'IA. Sans disposer de mesures fiables et bien acceptées, à tous les niveaux, nous flottons aveuglément dans un océan où nous ne savons pas combien de brasses nous avons perdues ou gagnées.

Troisièmement, envisagez des moyens de faire comprendre que la confiance dans l'IA est façonnée par la récession massive de la confiance. Peu le savent. Les initiés de l'IA devraient mener une réflexion approfondie sur le sujet. Le grand public doit également être mis au courant. Il y a deux messages à faire passer. La première est qu'il y a une récession massive de la confiance. Deuxièmement, la confiance dans l'IA est soumise aux aléas de la récession de la confiance, et nous devons explicitement en tenir compte.

Comme dernière remarque, pour l'instant, j'imagine que vous connaissez la fameuse blague sur le poisson dans un bocal à poissons.

Voici comment ça se passe.

Deux poissons nagent dans un bocal à poissons. Autour et autour, ils vont. Finalement, l'un des poissons se tourne vers l'autre et dit qu'il est fatigué d'être dans l'eau. L'autre poisson contemple ce commentaire. Quelques instants pesants plus tard, le poisson attentif répond avec curiosité, qu'est-ce que c'est que l'eau ?

C'est un peu une vieille blague.

L'accent est censé être mis sur le fait que tout ce qui vous entoure n'est peut-être pas facilement reconnaissable. Vous vous y habituez. C'est juste là. Vous ne le remarquez pas car il est partout et banal quant à sa présence (je mentionnerai en aparté que certains cyniques n'aiment pas la blague puisqu'ils insistent sur le fait que les vrais poissons savent qu'ils sont bien dans l'eau et réalisent "cognitivement » en tant que tel, y compris pouvoir sauter hors de l'eau dans les airs, etc.).

En tant que conte de poisson ou parabole pratique, nous pouvons utiliser cette allégorie de dandy pratique pour souligner que nous ne réalisons peut-être pas que nous sommes dans une récession de confiance massive. Il est tout autour de nous, et nous le ressentons viscéralement, mais nous ne réalisons pas consciemment qu'il est là.

Il est temps d'enlever les œillères.

Respirez profondément et respirez le fait que notre récession massive de confiance existe. À leur tour, pour ceux d'entre vous qui s'efforcent puissamment jour après jour de favoriser une IA responsable et de gagner la confiance en l'IA, gardez les yeux grands ouverts sur la façon dont la récession de la confiance intervient dans vos vaillants efforts.

Comme Shakespeare l'a déclaré: "Nous devons prendre le courant quand il sert, ou perdre nos entreprises."

Source : https://www.forbes.com/sites/lanceeliot/2022/12/04/massively-brewing-trust-recession-aims-to-erode-responsible-ai-says-ai-ethics-and-ai- droit/