Éthique de l'IA Évaluer prudemment s'il est prudent ou futile d'offrir des primes de chasse aux biais de l'IA pour attraper et attraper des systèmes entièrement autonomes éthiquement méchants

Voulait: Chasseurs de biais d'IA.

Cela pourrait être une publicité moderne que vous commencerez à voir apparaître sur les réseaux sociaux et apparaître dans diverses offres d'emploi en ligne. Il s'agit d'un concept ou d'un rôle relativement nouveau. Il porte en lui la polémique. Certains croyants ardents soutiennent avec ferveur que cela a beaucoup de sens et aurait dû se produire depuis le début, tandis que d'autres se grattent la tête plutôt nerveusement et ne sont pas si sûrs que ce soit une bonne idée.

L'essentiel du rôle consiste à débusquer de l'IA tout préjugé caché ou toute pratique discriminatoire intégrée. À la rescousse viennent les chasseurs désireux et tout à fait anciens de l'IA. Ils seraient vraisemblablement des chasseurs de primes avertis en informatique. Plus encore, espérons-le, imprégné des profondeurs des capacités de l'IA.

Ayez une arme à feu, voyagez et pouvez, grâce à l'adresse au tir aiguisée par l'IA, réussir à exposer ces biais d'IA peu recommandables et fâcheux.

Cela soulève une multitude de questions épineuses sur la sensibilité de poursuivre une telle tactique lorsqu'il s'agit de découvrir les biais de l'IA. Comme je vais en discuter dans un instant, sachez que l'avènement de l'IA a également entraîné l'émergence de biais d'IA. Un torrent de biais d'IA. Pour ma couverture continue et étendue de l'éthique de l'IA et de l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Comment découvrir qu'un système d'IA particulier a des biais ?

Vous pouvez confier cette tâche aux développeurs d'IA qui ont conçu l'IA. Le fait est qu'ils pourraient être tellement embourbés dans les préjugés qu'ils ne peuvent pas eux-mêmes reconnaître les préjugés au sein de leur IA concoctée. Tout leur semble bon. Ou ils pourraient être tellement enthousiasmés par l'IA et avoir un sentiment de fierté à ce sujet que devoir ensuite jeter un œil critique pour l'examiner à la recherche de biais serait difficile et un véritable inconvénient. De nombreuses autres raisons de ce type pourraient sembler empêcher les développeurs d'IA d'assumer cette tâche, notamment le manque de compétences pour comprendre les biais intégrés, le manque de temps dans un projet pour le faire, etc.

D'accord, alors allez-y et engagez des consultants externes pour faire le sale boulot à votre place, pour ainsi dire. Il s'avère que les consultants se feront un plaisir de scruter votre IA à la recherche de biais, vous facturant un joli centime pour le faire (beaucoup, beaucoup de centimes). Sachez que vous devez payer pour qu'ils soient à jour avec votre système d'IA. Vous devez ensuite les faire fouiller, ce qui peut prendre un nombre incalculable d'heures laborieuses et coûteuses. L'utilisation de consultants est une option si vous avez le budget pour cela.

Dans le «fossé» potentiel de la façon de trouver ces biais insidieux de l'IA viennent les chasseurs de primes héroïques et fringants de l'IA.

Vous ne les payez généralement pas d'avance. Ils essaient de trouver les biais de l'IA pendant leur temps libre et doivent payer leurs propres factures. Ce n'est que s'ils réussissent à trouver des préjugés qu'ils sont payés. Je suppose que vous pourriez facilement affirmer que, d'une manière appropriée, c'est la définition conventionnelle d'un chasseur de primes. Soyez payé si vous réussissez. Ne soyez pas payé si vous ne réussissez pas. Période, fin de l'histoire.

Les programmes de primes existent depuis au moins l'époque des Romains et nous pouvons donc supposer qu'ils fonctionnent, ayant perduré avec succès en tant que pratique pendant toutes ces années.

Voici une fascinante anecdote historique pour vous. Apparemment, un message posté pendant l'Empire romain dans la ville de Pompéi a proclamé que des chasseurs de primes étaient nécessaires pour trouver une marmite en cuivre qui avait disparu d'un petit magasin. La récompense pour la récupération de la marmite en cuivre était un prix impressionnant de soixante-cinq pièces de bronze. Désolé de dire que nous ne savons pas si un chasseur de primes a trouvé la marmite en cuivre et réclamé les pièces de bronze, mais nous savons que la chasse aux primes a certainement continué depuis ces temps anciens.

À une époque plus moderne, vous savez peut-être que dans les années 1980, des primes notables étaient offertes pour trouver des bogues informatiques ou des erreurs dans des progiciels prêts à l'emploi, puis dans les années 1990, Netscape offrait nettement une prime pour trouver des bogues dans leur navigateur Web. (devenant l'une des entreprises les plus importantes de l'époque à le faire). Google et Facebook avaient chacun opté pour la chasse aux primes pour les bogues à partir des années 2010 et 2013, respectivement. Quelques années plus tard, en 2016, même le département américain de la Défense (DoD) est entré dans l'acte en organisant un effort de prime "Hack the Pentagon" (notez que la prime publique concernait des bogues trouvés dans divers sites Web liés au DoD et non dans systèmes critiques pour la défense).

Creusons plus profondément dans le sujet de la prime de bogue. Je me rends compte que je vise principalement à parler des biais de l'IA dans la chasse aux primes dans cette discussion, mais il existe des parallèles assez pertinents avec l'arène de la prime aux bogues.

Certains sont manifestement perplexes à l'idée qu'une entreprise veuille offrir une prime pour trouver des bogues (ou, dans ce cas, des biais d'IA) dans leurs systèmes.

À première vue, cela ressemble à une stratégie du type « vous le demandez ». Si vous faites savoir au monde que vous accueillez ceux qui pourraient essayer de trouver des failles dans votre logiciel, cela revient à dire aux cambrioleurs d'aller de l'avant et d'essayer de s'introduire dans votre maison. Même si vous pensez déjà que vous avez un assez bon système d'alarme antivol et que personne ne devrait pouvoir entrer dans votre maison sécurisée, imaginez demander et même implorer les cambrioleurs de descendre tous sur votre lieu de résidence et de voir s'ils peuvent craquer dedans. Oh, les ennuis que nous nous créons.

On pourrait en dire autant de demander aux chasseurs de primes de trouver des biais dans votre IA.

Premièrement, cela implique peut-être que vous croyez déjà ou même savez carrément que votre IA a des préjugés. C'est un aveu implicite d'une franchise choquante que peu de gens semblent disposés à faire et qui pourrait potentiellement se retourner contre eux.

Deuxièmement, vous ne savez pas avec certitude ce que ces chasseurs de primes pourraient faire. Ils pourraient choisir de dire au monde entier qu'ils ont trouvé des biais dans votre IA. On suppose que cela pourrait perdre l'obtention de la prime, bien que certains puissent apprécier l'attention ou viser à renforcer leur statut pour obtenir des concerts de conseil et d'autres possibilités génératrices de revenus. Il pourrait peut-être être entièrement altruiste. Cela pourrait être une forme d'activisme de l'IA. Je peux continuer.

Troisièmement, il pourrait y avoir une tournure sournoise à toute l'affaire. Un chasseur de primes prétendant rechercher des biais d'IA pourrait fouiner diaboliquement pour trouver des moyens d'attaquer votre système d'IA. Le tout est une mascarade pour finalement entreprendre une cyberattaque sévère. Vous avez peut-être supposé qu'ils essayaient d'aider, alors qu'ils ont des actes répréhensibles dans leur cœur. Triste, mais possible.

Quatrièmement, nous pouvons être encore plus sournoisement tordus sur cette question. Un chasseur de primes trouve des biais d'IA embarrassants et susceptibles d'entraîner des poursuites. La prime est une somme d'argent que nous appellerons X. Plutôt que de réclamer la prime, le chasseur de primes fait une sorte de provocation étrange de ransomware. Si vous payez au chasseur de primes un montant de dix fois X ou peut-être le ciel la limite, ils vous parleront des biais de l'IA. Vous avez jusqu'à dimanche soir minuit pour répondre. Après ce moment, les biais de l'IA seront révélés aux yeux de tous. Yikes, une situation ignoble dans laquelle se trouver.

Cinquièmement, les derniers en date sont ces soi-disant cyber-escrocs « hack to return » qui après avoir volé un tas de pâte en ligne, ils décident de se repentir et de rendre une partie du butin mal acquis qu'ils ont récupéré. L'entreprise qui récupère partiellement son argent est alors disposée à considérer le montant volé restant comme une prime après coup récompensée pour les voleurs. Il semble que tout le monde "gagne" dans la mesure où la majeure partie des fonds est restituée et pendant ce temps, les cybercriminels ne sont pas légalement poursuivis, en plus ils obtiennent la prime des pirates pour démarrer. Est-ce prudent ou insidieusement la perpétuation d'actes fautifs ?

Je me rends compte que certains d'entre vous pourraient dire que personne ne devrait publier une IA qui a des préjugés. Cela semblerait résoudre tout ce dilemme quant à l'utilisation ou non des chasseurs de primes biaisés par l'IA. Ne vous mettez pas dans une situation de prime. Assurez-vous que vos développeurs d'IA font ce qu'il faut et n'autorisent pas les biais d'IA dans leurs systèmes d'IA. Peut-être utiliser des consultants pour faire une double vérification. Essentiellement, faites tout ce que vous devez faire pour éviter de penser ou de demander à ces chasseurs de primes biaisés par l'IA de venir à la table.

Oui, cela semblerait tout à fait raisonnable. Le problème est qu'il est aussi un peu rêveur. La complexité de nombreux systèmes d'IA est si grande qu'essayer de s'assurer qu'aucune once de biais d'IA n'émerge va être ardu à faire. En plus de cela, certains systèmes d'IA sont délibérément conçus pour s'adapter et « apprendre » au fur et à mesure. Cela signifie qu'à un moment donné dans le futur, l'IA que vous avez conçue, qui, supposons au début, était purement propre et sans préjugés, pourrait graviter vers l'incarnation de préjugés (je ne veux pas dire que d'une manière anthropomorphique, comme je l'expliquerai plus loin au fur et à mesure que nous allez sur ce sujet).

Ceux qui favorisent la chasse aux primes pour les bogues logiciels sont enclins à affirmer qu'il est logique d'offrir de telles primes. Nous pouvons examiner leur justification et voir si elle s'applique également au domaine des biais de l'IA.

Les partisans des primes de bogue soulignent que plutôt que d'essayer de prétendre qu'il n'y a pas de failles dans votre système, pourquoi ne pas encourager la découverte de failles, en le faisant de manière « contrôlée » ? En revanche, sans un tel effort de prime, vous pourriez simplement espérer et prier pour que par hasard personne ne trouve un trou, mais si à la place vous offrez une prime et dites à ceux qui trouvent un trou qu'ils seront récompensés, cela offre un chance d'étayer ensuite le trou par vous-même et d'empêcher ensuite les autres de le trouver secrètement à un moment ultérieur.

La même chose pourrait être dite dans le cas d'utilisation des biais de l'IA. Si vous offrez une prime suffisante, espérons-le, les chasseurs de primes porteront à votre attention la découverte des biais de l'IA. Vous pouvez alors faire face aux biais de l'IA de manière relativement calme et mesurée. Cela pourrait prévenir un problème beaucoup plus important et plus décourageant plus tard, à savoir que quelqu'un d'autre trouve des biais d'IA dans votre IA et crie à ce sujet au plus haut des cieux.

En règle générale, une entreprise souhaitant activer l'effort de chasse aux bugs bounty mettra en place une politique de divulgation des vulnérabilités (VDP). Le VDP indique comment les bugs doivent être trouvés et signalés à l'entreprise, ainsi que la manière dont la récompense ou la prime sera fournie au chasseur. Habituellement, le VDP exigera que le chasseur finisse par signer un accord de non-divulgation (NDA) afin qu'il ne révèle pas à d'autres ce qu'il a trouvé.

L'idée d'utiliser une NDA avec des chasseurs de primes suscite une certaine controverse. Bien qu'il soit peut-être logique pour l'entreprise offrant la prime de vouloir garder le silence sur les expositions trouvées, on dit également que cela étouffe la prise de conscience générale de ces bogues. Vraisemblablement, si les bogues logiciels sont autorisés à parler, cela contribuerait potentiellement à la sécurité d'autres systèmes dans d'autres entreprises qui renforceraient alors leurs expositions. Certains chasseurs de primes ne signeront pas de NDA, en partie à cause du désir du public et en partie parce qu'ils essaient de garder leur propre identité cachée. Gardez également à l'esprit que l'aspect NDA ne survient généralement qu'après que le chasseur affirme avoir trouvé un bogue, plutôt que de l'exiger au préalable.

Certains VDP stipulent que la NDA n'est valable que pour une durée limitée, permettant à l'entreprise de trouver d'abord une solution au trou apparent, puis de permettre une divulgation plus large à ce sujet. Une fois le trou bouché, la firme autorise alors un assouplissement de la NDA afin que le reste du monde puisse connaître le bogue. Le délai de résolution typique des bogues recherchés par les primes serait d'environ 15 à 20 jours lorsqu'une entreprise souhaite le corriger immédiatement, alors que dans d'autres cas, il peut s'étendre à 60 à 80 jours. En termes de paiement du chasseur de primes, le soi-disant délai de paiement, une fois que le trou a été vérifié comme existant réellement, les paiements de primes auraient tendance à se faire dans les 15 à 20 jours environ pour les plus petites instances et autour de 50 à 60 jours. jours pour les plus grandes instances (il s'agit d'indications de l'industrie en constante évolution et uniquement mentionnées à titre indicatif).

Faut-il également demander aux chasseurs de primes biaisés par l'IA de participer à un VDP et de traiter avec un NDA ?

Vous pouvez obtenir un oui et un non à cette question. Oui, certaines entreprises devraient emprunter cette voie. Non, vous ne choisirez peut-être pas nécessairement d'emprunter cette voie. Les facteurs incluent la taille et la nature de l'IA, le potentiel d'exposition aux biais de l'IA impliqués et un tas d'autres considérations éthiques, juridiques et commerciales qui entrent en ligne de compte.

Je pourrais ajouter que l'établissement d'un effort de chasse aux primes pour les biais d'IA de votre IA est un ordre beaucoup plus élevé que vous ne le pensez à première vue.

Nous commencerons par la formidable possibilité que vous soyez submergé par les chasseurs de primes biaisés par l'IA.

À l'heure actuelle, vous auriez du mal à en trouver beaucoup qui auraient une telle carte de visite. Il n'y en a pas beaucoup autour. C'est l'époque du Far West à cet égard. Mais si la notion de biais d'IA dans la chasse aux primes fait son chemin, surtout lorsque les primes sont abondantes et richement gratifiantes, vous pouvez parier que tout le monde plongera dans la piscine de chasse aux biais.

Voulez-vous que toutes sortes de racailles poursuivent les biais de l'IA dans votre système d'IA ? Vous obtiendrez des preneurs qui sont en fait des experts dans ce genre de choses. Vous obtiendrez d'autres preneurs qui sont des amateurs et pourraient faire un gâchis ou crier au loup. La prochaine chose que vous savez, quiconque sait épeler "Intelligence Artificielle" viendra creuser dans votre mine d'or d'un système d'IA pour ces précieuses pépites d'or biaisées par l'IA. La ruée vers l'or est lancée. Ce n'est peut-être pas bon pour vous.

Vous devrez examiner les soumissions des chasseurs de primes. Il y aura beaucoup de "bruit" dans les affirmations rapportées, dans le sens où bon nombre des biais d'IA revendiqués n'existent pas, bien que le chasseur de primes insiste sur le fait qu'ils en ont trouvé. Imaginez combien de travail vos propres équipes d'IA seront nécessaires pour examiner les réclamations de primes, explorer la validité de chacune, puis potentiellement faire des allers-retours avec le chasseur de primes pour savoir si de l'or a été découvert ou non.

Certains diront que c'est une autre raison de tout faire soi-même. Vous pourriez inévitablement découvrir que la prime est plus problématique qu'elle n'en valait la peine.

Voici une autre question à méditer. Comment les chasseurs de primes sauront-ils à quoi ressemble un biais d'IA ? Essentiellement, sans un semblant de ce qu'il faut rechercher, toute roche brillante pourrait être considérée comme présentant un biais d'IA dans la mine d'or d'IA perçue en cours d'excavation.

À l'époque du Far West, supposons que vous offriez une récompense pour la capture de Billy the Kid (un célèbre hors-la-loi). Si vous l'avez fait et que vous n'avez pas inclus une photo de ce à quoi ressemblait Billy, imaginez le nombre de chasseurs de primes qui pourraient entraîner dans le bureau du shérif quelqu'un qu'ils espéraient ou pensaient être Billy the Kid. Vous pourriez être inondé de faux Billy's. C'est mauvais car vous auriez probablement besoin de regarder chacun d'eux, de poser des questions approfondies et d'essayer de déterminer si la personne était vraiment Billy ou non.

Le fait est que pour mettre en place l'effort de prime sur les biais de l'IA, il serait sage d'essayer de clarifier ce que vous considérez comme les biais de l'IA. Cela nécessite un étalonnage de type Goldilocks. Vous ne voulez pas être si restrictif que les chasseurs de primes négligent les préjugés de l'IA simplement parce qu'ils ne correspondent pas à votre définition stipulée, et vous ne voulez pas non plus qu'ils crient "Eureka!" à chaque morceau d'un biais d'IA qu'ils trouvent par hasard.

Vous aurez besoin du bon équilibre Goldilocks en ce qui concerne les biais de l'IA et ainsi fournir des instructions de préférence explicites.

Une grande partie de cette chasse aux primes biaisée par l'IA va se concentrer sur les systèmes d'apprentissage automatique (ML) et d'apprentissage en profondeur (DL) basés sur l'IA. Cela a du sens puisque l'avènement de l'omniprésence du ML / DL est en croissance, et il semble avoir certains des défis les plus probables d'englober les biais indus de l'IA.

Ces chercheurs identifient à quel point un effort de chasse aux primes biaisé par l'IA peut être important, en particulier dans le contexte ML/DL : (ou hackers) vers des fins plus interactives et productives. L'espoir est qu'en invitant délibérément des parties externes à trouver des bogues logiciels ou matériels dans leurs systèmes, et en offrant souvent des incitations financières pour le faire, un écosystème plus sain et plus réactif évoluera. Il est naturel pour la communauté ML d'envisager une approche similaire de « prime de biais » pour la découverte et la réparation en temps opportun de modèles et de systèmes présentant des biais ou d'autres comportements indésirables. Plutôt que de trouver des bogues dans le logiciel, les parties externes sont invitées à trouver des biais - par exemple, des sous-groupes (démographiques ou autres) d'entrées sur lesquelles un modèle formé sous-performe - et sont récompensées pour cela » (dans l'article « An Algorithmic Framework for Bias Bounties » par Ira Globus-Harris, Michael Kearns et Aaron Roth).

Dans le document de recherche, les auteurs décrivent une approche suggérée pour déterminer quels types de biais d'IA peuvent être recherchés par les chasseurs de primes. Il y a également une indication sur la façon d'évaluer les revendications des chasseurs de primes associées aux préjugés présumés de l'IA ainsi découverts. Selon mes remarques précédentes ici, il y a de fortes chances que vous receviez des allégations spécieuses et que vous deviez séparer le blé des préjugés de l'IA de l'ivraie.

Avant d'aborder un peu plus la viande et les pommes de terre sur les considérations sauvages et laineuses sous-jacentes à la chasse aux biais de l'IA, établissons quelques principes fondamentaux supplémentaires sur des sujets profondément intégraux. Nous devons brièvement nous plonger dans l'éthique de l'IA et en particulier l'avènement de l'apprentissage automatique (ML) et de l'apprentissage en profondeur (DL).

Vous savez peut-être vaguement que l'une des voix les plus fortes ces jours-ci dans le domaine de l'IA et même en dehors du domaine de l'IA consiste à réclamer un plus grand semblant d'IA éthique. Voyons ce que signifie faire référence à l'éthique de l'IA et à l'IA éthique. En plus de cela, nous explorerons ce que je veux dire lorsque je parle d'apprentissage automatique et d'apprentissage en profondeur.

Un segment ou une partie particulière de l'éthique de l'IA qui a retenu l'attention des médias est l'IA qui présente des préjugés et des inégalités fâcheux. Vous savez peut-être que lorsque la dernière ère de l'IA a commencé, il y a eu un énorme élan d'enthousiasme pour ce que certains appellent maintenant AI pour de bon. Malheureusement, dans la foulée de cette excitation jaillissante, nous avons commencé à être témoins AI pour le mal. Par exemple, divers systèmes de reconnaissance faciale basés sur l'IA se sont révélés contenir des préjugés raciaux et des préjugés sexistes, dont j'ai discuté à le lien ici.

Des efforts pour lutter contre AI pour le mal sont activement en cours. En plus bruyant légal Dans le but de freiner les actes répréhensibles, il y a aussi une poussée substantielle vers l'adoption de l'éthique de l'IA pour redresser la méchanceté de l'IA. L'idée est que nous devons adopter et approuver les principes clés de l'IA éthique pour le développement et la mise en service de l'IA afin de saper le AI pour le mal et simultanément annonçant et promouvant le meilleur AI pour de bon.

Dans le même ordre d'idées, je préconise d'essayer d'utiliser l'IA dans le cadre de la solution aux problèmes de l'IA, en combattant le feu par le feu de cette façon de penser. Nous pourrions par exemple intégrer des composants d'IA éthique dans un système d'IA qui surveillera comment le reste de l'IA fait les choses et donc potentiellement détecter en temps réel tout effort discriminatoire, voir ma discussion sur le lien ici. Nous pourrions également avoir un système d'IA distinct qui agit comme un type de moniteur d'éthique de l'IA. Le système d'IA sert de surveillant pour suivre et détecter quand une autre IA entre dans l'abîme contraire à l'éthique (voir mon analyse de ces capacités sur le lien ici).

Dans un instant, je partagerai avec vous quelques principes fondamentaux qui sous-tendent l'éthique de l'IA. Il y a beaucoup de ce genre de listes qui flottent ici et là. On pourrait dire qu'il n'existe pas encore de liste unique d'appel universel et de concurrence. C'est la malheureuse nouvelle. La bonne nouvelle est qu'il existe au moins des listes d'éthique de l'IA facilement disponibles et qu'elles ont tendance à être assez similaires. Tout compte fait, cela suggère que par une sorte de convergence raisonnée, nous trouvons notre chemin vers une communauté générale de ce en quoi consiste l'éthique de l'IA.

Tout d'abord, couvrons brièvement certains des préceptes généraux de l'IA éthique pour illustrer ce qui devrait être une considération vitale pour quiconque élabore, met en service ou utilise l'IA.

Par exemple, comme l'a déclaré le Vatican dans le Appel de Rome pour l'éthique de l'IA et comme je l'ai couvert en profondeur à le lien ici, voici les six principaux principes éthiques de l'IA qu'ils ont identifiés :

  • Transparence: En principe, les systèmes d'IA doivent être explicables
  • Inclusion: Les besoins de tous les êtres humains doivent être pris en considération pour que chacun puisse en bénéficier, et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer et s'épanouir.
  • Responsabilité: Ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder avec responsabilité et transparence
  • Impartialité: Ne créez pas ou n'agissez pas selon des préjugés, préservant ainsi l'équité et la dignité humaine
  • Fiabilité: Les systèmes d'IA doivent pouvoir fonctionner de manière fiable
  • Sécurité et confidentialité: Les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs.

Comme indiqué par le département américain de la Défense (DoD) dans leur Principes éthiques pour l'utilisation de l'intelligence artificielle et comme je l'ai couvert en profondeur à le lien ici, voici leurs six principes éthiques principaux en matière d'IA :

  • Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.
  • Équitable: Le Département prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités d'IA.
  • Traçable: Les capacités d'IA du Ministère seront développées et déployées de manière à ce que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris des méthodologies transparentes et vérifiables, des sources de données, ainsi que des procédures et de la documentation de conception.
  • Fiable: Les capacités d'IA du Ministère auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
  • Gouvernable: Le Département concevra et mettra au point des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter les conséquences imprévues, et la capacité de désengager ou de désactiver les systèmes déployés qui présentent un comportement imprévu.

J'ai également discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et comment ils doivent être généralement observés, alors que c'est une situation beaucoup plus compliquée dans le codage de l'IA devant être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme indiqué précédemment, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Assurons-nous également que nous sommes sur la même longueur d'onde quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur sensible AI, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Gardons les choses plus terre à terre et considérons l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Revenons maintenant au sujet de la chasse aux biais de l'IA.

Pour ceux d'entre vous qui envisagent de se lancer dans une chasse aux primes basée sur l'IA, voici mes sept étapes clés recommandées sur la meilleure façon de procéder :

1) Évaluer. Évaluer l'adéquation d'une entreprise de chasse aux primes biaisée par l'IA pour votre situation et selon vos systèmes d'IA

2) Conception. Concevoir une approche appropriée de chasse aux primes biaisée par l'IA

3) Mettre en œuvre le. Mettez en œuvre et faites connaître vos efforts de chasse aux primes sur les biais de l'IA

4) Champ. Répondez aux demandes de primes biaisées par l'IA et traitez-les en conséquence

5) Fixer. Corrigez ou ajustez votre IA en fonction de ces expositions aux biais d'IA découvertes

6) Adapter. Ajustez la chasse aux primes des biais de l'IA au besoin

7) Cesser. Interrompre la chasse aux primes biaisées par l'IA lorsqu'elle n'est plus nécessaire

Dans ma série d'étapes ci-dessus, notez que je mentionne que vous voudrez probablement corriger ou ajuster votre IA en vous assurant qu'un biais d'IA revendiqué existe en fait dans votre système d'IA. Cela a beaucoup de sens. Vous voudriez presque certainement consolider tout biais d'IA trouvé. Pensez aux ramifications juridiques (et éthiques) si vous ne le faites pas. C'est une chose d'affirmer que vous ne saviez pas qu'un biais d'IA existait et que vous l'avez donc autorisé à exister, alors qu'il est beaucoup plus fragile d'avoir au dossier que vous avez été informé d'un biais d'IA et que vous n'avez rien fait à ce sujet.

La nature et le degré de correction ou d'ajustement de l'IA dépendraient bien sûr de l'importance des biais de l'IA et de la profondeur des problèmes. Si vous avez de la chance, peut-être qu'une quantité modeste de modifications apportées à l'IA corrigera les choses. L'autre potentiel est que vous pourriez avoir besoin de faire une réécriture complète de l'IA. Pour le type d'IA ML/DL, cela pourrait nécessiter de revenir à la planche à dessin et de repartir à neuf avec un tout nouvel ensemble de données et un modèle ML/DL nettoyé. J'ai discuté de l'avènement du dégorgement ou de la destruction de l'IA en tant que recours juridique potentiel contre l'IA peu recommandable, voir le lien ici.

Une question à se poser est de savoir si vous voudriez que les chasseurs de primes fassent plus que simplement identifier l'existence de biais d'IA. Par exemple, vous pouvez adoucir la prime en indiquant que les correctifs proposés sont également les bienvenus. Un biais d'IA trouvé par un chasseur de primes peut recevoir une récompense ou un prix indiqué. Si le chasseur de primes peut également proposer une solution viable fixer au biais de l'IA, ils pourraient alors se voir accorder une récompense supplémentaire.

Certains soutiennent que c'est un pont trop loin. Ils disent que vous devriez garder les chasseurs de primes de biais d'IA exclusivement concentrés sur la recherche de biais d'IA. Vous allez créer un tas de conséquences indésirables indésirables en les invitant à suggérer également des correctifs. Gardez les choses simples. L'objectif est d'obtenir autant d'yeux supplémentaires sur la découverte des biais de l'IA afin que vous puissiez décider quoi faire ensuite. Ne troublez pas les eaux.

Un aspect épineux qui doit être compris concerne l'ampleur de la récompense ou du prix pour les chasseurs de primes qui découvrent véritablement les biais de l'IA. Vous voulez que le gain soit démonstratif. Sans une récompense suffisamment élevée, vous n'obtiendrez pas beaucoup de chasseurs de primes ou ils ne seront pas particulièrement désireux de rechercher les biais d'IA dans vos systèmes d'IA. Ils pourraient plutôt se concentrer sur d'autres efforts de prime de biais d'IA.

De plus, comme mentionné, vous voulez essayer de réprimer l'envie des chasseurs de primes de transformer leurs découvertes de biais d'IA en d'autres formes d'or. Si la récompense semble maigre, cela pourrait inciter les chasseurs de primes à rechercher d'autres gains plus élevés. Ils pourraient adopter une approche de ransomware envers vous. Ils pourraient déclarer qu'ils ont un biais d'IA juteux qu'un concurrent aimerait connaître et pourrait utiliser contre votre entreprise en vantant que le biais d'IA existe dans votre IA. Ainsi, ils vendent le biais d'IA découvert au plus offrant. Etc.

On suppose que si vous fixez la récompense à une fourchette extrêmement élevée, vous demandez également des ennuis potentiels. Cela pourrait attirer toutes sortes de chasseurs de primes fous. À leur tour, ils pourraient inonder les médias sociaux d'affirmations floues selon lesquelles ils ont trouvé une multitude de biais d'IA, le faisant pour leur propre promotion et sans avoir réellement lancé de biais d'IA. Dans un sens, votre récompense accrue éclaire par inadvertance votre IA et pousse une multitude de papillons grossiers à être attirés de manière pernicieuse par le faisceau de lumière rougeoyante.

Une autre considération concerne l'accessibilité à votre IA.

Pour activer une possibilité de chasse aux primes par IA, les chasseurs de primes doivent avoir suffisamment accès à votre IA. Ils n'auront pas beaucoup de chance pour trouver des biais d'IA s'ils sont entièrement bloqués. Mais vous ne voulez pas renoncer à vos protections de cybersécurité car cela pourrait complètement compromettre votre système d'IA.

Vous pouvez essayer de faire signer aux chasseurs de primes diverses déclarations juridiquement contraignantes, puis leur fournir l'accès nécessaire. Certains chasseurs de primes n'apprécieront pas ce type d'approche. Leur point de vue est qu'ils ne feront que ce que tout chemin accessible au public et ouvert permet. Ce sont des francs-tireurs libres, pour ainsi dire, et ils n'aiment pas être sellés, pour ainsi dire. En leur faisant apposer leur signature sur des documents juridiques intimidants, beaucoup d'entre eux éviteront de rechercher des biais d'IA dans votre IA. Ou ils pourraient être irrités par votre gant juridique et décider qu'ils verront ce qu'ils peuvent trouver par des moyens publics, le faisant avec l'envie peut-être stridente de vous montrer à quel point vous êtes vraiment vulnérable.

J'ai encore un autre angle qui pourrait vous faire tourner la tête.

Un chasseur de primes averti en IA pourrait décider de concevoir un système d'IA capable d'examiner votre IA et éventuellement de découvrir des biais d'IA dans votre IA. Il s'agit de l'outilleur qui choisit de fabriquer un outil pour faire le travail plutôt que d'effectuer lui-même un travail manuel. Au lieu d'examiner laborieusement votre IA, le chasseur de primes versé dans l'IA passe son temps à concocter un outil d'IA qui fait la même chose. Ils utilisent ensuite l'outil d'IA sur votre IA. La beauté aussi est qu'ils peuvent vraisemblablement réutiliser l'outil d'IA sur n'importe qui d'autre qui offre également une opportunité de chasse aux primes sur leur IA respective.

Je sais ce que vous pensez probablement. Si un outil d'IA peut être conçu pour examiner les biais de l'IA, le fabricant de l'IA qui est examinée pour les biais de l'IA devrait soit créer un tel outil d'IA, soit en acheter un pour son propre usage. En théorie, ils n'ont alors pas besoin de faire face à tout le carnaval des chasseurs de primes, pour commencer. Utilisez simplement l'IA pour trouver leurs biais d'IA.

Oui, vous pouvez vous attendre à ce que cela se produise progressivement. Pendant ce temps, le pilier de ces efforts consistera probablement en des développeurs d'IA faisant de la chasse aux primes. Ils peuvent utiliser divers outils pour les aider dans leurs efforts, mais à court terme, il est peu probable qu'ils mettent automatiquement l'outil d'IA en mode automatique et fassent une sieste de sorte que l'outil fasse l'intégralité de la chasse aux biais de l'IA pour eux.

Nous n'en sommes pas encore là.

À ce stade de cette discussion importante, je parierais que vous êtes désireux d'exemples illustratifs qui pourraient présenter ce sujet. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur l'utilisation de la chasse aux primes biaisée par l'IA, et si oui, qu'est-ce que cela montre ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles où l'IA conduit la voiture entièrement seule et il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAADA
S (systèmes avancés d'aide à la conduite).

Il n'y a pas encore de véritable voiture autonome au niveau 5, et nous ne savons même pas encore si cela sera possible d'y parvenir, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et chasse aux primes biaisées par l'IA

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournira une litanie suffisante de mises en garde pour étayer ce que je suis sur le point de raconter.

Dans mes colonnes, j'ai déjà longuement discuté de l'utilisation de chasseurs de primes orientés bogues dans le domaine des véhicules autonomes et des voitures autonomes. Cette démarche a bien eu lieu dans ce créneau. Il y a les débats habituels pour savoir si c'est une bonne idée ou non. Les efforts ont généralement été de nature limitée, souvent relativement discrets.

Un discours similaire peut s'ensuivre lorsque l'accent est mis sur la chasse aux biais de l'IA plutôt que sur la recherche de bogues système en soi. Certains suggèrent que c'est un sacré si vous le faites, sacré si vous ne conundrum.

Voici pourquoi.

Tout d'abord, pour être clair, il existe de nombreuses façons dont les véhicules autonomes et les voitures autonomes seront soumis à la maîtrise des biais de l'IA, voir ma couverture sur le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns. Les constructeurs automobiles et les constructeurs automobiles autonomes sembleraient sages d'essayer d'empêcher ces biais d'IA d'apparaître dans leurs systèmes d'IA. La tempête juridique et éthique contre ces entreprises sera sans aucun doute intense.

L'utilisation d'une chasse aux primes biaisée par l'IA est-elle une approche appropriée dans ce contexte spécifique ?

Une réponse est que oui, cela sera pratique et fournira une abondance de nouveaux yeux «gratuits» pour essayer d'attraper tous les biais d'IA intégrés d'une voiture autonome ou similaire. La plupart des développeurs d'IA qui construisent des voitures autonomes sont occupés à créer une IA capable de conduire une voiture en toute sécurité d'un point A à un point B. Ils sont préoccupés par cette capacité de base et n'ont ni le temps ni l'attention envers les biais d'IA qui pourraient être quelque part dans leur IA.

L'autre réponse est que non, autoriser la chasse aux primes pour les véhicules autonomes et les voitures autonomes sur n'importe quelle base, que ce soit pour des bugs ou des biais d'IA, devrait être farouchement évité. L'argument est que ces véhicules et leur IA sont d'un calibre de vie ou de mort. Jouer avec l'IA de quelque manière que ce soit pourrait être en quelque sorte ruineux pour l'IA et avoir un impact sur ce que fait le système de conduite de l'IA.

Un contre-argument à ce dernier point est que les chasseurs de primes sont censés être incapables de modifier l'IA qu'ils examinent. Ainsi, il n'y a aucun danger qu'ils jouent avec l'IA et que l'IA dans ce contexte devienne soudainement un système de conduite d'IA fou. Les chasseurs de primes n'ont qu'un accès en lecture seule. Leur permettre d'aller plus loin serait amplement stupide et une énorme erreur.

Le contre-argument à ce contre-argument est qu'en autorisant et en encourageant les chasseurs de primes à examiner votre IA, toute l'affaire devient risquée. Ces chasseurs de primes pourraient trouver des moyens d'exploiter les bogues ou les préjugés trouvés. Ces exploits pourraient à leur tour être à des fins sournoises. Vous feriez mieux de ne pas inviter de « cambrioleurs » chez vous, pour ainsi dire. Une fois qu'ils auront retiré le joint, vous finirez par avoir un tas d'ennuis.

Pour ceux qui ont des systèmes d'IA d'une ampleur inférieure à la vie ou à la mort, la croyance est que les répercussions d'une incursion de chasse aux primes qui tourne mal sont beaucoup moins risquées. Peut-être. D'un autre côté, si une entreprise a versé son argent dans un système d'IA que les chasseurs de primes parviennent à usurper, vous pouvez supposer que les dommages à la réputation et les autres dommages potentiels feront toujours mal.

Il n'y a pas de repas gratuit en ce qui concerne la chasse aux primes biaisées par l'IA.

Une remarque de clôture rapide pour l'instant.

Lorsque le hors-la-loi notoire Jesse James a été recherché pendant le Far West, une affiche "Wanted" a été imprimée qui offrait une prime de 5,000 XNUMX $ pour sa capture (indiquant "mort ou vivant"). C'était une somme d'argent assez colossale à l'époque. L'un des membres de son propre gang a choisi d'abattre Jesse et de récupérer la récompense. Je suppose que cela montre à quel point une prime peut être efficace.

L'utilisation de chasseurs de primes biaisés par l'IA sera-t-elle une bonne ou une mauvaise chose ?

Si vous choisissez d'instituer une entreprise de chasseur de primes biaisée par l'IA, je vous suggère de garder les yeux grands ouverts et de regarder par-dessus votre épaule à tout moment. C'est prudent pour vous et votre IA. Vous ne savez jamais ce qui pourrait arriver, y compris qu'un chasseur de primes complice insère subrepticement un biais d'IA dans votre IA et crie au monde qu'il a trouvé un biais d'IA sans scrupules dans votre IA. Peut-être le faisant dans une tentative effrontée et démesurée de rechercher la récompense de la prime, en plus de se proclamer un héros qui a essentiellement obtenu le vanté Jesse James.

À bien y penser, une IA sensible n'aimera probablement pas cette idée d'une disposition déconcertante morte ou vivante, pourrait-on spéculer langoureusement.

Source : https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- les systèmes-éthiquement-méchants-pleinement-autonomes-est-prudents-ou-futiles/