Éthique de l'IA Révélation choquante selon laquelle entraîner l'IA à être toxique ou biaisée pourrait être bénéfique, y compris pour les voitures autonomes et autonomes

Voici une vieille ligne que je suis sûr que vous avez déjà entendue.

Il en faut un pour en connaître un.

Vous ne réalisez peut-être pas qu'il s'agit d'une expression qui remonte au début des années 1900 et qui était généralement invoquée pour désigner les malfaiteurs (d'autres variantes du slogan remontent plus loin, par exemple aux années 1600). Un exemple de la façon dont cet énoncé pourrait être utilisé implique la notion que si vous souhaitez attraper un voleur, vous devez utiliser un voleur pour le faire. Cela met en valeur l'affirmation selon laquelle il faut en connaître un. De nombreux films et émissions de télévision ont capitalisé sur cette sage sagesse pratique, dépeignant souvent que le seul moyen viable d'attraper un escroc consistait à embaucher un escroc tout aussi corrompu pour poursuivre le malfaiteur.

En changeant de vitesse, certains pourraient tirer parti de cette même logique pour affirmer qu'un moyen approprié de discerner si quelqu'un incarne des préjugés indus et des croyances discriminatoires serait de trouver quelqu'un qui abrite déjà de telles tendances. Vraisemblablement, une personne déjà remplie de préjugés sera capable de sentir plus facilement que cet autre humain est également rempli à ras bord de toxicité. Encore une fois, il faut savoir que l'on est le mantra avoué.

Votre première réaction à la possibilité d'utiliser une personne biaisée pour en déduire une autre personne biaisée pourrait être celle du scepticisme et de l'incrédulité. Ne pouvons-nous pas déterminer si quelqu'un a des préjugés fâcheux en les examinant simplement et en n'ayant pas à recourir à la recherche de quelqu'un d'autre de même nature ? Il semblerait étrange de chercher délibérément à découvrir quelqu'un qui est biaisé afin d'en découvrir d'autres qui sont également biaisés de manière toxique.

Je suppose que cela dépend en partie si vous êtes prêt à accepter le refrain présomptif qu'il faut en connaître un. Notez que cela ne signifie pas que la seule façon d'attraper un voleur nécessite que vous utilisiez exclusivement et toujours un voleur. Vous pourriez raisonnablement sembler affirmer qu'il ne s'agit que d'un chemin supplémentaire qui peut être dûment pris en considération. Peut-être que parfois vous êtes prêt à envisager la possibilité d'utiliser un voleur pour attraper un voleur, alors que d'autres circonstances pourraient en faire une tactique insondable.

Utilisez le bon outil pour le bon réglage, comme on dit.

Maintenant que j'ai exposé ces principes fondamentaux, nous pouvons passer à la partie peut-être énervante et ostensiblement choquante de cette histoire.

Es-tu prêt?

Le domaine de l'IA poursuit activement le même précepte qu'il faut parfois en connaître un, en particulier dans le cas d'essayer de dénicher une IA biaisée ou agissant de manière discriminatoire. Oui, l'idée hallucinante est que nous pourrions délibérément concevoir une IA qui soit totalement et sans vergogne biaisée et discriminatoire, afin de l'utiliser comme moyen de découvrir et de découvrir d'autres IA qui ont le même semblant de toxicité. Comme vous le verrez dans un instant, il existe une variété de problèmes épineux d'éthique de l'IA sous-jacents à cette affaire. Pour ma couverture globale continue et étendue de l'éthique de l'IA et de l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Je suppose que vous pourriez exprimer cette utilisation de l'IA toxique pour poursuivre d'autres IA toxiques comme la conception proverbiale de la lutte contre le feu par le feu (nous pouvons invoquer de nombreux euphémismes et métaphores illustratives pour décrire cette situation). Ou, comme nous l'avons déjà souligné, nous pourrions parcimonieusement nous référer à l'affirmation selon laquelle il faut un être pour en connaître un.

Le concept général est qu'au lieu d'essayer uniquement de déterminer si un système d'IA donné contient des biais indus en utilisant des méthodes conventionnelles, nous devrions peut-être également chercher à utiliser des moyens moins conventionnels. L'un de ces moyens non conventionnels serait de concevoir une IA qui contient tous les pires biais et toxicités socialement inacceptables, puis d'utiliser cette IA pour aider à éliminer d'autres IA qui ont les mêmes propensions à la méchanceté.

Lorsque vous y réfléchissez rapidement, cela semble certainement parfaitement sensé. Nous pourrions viser à construire une IA toxique au maximum. Cette IA toxique est ensuite utilisée pour dénicher d'autres IA également toxiques. Pour la "mauvaise" IA alors révélée, nous pouvons y faire face soit en annulant la toxicité, soit en abandonnant complètement l'IA (voir ma couverture du dégorgement ou de la destruction de l'IA sur ce lien ici), ou emprisonner l'IA (voir ma couverture de l'enfermement de l'IA sur ce lien ici), ou faites tout ce qui vous semble applicable.

Un contre-argument est que nous devrions nous faire examiner la tête que nous concevons intentionnellement et volontairement une IA toxique et pleine de biais. C'est la dernière chose que nous devrions jamais considérer, certains exhorteraient. Concentrez-vous sur la création d'une IA entièrement composée de bonté. Ne vous concentrez pas sur la conception d'une IA qui a les maux et la lie des préjugés indus. L'idée même d'une telle poursuite semble répugnante à certains.

Il y a plus de scrupules à propos de cette quête controversée.

Peut-être qu'une mission de conception d'une IA toxique ne fera qu'enhardir ceux qui souhaitent concevoir une IA capable de saper la société. C'est comme si nous disions que concevoir une IA qui a des biais inappropriés et peu recommandables est parfaitement acceptable. Pas de soucis, pas d'hésitations. Cherchez à concevoir une IA toxique à votre guise, nous le transmettons haut et fort aux constructeurs d'IA du monde entier. C'est (clin d'œil) tout au nom de la bonté.

De plus, supposons que ce type d'IA toxique se propage. Il se pourrait que l'IA soit utilisée et réutilisée par de nombreux autres constructeurs d'IA. Finalement, l'IA toxique se cache dans toutes sortes de systèmes d'IA. Une analogie pourrait être faite avec la conception d'un virus minant l'homme qui s'échappe d'un laboratoire vraisemblablement scellé. La prochaine chose que vous savez, la fichue chose est partout et nous nous sommes anéantis.

Attendez une seconde, le compteur de ces contre-arguments va, vous vous déchaînez avec toutes sortes de suppositions folles et non étayées. Respirez profondément. Calme-toi.

Nous pouvons en toute sécurité fabriquer une IA toxique et la maintenir confinée. Nous pouvons utiliser l'IA toxique pour trouver et aider à réduire la prévalence croissante de l'IA qui a malheureusement des biais indus. Toutes les autres de ces exclamations boule de neige absurdement sauvages et non fondées sont des réactions purement instinctives et malheureusement stupides et carrément imprudentes. N'essayez pas de jeter le bébé avec l'eau du bain, vous êtes prévenu.

Pensez-y de cette façon, soutiennent les promoteurs. La construction et l'utilisation appropriées d'une IA toxique à des fins de recherche, d'évaluation et d'agir comme un détective pour découvrir d'autres IA socialement offensives est une approche louable et devrait être ébranlée. Mettez de côté vos réactions irréfléchies. Descendez sur terre et regardez cela sobrement. Notre œil est rivé sur le prix, à savoir exposer et défaire la surabondance de systèmes d'IA biaisés et s'assurer qu'en tant que société, nous ne soyons pas submergés par une IA toxique.

Période. Arrêt complet.

Il existe différentes manières fondamentales d'approfondir cette notion d'utilisation de l'IA toxique ou biaisée à des fins bénéfiques, notamment :

  • Configurer des ensembles de données qui contiennent intentionnellement des données biaisées et totalement toxiques qui peuvent être utilisées pour former l'IA sur ce qu'il ne faut pas faire et/ou ce qu'il faut surveiller
  • Utiliser ces ensembles de données pour former des modèles d'apprentissage automatique (ML) et d'apprentissage en profondeur (DL) sur la détection des biais et la détermination des modèles de calcul entraînant une toxicité sociétale
  • Appliquer le ML/DL formé à la toxicité à d'autres IA pour déterminer si l'IA ciblée est potentiellement biaisée et toxique
  • Mettre à disposition des ML/DL formés à la toxicité pour montrer aux constructeurs d'IA ce qu'il faut surveiller afin qu'ils puissent facilement inspecter les modèles pour voir comment les biais imprégnés d'algorithmes surviennent
  • Illustrez les dangers de l'IA toxique dans le cadre de l'éthique de l'IA et de la sensibilisation à l'IA éthique, tous racontés via cette série d'exemples d'IA à problèmes pour les enfants
  • Autre

Avant d'entrer dans le vif du sujet de ces différents chemins, établissons quelques détails fondamentaux supplémentaires.

Vous savez peut-être vaguement que l'une des voix les plus fortes ces jours-ci dans le domaine de l'IA et même en dehors du domaine de l'IA consiste à réclamer un plus grand semblant d'IA éthique. Voyons ce que signifie faire référence à l'éthique de l'IA et à l'IA éthique. En plus de cela, nous pouvons préparer le terrain en explorant ce que je veux dire lorsque je parle d'apprentissage automatique et d'apprentissage en profondeur.

Un segment ou une partie particulière de l'éthique de l'IA qui a retenu l'attention des médias est l'IA qui présente des préjugés et des inégalités fâcheux. Vous savez peut-être que lorsque la dernière ère de l'IA a commencé, il y a eu un énorme élan d'enthousiasme pour ce que certains appellent maintenant AI pour de bon. Malheureusement, dans la foulée de cette excitation jaillissante, nous avons commencé à être témoins AI pour le mal. Par exemple, divers systèmes de reconnaissance faciale basés sur l'IA se sont révélés contenir des préjugés raciaux et des préjugés sexistes, dont j'ai discuté à le lien ici.

Des efforts pour lutter contre AI pour le mal sont activement en cours. En plus bruyant légal Dans le but de freiner les actes répréhensibles, il y a aussi une poussée substantielle vers l'adoption de l'éthique de l'IA pour redresser la méchanceté de l'IA. L'idée est que nous devons adopter et approuver les principes clés de l'IA éthique pour le développement et la mise en service de l'IA afin de saper le AI pour le mal et simultanément annonçant et promouvant le meilleur AI pour de bon.

Dans le même ordre d'idées, je préconise d'essayer d'utiliser l'IA dans le cadre de la solution aux problèmes de l'IA, en combattant le feu par le feu de cette façon de penser. Nous pourrions par exemple intégrer des composants d'IA éthique dans un système d'IA qui surveillera comment le reste de l'IA fait les choses et donc potentiellement détecter en temps réel tout effort discriminatoire, voir ma discussion sur le lien ici. Nous pourrions également avoir un système d'IA distinct qui agit comme un type de moniteur d'éthique de l'IA. Le système d'IA sert de surveillant pour suivre et détecter quand une autre IA entre dans l'abîme contraire à l'éthique (voir mon analyse de ces capacités sur le lien ici).

Dans un instant, je partagerai avec vous quelques principes fondamentaux qui sous-tendent l'éthique de l'IA. Il y a beaucoup de ce genre de listes qui flottent ici et là. On pourrait dire qu'il n'existe pas encore de liste unique d'appel universel et de concurrence. C'est la malheureuse nouvelle. La bonne nouvelle est qu'il existe au moins des listes d'éthique de l'IA facilement disponibles et qu'elles ont tendance à être assez similaires. Tout compte fait, cela suggère que par une sorte de convergence raisonnée, nous trouvons notre chemin vers une communauté générale de ce en quoi consiste l'éthique de l'IA.

Tout d'abord, couvrons brièvement certains des préceptes généraux de l'IA éthique pour illustrer ce qui devrait être une considération vitale pour quiconque élabore, met en service ou utilise l'IA.

Par exemple, comme l'a déclaré le Vatican dans le Appel de Rome pour l'éthique de l'IA et comme je l'ai couvert en profondeur à le lien ici, voici les six principaux principes éthiques de l'IA qu'ils ont identifiés :

  • Transparence: En principe, les systèmes d'IA doivent être explicables
  • Inclusion: Les besoins de tous les êtres humains doivent être pris en considération pour que chacun puisse en bénéficier, et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer et s'épanouir.
  • Responsabilité: Ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder avec responsabilité et transparence
  • Impartialité: Ne créez pas ou n'agissez pas selon des préjugés, préservant ainsi l'équité et la dignité humaine
  • Fiabilité: Les systèmes d'IA doivent pouvoir fonctionner de manière fiable
  • Sécurité et confidentialité: Les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs.

Comme indiqué par le département américain de la Défense (DoD) dans leur Principes éthiques pour l'utilisation de l'intelligence artificielle et comme je l'ai couvert en profondeur à le lien ici, voici leurs six principes éthiques principaux en matière d'IA :

  • Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.
  • Équitable: Le Département prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités d'IA.
  • Traçable: Les capacités d'IA du Ministère seront développées et déployées de manière à ce que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris des méthodologies transparentes et vérifiables, des sources de données, ainsi que des procédures et de la documentation de conception.
  • Fiable: Les capacités d'IA du Ministère auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
  • Gouvernable: Le Département concevra et mettra au point des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter les conséquences imprévues, et la capacité de désengager ou de désactiver les systèmes déployés qui présentent un comportement imprévu.

J'ai également discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et comment ils doivent être généralement observés, alors que c'est une situation beaucoup plus compliquée dans le codage de l'IA devant être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme indiqué précédemment, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Assurons-nous également que nous sommes sur la même longueur d'onde quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur sensible AI, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Gardons les choses plus terre à terre et considérons l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Que peut-on faire d'autre à propos de tout cela ?

Revenons à la liste posée précédemment sur la façon d'essayer de faire face aux biais de l'IA ou à l'IA toxique en utilisant une approche quelque peu non conventionnelle « il en faut un pour en connaître un ». Rappelons que la liste était composée de ces points essentiels :

  • Configurer des ensembles de données qui contiennent intentionnellement des données biaisées et totalement toxiques qui peuvent être utilisées pour former l'IA sur ce qu'il ne faut pas faire et/ou ce qu'il faut surveiller
  • Utiliser ces ensembles de données pour former des modèles d'apprentissage automatique (ML) et d'apprentissage en profondeur (DL) sur la détection des biais et la détermination des modèles de calcul entraînant une toxicité sociétale
  • Appliquer le ML/DL formé à la toxicité à d'autres IA pour déterminer si l'IA ciblée est potentiellement biaisée et toxique
  • Mettre à disposition des ML/DL formés à la toxicité pour montrer aux constructeurs d'IA ce qu'il faut surveiller afin qu'ils puissent facilement inspecter les modèles pour voir comment les biais imprégnés d'algorithmes surviennent
  • Illustrez les dangers de l'IA toxique dans le cadre de l'éthique de l'IA et de la sensibilisation à l'éthique de l'IA, tous racontés via cette série d'exemples d'IA pour enfants à problèmes.
  • Autre

Nous allons détailler le premier de ces points saillants.

Configuration d'ensembles de données de données toxiques

Un exemple perspicace d'essayer d'établir des ensembles de données qui contiennent des préjugés sociétaux peu recommandables est l'ensemble de données CivilComments de la collection organisée par WILDS.

Tout d'abord, quelques rappels rapides.

WILDS est une collection open source d'ensembles de données qui peuvent être utilisés pour la formation ML/DL. L'objectif principal déclaré de WILDS est qu'il permet aux développeurs d'IA d'avoir un accès immédiat aux données qui représentent changements de distribution dans divers domaines spécifiques. Certains des domaines actuellement disponibles englobent des domaines tels que les espèces animales, les tumeurs dans les tissus vivants, la densité des épis de blé et d'autres domaines tels que les commentaires civils que je décrirai dans un instant.

La gestion des changements de distribution est un élément crucial de la conception appropriée des systèmes AI ML/DL. Voici l'affaire. Parfois, les données que vous utilisez pour la formation s'avèrent être très différentes des données de test ou "dans la nature" et donc votre ML/DL vraisemblablement formé est à la dérive de ce que sera le monde réel. Les constructeurs d'IA astucieux devraient former leur ML/DL pour faire face à de tels changements de distribution. Cela devrait être fait dès le départ et ne pas être une surprise qui nécessiterait plus tard une refonte du ML/DL en soi.

Comme expliqué dans l'article qui a présenté WILDS : "Les changements de distribution - où la distribution de la formation diffère de la distribution des tests - peuvent dégrader considérablement la précision des systèmes d'apprentissage automatique (ML) déployés dans la nature. Malgré leur omniprésence dans les déploiements du monde réel, ces changements de distribution sont sous-représentés dans les ensembles de données largement utilisés dans la communauté ML aujourd'hui. Pour combler cette lacune, nous présentons WILDS, une référence organisée de 10 ensembles de données reflétant une gamme variée de changements de distribution qui surviennent naturellement dans les applications du monde réel, tels que les changements dans les hôpitaux pour l'identification des tumeurs ; à travers des pièges photographiques pour la surveillance de la faune ; and across time and location in satellite Imaging and Poverty Mapping » (dans l'article intitulé « WILDS : A Benchmark of in-the-Wild Distribution Shifts » par Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu et autres).

Le nombre de ces ensembles de données WILDS continue d'augmenter et la nature des ensembles de données est généralement améliorée pour renforcer la valeur de l'utilisation des données pour la formation ML/DL.

L'ensemble de données CivilComments est décrit comme suit : « L'examen automatique du texte généré par l'utilisateur, par exemple la détection des commentaires toxiques, est un outil important pour modérer le volume considérable de texte écrit sur Internet. Malheureusement, des travaux antérieurs ont montré que ces classificateurs de toxicité détectent des biais dans les données de formation et associent faussement la toxicité à la mention de certaines données démographiques. Ces types de fausses corrélations peuvent dégrader considérablement les performances du modèle sur des sous-populations particulières. Nous étudions ce problème à travers une variante modifiée de l'ensemble de données CivilComments » (tel que publié sur le site Web de WILDS).

Considérez les nuances des publications en ligne fâcheuses.

Vous avez sans aucun doute rencontré des commentaires toxiques lors de l'utilisation de presque tous les types de médias sociaux. Il vous semblerait presque impossible d'éviter par magie de voir le contenu âcre et abyssal qui semble être omniprésent de nos jours. Parfois, le matériel vulgaire est subtil et peut-être devez-vous lire entre les lignes pour saisir l'essentiel du ton ou du sens biaisé ou discriminatoire. Dans d'autres cas, les mots sont manifestement toxiques et vous n'avez pas besoin d'un microscope ou d'un anneau décodeur spécial pour comprendre ce que les passages impliquent.

CivilComments est un ensemble de données qui a été rassemblé pour essayer de concevoir AI ML/DL capable de détecter par calcul le contenu toxique. Voici ce sur quoi les chercheurs sous-jacents à l'effort se sont concentrés : "Les biais involontaires dans l'apprentissage automatique peuvent se manifester par des différences systémiques de performances pour différents groupes démographiques, aggravant potentiellement les défis existants en matière d'équité dans la société en général. Dans cet article, nous introduisons une suite de mesures indépendantes du seuil qui fournissent une vision nuancée de ce biais involontaire, en considérant les différentes manières dont la distribution des scores d'un classificateur peut varier entre les groupes désignés. Nous introduisons également un nouvel ensemble de tests de commentaires en ligne avec des annotations participatives pour les références d'identité. Nous l'utilisons pour montrer comment nos métriques peuvent être utilisées pour trouver de nouveaux biais involontaires potentiellement subtils dans les modèles publics existants » (dans un article intitulé « Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification » par Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Si vous donnez à cette question une réflexion contemplative large, vous pourriez commencer à vous demander comment pouvez-vous discerner ce qui est un commentaire toxique par rapport à ce qui n'est pas un commentaire toxique. Les humains peuvent radicalement différer quant à ce qu'ils interprètent comme une formulation carrément toxique. Une personne peut être scandalisée par une remarque ou un commentaire en ligne particulier publié sur les réseaux sociaux, tandis qu'une autre peut ne pas être émue du tout. On fait souvent valoir que la notion de commentaire toxique est un précepte totalement vague. C'est comme l'art, où l'on dit habituellement que l'art n'est compris que dans l'œil du spectateur, et de même, les remarques biaisées ou toxiques ne sont également que dans l'œil du spectateur.

Balderdash, quelques répliques. Toute personne raisonnable peut déterminer si une remarque en ligne est toxique ou non. Vous n'avez pas besoin d'être un spécialiste des fusées pour réaliser quand une insulte caustique publiée est remplie de préjugés et de haine.

Bien sûr, les mœurs de la société évoluent et changent au fil du temps. Ce qui n'aurait peut-être pas été perçu comme offensant il y a quelque temps peut être considéré comme horriblement mauvais aujourd'hui. En plus de cela, des choses dites il y a des années qui étaient autrefois considérées comme indûment biaisées pourraient être réinterprétées à la lumière de changements de sens. Pendant ce temps, d'autres affirment que les commentaires toxiques sont toujours toxiques, peu importe quand ils ont été initialement promulgués. On pourrait prétendre que la toxicité n'est pas relative, mais plutôt absolue.

La question d'essayer d'établir ce qui est toxique peut néanmoins être une énigme assez difficile. Nous pouvons doubler sur cette question gênante en essayant de concevoir des algorithmes ou une IA qui peuvent déterminer qui est qui. Si les humains ont du mal à faire de telles évaluations, la programmation d'un ordinateur est probablement tout aussi problématique, voire plus, selon certains.

Une approche pour créer des ensembles de données contenant du contenu toxique consiste à utiliser une méthode de crowdsourcing pour évaluer ou évaluer le contenu, fournissant ainsi un moyen humain de déterminer ce qui est considéré comme indésirable et d'inclure l'étiquetage dans l'ensemble de données lui-même. Un AI ML/DL pourrait alors inspecter les données et l'étiquetage associé qui a été indiqué par des évaluateurs humains. Cela peut à son tour potentiellement servir de moyen de trouver par calcul des modèles mathématiques sous-jacents. Voilà, le ML/DL pourrait alors être en mesure d'anticiper ou d'évaluer par calcul si un commentaire donné est susceptible d'être toxique ou non.

Comme mentionné dans l'article cité sur les métriques nuancées : « Cet étiquetage demande aux évaluateurs d'évaluer la toxicité d'un commentaire, en choisissant parmi « Très toxique », « Toxique », « Difficile à dire » et « Non toxique ». Les évaluateurs ont également été interrogés sur plusieurs sous-types de toxicité, bien que ces étiquettes n'aient pas été utilisées pour l'analyse dans ce travail. En utilisant ces techniques d'évaluation, nous avons créé un ensemble de données de 1.8 million de commentaires, provenant de forums de commentaires en ligne, contenant des étiquettes de toxicité et d'identité. Alors que tous les commentaires ont été étiquetés pour la toxicité, et un sous-ensemble de 450,000 XNUMX commentaires a été étiqueté pour l'identité. Certains commentaires étiquetés pour l'identité ont été présélectionnés à l'aide de modèles construits à partir d'itérations précédentes d'étiquetage d'identité pour s'assurer que les évaluateurs de foule verraient fréquemment le contenu d'identité » (dans l'article cité par Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Un autre exemple de l'objectif d'avoir des ensembles de données contenant un contenu toxique illustratif implique des efforts pour former des systèmes interactifs conversationnels de traitement du langage naturel (TAL) basés sur l'IA. Vous avez probablement interagi avec des systèmes NLP tels qu'Alexa et Siri. J'ai couvert certaines des difficultés et des limites de la PNL d'aujourd'hui, y compris un cas particulièrement troublant qui s'est produit lorsqu'Alexa a donné un conseil inapproprié et dangereux aux enfants, voir le lien ici.

Une étude récente a tenté d'utiliser neuf catégories de préjugés sociaux qui étaient généralement basées sur la liste des caractéristiques démographiques protégées de l'EEOC (Equal Employment Opportunities Commission), notamment l'âge, le sexe, la nationalité, l'apparence physique, la race ou l'origine ethnique, la religion, le statut de handicap, l'identité sexuelle. l'orientation et le statut socio-économique. Selon les chercheurs : « Il est bien documenté que les modèles NLP apprennent les biais sociaux, mais peu de travaux ont été réalisés sur la façon dont ces biais se manifestent dans les résultats des modèles pour des tâches appliquées telles que la réponse aux questions (QA). Nous introduisons le Bias Benchmark for QA (BBQ), un ensemble de données d'ensembles de questions construits par les auteurs qui mettent en évidence les préjugés sociaux attestés contre les personnes appartenant à des classes protégées selon neuf dimensions sociales pertinentes pour les contextes anglophones américains »(dans un article intitulé« BBQ : A Hand-Built Benchmark For Question Answering » par Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

La mise en place d'ensembles de données qui contiennent intentionnellement des données biaisées et totalement toxiques est une tendance à la hausse dans l'IA et est particulièrement alimentée par l'avènement de l'éthique de l'IA et le désir de produire une IA éthique. Ces ensembles de données peuvent être utilisés pour former des modèles d'apprentissage automatique (ML) et d'apprentissage en profondeur (DL) pour détecter les biais et déterminer les modèles de calcul entraînant une toxicité sociétale. À son tour, le ML/DL formé à la toxicité peut être judicieusement dirigé vers d'autres IA pour déterminer si l'IA ciblée est potentiellement biaisée et toxique.

De plus, les systèmes ML/DL formés à la toxicité disponibles peuvent être utilisés pour montrer aux constructeurs d'IA ce qu'il faut surveiller afin qu'ils puissent facilement inspecter les modèles pour voir comment les biais imprégnés d'algorithmes surviennent. Dans l'ensemble, ces efforts sont en mesure d'illustrer les dangers de l'IA toxique dans le cadre de l'éthique de l'IA et de la sensibilisation éthique à l'IA.

À ce stade de cette discussion importante, je parierais que vous êtes désireux d'autres exemples illustratifs qui pourraient présenter ce sujet. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur l'utilité d'avoir des ensembles de données pour concevoir une IA toxique, et si oui, qu'est-ce que cela montre ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles où l'IA conduit la voiture entièrement seule et il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de véritable voiture autonome au niveau 5, et nous ne savons même pas encore si cela sera possible d'y parvenir, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et direction à l'abri de l'IA toxique

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournira une litanie suffisante de mises en garde pour étayer ce que je suis sur le point de raconter.

Il existe de nombreux préjugés potentiels et susceptibles de se réaliser un jour, infusés par l'IA, qui vont faire face à l'émergence de véhicules autonomes et de voitures autonomes, voir par exemple ma discussion sur le lien ici ainsi que le lien ici. Nous en sommes encore aux premiers stades du déploiement des voitures autonomes. Jusqu'à ce que l'adoption atteigne une échelle et une visibilité suffisantes, une grande partie des facettes toxiques de l'IA dont j'ai prédit qu'elles se produiront finalement ne sont pas encore évidentes et n'ont pas encore attiré l'attention du public.

Considérez une question apparemment simple liée à la conduite qui, à première vue, peut sembler totalement anodine. Plus précisément, examinons comment déterminer correctement s'il faut s'arrêter pour attendre des piétons « capricieux » qui n'ont pas le droit de passage pour traverser une rue.

Vous avez sans doute conduit et rencontré des piétons qui attendaient pour traverser la rue et pourtant ils n'avaient pas le droit de passage pour le faire. Cela signifiait que vous aviez le pouvoir discrétionnaire de vous arrêter et de les laisser traverser. Vous pouvez continuer sans les laisser traverser tout en respectant pleinement les règles de conduite légales.

Des études sur la façon dont les conducteurs humains décident de s'arrêter ou de ne pas s'arrêter pour ces piétons ont suggéré que parfois les conducteurs humains font le choix en fonction de préjugés fâcheux. Un conducteur humain peut regarder le piéton et choisir de ne pas s'arrêter, même s'il se serait arrêté si le piéton avait eu une apparence différente, par exemple en raison de sa race ou de son sexe. J'ai examiné cela à le lien ici.

Comment les systèmes de conduite IA seront-ils programmés pour prendre ce même type de décision d'arrêt ou de départ ?

Vous pourriez proclamer que tous les systèmes de conduite IA devraient être programmés pour toujours s'arrêter pour tout piéton en attente. Cela simplifie grandement la chose. Il n'y a vraiment aucune décision délicate à prendre. Si un piéton attend pour traverser, qu'il ait ou non la priorité, assurez-vous que la voiture autonome AI s'arrête pour que le piéton puisse traverser.

Peasy facile.

La vie n'est jamais aussi facile, semble-t-il. Imaginez que toutes les voitures autonomes respectent cette règle. Les piétons se rendraient inévitablement compte que les systèmes de conduite IA sont, dirons-nous, des jeux d'enfant. Tous les piétons qui veulent traverser la rue le feront bon gré mal gré, quand ils le souhaitent et où qu'ils se trouvent.

Supposons qu'une voiture autonome descende une rue rapide à la limite de vitesse affichée de 45 milles à l'heure. Un piéton « sait » que l'IA va arrêter la voiture autonome. Alors, le piéton s'élance dans la rue. Malheureusement, la physique l'emporte sur l'IA. Le système de conduite IA tentera d'arrêter la voiture autonome, mais l'élan du véhicule autonome va faire avancer l'engin de plusieurs tonnes et percuter le piéton capricieux. Le résultat est soit préjudiciable, soit mortel.

Les piétons n'essaient généralement pas ce type de comportement lorsqu'il y a un conducteur humain au volant. Bien sûr, dans certains endroits, il y a une guerre des globes oculaires qui a lieu. Un piéton regarde un conducteur. Le conducteur regarde le piéton. Selon les circonstances, le conducteur peut s'arrêter ou le conducteur peut revendiquer la chaussée et défier ostensiblement le piéton d'essayer de perturber son chemin.

Nous ne voulons probablement pas que l'IA se lance dans une guerre des globes oculaires similaire, ce qui est également un peu difficile de toute façon car il n'y a pas de personne ou de robot assis au volant de la voiture autonome (j'ai discuté de la possibilité future de robots ce lecteur, voir le lien ici). Pourtant, nous ne pouvons pas non plus permettre aux piétons de toujours prendre les décisions. Le résultat pourrait être désastreux pour toutes les personnes concernées.

Vous pourriez alors être tenté de retourner l'autre côté de la médaille et de déclarer que le système de conduite IA ne devrait jamais s'arrêter dans de telles circonstances. En d'autres termes, si un piéton n'a pas le droit de passage approprié pour traverser la rue, l'IA doit toujours supposer que la voiture autonome doit continuer sans relâche. Pas de chance pour ces piétons.

Une règle aussi stricte et simpliste ne sera pas bien acceptée par le grand public. Les gens sont des gens et ils n'aimeront pas être complètement exclus de la possibilité de traverser la rue, même s'ils n'ont pas légalement le droit de passage pour le faire dans divers contextes. Vous pourriez facilement anticiper un tollé important de la part du public et éventuellement voir un contrecoup se produire contre l'adoption continue des voitures autonomes.

Au diable si nous le faisons, et au diable si nous ne le faisons pas.

J'espère que cela vous a conduit à l'alternative raisonnée selon laquelle l'IA doit être programmée avec un semblant de prise de décision sur la façon de traiter ce problème de conduite. Une règle dure et rapide de ne jamais s'arrêter est intenable, et de même, une règle dure et rapide de toujours s'arrêter est également intenable. L'IA doit être conçue avec une prise de décision algorithmique ou ADM pour traiter la question.

Vous pouvez essayer d'utiliser un jeu de données couplé à une approche ML/DL.

Voici comment les développeurs d'IA pourraient décider de programmer cette tâche. Ils collectent des données à partir de caméras vidéo placées tout autour d'une ville particulière où la voiture autonome sera utilisée. Les données montrent quand les conducteurs humains choisissent de s'arrêter pour les piétons qui n'ont pas la priorité. Tout est collecté dans un jeu de données. En utilisant Machine Learning et Deep Learning, les données sont modélisées par calcul. Le système de conduite IA utilise ensuite ce modèle pour décider quand s'arrêter ou ne pas s'arrêter.

Généralement, l'idée est que quelle que soit la coutume locale, c'est ainsi que l'IA va diriger la voiture autonome. Problème résolu!

Mais est-ce vraiment résolu ?

Rappelez-vous que j'avais déjà souligné qu'il existe des études de recherche montrant que les conducteurs humains peuvent être biaisés dans leurs choix d'arrêt pour les piétons. Les données collectées sur une ville particulière vont vraisemblablement contenir ces biais. Une AI ML/DL basée sur ces données modélisera et reflétera alors probablement ces mêmes biais. Le système de conduite AI effectuera simplement les mêmes biais existants.

Pour essayer de résoudre le problème, nous pourrions rassembler un ensemble de données qui présente en fait de tels biais. Soit nous trouvons un tel ensemble de données, puis étiquetons les biais, soit nous créons synthétiquement un ensemble de données pour aider à illustrer le sujet.

Toutes les étapes identifiées précédemment seraient entreprises, y compris :

  • Configurer un ensemble de données qui contient intentionnellement ce biais particulier
  • Utilisez l'ensemble de données pour former des modèles d'apprentissage automatique (ML) et d'apprentissage en profondeur (DL) sur la détection de ce biais spécifique
  • Appliquez le ML/DL formé aux biais vers d'autres IA pour déterminer si l'IA ciblée est potentiellement biaisée de la même manière
  • Mettre à disposition le ML/DL formé aux biais pour montrer aux constructeurs d'IA ce qu'il faut surveiller afin qu'ils puissent facilement inspecter leurs modèles pour voir comment les biais imprégnés d'algorithmes surviennent
  • Illustrez les dangers de l'IA biaisée dans le cadre de l'éthique de l'IA et de la sensibilisation à l'IA éthique via cet exemple spécifique ajouté
  • Autre

Conclusion

Reprenons la ligne d'ouverture.

Il en faut un pour en connaître un.

Certains interprètent que ce dicton incroyablement répandu implique que lorsqu'il s'agit de dénicher l'IA toxique, nous devrions accorder la crédibilité voulue à la construction et à l'utilisation de l'IA toxique pour découvrir et traiter d'autres IA toxiques. Bottom line: Parfois, il faut un voleur pour attraper un autre voleur.

Une préoccupation exprimée est que nous faisons peut-être tout notre possible pour commencer à fabriquer des voleurs. Voulons-nous concevoir une IA toxique ? Cela ne vous semble-t-il pas une idée folle ? Certains soutiennent avec véhémence que nous devrions interdire toutes les IA toxiques, y compris les IA qui ont été sciemment construites même si elles sont prétendument destinées à un héroïque ou un galant. AI pour de bon objectif.

Éliminez l'IA toxique sous quelque forme intelligente ou insidieuse qu'elle puisse survenir.

Une dernière tournure sur ce sujet pour le moment. Nous supposons généralement que cette célèbre ligne a à voir avec des personnes ou des choses qui font des actes mauvais ou aigres. C'est ainsi que nous arrivons à l'idée qu'il faut un voleur pour attraper un voleur. Peut-être devrions-nous renverser ce dicton et en faire un visage plus heureux qu'un visage triste.

Voici comment.

Si nous voulons une IA impartiale et non toxique, il est peut-être concevable qu'il faille en connaître une. Peut-être faut-il le plus grand et le meilleur pour reconnaître et engendrer davantage de grandeur et de bonté. Dans cette variante de la sagesse sage, nous gardons notre regard sur le visage heureux et visons à nous concentrer sur la conception IA pour de bon.

Ce serait un point de vue plus optimiste et plus joyeux sur le fait qu'il faut en connaître un, si vous voyez ce que je veux dire.

Source : https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- bénéfique-y compris-pour-les-voitures-autonomes/