L'éthique de l'IA perturbée par la dernière attestation de reconnaissance faciale de lecture de l'esprit conçue par la Chine qui pourrait préfigurer des systèmes autonomes oppressifs

Êtes-vous fidèle?

En théorie, il pourrait être possible d'examiner vos actes manifestes et de déterminer si la loyauté est démontrée par vos actions.

Supposons cependant qu'au lieu de cela, il y ait eu une tentative de lire dans votre esprit et de scanner votre visage pour déterminer votre quotient de loyauté. C'est étrangement intrusif; vous pourriez facilement décrier. Cela ressemble à l'un de ces films de science-fiction fous qui envisagent une future société dystopique.

Heureusement, murmurez-vous furtivement, nous n'avons rien de tel aujourd'hui.

Waouh, tiens tes chevaux.

Les gros titres de l'actualité ont récemment révélé qu'un document de recherche publié en ligne en Chine le 1er juillet 2022 décrivait une étude censée impliquer une évaluation des ondes cérébrales des gens et de leurs expressions faciales dans le but de déterminer s'ils étaient fidèles au Parti communiste chinois (PCC) . Donc, voilà, l'avenir se rapproche de plus en plus, du moins en termes d'atteinte de la société dystopique que nous redoutions un jour.

Le document de recherche a rapidement disparu de son lien affiché en ligne.

Vraisemblablement, le mépris rapide qui a rapidement balayé Internet a suffi à faire retirer le journal. Ou, peut-être que les chercheurs veulent juste apporter quelques changements de formulation et d'autres corrections anodines, dans le but de faire une nouvelle publication une fois qu'ils auront eu une chance plus approfondie de s'assurer que les i sont en pointillés et que les t sont tous croisés. Nous devrons garder les yeux ouverts pour voir si le papier aura une seconde vie.

Je vais aller de l'avant et approfondir ce que nous savons de l'étude de recherche et essayer de relier les points sur la façon dont ce type de travail lié à l'IA a une signification pour nous tous, allant bien au-delà de la portée de voir cela comme limité à un pays en particulier. Ma couverture sera un peu plus étendue que les autres reportages récents sur cet article digne d'intérêt, alors s'il vous plaît, soyez indulgent avec moi.

J'insisterai également sur le fait qu'il existe une multitude de leçons essentielles sur l'éthique de l'IA que nous pouvons tirer du prétendu document. Pour ma couverture continue et étendue de l'éthique de l'IA et de l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Voici ce qui a été mentionné jusqu'à présent au sujet de l'étude de recherche.

Apparemment, des « volontaires » ont été recrutés pour participer à une expérience concernant les perceptions du PCC. On ne sait pas s'il s'agissait de volontaires volontaires ou plutôt de volontaires motivés ou peut-être guidés. Nous supposerons, pour les besoins de la discussion, qu'ils étaient d'accord pour faire l'objet de l'étude.

Je soulève cela pour ne pas être simplement smarmy. Chaque fois qu'une expérience est réalisée avec des sujets humains, il existe une pléthore de pratiques généralement acceptées concernant le recrutement et l'immersion de ces sujets dans un effort de recherche. Cela remonte en partie à des études antérieures qui ont souvent trompé ou forcé les gens à s'engager dans une expérience, entraînant parfois des répercussions psychologiques négatives ou même des dommages physiques pour ces participants. La communauté scientifique a tenté avec force de réduire ces types d'études insidieuses et exige que toutes sortes de divulgations et d'avertissements soient fournis à ceux qui sont recherchés pour être inclus dans des études sur l'homme.

Pour clarifier, tout le monde ne respecte pas ces directives prudentes et consciencieuses.

Ensuite, il y aurait eu 43 sujets, et ils auraient été membres du Parti communiste chinois. Gardez à l'esprit que la sélection des sujets pour une expérience est tout à fait cruciale pour l'expérience et doit également être prise en compte concernant les conclusions que vous pourriez essayer de tirer par la suite sur les résultats de l'expérience.

Supposons que je veuille faire une expérience sur la façon dont les gens perçoivent la célèbre série Star Wars. Si je présélectionne des sujets qui détestent tous Star Wars (comment de telles personnes peuvent-elles exister ?) et que je leur montre des clips vidéo de Star Wars, il y a de fortes chances qu'ils disent qu'ils n'aiment toujours pas Star Wars. Sur la base de cette expérience pseudo-scientifique, j'affirme peut-être sournoisement que les gens - en général - détestent vraiment Star Wars, ce qui a été "prouvé" (clin d'œil) dans mon cadre de recherche "soigneusement" préparé.

Vous ne saviez peut-être pas que j'avais truqué la roue de la roulette, pour ainsi dire, en présélectionnant les sujets qui, selon moi, produiraient les résultats souhaités subrepticement. Bien sûr, si j'avais intentionnellement recruté des personnes qui aimaient Star Wars et qui étaient des fans passionnés et zélés, il y a de fortes chances qu'ils se déclarent ravis de regarder ces clips de Star Wars. Encore une fois, toute conclusion tirée sur la façon dont les gens, en général, réagissent à Star Wars serait tempérée par l'ensemble présélectionné de sujets choisis pour l'effort.

L'étude centrée sur le PCC a apparemment demandé aux sujets de s'asseoir devant un affichage vidéo semblable à un kiosque et de lire divers articles sur les politiques et les réalisations du PCC. Il s'agit probablement du « traitement expérimental » considéré auquel les sujets sont exposés. Lors de la planification d'une expérience, vous proposez généralement un facteur ou un aspect expérimental dont vous souhaitez voir s'il a un impact sur les participants.

La question de recherche apparemment explorée était de savoir si le fait d'examiner ces documents aurait un impact sur les sujets en termes d'augmentation, de diminution ou de neutralité quant à leurs impressions ultérieures sur le PCC.

Dans une hypothèse nulle classique, vous pourriez organiser une telle étude pour affirmer que les matériaux consommés n'ont aucun impact sur les impressions ultérieures exprimées par les sujets. Une fois que vous avez fait une comparaison avant et après de leurs points de vue sur le PCC, vous essaierez statistiquement de voir s'il y a eu une détection statistiquement significative d'un changement dans leurs impressions.

Il se peut que l'avant et l'après ne soient pas statistiquement différents, vous pourriez donc raisonnablement conclure provisoirement que pour cette étude particulière, les matériaux affichés (traitement expérimental) ne semblent pas faire de différence dans leurs impressions. D'un autre côté, s'il y avait une différence statistiquement valable, vous chercheriez à voir si l'après était supérieur à l'avant, ce qui vous permettrait de suggérer avec précaution que les matériaux ont stimulé leurs impressions (et, de l'autre côté de la médaille, si l'après était inférieur à l'avant, cela pourrait impliquer que les matériaux ont atténué ou abaissé leurs impressions).

Il y a beaucoup de détails lancinants qui devraient être traités dans une telle étude.

Par exemple, nous voulons généralement avoir un groupe dit de contrôle que nous pouvons comparer à ceux qui reçoivent le traitement expérimental. Voici pourquoi. Supposons que le fait de s'asseoir devant un kiosque pour lire des documents était la véritable raison pour laquelle les impressions ont été modifiées. Il se pourrait que la nature des matériaux consommés soit à peu près sans importance pour l'impact de l'impression. Le simple fait de s'asseoir et de lire n'importe quoi, comme les dernières histoires sur les chats qui font des choses amusantes, pourrait à lui seul faire l'affaire. Nous pourrions donc nous arranger pour que certains sujets soient dans notre groupe de contrôle qui est exposé à un autre matériel à lire, autre que les politiques du PCC et les documents sur les réalisations.

Nous ne savons pas si cela a été fait dans ce cas (personne ne semble avoir encore mentionné cette facette).

Je me rends compte que vous devenez maintenant nerveux à propos de la partie médiatique explosive de l'étude. Nous passerons rapidement à cette partie.

Comment pourrions-nous détecter si les sujets de cette expérience ont répondu ou modifié leurs impressions à la suite de la lecture des documents affichés ?

Un moyen habituel serait de leur demander.

Vous auriez peut-être préalablement administré un questionnaire leur demandant leurs impressions sur le PCC. Ensuite, suite à l'exposition au traitement expérimental, comme dans la lecture des matériaux exposés, nous pourrions administrer un autre questionnaire. Les réponses données par les sujets avant et après pourraient alors être comparées. Si nous utilisions également un groupe de contrôle, nous supposerions que les réponses du groupe de contrôle ne changeraient pas de manière substantielle d'avant en après (sous la conviction que regarder des histoires sur des chats qui gambadent n'aurait pas dû avoir d'impact sur leurs impressions du PCC).

Cet acte de demander aux sujets leurs impressions n'est pas nécessairement aussi simple qu'il y paraît.

Supposons que les sujets de l'expérience aient le sentiment ou la dérive générale que vous vouliez qu'ils répondent au traitement expérimental d'une manière particulière. Dans ce cas, ils pourraient exagérer délibérément leurs réactions dans la partie postérieure de l'administration expérimentale. Vous avez certainement vu cela se produire. Si je fais un test de goût pour un nouveau soda qui arrive sur le marché, je pourrais agir comme si je savourais sauvagement le soda, le faisant dans l'espoir d'être peut-être présenté dans une publicité du fabricant de soda et d'obtenir mes quinze minutes de gloire bien méritées .

L'essentiel est que le simple fait de demander aux gens leur opinion n'est pas un moyen infaillible d'évaluer les changements. C'est une approche. D'autres approches pourraient et sont aussi souvent entreprises.

Comment cette étude particulière a-t-elle choisi d'évaluer les réactions des sujets ?

Apparemment, au moins deux méthodes ont été utilisées. Une méthode consistait à faire un scan facial et à utiliser un logiciel de reconnaissance faciale basé sur l'IA pour évaluer les réactions des sujets. L'autre méthode aurait été une forme de balayage des ondes cérébrales. Il n'a pas encore été signalé quel type d'appareils de balayage des ondes cérébrales ont été utilisés, ni quel type de logiciel d'analyse des ondes cérébrales basé sur l'IA a été utilisé.

Divers rapports ont indiqué que l'étude indiquait ceci à propos de la nature de l'expérience : "D'une part, elle peut juger de la manière dont les membres du parti ont accepté la pensée et l'éducation politique". Et l'étude aurait également mentionné cela : "D'autre part, cela fournira de vraies données pour la pensée et l'éducation politique afin qu'elles puissent être améliorées et enrichies". L'étude de recherche a été attribuée au fait qu'elle a été réalisée sous les auspices du Hefei Comprehensive National Science Center de Chine.

Les rapports des médias suggèrent que l'étude faisait allusion à une affirmation selon laquelle les scans de reconnaissance faciale et les scans des ondes cérébrales pouvaient aider à détecter que les impressions ultérieures étaient amplifiées à propos du PCC.

J'aimerais vous faire remarquer que sans pouvoir examiner directement les systèmes utilisés et examiner de près le document de recherche, nous ne connaissons pas les détails de la manière exacte dont ces systèmes basés sur l'IA ont été utilisés.

Il se pourrait que les sujets réagissent au cadre expérimental plutôt qu'au traitement expérimental. Quiconque participe à une étude peut être anxieux, pour commencer. Cela pourrait confondre tous les efforts pour faire des scans des ondes cérébrales ou une analyse des modèles faciaux. Il y a aussi la possibilité qu'ils se soient sentis motivés pour plaire aux chercheurs, choisissant d'avoir concocté des pensées positives après avoir vu les matériaux et cela pourrait en théorie se refléter dans les scans des ondes cérébrales et les scans du visage (peut-être, mais sachez qu'il y a un grand beaucoup de controverse passionnée sur la validité de telles affirmations, comme je vais l'élucider dans un instant), dans l'espoir de fausser les résultats et de montrer qu'ils ont été positivement impactés.

La réaction de Twitter a considérablement dénoncé le fait que l'idée même d'utiliser les scans d'ondes cérébrales et la reconnaissance faciale alimentés par l'IA est en soi un acte épouvantable et scandaleux. Seuls les monstres humains utiliseraient ce genre d'appareils, nous disent certains de ces tweets.

Je dois vous demander de vous asseoir et de vous préparer à quelque chose qui pourrait être une surprise grossière et choquante.

Il existe de nombreux chercheurs dans le monde qui utilisent ces mêmes types de technologies dans leurs études de recherche. Ce n'est certainement pas la toute première fois qu'une capacité de balayage des ondes cérébrales est utilisée sur des sujets humains dans un effort de recherche. Ce n'était certainement pas non plus la première fois que la reconnaissance faciale était utilisée sur des sujets humains à des fins expérimentales. Même une recherche en ligne rapide vous montrera de nombreuses études expérimentales dans toutes sortes de pays et de laboratoires qui ont utilisé ces types d'appareils.

Maintenant, cela étant dit, les utiliser pour évaluer la loyauté envers le PCC n'est pas quelque chose sur lequel vous vous concentrerez beaucoup. Lorsqu'une telle IA est utilisée pour le contrôle gouvernemental, une ligne rouge a été franchie, comme on dit.

C'est la partie évidemment effrayante de l'ensemble du kit et du caboodle.

La préoccupation exprimée par beaucoup est que si les gouvernements choisissent d'utiliser la technologie de balayage des ondes cérébrales et la reconnaissance faciale pour vérifier la loyauté envers les régimes en place, nous allons nous retrouver dans un monde dystopique de souffrance. Lorsque vous vous promenez dans la voie publique, il se peut qu'un appareil monté sur un lampadaire vienne clandestinement déterminer votre quotient de fidélité.

On suppose que si votre visage ne semble pas suggérer que vous êtes suffisamment loyal, ou si le scanner des ondes cérébrales suggère la même chose, des voyous gouvernementaux pourraient soudainement se précipiter et vous attraper. Déconcertant. Épouvantable. Ne doit pas être autorisé.

C'est le cœur de la raison pour laquelle un tollé jaillissant et l'indignation ont surgi sur ce fait divers.

Imagine ça. Nous allons peut-être concevoir puis mettre en service des systèmes informatiques qui utilisent les dernières avancées en matière d'IA pour décider si nous sommes fidèles ou non. Si vous essayiez d'embaucher des gens pour s'asseoir et faire la même chose, vous auriez besoin de beaucoup de gens et vous auriez un problème de logistique en essayant de les positionner pour surveiller tout le monde. Dans le cas d'un système basé sur l'IA, il vous suffit de configurer les appareils électroniques sur les lampadaires, les côtés des bâtiments, etc. La recherche de fidélité peut avoir lieu 24 heures sur 7, XNUMX jours sur XNUMX, à tout moment, dans tous les lieux ainsi équipés. Cela peut ensuite être introduit dans une base de données massive.

Nous devenons des humains qui ne sont que les rouages ​​d'un écosystème oppressif sociétal colossal qui voit tout et qui surveille tout. L'œil voyant ne se contente pas de regarder ce que nous faisons. C'est aussi interpréter ce que nos visages prétendent dire sur notre loyauté envers le gouvernement. Nos esprits doivent également être examinés pour une cause épouvantable similaire.

Yikes!

Il y a aussi une préoccupation secondaire qui en découle, bien que peut-être pas aussi épineuse par rapport aux implications de Big Brother comme déjà esquissées.

Réfléchissez à ces deux questions urgentes :

  • Pouvons-nous affirmer de manière fiable qu'un scanner des ondes cérébrales peut attester de votre loyauté ?
  • Pouvons-nous affirmer de manière fiable qu'un scan de reconnaissance faciale peut attester de votre fidélité ?

Attendez, vous pourriez être en train de crier à tue-tête.

Je réalise et reconnais que vous ne vous souciez peut-être pas autant des aspects de fiabilité en soi. Que cela puisse être fait de manière fiable est moins crucial que le fait que cela soit fait du tout. Personne ne devrait faire l'objet d'une telle surveillance. Oubliez si la technologie fonctionne correctement pour cette tâche. Nous ne devrions pas entreprendre la tâche dès le départ.

Dans tous les cas, la réponse actuelle est un non catégorique, à savoir que les systèmes d'IA existants qui font un semblant de "scans d'ondes cérébrales" et de reconnaissance faciale ne sont pas suffisamment capables de faire ce saut.

Vous avez peut-être vu récemment que certains des fabricants de reconnaissance faciale ont fait marche arrière en ce qui concerne la façon dont leurs systèmes de reconnaissance faciale sont utilisés. Dans une prochaine chronique, je discuterai des efforts récents, par exemple de Microsoft, pour essayer d'endiguer la marée de ceux qui utilisent les outils de reconnaissance faciale fournis par Microsoft à des fins bien au-delà de ce que la technologie est capable de faire ou devrait être utilisée pour . Vous pourriez trouver intéressant mon regard précédent sur les scrupules de l'éthique de l'IA qui ont déjà été largement médiatisés à propos de la reconnaissance faciale, voir le lien ici. J'ai également discuté de l'arène des scans d'ondes cérébrales, voir ma discussion sur le lien ici.

En bref, il n'existe aucun moyen fiable ou sensé de suggérer qu'un scan des ondes cérébrales ou un scan de reconnaissance faciale puisse prétendre dépeindre la loyauté de quelqu'un. Même des facettes vraisemblablement basiques telles que la possibilité de corréler de manière fiable ces analyses avec le fait que quelqu'un est heureux ou triste font toujours l'objet de débats houleux. Essayer de monter la barre vers quelque chose d'aussi amorphe et variable que la loyauté est un pont trop loin.

J'ajoute que certains croient ardemment que nous finirons par y arriver. C'est pourquoi j'ai soigneusement essayé de noter que nous n'en sommes pas encore là, plutôt que de dire que nous n'y arriverons jamais. Jamais est un bien grand mot. Vous devez être absolument certain si vous allez remuer que cela va n'allons jamais être faisable (en gardant à l'esprit que "jamais" englobe des décennies à partir de maintenant, des siècles à partir de maintenant et des milliers ou des millions d'années à partir de maintenant).

Certains ont réagi au reportage sur cette étude de recherche en laboratoire chinois comme un indicateur de la dangerosité avec laquelle le monde se tourne vers des utilisations inappropriées et dangereuses de l'IA. Je vais partager avec vous un aperçu de ce qu'est l'éthique de l'IA. Cela vous aidera à voir plus clairement pourquoi cette étude particulière semble violer de nombreux, sinon presque tous, les préceptes généralement acceptés de l'IA éthique.

Croyez-le ou non, certains ont suggéré que nous faisions peut-être une montagne d'une taupinière concernant cette étude particulière.

Sommes nous?

Le contre-argument est qu'une taupinière peut assez vite devenir une montagne. Dans la notion proverbiale d'une boule de neige qui grossit de plus en plus en dévalant une colline enneigée, nous devons empêcher la boule de neige de se mettre en route. Si nous tolérons ce type d'études, nous laissons cette boule de neige commencer son voyage. En prenant la parole et en réclamant de telles études, nous pouvons peut-être prévenir la boule de neige.

Une chose est sûre, nous sommes sur le point d'ouvrir la boîte de Pandore en ce qui concerne les aspects de l'IA, et la question demeure de savoir si nous pouvons empêcher l'ouverture de la boîte ou au moins trouver des moyens de gérer prudemment tout ce qui sort une fois que la boîte a libéré son contenu diabolique.

Si rien d'autre, espérons-le, ces types de tempêtes médiatiques susciteront un large débat sur la manière dont nous allons prévenir les actes répréhensibles liés à l'IA et éviter de nombreux risques existentiels provoqués par l'IA. Nous devons augmenter d'un cran notre conscience sociétale de l'éthique de l'IA et des considérations éthiques de l'IA.

Avant d'entrer dans un peu plus de viande et de pommes de terre sur les considérations sauvages et laineuses sous-jacentes à ces types de systèmes d'IA, établissons quelques principes fondamentaux supplémentaires sur des sujets profondément essentiels. Nous devons brièvement nous plonger dans l'éthique de l'IA et en particulier l'avènement de l'apprentissage automatique (ML) et de l'apprentissage en profondeur (DL).

Vous savez peut-être vaguement que l'une des voix les plus fortes ces jours-ci dans le domaine de l'IA et même en dehors du domaine de l'IA consiste à réclamer un plus grand semblant d'IA éthique. Voyons ce que signifie faire référence à l'éthique de l'IA et à l'IA éthique. En plus de cela, nous explorerons ce que je veux dire lorsque je parle d'apprentissage automatique et d'apprentissage en profondeur.

Un segment ou une partie particulière de l'éthique de l'IA qui a retenu l'attention des médias est l'IA qui présente des préjugés et des inégalités fâcheux. Vous savez peut-être que lorsque la dernière ère de l'IA a commencé, il y a eu un énorme élan d'enthousiasme pour ce que certains appellent maintenant AI pour de bon. Malheureusement, dans la foulée de cette excitation jaillissante, nous avons commencé à être témoins AI pour le mal. Par exemple, divers systèmes de reconnaissance faciale basés sur l'IA se sont révélés contenir des préjugés raciaux et des préjugés sexistes, dont j'ai discuté à le lien ici.

Des efforts pour lutter contre AI pour le mal sont activement en cours. En plus bruyant légal Dans le but de freiner les actes répréhensibles, il y a aussi une poussée substantielle vers l'adoption de l'éthique de l'IA pour redresser la méchanceté de l'IA. L'idée est que nous devons adopter et approuver les principes clés de l'IA éthique pour le développement et la mise en service de l'IA afin de saper le AI pour le mal et simultanément annonçant et promouvant le meilleur AI pour de bon.

Dans le même ordre d'idées, je préconise d'essayer d'utiliser l'IA dans le cadre de la solution aux problèmes de l'IA, en combattant le feu par le feu de cette façon de penser. Nous pourrions par exemple intégrer des composants d'IA éthique dans un système d'IA qui surveillera comment le reste de l'IA fait les choses et donc potentiellement détecter en temps réel tout effort discriminatoire, voir ma discussion sur le lien ici. Nous pourrions également avoir un système d'IA distinct qui agit comme un type de moniteur d'éthique de l'IA. Le système d'IA sert de surveillant pour suivre et détecter quand une autre IA entre dans l'abîme contraire à l'éthique (voir mon analyse de ces capacités sur le lien ici).

Dans un instant, je partagerai avec vous quelques principes fondamentaux qui sous-tendent l'éthique de l'IA. Il y a beaucoup de ce genre de listes qui flottent ici et là. On pourrait dire qu'il n'existe pas encore de liste unique d'appel universel et de concurrence. C'est la malheureuse nouvelle. La bonne nouvelle est qu'il existe au moins des listes d'éthique de l'IA facilement disponibles et qu'elles ont tendance à être assez similaires. Tout compte fait, cela suggère que par une sorte de convergence raisonnée, nous trouvons notre chemin vers une communauté générale de ce en quoi consiste l'éthique de l'IA.

Tout d'abord, couvrons brièvement certains des préceptes généraux de l'IA éthique pour illustrer ce qui devrait être une considération vitale pour quiconque élabore, met en service ou utilise l'IA.

Par exemple, comme l'a déclaré le Vatican dans le Appel de Rome pour l'éthique de l'IA et comme je l'ai couvert en profondeur à le lien ici, voici les six principaux principes éthiques de l'IA qu'ils ont identifiés :

  • Transparence: En principe, les systèmes d'IA doivent être explicables
  • Inclusion: Les besoins de tous les êtres humains doivent être pris en considération pour que chacun puisse en bénéficier, et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer et s'épanouir.
  • Responsabilité: Ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder avec responsabilité et transparence
  • Impartialité: Ne créez pas ou n'agissez pas selon des préjugés, préservant ainsi l'équité et la dignité humaine
  • Fiabilité: Les systèmes d'IA doivent pouvoir fonctionner de manière fiable
  • Sécurité et confidentialité: Les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs.

Comme indiqué par le département américain de la Défense (DoD) dans leur Principes éthiques pour l'utilisation de l'intelligence artificielle et comme je l'ai couvert en profondeur à le lien ici, voici leurs six principes éthiques principaux en matière d'IA :

  • Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.
  • Équitable: Le Département prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités d'IA.
  • Traçable: Les capacités d'IA du Ministère seront développées et déployées de manière à ce que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris des méthodologies transparentes et vérifiables, des sources de données, ainsi que des procédures et de la documentation de conception.
  • Fiable: Les capacités d'IA du Ministère auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
  • Gouvernable: Le Département concevra et mettra au point des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter les conséquences imprévues, et la capacité de désengager ou de désactiver les systèmes déployés qui présentent un comportement imprévu.

J'ai également discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et comment ils doivent être généralement observés, alors que c'est une situation beaucoup plus compliquée dans le codage de l'IA devant être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme indiqué précédemment, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Assurons-nous également que nous sommes sur la même longueur d'onde quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur sensible AI, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Gardons les choses plus terre à terre et considérons l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Revenons à notre concentration sur les systèmes d'IA qui sont utilisés à des fins inappropriées ou peut-être carrément répréhensibles et comment cela se rapporte à l'étude récemment publiée sur la fidélité au PCC.

Deux considérations principales me viennent à l'esprit :

1) Cette instance d'IA fait partie d'un modèle continu plus large d'utilisation déconcertante de l'IA et donc inquiétant et révélateur de ce qui se passe

2) Le chat pourrait être sorti du sac de sorte que si une IA comme celle-ci est adoptée dans un pays, elle peut également être facilement propagée à d'autres pays

Commencez par le premier point sur cette instance d'IA faisant partie d'un modèle continu.

Une raison particulièrement importante pour être particulièrement perturbé par cette étude particulière est qu'elle fait partie d'un schéma plus large de la façon dont l'IA vise à être utilisée par certains. S'il s'agissait de la seule étude de ce type jamais menée, nous pourrions en être légèrement émus. Néanmoins, cela ne résonnerait probablement pas avec la ferveur que nous voyons maintenant.

C'est peut-être le goutte à goutte d'un petit pas vers quelque chose qui va devenir incontrôlable.

Comme rapporté dans les nouvelles, la Chine est bien connue pour avoir insisté sur une loyauté effusive envers le PCC. De plus, divers moyens ont été mis en place ou sont en train de l'être pour s'assurer que les gens sont endoctrinés à la doctrine gouvernementale. Il a été cité des exemples d'études antérieures visant à concevoir des algorithmes d'IA qui pourraient évaluer les conditions de pensée des membres du parti (voir le programme soutenu par la Chine Temps d'étude en 2019 qui mentionnait ces efforts).

Vous vous souviendrez peut-être qu'en 2018, le vice-président Mike Pence a prononcé un discours à l'Institut Hudson et a souligné que "les dirigeants chinois visent à mettre en œuvre un système orwellien fondé sur le contrôle de pratiquement toutes les facettes de la vie humaine" (il s'agissait d'une référence à la mise en œuvre par le PCC de un système de notation du crédit social, un sujet de controverse importante). Vous pourriez facilement affirmer que cette récente étude du PCC est un autre pas dans cette direction.

Nous ne savons pas quand ni si la dernière goutte fera déborder le vase, de sorte que ces études ponctuelles sont transformées en systèmes de surveillance basés sur l'IA à grande échelle.

Le deuxième point qui mérite l'attention est que nous ne pouvons pas supposer que ce type d'IA sera uniquement confiné à la Chine. Essentiellement, bien que ce type d'utilisation de l'IA en Chine puisse se généraliser soit en soi dérangeant, d'autres pays pourraient faire de même.

Une fois que l'IA pour cela sera prête pour les heures de grande écoute, il ne faudra probablement pas grand-chose aux autres pays pour décider qu'ils veulent également la mettre en œuvre. Le chat sera sorti du sac. Certains pays utiliseront vraisemblablement cette IA de manière carrément oppressive et n'essaieront pas de faire semblant de le faire. D'autres pays pourraient apparemment chercher à utiliser ce type d'IA à des fins apparemment bénéfiques, dont il y a finalement un inconvénient qui sera presque inévitable.

En fait, suggérer que ce type d'IA ne sera peut-être adopté qu'une fois qu'il sera considéré comme prêt pour les heures de grande écoute est un peu impropre. Il se peut que cela ne fasse aucune différence si l'IA peut fonctionner de cette manière. L'IA peut être utilisée comme couverture, voir mon explication sur le lien ici. Indépendamment de ce que l'IA est réellement capable d'accomplir, l'idée est que l'IA peut être un prétexte pratique pour mettre en place une surveillance de la population et des schémas d'évaluation et de garantie d'une loyauté absolue envers les autorités.

À ce stade de cette discussion importante, je parierais que vous êtes désireux d'exemples illustratifs qui pourraient présenter ce sujet. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur les abus de l'IA, et si oui, qu'est-ce que cela montre ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles où l'IA conduit la voiture entièrement seule et il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de véritable voiture autonome au niveau 5, et nous ne savons même pas encore si cela sera possible d'y parvenir, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et mauvaise utilisation de l'IA

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournira une litanie suffisante de mises en garde pour étayer ce que je suis sur le point de raconter.

Esquissons un scénario de voiture autonome qui pourrait tirer parti de l'IA de manière sommaire ou répréhensible.

Je vais partager avec vous quelques ramifications de voitures autonomes basées sur l'IA qui pourraient vous faire frissonner et être dérangé. Ce sont des facettes dont presque personne ne parle actuellement. J'ai soulevé les questions à plusieurs reprises, tout en reconnaissant ouvertement que tant que nous n'aurons pas une adoption généralisée des voitures autonomes, nous n'obtiendrons pas beaucoup de traction quant à l'inquiétude ou à la colère de la société sur ce qui semble être aujourd'hui de simples notions abstraites. .

Es-tu prêt?

Nous allons commencer par la pose des fondations.

Les voitures autonomes basées sur l'IA seront équipées de caméras vidéo, judicieusement. Cela permet à la voiture autonome de recevoir des images vidéo de la scène de conduite. À son tour, le système de conduite IA qui s'exécute à bord des ordinateurs de la voiture autonome est destiné à examiner par ordinateur la vidéo collectée et à déterminer où se trouve la route, où se trouvent les voitures à proximité, où se trouvent les piétons, etc. Je me rends compte que je récite 101 principes fondamentaux des voitures autonomes.

Des caméras vidéo sont montées à l'extérieur du véhicule autonome et pointent vers l'extérieur. De plus, dans l'ensemble, vous pouvez vous attendre à ce qu'il y ait des caméras vidéo sur ou à l'intérieur du véhicule visant vers l'intérieur de la voiture autonome. Pourquoi donc? Facile, car il y aura de nombreuses utilisations importantes pour la capture vidéo de ce qui se passe à l'intérieur du véhicule autonome.

Lorsque vous partez faire un tour en voiture autonome, vous n'avez plus besoin d'être le conducteur. Que ferez-vous alors à l'intérieur d'une voiture autonome ?

Une chose que vous pourriez faire serait d'interagir avec les autres à la maison ou au bureau. Vous y êtes, en route pour le travail, ce qui dira prendre une heure de temps de conduite en voiture autonome, et vous pouvez déjà commencer votre journée de travail en faisant une session interactive en ligne en temps réel de type Zoom. Ils peuvent vous voir, grâce aux caméras pointant vers l'intérieur de la voiture autonome. Vous pouvez les voir sur un écran LED à l'intérieur de la voiture autonome. À la fin de votre journée, en rentrant chez vous, vous pourriez faire une discussion vidéo interactive similaire avec vos enfants alors qu'ils commencent à faire leurs devoirs pour la soirée.

Une autre utilisation serait de prendre des cours. Maintenant que vous n'avez plus besoin de perdre votre temps à conduire, vous pouvez transformer ce temps mort à l'intérieur d'une voiture autonome en amélioration de vos compétences ou en l'obtention d'une certification ou d'un diplôme. Via les caméras pointant vers l'intérieur, votre instructeur peut vous voir et discuter de l'évolution de votre formation.

Une autre utilisation serait d'essayer de s'assurer que les conducteurs de voitures autonomes ne se déchaînent pas. Dans une voiture à conduite humaine, le conducteur est une présence adulte qui empêche généralement les conducteurs de faire des choses loufoques telles que marquer l'intérieur avec des graffitis. Qu'adviendra-t-il des voitures autonomes basées sur l'IA ? Certains craignent que les conducteurs choisissent de déchirer l'intérieur des véhicules. Pour essayer d'éviter cela, l'entreprise de covoiturage qui déploie les voitures autonomes utilisera probablement des caméras vidéo orientées vers l'intérieur pour surveiller ce que font les gens à l'intérieur du véhicule autonome.

Je suppose que vous êtes convaincu que nous allons avoir des caméras vidéo qui pointent vers l'intérieur des voitures autonomes, en plus des caméras qui pointent vers l'extérieur pour discerner la scène de conduite.

Vous êtes maintenant prêt pour ce que j'ai appelé l'œil itinérant, voir mon analyse sur le lien ici.

Tout d'abord, considérez les caméras vidéo qui pointent vers l'extérieur.

Partout où la voiture autonome ira, elle pourra potentiellement enregistrer en vidéo tout ce que les caméras verront. Une voiture autonome qui emmène quelqu'un de chez lui et l'emmène à l'épicerie traversera un quartier et la vidéo enregistrera non seulement la route, mais aussi tout ce qui se passe à portée de vue. Un père et son fils jouant dans leur cour avant. Une famille assise sur son porche. Ça continue encore et encore.

À l'heure actuelle, nous avons si peu de voitures autonomes sur les voies publiques que cette capacité à capturer des vidéos des activités quotidiennes est relativement rare et immatérielle.

Imaginez que nous parviendrons finalement à des voitures autonomes sûres et généralisées. Des milliers d'entre eux. Peut-être des millions. Nous avons environ 250 millions de voitures conduites par l'homme aux États-Unis aujourd'hui. À terme, ceux-ci seront pratiquement remplacés par des voitures autonomes ou ne seront tout simplement plus utilisés, et nous aurons principalement des voitures autonomes sur nos routes. Ces voitures autonomes sont conduites par l'IA et, en tant que telles, peuvent être en itinérance essentiellement 24 × 7. Pas de pauses, pas de pauses toilettes.

Les données vidéo pourraient être téléchargées à partir de ces voitures autonomes via des connexions de réseau électronique OTA (Over-The-Air). Les voitures autonomes utiliseront OTA pour télécharger les dernières mises à jour logicielles de l'IA dans le véhicule. De plus, l'OTA peut être utilisé pour télécharger des données de la voiture autonome dans une base de données basée sur le cloud.

Tout compte fait, il serait possible d'assembler ces données téléchargées. Avec la couture, vous pourriez potentiellement reconstituer les allées et venues quotidiennes de toute personne qui sortait n'importe quel jour dans n'importe quel endroit qui utilisait largement des voitures autonomes.

C'est l'œil itinérant dont j'ai mis en garde.

Nous pouvons maintenant intégrer l'étude CCP à ce type de capacité. Supposons qu'un gouvernement ait accès à toutes ces données vidéo collectées. Ils pourraient ensuite utiliser un algorithme de reconnaissance faciale basé sur l'IA pour déterminer où vous êtes allé, à quelle heure de la journée, tout au long de vos déplacements quotidiens. De plus, ils pourraient vraisemblablement utiliser leur analyseur basé sur l'IA de «fidélité» pour voir si vous sembliez avoir un regard loyal sur votre visage ou non.

Imaginez qu'un mardi après-midi, vous alliez chercher un sandwich dans un restaurant local. Des voitures autonomes passaient sur la chaussée. Toutes les nombreuses vidéos vous ont capturé alors que vous faisiez votre marche de cinq minutes pour manger un morceau. Les données ont été téléchargées dans une base de données centralisée. Le gouvernement a exécuté son programme de reconnaissance faciale par IA sur les données.

Il s'avère que l'IA a "déterminé" que vous aviez un regard déloyal sur votre visage.

Peut-être que ce regard déloyal n'est arrivé qu'un instant. Vous attendiez au coin d'une rue que la lumière change pour pouvoir traverser la rue jusqu'au restaurant. À ce moment-là, vous avez eu un léger tic de dégoût que vous avez dû attendre trop longtemps pour le symbole Marche. Était-ce une indication peut-être de votre déloyauté envers le gouvernement?

Oui, l'IA calculée par ordinateur, vous avez été abondamment déloyal à cet instant précis. Lorsque vous rentrez chez vous ce soir-là, le gouvernement a organisé votre arrestation.

Mais attendez, il y a plus.

N'oubliez pas que les caméras vidéo pointent également vers l'intérieur.

Ce même mardi, alors que vous vous rendiez au travail dans une voiture autonome, les caméras vidéo capturaient chacun de vos instants. Cela a été téléchargé dans une base de données centralisée. Le logiciel d'intelligence artificielle qui analyse les modèles de visage pour la déloyauté a effectué un examen informatique des modèles de vos expressions faciales pendant le trajet vers le bureau.

À un moment donné, vous regardiez avec désinvolture à l'extérieur du véhicule autonome et avez remarqué un ouvrier du bâtiment qui bloquait partiellement la chaussée et qui faisait ralentir la voiture autonome par le système de conduite IA. Pendant une fraction de seconde, votre visage a enregistré une expression de dérision pour cet ouvrier du bâtiment ralentissant la circulation.

L'analyse des modèles faciaux de l'IA a interprété cela comme un signe de déloyauté envers le gouvernement.

Deux grèves contre vous en une journée.

Vous vivez sur de la glace mince.

Bien sûr, que l'IA ait « raison » ou « tort » de pouvoir déterminer votre loyauté est presque sans importance dans ce contexte. L'essentiel est que l'IA a été mise en place à cette fin. Les humains qui déploient l'IA peuvent ou non se soucier de savoir si l'IA est d'une utilité appropriée pour ce type de tâche. L'IA permet un contrôle gouvernemental, quelle que soit la validité technologique elle-même.

Cela couvre la numérisation du visage.

Si nous avons éventuellement des appareils portables rentables pour effectuer un (présumé) balayage des ondes cérébrales, cela peut certainement également être inclus dans les voitures autonomes. Les caméras vidéo sont une chose sûre maintenant. La possibilité d'avoir des dispositifs de balayage des ondes cérébrales de ce calibre n'est pas envisagée pour le moment, mais c'est clairement quelque chose qui est envisagé pour l'avenir.

Pour mon exploration de la façon dont un gouvernement pourrait essayer de prendre le contrôle d'une population en prenant le contrôle des voitures autonomes, voir le lien ici. Il existe une possibilité similaire qu'un acteur malveillant essaie de faire de même, voir le lien ici. Ce ne sont pas censés être des tactiques effrayantes quant à la couverture de ces sujets connexes, mais plutôt un avertissement sur l'importance de la cybersécurité et d'autres précautions que nous devons, en tant que société, chercher à prendre concernant l'apparition de voitures autonomes omniprésentes et autres véhicules autonomes.

Conclusion

J'aimerais aborder rapidement un aspect supplémentaire concernant l'utilisation de l'IA pour vérifier la loyauté qui, je pense, est un sujet quelque peu distinct, mais sur lequel certains tweets et médias sociaux ont travaillé.

J'ai mentionné plus tôt que nous n'avons pas d'IA sensible et nous ne savons pas si ou quand nous le ferons. Entretenons l'idée que nous aurons une IA sensible. Dans ce cas, considérez le scénario suivant.

Nous optons, via l'IA non sensible, pour mettre en place une utilisation généralisée de l'IA qui vérifie par ordinateur si les gens sont fidèles à leur gouvernement, en utilisant des scans faciaux, des scans d'ondes cérébrales, etc. Ceci est entièrement géré et utilisé par des humains en position d'autorité. C'est le scénario troublant que je viens de décrire quelques instants plus tôt.

Il est temps de monter la barre.

L'IA devient sensible. Nous avons maintenant potentiellement donné à cette IA sensible une capacité généralisée d'identifier vraisemblablement la loyauté et la déloyauté chez les humains. Une IA malfaisante qui envisage d'éliminer les humains pourrait utiliser cette capacité pour décider qu'en effet les humains vont être déloyaux et devraient être entièrement détruits. Ou peut-être que seuls les humains qui présentent une indication de déloyauté via leur visage ou leurs pensées doivent être particulièrement mis au rebut.

Un autre angle est que l'IA souhaite asservir les humains, voir ma discussion sur le lien ici.

Nous semblons avoir donné à l'IA un cadeau parfait pour mener à bien cette quête. L'infrastructure existante que nous mettons en place permet à l'IA de garder une surveillance attentive sur nous, les humains. Ceux qui semblent avoir exprimé une indication faciale déloyale ou pensé au(x) seigneur(s) de l'IA vont ressentir la colère de l'IA.

Je me rends compte que j'ai dit qu'il s'agit d'une augmentation de la mise. Je ne suis pas sûr que ce soit le cas. Il me semble que si nous avons des seigneurs de l'IA qui décident directement de notre sort par rapport aux seigneurs humains qui utilisent peut-être un système d'IA pour déterminer la loyauté, eh bien, aucune des deux propositions ne semble particulièrement souhaitable.

Un dernier commentaire pour le moment.

L'érudit et philosophe romain Marcus Tullius Cicero a déclaré qu'il n'y a rien de plus noble, rien de plus vénérable que la loyauté. Nous pourrions laisser l'IA nous devancer et devenir un outil pour s'enrôler et assurer la « loyauté » par des moyens épouvantables.

Une bonne raison consciente de placer l'éthique de l'IA en tête de notre liste de tâches.

Source : https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- attestation-qui-pourrait-préfigurer-les-systèmes-autonomes-oppressifs/