L'éthique de l'IA et la quête de la conscience de soi dans l'IA

Êtes-vous conscient de vous-même?

Je parierais que vous croyez que vous êtes.

Le fait est que, soi-disant, peu d'entre nous sont particulièrement conscients d'eux-mêmes. Il existe une gamme ou un degré de conscience de soi et nous varions tous soi-disant dans la mesure dans laquelle nous sommes astucieusement conscients de nous-mêmes. Vous pourriez penser que vous êtes pleinement conscient de vous-même et que vous ne l'êtes que marginalement. Vous pourriez être légèrement conscient de vous-même et réaliser que c'est votre état mental.

Pendant ce temps, dans la partie la plus élevée du spectre, vous pourriez croire que vous êtes pleinement conscient de vous-même et que vous êtes franchement aussi conscient de vous-même que possible. Bien pour vous.

En parlant de ça, à quoi ça sert d'être extrêmement conscient de soi ?

Selon une étude publiée dans le Harvard Business Review (HBR) par Tasha Eurich, vous êtes apparemment capable de prendre de meilleures décisions, vous êtes plus confiant dans vos décisions, vous êtes plus fort dans vos capacités de communication et plus efficace dans l'ensemble (selon l'article intitulé "What Self-Awareness Really Is (and How pour le cultiver). " Le facteur bonus est que ceux qui ont une conscience de soi stridente seraient moins enclins à tricher, voler ou mentir. En ce sens, il y a un double d'éviter d'être un scélérat ou un escroc, avec s'efforcer d'être un meilleur être humain et d'embellir son prochain.

Tout ce discours sur la conscience de soi soulève une question quelque peu évidente, à savoir, que signifie réellement l'expression conscience de soi. Vous pouvez facilement trouver des tonnes de définitions et d'interprétations diverses sur le complexe et dirons-nous une construction molle impliquant la conscience de soi. Certains simplifieraient les choses en suggérant que la conscience de soi consiste à se surveiller soi-même, à savoir ce que l'on fait. Vous êtes parfaitement conscient de vos propres pensées et actions.

Vraisemblablement, lorsqu'elle n'est pas consciente d'elle-même, une personne ne réaliserait pas ce qu'elle fait, ni pourquoi, et ne serait pas non plus consciente de ce que les autres ont à dire à son sujet. Je suis sûr que vous avez rencontré des gens qui sont comme ça.

Certaines personnes semblent marcher sur cette terre sans avoir la moindre idée de ce qu'elles font elles-mêmes, et elles n'ont pas non plus un semblant de ce que les autres disent à leur sujet. Je suppose que vous pourriez prétendre qu'ils sont comme un taureau chargeant tête baissée dans une boutique de produits fragiles délicats. Nous avons habituellement tendance à croire que le taureau ne sait pas ce qu'il fait et reste inconscient des points de vue des autres à moins que ces autres essaient de manœuvrer physiquement ou de corraliser la créature ignorante.

On dit que la conscience de soi peut être quelque peu récursive.

Laissez-moi esquisser un exemple pour illustrer cette récursivité. Vous êtes en train de regarder une vidéo de chat assez captivante sur votre smartphone (tout le monde le fait, semble-t-il). Certaines personnes n'auraient pas d'autres pensées apparentes autres que les bouffonneries merveilleuses et réconfortantes de ces chats chéris. Pendant ce temps, toute personne ayant un minimum de conscience de soi sait qu'elle regarde une vidéo de chat. Ils peuvent également être conscients que d'autres autour d'eux remarquent qu'ils regardent une vidéo de chat.

Notez que vous pouvez être conscient de vous-même et être toujours immergé dans une activité principale particulière, dirons-nous. L'activité principale dans ce cas est de regarder la vidéo du chat. Secondairement, et simultanément, vous pouvez penser que vous regardez en fait une vidéo de chat. Vous êtes également capable de penser que les autres vous observent pendant que vous regardez la vidéo de chat tout à fait divertissante. Vous n'avez pas nécessairement besoin d'arrêter une activité, comme cesser de regarder la vidéo du chat, pour ensuite envisager séparément que vous regardez (ou venez de regarder) une vidéo de chat. Ces pensées peuvent apparemment se produire en parallèle les unes avec les autres.

Parfois, notre conscience de soi peut cependant nous expulser ou au moins interrompre une activité mentale primaire. Peut-être, en pensant à votre visionnage de la vidéo du chat, votre esprit s'évanouit-il partiellement car il est trop sollicité pour se concentrer uniquement sur la vidéo elle-même. Vous choisissez ensuite de rembobiner la vidéo pour revoir la partie que vous avez en quelque sorte vue mais que vous avez été mentalement distrait de comprendre pleinement. La conscience de soi a perturbé votre activité mentale primaire.

Bon, nous sommes maintenant prêts pour que les aspects récursifs apparaissent.

Es-tu prêt?

Vous regardez une vidéo de chat. Votre conscience de soi vous informe que vous regardez une vidéo de chat et que d'autres vous regardent pendant que vous regardez la vidéo. C'est le statu quo.

Vous faites ensuite un saut mental supplémentaire. Vous commencez à penser à votre conscience de soi. Vous êtes conscient que vous engagez votre conscience de soi. Voici comment cela se passe : Est-ce que je pense trop à penser à mon visionnage de la vidéo du chat, vous demandez-vous désespérément ? C'est une autre couche de conscience de soi. Classement de la conscience de soi au-dessus des autres consciences de soi.

Il y a un vieux dicton qui dit que ce sont des tortues tout en bas. Pour les phénomènes de conscience de soi, vous pourriez être :

  • Pas conscient de vous-même
  • Conscience de soi
  • Conscience de votre conscience de vous-même
  • Conscience de votre être Conscience de votre conscience de vous-même
  • Ad Infinitum (c'est-à-dire, etc.)

Vous avez peut-être réalisé que je soulignais subtilement plus tôt qu'il semble y avoir deux grandes catégories de conscience de soi. Une théorie particulière postule que nous avons une sorte de conscience de soi interne qui se concentre sur nos états internes, et nous avons également une conscience de soi externe qui aide à évaluer les perceptions à notre sujet de ceux qui nous regardent.

Selon l'article de HBR, voici une description rapide des deux types théorisés de conscience de soi : "Le premier, que nous avons surnommé conscience de soi interne, représente la clarté avec laquelle nous voyons nos propres valeurs, nos passions, nos aspirations, notre adéquation avec notre environnement, nos réactions (y compris les pensées, les sentiments, les comportements, les forces et les faiblesses) et l'impact sur les autres. Et pendant ce temps l'autre est : « La deuxième catégorie, conscience de soi externe, signifie comprendre comment les autres nous perçoivent, en fonction des mêmes facteurs énumérés ci-dessus. Nos recherches montrent que les personnes qui savent comment les autres les voient sont plus aptes à faire preuve d'empathie et à adopter le point de vue des autres.

Une matrice pratique deux par deux ou quatre carrés peut être dérivée en affirmant que la conscience de soi interne et externe varie de haut en bas, et vous pouvez associer les deux catégories l'une contre l'autre. La recherche HBR indique que vous êtes considéré comme l'un de ces quatre archétypes de conscience de soi :

  • Introspecteur : faible conscience de soi externe + conscience de soi interne élevée
  • Chercheur : faible conscience de soi externe + faible conscience de soi interne
  • Pleaser : Conscience de soi externe élevée + Conscience de soi interne faible
  • Conscient : Conscience de soi externe élevée + Conscience de soi interne élevée

Le summum serait l'archétype "conscient" qui consiste à être au sommet de la conscience extérieure et également au sommet de la conscience intérieure. Pour clarifier, vous n'atteignez pas cette posture tant vantée de manière nécessairement permanente. Vous pouvez basculer entre le haut et le bas, entre les domaines de la conscience de soi interne et externe. Cela peut dépendre de l'heure de la journée, de la situation dans laquelle vous vous trouvez et d'une foule d'autres facteurs saillants.

Maintenant que nous avons affablement couvert certains éléments fondamentaux de la conscience de soi, nous pouvons chercher à lier cela au sujet des comportements éthiques.

L'affirmation habituelle sur la conscience de soi est que vous êtes plus susceptible d'être honnête lorsque vous êtes conscient de vous-même. Cela signifie, comme indiqué déjà, que vous êtes moins enclin à des comportements éthiques défavorables tels que voler, tricher et mentir. La justification de cette tendance est que l'activité de votre conscience de soi vous ferait réaliser que votre propre comportement est peu recommandable ou contraire à l'éthique. Non seulement vous vous surprenez à virer dans des eaux boueuses contraires à l'éthique, mais vous êtes également enclin à vous diriger vers la terre ferme (le caractère sacré du territoire éthique), pour ainsi dire.

Votre conscience de soi vous aide à exercer la maîtrise de soi.

Un contraste serait vraisemblablement lorsqu'il y a peu ou pas de conscience de soi, ce qui suggère que quelqu'un est peut-être inconscient de son penchant vers des comportements contraires à l'éthique. Vous pourriez prétendre qu'une personne aussi inconsciente pourrait ne pas se rendre compte qu'elle agit de manière négative. Semblable au taureau dans le magasin de produits fragiles, jusqu'à ce que quelque chose attire plus ouvertement leur attention, il est peu probable qu'ils s'autorégulent.

Tout le monde n'y adhère pas, d'ailleurs. Certains diront que la conscience de soi peut être aussi facilement appliquée à être contraire à l'éthique qu'à être éthique. Par exemple, un malfaiteur peut être pleinement conscient de lui-même et apprécier le fait qu'il commet l'acte répréhensible. Leur conscience de soi les pousse même de plus en plus vers des actes d'inconduite néfastes de plus en plus importants.

Il y a plus de nébulosité là-dessus qu'on ne pourrait le voir directement. Supposons que quelqu'un soit parfaitement conscient de lui-même, mais qu'il ignore les mœurs éthiques d'une société ou d'une culture donnée. De cette manière, ils n'ont aucune orientation éthique, malgré le fait déclaré qu'ils sont conscients d'eux-mêmes. Ou, si vous préférez, peut-être que la personne connaît les préceptes éthiques et ne croit pas qu'ils s'appliquent à eux. Ils se considèrent comme uniques ou en dehors des limites de la pensée éthique conventionnelle.

Ça tourne en rond.

La conscience de soi pourrait être interprétée comme une arme à double tranchant orientée vers l'éthique, certains souligneraient avec ferveur.

Pour le moment, allons-y avec la version happy face consistant en la conscience de soi en gros nous guidant ou nous poussant vers des comportements éthiques. Toutes choses étant égales par ailleurs, nous ferons l'hypothèse impétueuse que plus il y a de conscience de soi, plus vous irez vers l'éthique. Il semble certainement agréable et inspirant de le souhaiter.

Changeons de vitesse et introduisons l'intelligence artificielle (IA) dans l'image.

Nous sommes à un moment donné dans cette discussion pour relier tous les enchevêtrements en cours avec le domaine en plein essor de l'IA éthique, également connue sous le nom d'éthique de l'IA. Pour ma couverture continue et étendue de l'éthique de l'IA, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

La notion d'IA éthique implique d'entrelacer le domaine de l'éthique et du comportement éthique à l'avènement de l'IA. Vous avez certainement vu des gros titres qui ont tiré la sonnette d'alarme sur l'IA qui regorge d'iniquités et de divers préjugés. Par exemple, on craint que les systèmes de reconnaissance faciale basés sur l'IA puissent parfois présenter une discrimination raciale et sexuelle, généralement en raison de la façon dont les installations sous-jacentes d'apprentissage automatique (ML) et d'apprentissage en profondeur (DL) ont été formées et mises en service (voir mon analyse à ce lien ici).

Essayer d'arrêter ou au moins d'atténuer la ruée pêle-mêle vers AI pour le mal, constitués de systèmes d'IA qui sont soit involontairement soit intentionnellement façonnés pour mal agir, il est devenu urgent d'appliquer des préceptes éthiques au développement et à l'utilisation de l'IA. L'objectif sérieux est de fournir des conseils éthiques aux développeurs d'IA, ainsi qu'aux entreprises qui construisent ou mettent en service l'IA, et à celles qui dépendent des applications d'IA. À titre d'exemple des principes éthiques de l'IA en cours d'élaboration et d'adoption, consultez ma couverture sur le lien ici.

Accordez-vous un moment de réflexion pour examiner ces trois questions cruciales :

  • Pouvons-nous amener les développeurs d'IA à adopter les principes éthiques de l'IA et à mettre ces directives en pratique ?
  • Pouvons-nous amener les entreprises qui élaborent ou mettent en œuvre l'IA à faire de même ?
  • Pouvons-nous faire en sorte que ceux qui utilisent l'IA soient également conscients des facettes éthiques de l'IA ?

Je le dirais sans vergogne, c'est un défi de taille.

Le frisson de faire de l'IA peut dominer toute attention portée à l'éthique de l'IA. Eh bien, pas seulement le frisson, mais gagner de l'argent fait également partie intégrante de cette équation. Vous serez peut-être surpris d'apprendre que certains dans le domaine de l'IA sont susceptibles de dire qu'ils s'occuperont des « choses » de l'IA éthique une fois qu'ils auront sorti leurs systèmes d'IA. C'est le mantra technique typique de s'assurer d'échouer rapidement et d'échouer souvent jusqu'à ce que vous réussissiez (espérons-le bien).

Bien sûr, ceux qui poussent sommairement une IA éthiquement douteuse sur le grand public laissent le cheval sortir de la grange. Leur idée tendue proclamée est que le AI pour le mal sera réparé après son utilisation quotidienne, ce qui est dommageable en retard car le cheval galope déjà sans vergogne. Le mal peut être fait. Il y a aussi une probabilité accrue que rien ne soit corrigé ou ajusté pendant l'utilisation de l'IA. Une excuse fréquente est que jouer avec l'IA à ce stade pourrait aggraver la situation en termes de prise de décision algorithmique (ADM) déjà contraire à l'éthique qui dérape complètement.

Que peut-on faire pour obtenir l'utilité et la vitalité de l'IA éthique en tant que lumière brillante et directrice dans l'esprit de ceux qui construisent l'IA, la mettent en service et l'utilisent ?

Réponse Connaissance de soi.

Oui, l'idée est que si les gens étaient plus conscients de la façon dont ils utilisent ou interagissent avec l'IA, cela pourrait augmenter leur propension à vouloir que l'IA éthique soit la norme. On pourrait en dire autant des développeurs d'IA et des entreprises liées aux systèmes d'IA. S'ils étaient plus conscients de ce qu'ils font, ils adopteraient peut-être davantage l'éthique de l'IA.

Une partie de la logique, comme déjà stipulé, est qu'être conscient de soi offre une tendance à être une meilleure personne éthiquement et évite également d'être une personne éthiquement moche. Si nous pouvons maintenir cette prémisse, cela implique que les développeurs d'IA qui sont plus enclins à la conscience de soi seront donc enclins à adopter des comportements éthiques et donc à produire une IA éthiquement saine.

Est-ce un pont trop loin pour vous ?

Certains diront que l'indirectivité est un peu trop. La chaîne exorbitante de liens entre la conscience de soi, la vertu éthique et l'application de préceptes éthiques à l'IA est peut-être difficile à avaler. Un contre-argument est qu'il ne pouvait pas faire de mal d'essayer.

Les sceptiques diraient qu'un développeur d'IA peut être conscient de lui-même et peut-être plus éthique, mais il ne va pas nécessairement se lancer dans l'application de ce campement mental aux mœurs de l'IA éthique. La réponse à ce scrupule est que si nous pouvons faire connaître et populariser les questions d'IA éthique, le lien apparemment ténu deviendra plus évident, attendu et deviendra peut-être la manière standard de faire les choses lorsqu'il s'agit de créer de l'IA.

Je vais maintenant ajouter une touche à cette saga. La torsion pourrait vous faire tourner la tête. Veuillez vous assurer que vous êtes bien assis et préparé pour ce que je vais vous indiquer.

Certains soulignent que nous devrions intégrer l'IA éthique directement dans l'IA elle-même.

Vous pourriez être déconcerté par cette déclaration. Déballons-le.

Un programmeur peut créer un système d'IA et le faire avec sa propre conscience de programmation d'essayer d'empêcher l'IA d'incarner des préjugés et des inégalités. Plutôt que de simplement labourer la programmation, le développeur surveille par-dessus son épaule pour se demander si l'approche qu'il entreprend va entraîner l'absence requise d'éléments indésirables dans l'IA.

Génial, nous avons un développeur d'IA qui semble être suffisamment conscient de lui-même, a cherché à adopter des comportements éthiques et a vu la lumière pour inclure des préceptes éthiques lors de l'élaboration de son système d'IA.

Marquez une victoire pour l'IA éthique !

Tout va bien, mais voici quelque chose qui peut se produire plus tard. L'IA est déployée et utilisée quotidiennement. Une partie de l'IA comprenait un composant permettant d'"apprendre" à la volée. Cela signifie que l'IA peut s'adapter en fonction de nouvelles données et d'autres aspects de la programmation d'origine. En passant, cela ne signifie pas que l'IA est sensible. Nous n'avons pas d'IA sensible. Ignorez ces gros titres stupides qui disent que nous le faisons. Personne ne peut dire si nous aurons une IA sensible, et personne ne peut non plus prédire suffisamment quand cela se produira.

Pour en revenir à notre histoire, l'IA a été délibérément conçue pour s'améliorer en cours de route. Une notion bien pratique. Plutôt que d'avoir à apporter continuellement des améliorations aux programmeurs, ils permettent au programme d'intelligence artificielle de le faire par lui-même (wow, est-ce que c'est vous qui travaillez sans emploi ?).

Pendant que l'IA s'ajuste petit à petit, il s'avère que diverses inégalités et préjugés sordides se glissent dans le système d'IA par ses propres actes d'altération. Alors que le programmeur a initialement gardé ces aspects minables à l'écart, ils formulent maintenant en raison de l'ajustement de l'IA à la volée. Malheureusement, cela peut se produire d'une manière si subtile dans les coulisses que personne n'en est plus avisé. Ceux qui plus tôt auraient pu donner le feu vert à l'IA après les tests exhaustifs initiaux, ignorent maintenant aveuglément que l'IA a emprunté la voie pourrie de AI pour le mal.

Un moyen d'empêcher ou au moins d'attraper cette émergence indésirable serait d'intégrer à l'IA une sorte de double vérificateur d'IA éthique. Un composant au sein de l'IA est programmé pour surveiller le comportement de l'IA et détecter si un ADM contraire à l'éthique commence à émerger. Si tel est le cas, le composant peut envoyer une alerte aux développeurs d'IA ou le faire à une entreprise qui exécute le système d'IA.

Une version plus avancée de ce composant pourrait tenter de réparer l'IA. Il s'agirait d'un ajustement des ajustements, transformant les aspects contraires à l'éthique en paramètres éthiques appropriés. Vous pouvez imaginer que ce type de programmation est délicat. Il y a une chance qu'il s'égare, devenant peut-être contraire à l'éthique en profondément contraire à l'éthique. Il y a aussi la possibilité qu'un faux positif déclenche l'action du composant et peut-être gâcher les choses en conséquence.

Quoi qu'il en soit, sans nous embourber dans le fonctionnement de ce double-vérificateur, nous allons en faire une déclaration audacieuse. Vous pourriez suggérer que, d'une manière limitée, l'IA est censée être consciente d'elle-même.

Yikes, ce sont des mots de combat pour beaucoup.

La croyance dominante de presque tout le monde est que l'IA d'aujourd'hui n'est pas consciente d'elle-même. Point final, point final. Jusqu'à ce que nous atteignions l'IA sensible, dont nous ne savons pas si ou quand cela se produira, il n'y a aucune sorte d'IA consciente d'elle-même. Pas du moins dans le sens d'une conscience de soi orientée vers l'humain. Ne suggérez même pas que cela peut arriver.

Je suis certainement d'accord sur le fait que nous devons faire attention à l'anthropomorphisation de l'IA. J'en dirai plus sur cette préoccupation dans un instant.

En attendant, si, pour les besoins de la discussion, vous êtes prêt à utiliser le phasage "conscient de soi" d'une manière lâche, je pense que vous pouvez voir facilement pourquoi on pourrait dire que l'IA respecte la notion globale d'auto- sensibilisation. Nous avons une partie de l'IA qui surveille le reste de l'IA, gardant un œil sur ce que fait le reste de l'IA. Lorsque le reste de l'IA commence à aller trop loin, la partie surveillance cherche à le détecter. De plus, la partie de surveillance de l'IA ou le double vérificateur peut ramener le reste de l'IA dans les bonnes voies.

Cela ne ressemble-t-il pas un peu au fait de regarder ces vidéos de chats et d'avoir la conscience de soi que vous le faisiez?

Il y a une sonnerie familière.

Nous pouvons l'étendre encore plus. Le composant de double vérification de l'IA n'est pas seulement programmé pour observer le comportement du reste de l'IA, mais note également le comportement de ceux qui utilisent l'IA. Comment se comportent les utilisateurs lorsqu'ils utilisent l'IA ? Supposons que certains utilisateurs expriment leur indignation que l'IA semble les discriminer. Le double vérificateur de l'IA pourrait être en mesure de détecter cela, en l'utilisant comme un autre drapeau rouge indiquant que le reste de l'IA s'égare.

Cela fait apparaître les catégorisations de la conscience de soi interne et de la conscience de soi externe.

Le double vérificateur de l'IA analyse en interne et en externe pour déterminer si le reste de l'IA s'est dirigé vers des mers troublantes. La détection lèvera un drapeau ou provoquera l'exécution d'une autocorrection.

Ajoutons une autre extension quelque peu ahurissante. Nous construisons un autre double-vérificateur d'IA destiné à revérifier le double-vérificateur principal d'IA. Pourquoi donc? Eh bien, supposons que le double vérificateur de l'IA semble faiblir ou ne pas faire son travail. Le double vérificateur AI du double vérificateur chercherait à détecter ce dysfonctionnement et prendrait les mesures nécessaires en conséquence. Bienvenue dans la nature récursive de la conscience de soi, certains pourraient fièrement déclarer, comme le montre un système d'IA computationnelle.

Pour ceux d'entre vous qui sont déjà sur le bord de votre siège à ce sujet, le dernier commentaire, pour l'instant, est que nous pourrions essayer de suggérer que si vous rendez les systèmes d'IA « conscients d'eux-mêmes », ils graviteront alors potentiellement vers un comportement éthique. Le font-ils sur une base sensible? Décidément, non. Le font-ils sur une base informatique? Oui, même s'il faut bien préciser qu'elle n'est pas du même calibre que celle du comportement humain.

Si vous n'êtes pas à l'aise avec le fait que la notion de conscience de soi est déformée à tort pour l'adapter à un schéma informatique, vos appréhensions à ce sujet sont bien notées. La question de savoir si nous devrions mettre un terme aux efforts en cours en matière d'IA qui tirent parti de cette notion est une autre question ouverte. Vous pourriez affirmer de manière convaincante qu'au moins cela semble nous diriger vers un meilleur résultat de ce que l'IA est susceptible de faire. Nous devons cependant avoir les yeux grands ouverts pendant que cela se produit.

Je suppose que nous aurons besoin de voir comment tout cela se déroule. Revenez là-dessus dans cinq ans, dix ans et cinquante ans, et voyez si votre façon de penser a changé sur la question controversée.

Je me rends compte que cela a été un examen quelque peu grisant du sujet et que vous pourriez avoir envie d'exemples quotidiens. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur l'IA ayant un semblant de "conscience de soi" et si oui, qu'est-ce que cela met en valeur ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles que l'IA conduit entièrement seule et qu'il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de vraie voiture autonome au niveau 5, que nous ne savons même pas encore si cela sera possible, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et IA ayant une soi-disant conscience de soi

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournit une litanie suffisante de mises en garde pour sous-tendre ce que je suis sur le point de raconter.

Nous sommes maintenant prêts à plonger en profondeur dans les voitures autonomes et les questions éthiques de l'IA impliquant la notion surprenante d'IA ayant une sorte de conscience de soi si vous voulez.

Prenons un exemple simple et simple. Une voiture autonome basée sur l'IA est en cours dans les rues de votre quartier et semble conduire en toute sécurité. Au début, vous aviez accordé une attention particulière à chaque fois que vous parveniez à entrevoir la voiture autonome. Le véhicule autonome se distinguait par son rack de capteurs électroniques comprenant des caméras vidéo, des radars, des dispositifs LIDAR, etc. Après plusieurs semaines passées à parcourir votre communauté en voiture autonome, vous la remarquez à peine. En ce qui vous concerne, ce n'est qu'une voiture de plus sur les voies publiques déjà très fréquentées.

De peur que vous ne pensiez qu'il est impossible ou invraisemblable de se familiariser avec la vue de voitures autonomes, j'ai souvent écrit sur la façon dont les lieux qui sont dans le cadre des essais de voitures autonomes se sont progressivement habitués à voir les véhicules rafraîchis, voir mon analyse sur ce lien ici. De nombreux habitants sont finalement passés d'un regard bouche bée à un bâillement expansif d'ennui pour assister à ces méandres de voitures autonomes.

À l'heure actuelle, la principale raison pour laquelle ils pourraient remarquer les véhicules autonomes est probablement le facteur d'irritation et d'exaspération. Les systèmes de conduite par intelligence artificielle garantissent que les voitures respectent toutes les limites de vitesse et les règles de la route. Pour les conducteurs humains trépidants dans leurs voitures traditionnelles à conduite humaine, vous êtes parfois contrarié lorsque vous êtes coincé derrière les voitures autonomes basées sur l'IA et strictement respectueuses de la loi.

C'est quelque chose auquel nous devrions tous nous habituer, à tort ou à raison.

Revenons à notre histoire. Un jour, supposons qu'une voiture autonome dans votre ville s'approche d'un panneau d'arrêt et ne semble pas ralentir. Dieux, il semble que le système de conduite IA va avoir la charrue de voiture autonome juste après le panneau d'arrêt. Imaginez si un piéton ou un cycliste se trouvait quelque part à proximité et était pris au dépourvu par le fait que la voiture autonome n'allait pas s'arrêter correctement. Honteux. Dangereux!

Et, illégal.

Considérons maintenant un composant IA dans le système de conduite IA qui agit comme un style de double vérification auto-conscient.

Nous prendrons un moment pour approfondir les détails de ce qui se passe à l'intérieur du système de conduite IA. Il s'avère que les caméras vidéo montées sur le véhicule autonome ont détecté ce qui semblait peut-être être un panneau d'arrêt, bien que dans ce cas, un arbre envahi obscurcisse abondamment le panneau d'arrêt. Le système d'apprentissage automatique et d'apprentissage en profondeur qui a été formé à l'origine sur les panneaux d'arrêt a été conçu sur des modèles de panneaux d'arrêt principalement complets, généralement sans entraves. Lors de l'examen informatique de l'imagerie vidéo, une faible probabilité a été attribuée à l'existence d'un panneau d'arrêt à cet endroit particulier (complication supplémentaire et explication supplémentaire, il s'agissait d'un panneau d'arrêt nouvellement affiché qui n'apparaissait pas sur les cartes numériques préalablement préparées que le système de conduite AI s'appuyait sur).

Dans l'ensemble, le système de conduite de l'IA a déterminé par calcul de continuer comme si le panneau d'arrêt était inexistant ou peut-être un signe d'un autre type qui ressemblait peut-être à un panneau d'arrêt (cela peut arriver et arrive avec une certaine fréquence).

Mais, heureusement, le double vérificateur auto-conscient de l'IA surveillait les activités du système de conduite de l'IA. Lors de l'examen informatique des données et de l'évaluation par le reste de l'IA, ce composant a choisi d'annuler le cours normal de la procédure et a plutôt ordonné au système de conduite de l'IA de s'arrêter de manière appropriée.

Personne n'a été blessé et aucun acte illégal n'a été commis.

On pourrait dire que le double vérificateur auto-conscient de l'IA a agi comme s'il s'agissait d'un agent légal intégré, essayant de s'assurer que le système de conduite de l'IA respectait la loi (dans ce cas, un panneau d'arrêt). Bien sûr, la sécurité était également essentielle.

Cet exemple montre, espérons-le, comment le double vérificateur auto-conscient conçu par l'IA pourrait fonctionner.

Nous pouvons ensuite examiner brièvement un exemple d'IA éthique plus proéminent qui illustre comment la double vérification auto-consciente de l'IA pourrait fournir une fonctionnalité intégrée axée sur l'IA éthique.

Premièrement, en toile de fond, l'une des préoccupations qui ont été exprimées à propos de l'avènement des voitures autonomes basées sur l'IA est qu'elles pourraient finir par être utilisées de manière quelque peu discriminatoire par inadvertance. Voici comment. Supposons que ces voitures autonomes soient configurées pour essayer de maximiser leur potentiel de revenus, ce qui est tout à fait logique pour ceux qui exploitent une flotte de voitures autonomes disponibles en covoiturage. Le propriétaire de la flotte voudrait avoir une exploitation rentable.

Il se pourrait que dans une ville donnée, les voitures autonomes itinérantes commencent progressivement à desservir certaines parties de la communauté et pas d'autres. Ils le font dans un but lucratif, dans la mesure où les zones les plus pauvres peuvent ne pas être aussi génératrices de revenus que les parties les plus riches de la région. Il ne s'agit pas d'une aspiration explicite à servir certains domaines et à ne pas en servir d'autres. Au lieu de cela, il se pose organiquement que l'IA des voitures autonomes "découvre" par calcul qu'il y a plus d'argent à gagner en se concentrant sur les zones géographiquement les plus rémunératrices. J'ai parlé de cette préoccupation éthique sociétale dans ma chronique, comme à le lien ici.

Supposons que nous ayons ajouté un double vérificateur d'intelligence artificielle dans les systèmes de conduite IA. Au bout d'un moment, le composant IA remarque par calcul un modèle d'itinérance des voitures autonomes. Notamment, dans certains domaines mais pas dans d'autres. Sur la base d'avoir été codé avec certains préceptes éthiques de l'IA, le double vérificateur auto-conscient de l'IA commence à guider les voitures autonomes vers d'autres parties de la ville qui étaient autrement négligées.

Cela illustre la notion de conscience de soi de l'IA et le fait en combinaison avec l'élément d'IA éthique.

Un autre exemple de ce type pourrait donner un aperçu du fait que cette considération éthique de l'IA peut également être une ramification de vie ou de mort assez grave et sérieuse.

Prenons l'exemple d'un reportage sur un récent accident de voiture. Apparemment, un conducteur humain arrivait à une intersection très fréquentée et avait le feu vert pour continuer tout droit. Un autre conducteur a dépassé un feu rouge et est entré dans l'intersection alors qu'il n'aurait pas dû le faire. Le conducteur au feu vert s'est rendu compte au dernier moment que cette autre voiture allait percuter violemment sa voiture.

Selon ce conducteur en péril, il a consciemment calculé que soit il allait se faire percuter par l'autre voiture, soit il pouvait faire une embardée pour essayer d'éviter l'intrus. Le problème avec la déviation était qu'il y avait des piétons à proximité qui seraient en danger.

Quel choix feriez-vous ?

Vous pouvez vous préparer à être touché et espérer que les dégâts ne vous mutileront pas ou ne vous tueront pas. D'un autre côté, vous pouvez vous éloigner radicalement, mais mettre gravement en danger et éventuellement blesser ou tuer les piétons à proximité. Il s'agit d'un problème difficile, qui englobe le jugement moral, et qui est pleinement imprégné d'implications éthiques (et juridiques).

Il existe un dilemme éthique à usage général qui couvre ce type de dilemme, célèbre ou peut-être infâme appelé le problème du chariot, voir ma couverture étendue à ce lien ici. Il s'avère qu'il s'agit d'une expérience de pensée éthiquement stimulante qui remonte au début des années 1900. En tant que tel, le sujet existe depuis un certain temps et, plus récemment, il est devenu généralement associé à l'avènement de l'IA et des voitures autonomes.

Remplacez le conducteur humain par un système de conduite IA intégré dans une voiture autonome.

Imaginez alors qu'une voiture autonome dotée d'une intelligence artificielle entre dans une intersection et que les capteurs du véhicule autonome détectent soudainement une voiture à conduite humaine traversant dangereusement un feu rouge et visant la voiture sans conducteur. Supposons que la voiture autonome ait des passagers à l'intérieur du véhicule.

Que voulez-vous que l'IA fasse ?

Si le système de conduite IA choisit d'aller de l'avant et de se faire enfoncer (probablement en blessant ou peut-être en tuant les passagers à l'intérieur du véhicule), ou voulez-vous que le système de conduite IA tente sa chance et s'éloigne, bien que l'action de virage prenne le véhicule autonome dangereusement vers les piétons à proximité et pourrait les blesser ou les tuer.

De nombreux fabricants d'IA de voitures autonomes adoptent une approche tête dans le sable face à ces problèmes éthiques d'intelligence artificielle. Dans l'ensemble, l'IA telle qu'elle est actuellement programmée avancerait simplement et serait violemment percutée par l'autre voiture. L'IA n'a pas été programmée pour rechercher d'autres manœuvres d'évitement.

J'ai prédit à plusieurs reprises que cette position de ne voir aucun mal et d'entendre aucun mal des constructeurs de voitures autonomes à intelligence artificielle finira par se présenter et les mordre (mon analyse est à le lien ici). Vous pouvez vous attendre à des poursuites judiciaires impliquant de tels accidents de voiture qui chercheront à découvrir ce que l'IA a été programmée pour faire. L'entreprise ou les développeurs d'IA ou l'opérateur de flotte qui ont développé et mis en service l'IA ont-ils été négligents ou responsables de ce que l'IA a fait ou n'a pas fait ? Vous pouvez également vous attendre à ce qu'une tempête de feu de sensibilisation éthique à l'échelle du public se prépare une fois que ce genre de cas se produira.

Dans ce dilemme de l'IA éthique, notre double vérificateur conscient de l'IA tant vanté est axé sur l'éthique. Peut-être que ce composant spécial d'IA pourrait s'engager dans ce genre de circonstances. La partie surveille le reste du système de conduite AI et l'état de la voiture autonome. Lorsqu'un moment aussi grave que celui-ci survient, le composant IA sert de solutionneur de problèmes de chariot et propose ce que le système de conduite IA doit faire.

Pas une chose facile à coder, je vous assure.

Conclusion

Je vais partager avec vous la dernière pensée pour l'instant sur ce sujet.

Vous êtes susceptible de le trouver intrigant.

Connaissez-vous le essai de miroir?

Il est assez bien connu dans l'étude de la conscience de soi. Les autres noms de la question sont le test d'auto-reconnaissance du miroir, le test du point rouge, le test du rouge et les formulations associées. La technique et l'approche ont été initialement conçues au début des années 1970 pour évaluer la conscience de soi des animaux. Les animaux qui auraient réussi le test comprennent les singes, certains types d'éléphants, les dauphins, les pies et quelques autres. Les animaux qui ont été testés et qui n'auraient pas réussi le test comprennent les pandas géants, les lions de mer, etc.

Voici l'affaire.

Lorsqu'un animal se voit dans un miroir, l'animal se rend-il compte que l'image montrée est de lui-même, ou l'animal pense-t-il qu'il est un autre animal ?

Vraisemblablement, l'animal reconnaît visuellement sa propre espèce, en ayant vu d'autres de son espèce, et pourrait donc penser que l'animal montré dans le miroir est un cousin ou peut-être un concurrent belliqueux (surtout si l'animal grogne à l'image du miroir, ce qui dans leur tour semble leur répondre en grognant). Peut-être avez-vous vu votre chat domestique ou votre chien bien-aimé faire de même lorsqu'il se voit dans un miroir domestique pour la première fois.

Dans tous les cas, on supposerait qu'un animal sauvage ne s'est jamais vu auparavant. Eh bien, ce n'est pas nécessairement vrai, car l'animal s'est peut-être aperçu dans une mare d'eau calme ou via une formation rocheuse brillante. Mais ceux-ci sont considérés comme des chances moins probables.

D'accord, nous voulons en quelque sorte évaluer si un animal est capable de comprendre qu'il s'agit en fait de l'animal montré dans le miroir. Réfléchissez à cet acte apparemment simple. Les humains comprennent très tôt qu'ils existent et que leur existence est démontrée en se voyant dans un miroir. Ils deviennent conscients d'eux-mêmes. En théorie, vous pourriez ne pas réaliser que vous êtes vous-même, jusqu'à ce que vous vous voyiez dans un miroir.

Peut-être que les animaux ne sont pas capables de devenir cognitivement conscients d'eux-mêmes de la même manière. Il se pourrait qu'un animal se voie dans un miroir et croie perpétuellement qu'il est un autre animal. Peu importe combien de fois il se voit, il penserait toujours que c'est un animal différent de lui-même.

La partie astuce de cela vient jouer. Nous faisons une marque sur l'animal. Cette marque doit être visible uniquement lorsque l'animal se voit dans le miroir. Si l'animal peut se tordre ou se tourner et voir la marque sur lui-même (directement), cela ruine l'expérience. De plus, l'animal ne peut pas sentir, sentir ou de toute autre manière détecter la marque. Encore une fois, s'ils le faisaient, cela ruinerait l'expérience. L'animal ne peut pas savoir que nous avons mis la marque dessus, car cela indiquerait à la bête que quelque chose est là.

Nous voulons restreindre les choses de telle sorte que la seule raison possible pour laquelle la marque est détectable serait de se regarder dans le miroir.

Aha, le test est maintenant prêt. L'animal est placé devant un miroir ou s'y promène. Si l'animal essaie par la suite de toucher ou de creuser la marque, nous pourrions raisonnablement conclure que la seule façon dont cela se produirait est si l'animal se rendait compte que la marque était sur lui-même. Très peu d'espèces animales ont réussi à passer ce test avec succès.

Il y a beaucoup de critiques sur le test. Si un testeur humain se trouve à proximité, il peut révéler des choses en fixant la marque, ce qui peut amener l'animal à se brosser les dents ou à ressentir. Une autre possibilité est que l'animal croit toujours qu'un autre animal est montré dans le miroir, mais il est du même type, et donc l'animal se demande s'il a aussi une marque comme celle sur l'autre animal.

Ça continue encore et encore.

Je suis sûr que vous êtes heureux de le savoir et que vous comprendrez désormais pourquoi il y a un point ou une marque bizarre sur un animal qui autrement n'aurait pas une telle marque. Qui sait, il a peut-être récemment terminé une expérience de test de miroir. Félicitez l'animal, en toute sécurité, pour avoir été un généreux participant.

Qu'est-ce que tout cela a à voir avec les voitures autonomes basées sur l'IA ?

Vous aimerez cette partie.

Une voiture autonome roule sur une longue autoroute. Le système de conduite IA utilise des capteurs pour détecter d'autres véhicules. Il s'agit d'une autoroute à deux voies dont la circulation se dirige vers le nord sur une voie et vers le sud sur l'autre voie. À l'occasion, les voitures et les camions essaieront de se dépasser, en entrant dans la voie opposée, puis en revenant dans leur propre voie de circulation.

Vous l'avez vu, vous l'avez sans doute fait.

Je parie que cet aspect suivant vous est également arrivé. Devant la voiture autonome se trouve l'un de ces gros camions-citernes. Il est en métal brillant. Poli et propre comme un sifflet. Lorsque vous vous placez derrière un tel camion, vous pouvez voir l'image miroir de votre voiture via la partie arrière du camion-citerne. Si vous avez vu cela, vous savez à quel point cela peut être fascinant. Vous êtes là, vous et votre voiture, reflétés dans le reflet miroir de l'arrière du camion-citerne.

Asseyez-vous pour la torsion folle.

Une voiture autonome arrive derrière le camion-citerne. Les caméras détectent l'image d'une voiture qui est montrée dans le reflet semblable à un miroir. Whoa, évalue l'IA, est-ce une voiture ? Cela vient-il de la voiture autonome? Alors que la voiture autonome se rapproche de plus en plus du camion-citerne, la voiture semble se rapprocher de plus en plus.

Aïe, l'IA pourrait calculer par calcul qu'il s'agit d'une situation dangereuse et l'IA devrait prendre des mesures d'évitement à partir de ce véhicule voyou fou. Vous voyez, l'IA ne s'est pas reconnue dans le miroir. Il a échoué au test du miroir.

Que faire? Peut-être que le double vérificateur auto-conscient de l'IA saute dans l'affaire et rassure le reste du système de conduite de l'IA sur le fait qu'il ne s'agit que d'un reflet inoffensif. Danger écarté. Le monde est sauvé. Passage réussi du test AI Mirror !

Avec une conclusion ironique, nous pourrions même suggérer que parfois l'IA est plus intelligente ou au moins plus consciente d'elle-même qu'un ours moyen (bien que, au crédit des ours, ils réussissent généralement bien dans le test du miroir, ayant souvent obtenu habitués à leur reflet dans les flaques d'eau).

Correction, peut-être que l'IA peut être plus consciente d'elle-même que les pandas géants et les lions de mer, mais ne le dites pas aux animaux, ils pourraient être tentés de briser ou de frapper les systèmes d'IA. Nous ne voulons pas cela, n'est-ce pas ?

Source : https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/