L'éthique de l'IA et les lois sur l'IA révèlent des préoccupations troublantes à propos de la vitrine de la Journée de l'IA de Tesla et des ambitions toujours croissantes d'Elon Musk en matière d'IA

Tesla AI Day 2022 est maintenant venu et reparti, s'installant dans les livres d'histoire pour que tous réexaminent et analysent à leur guise.

Vous voyez, le vendredi soir du 30 septembre 2022, et se déroulant dans la Silicon Valley avec une audience en ligne mondiale, le dernier épisode des événements annualisés de la Tesla AI Day a eu lieu. On dit que cette vitrine très attendue fournira à Tesla et Elon Musk l'occasion de se pavaner et de montrer leurs dernières avancées en matière d'IA. Musk souligne généralement que ces événements sont principalement à des fins de recrutement, dans l'espoir d'aiguiser l'appétit des développeurs et ingénieurs de l'IA du monde entier qui pourraient être incités à postuler pour un emploi chez Tesla.

J'ai été inondé de demandes pour faire une analyse approfondie qui va au-delà de la multitude déjà de représentations de rapports quelque peu légères qui ont frappé Internet à propos de ce dernier shindig Tesla AI Day. Je vais vous mettre au courant dans un instant et couvrir en particulier certaines considérations importantes liées à l'éthique de l'IA et aux lois sur l'IA qui jusqu'à présent ne semblent pas avoir attiré une attention notable en ligne.

Et, pour être clair, ce sont des points qui doivent être mis en évidence de manière urgente et importante. Pour mes discussions globales en cours et approfondies sur l'éthique de l'IA et l'IA et le droit, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Découvrons ce qui s'est passé lors de la Tesla AI Day de cette année.

UN CLIN D'OEIL AUX DÉVELOPPEURS ET INGÉNIEURS DE L'IA

Avant d'entrer dans le vif du sujet des présentations, permettez-moi de dire quelque chose de crucial sur les développeurs et les ingénieurs de l'IA qui ont présenté ou qui, de manière herculéenne, ont effectué le travail d'IA en coulisses chez Tesla. Vous devez leur donner le mérite d'avoir essayé de donner un sens aux directives parfois farfelues de Musk quant à ce sur quoi ils devraient travailler et au rythme auquel ils devraient accomplir leur travail.

J'ai mentionné le style de leadership de Musk et sa perspicacité technique en IA dans plusieurs de mes publications précédentes, telles que le lien ici ainsi que le lien ici. D'une part, il est assez pointu pour savoir généralement ce qui se passe dans l'IA et il constitue une formidable force d'inspiration pour viser haut dans la recherche de réalisations en IA. Aucun doute là dessus.

Dans le même temps, il semble également parfois dépourvu de sens pratique en soi et est embrasé de souhaits indomptés et de rêves d'IA en abondance. Il semble rendre les délais à partir de rien. Les intuitions sont la norme au lieu de toute tentative raisonnée au dos de l'enveloppe pour tracer des estimations du monde réel. Il évoque des visions fantaisistes de la façon dont l'IA qui changera le monde va être miraculeusement conçue et parle de délais inaccessibles sans apparemment une touche décidée de pensée systématique et consciente (sa multitude de prédictions sur l'avènement des voitures autonomes entièrement autonomes basées sur l'IA ont démontré à plusieurs reprises des affirmations farfelues et insoutenables).

Certains insistent sur le fait qu'il est un génie et que les génies sont comme ça. C'est la nature de la bête, pour ainsi dire.

D'autres exhortent qu'un leader qui tire à partir de la hanche va inévitablement trébucher et potentiellement le faire à un coût élevé qui, autrement, n'était tout simplement pas nécessaire.

Non pas qu'il ne soit pas pratique d'avoir un leader qui se soucie d'être au plus profond des choses. Cela peut être extrêmement utile. Mais lorsque le visionnaire aux yeux écarquillés sort un peu des limites, il peut être difficile ou difficile pour sa carrière d'essayer de lui faire comprendre ce qui se passe réellement. Comme mentionné sur les réseaux sociaux, certains des développeurs et ingénieurs de l'IA sur scène avec Musk ont ​​semblé reculer silencieusement devant diverses de ses proclamations exagérées. Probablement, leurs esprits s'emballaient avec véhémence pour comprendre ce qu'ils pouvaient faire ou dire pour essayer de sauver la face, en gardant ce train de baril sur un minimum de voie réaliste et en ne volant pas complètement hors des rails.

Coup de chapeau à ces développeurs et ingénieurs en intelligence artificielle.

TROIS SUJETS PRINCIPAUX CETTE FOIS-CI

D'accord, avec cette préface clé de voûte, nous pouvons couvrir les détails de Tesla AI Day.

Il y avait essentiellement trois grands sujets abordés :

(1) Fabrication d'un robot marcheur qui a des caractéristiques humanoïdes (par exemple, Bumble C, Optimus)

(2) Progrès associés au pilote automatique de Tesla et à la soi-disant conduite autonome complète (FSD)

(3) Efforts associés au supercalculateur spécialisé Tesla nommé Dojo

Quelques informations rapides au cas où vous ne seriez pas familier avec ces initiatives de Tesla.

Tout d'abord, Elon Musk a vanté que la prochaine grande percée de Tesla impliquerait le développement et la mise en service d'un robot marcheur qui ressemble à des caractéristiques humanoïdes. Lors du Tesla AI Day 2021 l'année dernière, il y a eu une "démonstration" plutôt embarrassante du robot envisagé qui impliquait une personne portant un costume d'apparence robotique qui sautait et dansait sur la scène. Je dis embarrassant parce que c'était l'un des moments les plus grinçants de toute vitrine d'IA. Ce n'était pas une sorte de maquette ou de prototype. C'était un humain dans un costume léger.

Imaginez que ceux qui ont travaillé sans relâche dans les laboratoires de recherche sur l'IA et la robotique tout au long de leur vie soient en quelque sorte éclipsés par une personne portant un costume et se pavanant devant des caméras rayonnantes dans le monde entier. Ce qui a rendu cela particulièrement séduisant, c'est qu'une grande partie des médias conventionnels ont mangé cela, crochet, ligne et plomb. Ils ont placardé des images du "robot" sur leurs premières pages et semblaient apprécier joyeusement et incontestablement que Musk était sur le point de produire des robots de science-fiction très recherchés.

Même pas proche.

Quoi qu'il en soit, cette année, la personne en costume n'était apparemment plus nécessaire (bien qu'ils attendaient peut-être dans les coulisses au cas où il serait soudainement urgent de réapparaître). Un système ressemblant à un humanoïde quelque peu robotique a été amené sur scène à l'ouverture de la session. Ce robot était appelé Bumble C. Après nous avoir montré cette version initiale indiquée du futur robot envisagé, un deuxième système robotique ressemblant à un humanoïde a été amené sur scène. Cette deuxième version était appelée Optimus. Bumble C a été indiqué comme le prototype de première tentative prêt à l'emploi et est plus avancé en termes de fonctionnalités existantes qu'Optimus. Optimus a été indiqué comme la version avancée probable du robot humanoïde envisagé et pourrait éventuellement être adapté pour devenir un modèle de production disponible sur le marché.

Dans l'ensemble, l'essentiel de l'action et de l'attention du Tesla AI Day 2022 s'est concentré sur ce type de robots marcheurs. Les gros titres des bannières se sont succédés. Les avancées liées au pilote automatique et au FSD n'ont pas suscité la même attention, et les détails sur Dojo n'ont pas fait l'objet de beaucoup de journaux.

En parlant de pilote automatique et de FSD, nous devons nous assurer qu'un certain temps d'antenne est accordé à cette partie de la Tesla AI Day. Comme le savent les lecteurs fidèles, j'ai couvert plusieurs fois en détail le pilote automatique de Tesla et les capacités dites de conduite autonome complète (FSD).

En bref, les voitures Tesla sont aujourd'hui classées au niveau 2 sur l'échelle d'autonomie. Cela signifie qu'un conducteur titulaire d'un permis humain doit à tout moment être au volant de la voiture et être attentif à la conduite. L'humain est le conducteur.

Je mentionne ce point important sur le niveau d'autonomie car de nombreuses personnes non techniques croient à tort que les Teslas d'aujourd'hui sont au niveau 4 ou au niveau 5.

Faux!

Un niveau 4 est une voiture autonome qui se conduit elle-même et n'a pas besoin ni n'attend un conducteur humain au volant. Le niveau 4 est alors délimité par rapport à un domaine de conception opérationnelle (ODD) ciblé spécifique. Par exemple, un ODD pourrait être que l'IA ne peut conduire la voiture que dans une ville particulière telle que San Francisco, et uniquement dans des conditions stipulées telles que le soleil, la nuit et jusqu'à une pluie légère (mais pas dans la neige, par exemple). Un niveau 5 est une voiture autonome basée sur l'IA qui peut fonctionner de manière autonome pratiquement n'importe où et dans toutes les conditions où un conducteur humain pourrait conduire une voiture de manière gérable. Pour mon explication détaillée des niveaux 4 et 5, voir le lien ici.

Vous pourriez être surpris d'apprendre que les Teslas avec pilote automatique et les soi-disant FSD ne sont que de niveau 2. La dénomination de "Full Self-Driving" semblerait certainement impliquer que les voitures doivent être au moins de niveau 4 ou éventuellement de niveau 5. et le tollé a été que Tesla et Musk ont ​​nommé leur système de conduite IA "Full Self-Driving" alors que ce n'est clairement pas le cas. Des poursuites ont suivi. Certains pays les ont pris à partie pour le naming.

Le contre-argument habituel est que la "conduite entièrement autonome" est un objectif ambitieux et qu'il n'y a absolument rien de mal à nommer le système de conduite IA pour ce qu'il est destiné à devenir. Le contraire de ce contre-argument est que les personnes qui achètent ou conduisent une Tesla avec le FSD sont bercées (ou, selon les critiques, trompées) en pensant que le véhicule est en effet de niveau 4 ou de niveau 5. Je ne vais pas insister sur le point ici et suggérer que tu pourrais jeter un oeil à ce lien ici pour plus d'informations sur des sujets tels que le pilote automatique et le FSD.

Le troisième sujet concernait le supercalculateur spécialisé Tesla connu sous le nom de Dojo.

Comme arrière-plan utile, sachez qu'une grande partie des systèmes d'IA d'aujourd'hui utilisent l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL). Il s'agit de techniques et de technologies d'appariement de modèles informatiques. La technologie sous le capot de ML/DL utilise souvent des réseaux de neurones artificiels (ANN). Considérez les réseaux de neurones artificiels comme une sorte de simulation grossière qui tente d'imiter la notion de la façon dont notre cerveau utilise les neurones biologiques qui sont interconnectés les uns avec les autres. Ne croyez pas à tort que les ANN sont les mêmes que les vrais réseaux de neurones (c'est-à-dire, les wetwares dans votre caboche). Ils ne sont même pas proches.

Lors de la conception de l'IA pour l'auto-conduite, l'utilisation de réseaux de neurones artificiels est largement utilisée. La plupart des voitures autonomes contiennent des processeurs informatiques spécialisés adaptés pour gérer les ANN. Pour programmer et établir les ANN, un constructeur automobile ou un fabricant de technologie autonome utilisera généralement un ordinateur plus grand qui permettra des tests à grande échelle. Les ANN conçus peuvent ensuite être téléchargés dans les véhicules autonomes à l'aide de capacités de mise à jour en direct (OTA).

Dans le cas de Tesla, ils ont conçu leur propre supercalculateur conçu pour faire des ANN. Cela fournit une capacité propriétaire qui peut potentiellement armer efficacement et efficacement les développeurs d'IA avec le type de bande passante de calcul dont ils ont besoin pour créer l'IA qui fonctionnera dans leurs voitures autonomes.

Une autre chose à propos des réseaux de neurones artificiels et du ML/DL.

En plus d'utiliser une telle technologie pour les voitures autonomes, le même type de technologie peut être utilisé pour programmer des robots tels que les systèmes d'apparence humanoïde tels que Bumble C et Optimus.

Au total, j'espère que vous pouvez maintenant voir comment les trois principaux sujets du Tesla AI Day sont liés les uns aux autres.

Il existe un supercalculateur spécialisé Tesla nommé Dojo qui permet le développement et le test de ML/DL/ANN en utilisant des capacités de traitement à grande échelle. Ces ML/DL/ANN peuvent être programmés pour servir de système de conduite IA et téléchargés dans les voitures Tesla en conséquence. De plus, la programmation des systèmes robotiques de Bumble C et Optimus peut également être conçue sur Dojo et téléchargée dans les robots. Dojo peut fournir une double tâche. Les développeurs d'IA affectés au pilote automatique et au FSD peuvent utiliser Dojo pour leurs efforts de travail. Les développeurs d'IA affectés à Bumble C et Optimus peuvent utiliser Dojo pour leurs efforts.

Comme vous pouvez le deviner, il existe un chevauchement ou une synergie potentielle entre les efforts ML/DL/ANN des développeurs d'IA pour Autopilot/FSD et ceux des poursuites Bumble C et Optimus. J'en dirai plus à ce sujet, alors restez sur le bord de votre siège.

Vous êtes maintenant officiellement à bord de ce qui se passe et nous pouvons plonger dans les détails de la journée Tesla AI 2022.

Félicitations pour être arrivé jusqu'ici.

QUELQUES POINTS CLÉS DES VULNÉRABILITÉS ET DES PROBLÈMES

Il y a une multitude de problèmes et de préoccupations liés à l'IA qui ont surgi en regardant le Tesla AI Day 2022.

Je ne peux pas tous les couvrir ici en raison de contraintes d'espace, alors choisissons-en au moins quelques-uns pour creuser.

En particulier, voici cinq questions globales que j'aimerais aborder :

1) Lois liées à l'IA et questions juridiques relatives aux droits de propriété intellectuelle (PI)

2) Les lois liées à l'IA viennent d'être publiées, telles que la COPPA

3) L'éthique de l'IA et le problème de la robotique

4) Les lois relatives à l'IA pour la conduite autonome ne sont pas les mêmes pour les robots marcheurs

5) Expositions juridiques d'équipes d'IA en harmonie pour les robots autonomes et marchants

Je vais les couvrir un à la fois, puis faire une synthèse.

LOIS SUR L'IA ET DROITS JURIDIQUES DE PROPRIÉTÉ INTELLECTUELLE

Nous commencerons par un enchevêtrement juridique encore à venir mais qui pourrait être assez notable.

Tout d'abord, sachez que Bumble C et Optimus ont été présentés comme des systèmes robotiques de marche présumés qui semblaient avoir des jambes, des pieds, des bras, des mains artificiels et une partie du torse principal et une structure en forme de tête. Ainsi, ils ressemblent à des systèmes imaginés par des humanoïdes que vous avez vus dans toutes sortes de films de science-fiction.

Au cours des présentations, il a été déclaré que Bumble C avait des composants semi-off-the-shelf. Cela a du sens dans la mesure où pour concevoir rapidement un premier prototype, l'approche la plus rapide consiste généralement à bricoler d'autres éléments déjà connus et déjà éprouvés. Cela vous permet d'être rapidement opérationnel. Cela vous fait gagner du temps pour concevoir des composants propriétaires si c'est ce que vous voulez finalement avoir.

Les présentations semblent également indiquer qu'Optimus était composé de composants apparemment principalement locaux ou propriétaires. Quelle part de l'Optimus montré a cette prépondérance n'était pas claire. De plus, quoi qu'il ait, la suggestion implicite était que l'objectif était de viser à être aussi propriétaire que possible. Cela peut avoir du sens dans la mesure où cela signifie que vous pouvez à peu près avoir un contrôle total sur les composants et ne pas dépendre d'un tiers pour les fournir.

Jusqu'ici, tout va bien.

Un peu d'accroc pourrait cependant arriver sur le brochet.

Accordez-moi un instant pour vous expliquer.

Vous savez peut-être vaguement que Musk s'est moqué de l'utilisation des brevets, une forme de propriété intellectuelle (PI). Ses tweets récents ont indiqué que la propriété intellectuelle est apparemment pour les faibles. Cela implique que la propriété intellectuelle est apparemment utilisée principalement à des fins de pêche à la traîne. En plus de cela, cela implique que les PI telles que les brevets ralentissent ou entravent les progrès technologiques.

Étant donné cette philosophie émanant du sommet de Tesla, nous devons nous poser quelques questions prudentes.

Tesla demandera-t-il des brevets pour les composants propriétaires de Bumble C et Optimus ?

Si tel est le cas, cela n'implique-t-il pas que Tesla et Musk sont «faibles» dans le même sens que Musk a tourné en dérision les autres qui recherchent des protections IP?

S'ils ne visent pas à obtenir des brevets pour les systèmes robotiques, on se demande comment ils se sentiront si d'autres commencent à concevoir des robots marcheurs de nature similaire et le font en imitant ou en copiant carrément Bumble C et Optimus. Tesla et Musk poursuivront-ils légalement ceux qui le font, affirmant que les composants sont des secrets commerciaux et de nature protégée ?

Ou pourraient-ils breveter la technologie et ensuite rendre les brevets ouvertement accessibles à tous ? Cela a été considéré comme un moyen important de permettre l'adoption des véhicules électriques. En va-t-il de même pour les systèmes robotiques ?

Peut-être encore plus alarmant pour Tesla et Musk sera la possibilité qu'ils enfreignent d'autres systèmes robotiques qui ont des brevets et des IP établis.

On pourrait raisonnablement deviner qu'au rythme effréné des développeurs et ingénieurs de l'IA chez Tesla, ils ne font pas nécessairement des recherches de brevets avec soin et consciencieusement pour s'assurer que leurs composants n'enfreignent pas les brevets existants. Il y a de fortes chances que ce ne soit probablement pas à l'esprit, ou même si la discussion est peut-être mise de côté pour le moment. Pourquoi retarder maintenant alors que vous pouvez repousser le problème juridique potentiel de la propriété intellectuelle plus loin ? Si vous êtes confronté à des délais serrés, vous vous débrouillez pour l'instant et supposez que quelqu'un d'autre peut-être dans des années paiera le prix de cette négligence actuelle.

Les brevets existent à profusion dans le domaine de l'IA. Il existe un éventail byzantin de brevets pour les mains robotiques, les bras robotiques, les jambes robotiques, les pieds robotiques, les torses robotiques, les têtes robotiques, etc. C'est un champ de mines légal. J'ai été témoin expert dans des affaires de droits de propriété intellectuelle dans le domaine de l'IA et il y a une énorme surabondance de brevets, ainsi que leur nature qui se chevauchent souvent, ce qui présente un territoire inquiétant.

Pour ceux d'entre vous qui détiennent des brevets sur des membres robotiques et d'autres composants de robotique de marche, continuez à les déterrer. Commencez à regarder de près Bumble C et Optimus. Mettez vos avocats en PI en file d'attente. Chaque jour qui passe, une mine d'or se construit pour vous, une mine qui, si elle s'appuie sur votre adresse IP, sera une belle récompense d'une entreprise gigantesque aux poches glorieusement profondes.

Vous pouvez ignorer l'étiquette puante d'être "faible" tout en vous rendant à la banque.

LOIS SUR L'IA ET COMPLICATIONS JURIDIQUES CONNEXES ENTRANT EN EXISTENCE

Vous vous demandez peut-être à quoi vont servir Bumble C et Optimus. Étant donné que Bumble C semble être un prototype rapide et sale, concentrons-nous simplement sur Optimus, qui est considéré comme le robot actuel et futur qui suscite un vif intérêt chez Tesla.

A quoi servira Optimus ?

Selon Musk, il a suggéré qu'avec de tels robots, nous n'aurons plus jamais besoin de lever la main ou d'effectuer à nouveau une corvée ou un travail physique. À la maison, le robot marcheur pourra sortir les poubelles, mettre vos vêtements dans la machine à laver, plier vos vêtements après les avoir sortis de la sécheuse, préparer votre dîner et effectuer toutes sortes de tâches ménagères.

Sur le lieu de travail, Musk a suggéré que de tels robots puissent prendre en charge le travail à la chaîne. En plus de travailler dans des usines ou dans des conditions de travail potentiellement difficiles, ces robots peuvent également travailler au bureau. Au cours de la présentation, un court clip vidéo d'un environnement de bureau montrait le robot déplaçant une boîte comme s'il livrait la boîte à un humain travaillant dans le bureau. Nous avons même été taquinés par un court clip vidéo du robot arrosant une plante dans un bureau.

Je suis sûr que chacun de nous peut facilement trouver une litanie de façons d'utiliser un robot marcheur qui possède un ensemble de fonctionnalités proches de celles des humains.

J'ai une touche pour vous.

Imaginez qu'Optimus est utilisé dans une maison. Le robot effectue des tâches ménagères. Nous supposerions naturellement qu'Optimus aura une certaine forme d'interactivité conversationnelle, peut-être comme Alexa ou Siri. Sans un moyen viable de communiquer avec le robot, vous auriez du mal à le faire se déplacer confortablement dans votre foyer parmi vous, votre proche, vos enfants, vos animaux de compagnie, etc.

Pour ceux qui regardent en ligne, nous ne semblons pas être au courant de quelque démonstration que ce soit de la capacité de parole ou de conversation d'Optimus. Il n'y avait pas non plus un semblant d'indication des capacités de traitement.

Au lieu de cela, nous n'avons vu que Bumble C à peine capable de monter sur scène (vacillant, incertain, et je suppose qu'il a provoqué un arrêt cardiaque pour les ingénieurs alors qu'ils priaient les dieux de la robotique pour que la fichue chose ne s'effondre pas ou ne devienne pas fou) . Optimus a été poussé ou malmené sur scène. Aucune marche n'a eu lieu. Nous avons été informés que soi-disant Optimus est sur le point de pouvoir marcher.

Une esquive de démo classique et incroyablement, y compris qu'il semble qu'une grande partie des médias d'information conventionnels y aient adhéré.

Les robots dansants du monde entier ont dû ressentir de la honte pour ce qui s'est passé sur cette scène.

Mais je m'égare. Revenons à Optimus servant de robot marcheur dans une maison de tous les jours et supposons que des enfants soient présents dans cette ferme.

La Californie a récemment promulgué une nouvelle loi connue sous le nom de California Age-Appropriate Design Code Act (COPPA). Je vais discuter de cette nouvelle loi dans ma chronique et vous pouvez parier que d'autres États promulgueront bientôt des lois similaires. C'est une loi que toute personne qui conçoit l'IA doit connaître (enfin, toute personne qui conçoit tout type d'informatique susceptible d'entrer en contact avec des enfants doit également en être consciente).

L'essentiel de la loi est que tout système susceptible d'être accessible aux enfants devra se conformer aux dispositions visant à garantir les aspects de confidentialité de l'enfant. Diverses informations personnelles qu'un système d'IA ou tout système informatique pourrait collecter sur l'enfant doivent respecter la confidentialité des données et les droits de l'enfant. Les sanctions et autres conséquences juridiques en cas de non-respect de la loi ont été précisées.

Si Optimus est utilisé dans un ménage qui contient ou pourrait inclure des enfants, le robot pourrait facilement collecter des informations privées sur l'enfant. Les énoncés parlés peuvent être enregistrés. L'emplacement de l'enfant peut être enregistré. Toutes sortes d'informations détaillées sur l'enfant pourraient être détectées par le robot.

L'équipe Optimus a-t-elle réfléchi à la manière de respecter cette nouvelle loi et la pléthore émergente de nouvelles lois sur l'IA ?

Encore une fois, c'est probablement bas sur la liste des priorités. Ce que je veux dire, c'est que cette loi et d'autres lois liées à l'IA se multiplient comme une traînée de poudre. Un robot marcheur basé sur l'IA va entrer dans un nid de frelons de lois. Tesla peut soit obtenir des avocats à ce sujet maintenant et anticiper ce qui va se produire légalement, en espérant éviter de se retrouver dans des bourbiers juridiques et fournir des conseils aux développeurs et ingénieurs de l'IA, soit faire la chose habituelle axée sur la technologie et attendre de voir ce qui se passe (généralement seulement après s'être embourbé dans un bourbier juridique).

Payez-moi maintenant ou payez-moi plus tard.

Les techniciens n'envisagent souvent pas de me payer maintenant et finissent par se faire prendre par surprise et payer plus tard.

ÉTHIQUE DE L'IA ET PROBLÈME DE LA ROBOTIQUE

Dans les colonnes précédentes, j'ai couvert les divers efforts nationaux et internationaux pour élaborer et promulguer des lois réglementant l'IA, voir le lien ici, par exemple. J'ai également couvert les divers principes et directives d'éthique de l'IA que de nombreux pays ont identifiés et adoptés, y compris par exemple l'effort des Nations Unies tel que l'ensemble d'éthique de l'IA de l'UNESCO que près de 200 pays ont adopté, voir le lien ici.

Voici une liste clé utile de critères ou de caractéristiques éthiques de l'IA concernant les systèmes d'IA que j'ai déjà explorés de près :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA sont sincèrement censés être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA.

Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Il faut un village pour concevoir et déployer l'IA, et pour laquelle tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Tesla et Elon Musk ont-ils accordé une attention sérieuse et dévouée aux ramifications de l'éthique de l'IA d'un robot marcheur ?

Selon ce qui a été dit lors des présentations, apparemment, seule une attention superficielle a été accordée jusqu'à présent à la question.

Lors de la séance de questions-réponses, on a demandé à Musk s'ils avaient examiné les aspects généraux de ce que les robots marcheurs feraient pour la société. Nous savons déjà tous que Musk a déclaré à plusieurs reprises qu'il considérait l'IA comme un risque existentiel pour l'humanité, voir ma couverture sur le lien ici. On pourrait certainement supposer que si l'on fabrique des robots qui marcheront parmi nous, et qu'il s'attend peut-être à ce que des millions et des millions de ces robots soient vendus pour un usage public et privé, cela soulève naturellement les problèmes d'IA éthique de l'humanité.

La réponse à la question semble suggérer que les efforts en cours sont trop prématurés pour explorer notamment les possibilités de l'éthique de l'IA.

C'est encore une autre réponse technique classique et lamentable.

De nombreux développeurs et ingénieurs en IA considèrent l'éthique de l'IA comme un sujet après coup. Pas besoin de confondre les efforts de travail d'IA existants. Continuez simplement à avancer. Un jour, bien sûr, peut-être que l'éthique de l'IA reviendra, mais jusque-là, c'est tête baissée et à toute vitesse.

Malheureusement, une approche tête dans le sable de l'IA éthique est une mauvaise nouvelle pour tout le monde. Une fois que l'IA ou dans ce cas le système robotique aura progressé sur la voie du développement, il deviendra de plus en plus difficile et coûteux d'intégrer les préceptes d'éthique de l'IA dans le système. Il s'agit d'une manière à courte vue de traiter les considérations éthiques de l'IA.

Supposons qu'ils attendent que le robot marcheur soit déjà installé chez les gens. À ce stade, les risques de préjudice pour les humains ont augmenté et, outre le potentiel de dommages nuisibles, une entreprise qui a attendu les dernières étapes se retrouvera face à d'énormes poursuites judiciaires. Vous pouvez parier que des questions difficiles seront posées sur les raisons pour lesquelles ces types de facettes de l'IA éthique n'ont pas été dûment prises en compte et pourquoi elles n'ont pas été traitées plus tôt dans le cycle de vie du développement de l'IA.

Le fait que Musk ait évoqué à plusieurs reprises des considérations d'éthique de l'IA lors de la discussion des risques existentiels de l'IA rend cette omission apparente ou ce manque de préoccupation actuelle pour l'IA éthique sur ses robots marcheurs une question encore plus séduisante.

La connaissance de Musk rend cela particulièrement déconcertant.

Certains hauts dirigeants ne savent même pas qu'il y a des problèmes d'IA éthique à affronter - j'ai discuté avec ardeur de l'importance pour les entreprises d'établir des comités d'éthique de l'IA, voir le lien ici.

LES LOIS SUR L'IA POUR LA CONDUITE AUTONOME NE SONT PAS LES MÊMES POUR LES ROBOTS MARCHEURS

J'ai mentionné plus tôt que les Tesla existantes qui utilisent le pilote automatique et le FSD sont au niveau 2 d'autonomie.

C'est pratique pour Tesla et Musk, car ils peuvent s'accrocher à l'idée que, puisqu'un niveau 2 nécessite un conducteur humain activement au volant, presque tout ce que fait le système d'auto-conduite IA est une preuve d'évasion du point de vue de la responsabilité. Tesla et Musk peuvent simplement insister sur le fait que le conducteur humain est responsable de la conduite.

Notez que ce ne sera pas le cas pour les niveaux 4 et 5, où le constructeur automobile ou l'exploitant de flotte, ou quelqu'un devra intervenir en tant que partie responsable des actions d'une voiture autonome.

Notez également que cette affirmation selon laquelle le conducteur humain est responsable ne peut être étendue qu'au niveau 2 et au niveau 3, et nous verrons bientôt des affaires juridiques quant à savoir jusqu'où cela peut aller.

Au cours de la présentation, plusieurs points ont été soulevés sur le fait que les travaux sur les voitures autonomes IA peuvent être facilement transférés ou réappliqués au domaine des robots marcheurs. C'est un peu vrai. Ceci est cependant aussi quelque peu trompeur ou, dans certains cas, une représentation dangereuse.

Nous pouvons commencer par le report évident impliquant le traitement de la vision basé sur l'IA. Les voitures autonomes utilisent des caméras vidéo pour collecter des images et des vidéos de l'environnement autour du véhicule. L'utilisation de ML/DL/ANN est généralement utilisée pour trouver par calcul des modèles dans les données collectées. Vous feriez cela pour identifier où se trouve la chaussée, où se trouvent les autres voitures, où se trouvent les bâtiments, etc.

En théorie, vous pouvez réutiliser ces ML/DL/ANN identiques ou similaires pour essayer de comprendre ce que rencontre un robot marcheur. Dans un foyer, le système de vision du robot scannerait une pièce. La vidéo et les images collectées pourraient être examinées par ordinateur pour déterminer où se trouvent les portes, où se trouvent les fenêtres, où se trouve le canapé, où se trouvent les gens, etc.

Semble sensé.

Mais voici la torsion.

Pour ces voitures autonomes de niveau 2, la conduite dépend d'un conducteur humain. La responsabilité légale de ce que fait la voiture repose généralement sur les épaules du conducteur humain. Aucune protection de ce type n'est probable dans le cas d'un robot marcheur.

En d'autres termes, un robot marcheur est dans votre maison. Supposons qu'en tant qu'adulte, vous ne télé-opérez pas avec le robot. Le robot se déplace librement dans la maison en fonction de l'IA configurée dans le robot marcheur.

Le robot se cogne dans un bocal à poissons. Le bocal s'écrase au sol. Un enfant à proximité est malheureusement coupé par des éclats de verre. Heureusement, l'enfant va bien et les coupures sont mineures.

Qui est responsable de ce qui s'est passé ?

J'ose dire que nous serions tous raisonnablement d'accord pour dire que le robot est "en faute" en ce qu'il a heurté le bocal à poissons (toutes choses étant égales par ailleurs). Il y a un débat en cours et houleux sur la question de savoir si nous allons attribuer la personnalité juridique à l'IA et donc potentiellement être en mesure de tenir l'IA responsable des actes répréhensibles. J'ai couvert ça à le lien ici.

Dans ce cas ou ce scénario, je ne veux pas rester bloqué sur la question de savoir si cette IA a la personnalité juridique. Je vais dire que non. Nous supposerons que cette IA n'a pas atteint un niveau d'autonomie que nous croirions digne de la personnalité juridique.

Le responsable semblerait être le fabricant du robot marcheur.

Qu'ont-ils fait pour concevoir le robot afin d'éviter de se cogner ? Était-il prévisible que le robot puisse faire cela ? Y avait-il une erreur à l'intérieur du robot qui a conduit à cette action ? Indéfiniment, nous pouvons légalement remettre en question ce qui s'est passé.

Tesla et Musk ont-ils réalisé que le clin d'œil légal qu'ils font avec leurs voitures n'est pas susceptible de se répercuter sur les robots qu'ils cherchent à fabriquer ?

Les robots marcheurs sont un animal différent, pour ainsi dire.

Là encore, des répercussions juridiques et éthiques surviennent.

EXPOSITIONS JURIDIQUES POUR L'ARRONDISSEMENT DES ÉQUIPES

Les présentations ont suggéré que de nombreux croisements de l'équipe d'auto-conduite IA ont lieu avec l'équipe de robotique marchante. Selon mon indication précédente, cela semble raisonnable. De nombreux aspects du matériel et du logiciel présentent des similitudes et vous pourriez aussi bien avoir une double tâche lorsque vous le pouvez. De plus, cela peut, espérons-le, accélérer le côté robotique, car il essaie frénétiquement de repartir à zéro et de rattraper les déclarations ambitieuses de Musk.

Il y a cependant une torsion.

On dirait qu'il y a toujours une torsion, mais là encore, la vie semble être ainsi.

Supposons que l'équipe d'auto-conduite de l'IA soit étirée pour essayer d'aider l'équipe de robotique marchante. Nous pouvons certainement imaginer que cela pourrait facilement se produire. Les voici, ayant les mains occupées à essayer d'atteindre des niveaux d'autonomie de plus en plus élevés pour le pilote automatique et le FSD, et pendant ce temps, ils sont aspirés dans l'équipe de robotique de marche qui accélère leurs efforts.

Dans quelle mesure l'équipe d'auto-conduite de l'IA est-elle distraite ou surmenée par cette double attention, et cela aura-t-il un impact sur les ambitions d'auto-conduite ?

Et pas seulement des ambitions, mais vous pouvez logiquement anticiper que l'épuisement professionnel de l'équipe de conduite autonome pourrait entraîner l'apparition de bogues dans le système de conduite autonome. Peut-être qu'ils n'ont pas fait la triple vérification qu'ils faisaient habituellement. Peut-être ont-ils reçu des commentaires de l'équipe de robotique de la marche et modifié le code de conduite autonome, bien que ce changement n'ait peut-être pas été aussi bien testé et bien mesuré qu'il aurait dû l'être.

En bref, toute personne cherchant à poursuivre Tesla pour conduite autonome aurait désormais une excellente occasion de prétendre que tous les problèmes qui pourraient être revendiqués ou trouvés dans le pilote automatique ou le FSD n'auraient pas été là sans la décision de la direction prise d'harmoniser les deux des équipes autrement disparates à travailler ensemble.

Imaginez à quoi cela pourrait ressembler pour un jury.

L'équipe d'auto-conduite avançait et se concentrait entièrement sur l'auto-conduite. Ils se sont ensuite lancés dans ce nouvel effort de robotique marchante. L'affirmation pourrait être que cela a conduit à des erreurs et des omissions du côté de la conduite autonome. L'entreprise voulait aussi avoir son gâteau et son glaçage, mais a fini par diviser le gâteau et certains des glaçages sont tombés par terre.

Nous ne savons pas si la concordance a créé de telles vulnérabilités. C'est simplement une possibilité. Pour les avocats pointus qui cherchent à poursuivre Tesla du côté de la conduite autonome, la porte est ouverte pour fournir une ouverture légale.

CONCLUSION

Beaucoup de regards ont résulté du Tesla AI Day 2022.

Par exemple, Musk a indiqué que les robots marcheurs produiront de l'ordre de deux fois la production économique, apparemment par rapport aux humains. Il a même suivi cette affirmation en disant que le ciel est la limite des possibilités de productivité.

Où sont les chiffres définitifs qui peuvent éclairer de manière transparente les gains de productivité doublés ou multipliés par N ?

Je ne dis pas que les deux temps ou N-temps sont faux. Le problème est que de telles affirmations non fondées qui sortent de nulle part sont par ailleurs de pures hyperboles jusqu'à ce qu'une substance à l'appui de ces affirmations soit fournie. L'aspect particulièrement inquiétant est que les journalistes rapportent qu'il a fait de telles affirmations, et ces affirmations vont à leur tour être répétées et répétées progressivement jusqu'à ce qu'elles deviennent «factuelles» et que personne ne se rende compte qu'elles ont peut-être été concoctées à l'improviste.

Une autre déclaration révélatrice était que Musk a déclaré que les robots marcheurs pourraient coûter environ 20,000 XNUMX $.

Premièrement, si cela s'avère être le cas, c'est remarquable compte tenu du coût probable des composants et des coûts associés au développement et à la mise en service des robots marcheurs, plus vraisemblablement un besoin de profit net. Comment a-t-il trouvé le numéro ? Parce que ça sonne bien ou parce que c'est basé sur une analyse solide ?

Nous ne savons pas non plus encore et il n'y a pas eu de discussion sur la maintenance associée à ces robots marcheurs. L'entretien d'une voiture est assez différent de l'entretien d'un robot marcheur. Comment le robot se rendra-t-il à l'emplacement de maintenance nécessaire, compte tenu de la taille et du poids encombrants ? Des préposés à l'entretien doivent-ils venir chez vous pour faire l'entretien ? Combien coûtera l'entretien ? Quelle fréquence d'entretien prévue sera nécessaire?

Supposons que le coût est de 20,000 20,000 $ ou s'apparente à ce chiffre. Je suis sûr que pour Musk, les 20,000 XNUMX $ semblent être de la monnaie de poche. Combien de personnes pourraient se permettre d'acheter un tel robot marcheur au prix de XNUMX XNUMX $ ? J'ose dire, pas beaucoup. Vous pourriez essayer de faire valoir que c'est le coût d'une voiture (une voiture bas de gamme). Mais une voiture a apparemment beaucoup plus d'utilité qu'un robot marcheur.

Avec une voiture, vous pouvez vous rendre au travail et gagner de l'argent pour payer vos factures. Vous pouvez utiliser une voiture pour aller faire vos courses. Une voiture peut vous permettre de vous rendre à un hôpital ou de faire un voyage pour le plaisir. Un robot marcheur qui arrose vos plantes chez vous ou qui vous confectionne vos draps ne semble pas tout à fait avoir la même utilité valorisée.

Pour clarifier, oui, il y aurait beaucoup de personnes à des niveaux de revenu plus élevés qui pourraient se permettre d'avoir un robot marcheur dans leur maison. En ce sens, il y aurait certainement un marché pour les robots marcheurs. La question est cependant de savoir si cela sera équitable dans notre société. Pourrait-il y avoir ceux qui peuvent s'offrir des robots marcheurs et ceux qui ne le peuvent pas ?

Nous pourrions également raisonnablement douter que les robots marcheurs obtiennent le même sentiment de respect sociétal et de soutien sérieux que les véhicules électriques. Vous pouvez vendre des véhicules électriques en soulignant qu'ils contribuent à l'environnement par rapport aux voitures conventionnelles. Le gouvernement peut également fournir des incitations à le faire. Est-ce que cela s'applique également aux robots marcheurs ? Semble être plus difficile à vendre.

Encore quelques commentaires et nous clôturons cette discussion pour le moment.

Un regard remarquable sur les robots qui marchent implique l'anthropomorphisation sans vergogne des robots.

L'anthropomorphisation fait référence à la représentation de l'IA comme étant à égalité avec les humains. Les gens peuvent être trompés en pensant que l'IA peut faire ce que les humains peuvent faire, voire même dépasser ce que les humains peuvent faire. Ces personnes ainsi trompées risquent alors de se retrouver dans un terrible cornichon. Ils supposeront que l'IA peut fonctionner de la même manière que les humains.

Lorsque le Bumble C est sorti sur scène, il a agité ses bras. L'agitation du bras était exactement ce que vous attendriez d'un humain. Votre première réaction viscérale est forcément que le robot marcheur "pensait" et s'est rendu compte qu'il marchait sur une scène devant des gens et des caméras. Le robot a décidé qu'il serait poli et sociable de saluer l'assemblée.

Je vous assure que le robot ne « pensait » d'aucune manière à la pensée humaine.

Pour autant que nous sachions, il y avait un opérateur qui se tenait quelque part à proximité ou travaillait peut-être à distance et qui contrôlait les bras du robot. En ce sens, le robot n'avait aucun logiciel qui actionnait les bras.

Supposons qu'il y ait un logiciel actionnant les bras. Le logiciel était probablement extrêmement simpliste, une fois activé, il levait les bras, faisait des vagues, puis le faisait pendant une courte période de temps. Il est hautement improbable que le logiciel consistait en un système de traitement de la vision qui capturait des images vidéo du public, puis effectuait un « raisonnement » informatique en choisissant d'agiter les bras du robot.

Ce que je veux dire, c'est que le fait d'avoir la vague du robot marcheur est une représentation fausse ou trompeuse de ce que le robot peut réellement faire, et cela trompe les gens en leur faisant croire que le robot ressemble à un humain. J'ai dit les mêmes inquiétudes à propos des robots dansants, soit dit en passant. C'est mignon et ça fait la une des journaux d'avoir des robots qui agitent et des robots qui dansent. Malheureusement, cela exagère également ce que ces robots peuvent réellement faire.

Se référer au processeur des robots marcheurs comme un Bot Brain est encore un autre exemple d'anthropomorphisation. Ces processeurs ne sont pas des cerveaux au sens des cerveaux humains. C'est un détournement de formulation.

Vous êtes peut-être en train de vous exclamer que tout le monde ou du moins beaucoup d'IA tirent parti de l'anthropomorphisme pour essayer de se démarquer et de faire en sorte que leur IA reçoive des éloges et de l'attention. Oui, je serais d'accord avec vous. Est-ce que cela transforme deux torts en un droit ? Je ne pense pas. C'est toujours une mauvaise approche et nous devons essayer de réduire ou au moins de réduire sa popularité. Certes, c'est comme pousser un gros rocher sur une colline escarpée et sans fin.

Faisons maintenant une dernière remarque sur ce sujet.

Elon Musk a déjà déclaré ceci à propos de la direction que prend l'IA : "Remarquez-moi, l'IA est bien plus dangereuse que les armes nucléaires... pourquoi n'avons-nous aucune surveillance réglementaire ?" Il a fait des déclarations similaires lors du Tesla AI Day.

Je suis d'accord avec lui sur le fait d'avoir une surveillance réglementaire, bien que j'ajoute un peu de précision sur le fait que ce doit être le bon genre de la surveillance réglementaire. J'ai pris en charge la surveillance réglementaire de l'IA qui manque cruellement la cible, comme expliqué à le lien ici.

On espère que Tesla et Musk soutiendront non seulement l'avènement de lois prudentes et appropriées sur l'IA, mais qu'ils seront également les premiers à montrer l'importance à la fois des lois non contraignantes telles que l'éthique de l'IA et des lois strictes qui sont dans les livres.

Comme nous le dit la sage sagesse, nos paroles servent de lampe pour guider nos pieds et forger une lumière de balisage pour le chemin à parcourir.

Cela couvre les choses.

Source : https://www.forbes.com/sites/lanceeliot/2022/10/02/five-key-ways-that-ai-ethics-and-ai-laws-reveal-troubling-concerns-for-teslas- ai-day-showcase-et-les-ambitions-ai-en-expansion-permanente-d-elon-musk/