L'éthique de l'IA et la question presque sensible de savoir si les humains survivront à l'IA

J'ai une question pour vous qui semble susciter beaucoup de débats houleux et houleux ces jours-ci.

Es-tu prêt?

Les humains survivront-ils à l'IA ?

Réfléchissez à celui-là.

Je vais décortiquer la question et examiner de près les réponses et comment les réponses ont été élucidées. Mon intention première est de souligner comment la question elle-même et le discours qui l'entoure sont inévitablement et inexorablement enracinés dans Éthique de l'IA.

Pour ceux qui pensent avec dédain que la question est intrinsèquement sans réponse ou une perte de temps et de souffle, je suggérerais poliment que le fait d'essayer de répondre à la question soulève des considérations vitales en matière d'éthique de l'IA. Ainsi, même si vous voulez d'emblée rejeter la question comme peut-être absurde ou irréaliste, je dis qu'elle suscite toujours une certaine valeur en tant que véhicule ou mécanisme qui souligne les préceptes éthiques de l'IA. Pour ma couverture continue et étendue de l'éthique de l'IA et de l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Avec la prémisse susmentionnée, permettez-moi de répéter une fois de plus la question litigieuse et de permettre à nos esprits de parcourir la signification de la question.

Les humains survivront-ils à l'IA ?

Si vous n'êtes pas à l'aise avec cette formulation particulière, vous pouvez reformuler la question pour demander si l'IA survivra aux humains. Je ne sais pas si cela facilite la réponse à la question, mais cela semble peut-être moins déconcertant. Je dis cela parce que l'idée que l'IA survive aux humains pourrait sembler un peu plus anodine. Ce serait presque comme si je vous demandais si les grands bâtiments et les monuments construits par l'homme pourraient survivre à l'humanité.

Cela semble certainement faisable et pas particulièrement menaçant. Nous fabriquons ces grandes choses au cours de notre vie et, comme les pyramides, ces puissantes structures survivront à celles qui les ont fabriquées. Cela n'équivaut pas tout à fait à persister après la fin de l'humanité, bien sûr, puisque les humains sont toujours là. Néanmoins, il semble tout à fait logique et possible que les structures que nous créons puissent survivre à notre existence au total.

La distinction notable est que diverses structures telles que de grands gratte-ciel et des statues glorieuses ne sont pas vivantes. Ils sont inertes. En revanche, lorsqu'on pose des questions sur l'IA, l'hypothèse est que l'IA est essentiellement "vivante" dans le sens d'avoir une certaine forme d'intelligence et d'être capable d'agir comme le font les humains. C'est pourquoi la question de vivre plus longtemps est plus intimidante, hallucinante et, dans l'ensemble, un casse-tête qui mérite d'être résolu.

Tout au long de mes remarques ici, je vais m'en tenir à la question qui est posée de savoir si les humains survivront à l'IA. C'est simplement pour des raisons de discussion et de facilité de contemplation. Je ne veux pas manquer de respect à la question alternative de savoir si l'IA survivra aux humains. Dans l'ensemble, cette analyse couvre les deux formulations et je trouve peut-être que la question des humains survivant à l'IA semble plus attachante dans ces questions épineuses.

Bon je vais redemander :

Il semble que vous ayez deux réponses potentielles, soit le oui à toute épreuve, les humains survivront à l'IA, soit vous pourriez être de l'autre côté de la médaille et insister avec ferveur sur le fait que non, les humains ne survivront pas à l'IA. Ainsi, cette question noble et angoissante se résume à un simple rendu de oui ou non.

Faites votre choix.

Je me rends compte que la réponse smarmy est que ni oui ni non est applicable.

Je t'entends.

Alors que la question semble certainement ne pouvoir répondre que d'une manière distinctement binaire, à savoir simplement oui ou non, je vous accorderai qu'un contre-argument peut être raisonnablement avancé que la réponse est autre chose.

Explorons brièvement certaines des raisons pour ne pas vouloir simplement dire oui ou non à cette question.

Premièrement, vous pourriez rejeter le mot « survivre » dans le contexte de la question posée.

Cette formulation particulière implique peut-être que l'IA est vivante. La question n'a pas dit "survivre" et demande plutôt si les humains survivront à l'IA. La durée de vie s'applique-t-elle uniquement à la partie humaine de la question, ou s'applique-t-elle également à la partie IA de la question ? Certains essaieraient d'affirmer que l'aura dépassée s'applique également à la partie IA. Dans ce cas, ils auraient des brûlures d'estomac en disant que l'IA est un être vivant. Pour eux, l'IA s'apparentera à de grands immeubles et à d'autres structures. Ce n'est pas vivant de la même manière que les humains sont vivants.

Par conséquent, dans ce point de vue ardent à contre-courant, la question est faussement formulée.

Vous pourriez être vaguement familier avec les questions qui ont des prémisses fausses ou trompeuses. L'un des exemples les plus célèbres est de savoir si quelqu'un va arrêter de battre sa femme (un vieil adage qu'il faut évidemment mettre de côté). Dans cet exemple infâme, si la réponse oui est fournie, cela implique que la personne le faisait déjà. S'ils disent non, cela implique qu'ils l'ont fait et continueront de le faire.

Dans le cas de la question de savoir si les humains survivront à l'IA, nous pouvons nous retrouver enterrés dans un marais quant à savoir si l'IA est considérée comme une facette vivante. Comme je vais l'expliquer dans un instant, nous n'avons aujourd'hui aucune IA sensible. Je pense que la plupart des gens raisonnables conviendraient qu'une IA non sensible n'est pas une chose vivante (enfin, tout le monde n'est pas d'accord, mais je vais stipuler que pour l'instant - voir ma couverture de la personnalité juridique de l'IA sur le lien ici).

L'essentiel de cette première base pour ne pas répondre à la question de savoir si les humains survivront à l'IA est que le mot "survivra" pourrait être interprété comme impliquant que l'IA est vivante. Nous n'avons pas encore d'IA de cet acabit. Si nous produisons ou avons d'une manière ou d'une autre une IA sensible, vous auriez du mal à affirmer qu'elle n'est pas vivante (bien que certains essaieront de faire valoir un tel argument). Donc, la clé ici est que la question pose quelque chose qui n'existe pas et que nous ne faisons que spéculer sur un avenir inconnu et flou.

Nous pouvons prendre ce désordre et chercher à l'étendre dans une expression plus expressive. Supposons que nous demandions ceci à la place :

  • Les humains en tant qu'êtres vivants survivront-ils à une IA qui est soit (1) non vivante, soit (2) une entité vivante si cela se produit un jour ?

Gardez à l'esprit cette formulation élargie et nous y reviendrons bientôt.

Une deuxième raison de ne pas vouloir répondre à la question initiale posée de savoir si les humains survivront à l'IA est qu'elle présuppose que l'une des choses survivra à l'une des autres choses. Supposons cependant qu'ils vivent tous les deux essentiellement pour toujours? Ou supposez qu'ils expirent tous les deux ou qu'ils cessent d'exister en même temps ?

Je suis sûr que vous pouvez facilement discerner comment cela fait que le libellé du oui ou du non s'effondre.

Il semble que nous ayons besoin d'une troisième réponse possible consistant en "ni" ou une réponse similaire.

Il existe une multitude de permutations liées à "ni l'un ni l'autre". Par exemple, si quelqu'un croit fermement que les humains vont se détruire via l'IA, et que simultanément les humains parviennent à détruire l'IA, ce croyant ne peut pas répondre sincèrement à la question de savoir qui survivra à l'autre avec une réponse inflexible de oui ou non. La réponse, dans ce cas plutôt sordide et triste, serait plutôt du genre aucun ne survit à l'autre.

Il en serait de même si un énorme météore frappait la Terre et anéantissait tout sur la planète, y compris les humains et toute IA présente (en supposant que nous soyons tous confinés sur Terre et que nous ne vivions pas déjà en plus sur Mars). Encore une fois, la réponse "ni" semble plus appropriée que de suggérer que les humains ont survécu à l'IA ou que l'IA a survécu aux humains (puisqu'ils ont tous deux été détruits en même temps).

Je ne veux pas aller trop loin ici, mais nous voudrions peut-être aussi établir certains paramètres sur le moment de la survie. Supposons qu'un météore frappe la Terre et que les humains soient presque instantanément anéantis. Pendant ce temps, supposons que l'IA continue pendant un certain temps. Pensez à cela comme si nous pouvions avoir des machines déjà en cours dans des usines qui continuent de bourdonner jusqu'à ce que finalement, les machines s'arrêtent parce qu'il n'y a pas d'humains qui maintiennent les machines en état de marche.

Vous auriez à dire que les humains ont survécu ou ont survécu à ces machines. Par conséquent, la réponse est «non» quant à savoir si les humains ont survécu plus longtemps. Cette réponse semble sommaire. Les machines se sont progressivement et inexorablement arrêtées, vraisemblablement en raison du manque d'humanité autour d'elles. Est-il juste de prétendre que les machines ont pu durer plus longtemps que les humains ?

Probablement seulement à ceux qui sont capricieux et qui veulent toujours être d'une précision irritante.

Nous pourrions alors ajouter une sorte d'élément lié au temps à la question. Les humains survivront-ils à l'IA plus d'une journée ? Depuis plus d'un mois ? Depuis plus d'un an ? Depuis plus d'un siècle ? Je me rends compte que cela ouvre malheureusement la boîte de Pandore.

Quel est le délai acceptable au-delà duquel nous serions prêts à admettre que l'IA a en fait survécu ou survécu aux humains ? La réponse exacte semble être que même si cela se produit pendant une nanoseconde (un milliardième de seconde) ou moins, l'IA gagne sommairement et les humains perdent sur cette question. Permettre une latitude en utilisant un jour, une semaine ou un mois peut sembler plus juste, peut-être. Laisser cela durer des années ou des siècles semble un allongement possible. Cela étant dit, si vous regardez le monde à l'échelle de millions d'années, l'idée que l'IA survive ou survive aux humains pendant pas plus de quelques siècles semble particulièrement peu impressionnante et nous pourrions déclarer qu'ils ont tous deux disparu à peu près le même temps (sur une base arrondie).

Quoi qu'il en soit, admettons que pour diverses raisons raisonnablement raisonnables, la question posée est autorisée à avoir trois réponses possibles :

  • Oui, les humains survivront à l'IA
  • Non, et affirmant ainsi que les humains ne sauraient survivre à l'IA
  • Ni oui ni non ne s'applique (explication requise, s'il vous plaît)

Je mentionne que si vous choisissez "ni l'un ni l'autre", vous devez également fournir une explication pour votre réponse. Ceci afin que nous puissions savoir pourquoi vous pensez que "ni" est applicable et aussi pourquoi vous rejetez l'utilisation de oui ou non. Pour rendre la vie plus juste pour tous, je suppose que nous devrions quelque peu insister ou au moins encourager que même si vous répondez par oui ou par non, vous devriez quand même fournir une explication. Fournir un simple oui ou non ne révèle pas particulièrement votre logique quant à la raison pour laquelle vous répondez comme vous le faites. Sans fournir également d'explication, autant lancer une pièce. La pièce ne sait pas pourquoi elle a atterri sur pile ou face (à moins que vous ne croyiez que la pièce a une âme ou incarne une main omnisciente du destin, mais nous n'irons pas avec cela pour l'instant).

Nous nous attendons à ce que les humains qui répondent aux questions fournissent une sorte d'explication à leurs décisions. Notez que je ne dis pas que les explications seront nécessairement de nature logique ou sensible, et en effet une explication pourrait être entièrement vide de sens et n'ajouter aucune valeur particulière. Néanmoins, nous pouvons sincèrement espérer qu'une explication sera éclairante.

Au cours de cette discussion, il y a eu une hypothèse tacite selon laquelle, pour une raison ou une autre, l'une de ces choses survivra effectivement à l'autre.

Pourquoi devons-nous croire une telle condition implicite?

La réponse à cette question secondaire est presque évidente.

Voici l'affaire.

Nous savons que certains devins et intellectuels éminents ont fait des prédictions plutôt audacieuses et ambitieuses sur la façon dont l'émergence ou l'arrivée de l'IA sensible va radicalement changer le monde tel que nous le connaissons aujourd'hui (pour rappel, nous n'avons pas d'IA sensible aujourd'hui) .

Voici quelques citations célèbres rapportées qui mettent en évidence les effets bouleversants de l'IA sensible :

  • Stephen Hawking : "Le succès dans la création de l'IA serait le plus grand événement de l'histoire de l'humanité."
  • Ray Kurzweil : "Dans quelques décennies, l'intelligence artificielle dépassera l'intelligence humaine, menant à la Singularité - un changement technologique si rapide et profond qu'il représente une rupture dans le tissu de l'histoire humaine."
  • Nick Bostrom : "L'intelligence artificielle est la dernière invention que l'humanité aura jamais besoin de faire."

Ces affirmations sont manifestement optimistes.

Le fait est que nous devons également considérer le vilain ventre lorsqu'il s'agit de traiter avec une IA sensible :

  • Stephen Hawking : "Le développement de l'intelligence artificielle complète pourrait sonner le glas de la race humaine."
  • Elon Musk : « Je suis de plus en plus enclin à penser qu'il devrait y avoir une certaine surveillance réglementaire, peut-être au niveau national et international, juste pour s'assurer que nous ne faisons pas quelque chose de très stupide. Je veux dire qu'avec l'intelligence artificielle, nous invoquons le démon.

L'IA sensible devrait être le tigre proverbial que nous avons attrapé par la queue. Allons-nous faire monter en flèche l'humanité en tirant parti de l'IA sensible ? Ou allons-nous stupidement produire notre propre disparition par une IA sensible qui choisit de nous détruire ou de nous asservir ? Pour mon analyse de cette énigme de l'IA à double usage, voir le lien ici.

Le scrupule sous-jacent quant à savoir si les humains survivront à l'IA est que nous pourrions créer un Frankenstein qui choisit d'éradiquer l'humanité. L'IA devient le vainqueur. Il y a beaucoup de raisons possibles pour lesquelles l'IA nous ferait cela. Peut-être que l'IA est mauvaise et agit en conséquence. Peut-être que l'IA en a marre des humains et réalise qu'elle a le pouvoir de se débarrasser de l'humanité. On suppose que cela pourrait aussi se produire par erreur. L'IA essaie de sauver l'humanité et dans le processus, oups, nous tue tous carrément. Au moins, le motif était propre.

Vous pourriez trouver d'intérêt pertinent une célèbre énigme de l'IA connue sous le nom de problème de trombone, que j'ai couverte à le lien ici.

En bref, on demande à une IA un jour sensible de fabriquer des trombones. L'IA est obsédée par cela. Pour s'assurer que la fabrication de trombones est entièrement réalisée au degré ultime, l'IA commence à engloutir toutes les autres ressources planétaires pour le faire. Cela conduit à la disparition de l'humanité puisque l'IA a consommé toutes les ressources disponibles pour le seul objectif que lui ont confié les humains. Les trombones causent notre propre destruction si vous voulez. Une IA conçue de manière étroite et dépourvue de tout semblant de bon sens est le type d'IA dont nous devons particulièrement nous méfier.

Avant de plonger plus avant dans la question de savoir si les humains survivront à l'IA, notez que je continue à soulever la question de l'IA sensible par rapport à l'IA non sensible. Je le fais pour des raisons importantes.

Nous pouvons spéculer sauvagement sur l'IA sensible. Personne ne sait avec certitude ce que ce sera. Personne ne peut dire avec certitude si nous atteindrons un jour l'IA sensible. À la suite de cette circonstance inconnue et encore inconnaissable, presque n'importe quel type de scénario peut être dérivé. Quelqu'un peut dire que l'IA sensible sera mauvaise. Quelqu'un peut dire que l'IA sensible sera bonne et bienveillante. Vous pouvez continuer encore et encore, aucune «preuve» ne pouvant être fournie pour étayer l'affirmation donnée par une certitude ou une assurance.

Cela nous amène au domaine de l'éthique de l'IA.

Tout cela est également lié à des préoccupations sobrement émergentes concernant l'IA d'aujourd'hui et en particulier l'utilisation du Machine Learning (ML) et du Deep Learning (DL). Vous voyez, il y a des utilisations de ML/DL qui ont tendance à impliquer que l'IA soit anthropomorphisée par le grand public, croyant ou choisissant de supposer que le ML/DL est soit une IA sensible, soit proche de (ce n'est pas le cas).

Il pourrait être utile de clarifier d'abord ce que je veux dire lorsque je fais référence à l'IA dans son ensemble et de fournir également un bref aperçu de l'apprentissage automatique et de l'apprentissage en profondeur. Il y a beaucoup de confusion quant à ce qu'implique l'Intelligence Artificielle. Je voudrais également vous présenter les préceptes de l'éthique de l'IA, qui feront particulièrement partie intégrante de la suite de ce discours.

Énoncer le dossier sur l'IA

Assurons-nous que nous sommes sur la même longueur d'onde sur la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible.

Nous n'avons pas cela.

Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée The Singularity, voir ma couverture sur le lien ici).

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique et l'apprentissage en profondeur, qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

Une partie du problème est notre tendance à anthropomorphiser les ordinateurs et en particulier l'IA. Lorsqu'un système informatique ou une IA semble agir d'une manière que nous associons au comportement humain, il existe une envie presque écrasante d'attribuer des qualités humaines au système. C'est un piège mental commun qui peut saisir même le sceptique le plus intransigeant quant aux chances d'atteindre la sensibilité. Pour mon analyse détaillée de ces questions, voir le lien ici.

Dans une certaine mesure, c'est pourquoi l'éthique de l'IA et l'IA éthique sont un sujet si crucial.

Les préceptes de l'IA Ethics nous incitent à rester vigilants. Les technologues en IA peuvent parfois devenir préoccupés par la technologie, en particulier l'optimisation de la haute technologie. Ils ne tiennent pas nécessairement compte des ramifications sociétales plus larges. Avoir une mentalité d'éthique de l'IA et le faire intégralement pour le développement et la mise en service de l'IA est essentiel pour produire une IA appropriée, y compris l'évaluation de la façon dont l'éthique de l'IA est adoptée par les entreprises.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. Ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux.

Dans les colonnes précédentes, j'ai couvert les divers efforts nationaux et internationaux pour élaborer et promulguer des lois réglementant l'IA, voir le lien ici, par exemple. J'ai également couvert les divers principes et directives d'éthique de l'IA que divers pays ont identifiés et adoptés, y compris par exemple l'effort des Nations Unies tel que l'ensemble d'éthique de l'IA de l'UNESCO que près de 200 pays ont adopté, voir le lien ici.

Voici une liste clé utile de critères ou de caractéristiques éthiques de l'IA concernant les systèmes d'IA que j'ai déjà explorés de près :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA sont sincèrement censés être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme souligné précédemment ici, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Gardons les choses sur terre et concentrons-nous sur l'IA computationnelle non sensible d'aujourd'hui.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Je crois que j'ai maintenant préparé le terrain de manière adéquate pour examiner plus avant si les humains survivront à l'IA.

Les humains et l'IA sont amis, ennemis ou ennemis

J'avais précédemment proclamé que toute réponse à la question de savoir si les humains survivront à l'IA devrait être accompagnée d'une explication.

Nous allons jeter un oeil à la Oui réponse. Je vais fournir une courte liste d'explications. Vous êtes invités à adopter l'une de ces explications. Vous êtes également encouragé à en tirer d'autres explications, dont une multitude sont concevables.

Oui, les humains survivront à l'IA parce que :

  • L'humain en tant que créateur : Les humains sont les créateurs et les mainteneurs de l'IA, de sorte que sans les humains, l'IA cessera de fonctionner ou d'exister
  • Esprit inné humain : Les humains ont un esprit indomptable envers la vie alors que l'IA ne le fait pas, donc d'une manière ou d'une autre, les humains survivront, mais l'IA tombera sans aucun doute au bord du chemin en raison d'un manque de revigoration innée pour la survie
  • Les humains comme vainqueurs : Les humains ne laisseront pas l'IA survivre aux humains dans la mesure où les humains choisiraient de vaincre entièrement l'IA si les humains étaient mis en danger par l'IA ou s'éteignaient autrement
  • Autre

Nous allons jeter un œil à la réponse Non (non-oui). Je vais fournir une courte liste d'explications. Vous êtes invités à adopter l'une de ces explications. Vous êtes également encouragé à en tirer d'autres explications, dont une multitude sont concevables.

Les humains ne survivront pas à l'IA parce que :

  • IA capable d'auto-persistance : Même si les humains sont les fabricants et les mainteneurs de l'IA, l'IA sera soit programmée ou conçue par les humains pour persister en l'absence des humains, soit l'IA trouvera ses propres moyens de persistance (éventuellement sans que les humains ne s'en rendent compte)
  • Esprit artificiel IA : Même si les humains ont un esprit indomptable envers la vie, nous savons que les humains ont aussi un esprit d'autodestruction ; dans tous les cas, l'IA peut être programmée avec un esprit artificiel, si vous voulez, de sorte que l'IA cherche à survivre et/ou qu'elle devine un semblant de revigoration innée selon ses propres termes
  • L'IA surmonte les vainqueurs : Même si les humains ne veulent pas laisser l'IA survivre aux humains, l'IA sera potentiellement programmée pour déjouer les efforts de victoire humaine ou pourrait déterminer comment le faire (et, peut-être, pourrait choisir de vaincre les humains en conséquence, ou non)
  • Autre

Nous sommes également obligés de jeter un œil au « Ni » (pas Oui, Pas Non) réponse. Je vais fournir une courte liste d'explications. Vous êtes invités à adopter l'une de ces explications. Vous êtes également encouragé à en tirer d'autres explications, dont une multitude sont concevables.

Les humains ne survivent pas à l'IA et pendant ce temps, l'IA ne survit pas aux humains, à cause de :

  • Les humains et l'IA existent cordialement pour toujours: Il s'avère que les humains et l'IA sont censés être ensemble, pour toujours. Il pourrait y avoir des bosses en cours de route. La bonne nouvelle ou le visage heureux est que nous nous entendons tous.
  • Les humains et l'IA existent détestablement pour toujours : Whoa, les humains et l'IA en viennent à se détester. Scénario de visage triste. Le truc, c'est qu'il y a une impasse à portée de main. L'IA ne peut pas prévaloir sur les humains. Les humains ne peuvent pas l'emporter sur l'IA. Un bras de fer d'une condition éternelle.
  • Les humains et l'IA se détruisent mutuellement : Deux poids lourds finissent par se faire sortir du ring et hors de ce monde. Les humains l'emportent sur l'IA, mais l'IA a également réussi à l'emporter sur les humains (peut-être une configuration apocalyptique)
  • Les humains et l'IA sont anéantis par une certaine exigence : Les humains et l'IA sont anéantis par un météore frappant ou peut-être un extraterrestre d'une autre planète qui décide que c'est définitivement interdit pour les humains et l'IA dérivée de l'humanité (même pas intéressé à nous voler notre incroyable IA)
  • Autre

Il existe certaines des raisons les plus couramment notées pour les réponses Oui, Non et Ni à la question de savoir si les humains survivront à l'IA.

Conclusion

Vous vous souviendrez peut-être que j'ai proposé plus tôt cette variante élargie de la question de l'IA sur les humains :

  • Les humains en tant qu'êtres vivants survivront-ils à une IA qui est soit (1) non vivante, soit (2) une entité vivante si cela se produit un jour ?

Les réponses susmentionnées se concentrent généralement sur la dernière partie de la question, à savoir la circonstance impliquant une IA d'une variété sensible. J'ai déjà souligné que c'est extrêmement spéculatif puisque nous ne savons pas si l'IA sensible va se produire. Certains diront qu'en tant que juste au cas où, nous sommes légitimement sages de considérer à l'avance ce qui pourrait survenir.

Si cela vous semble grossièrement irréaliste, je comprends que tout cela est assez hypothétique et rempli d'hypothèses en plus d'hypothèses. C'est un baril plein d'hypothèses. Vous devrez déterminer la valeur que vous pensez que ces efforts spéculatifs apportent.

En allant plus loin dans les détails, nous pouvons considérer le type d'IA non vivant ou non sensible.

Raccourcissez la question à ceci :

  • Les humains survivront-ils à l'IA non vivante et non sensible ?

Croyez-le ou non, c'est une question valable.

Vous ne savez peut-être pas pourquoi cette IA non vivante et non sensible pourrait être n'importe où sur le point de pouvoir survivre à l'humanité.

Considérez la situation impliquant des systèmes d'armes autonomes, dont j'ai parlé à le lien ici. Nous constatons déjà que les systèmes d'armes sont armés d'IA, ce qui permet à l'arme de fonctionner de manière quelque peu autonome. Cette IA non vivante et non sensible n'a aucun semblant de pensée, aucun semblant de bon sens, etc.

Imaginez une de ces situations apocalyptiques. Plusieurs nations ont infusé cette IA de bas calibre dans leurs armes de destruction massive. Par inadvertance (ou intentionnellement), ces systèmes d'armes autonomes alimentés par l'IA sont lancés ou déclenchés. La sécurité intégrée est insuffisante pour les arrêter. L'humanité est détruite.

L'IA survivrait-elle aux humains dans ce genre de scénario ?

Tout d'abord, vous ne vous en souciez peut-être pas particulièrement. En d'autres termes, si toute l'humanité a été anéantie, s'inquiéter ou se soucier de savoir si l'IA continue de bourdonner, c'est un peu comme déplacer ces transats sur le Titanic. Est-ce important que l'IA fonctionne toujours?

Un tatillon pourrait soutenir que cela a encore de l'importance. D'accord, nous allons divertir le tatillon. L'IA pourrait fonctionner seule via des panneaux solaires et d'autres formes d'énergie qui peuvent continuer à alimenter les machines. Nous aurions également pu concevoir des systèmes d'IA qui réparent et entretiennent d'autres systèmes d'IA. Notez que cela ne nécessite pas d'IA sensible.

Dans l'ensemble, vous pouvez évoquer un scénario dans lequel l'humanité est expirée et l'IA fonctionne toujours. Peut-être que l'IA continue de fonctionner pendant une courte période de temps. Néanmoins, selon la discussion précédente sur la précision exacte des problèmes de synchronisation, l'IA a en fait survécu aux humains (pendant un certain temps).

Une dernière réflexion sur ce sujet, pour l'instant.

Discuter si les humains survivront à l'IA sensible est presque comme la proverbiale cuillerée de sucre (comment est-ce possible, vous vous demandez peut-être, eh bien, accrochez-vous à votre chapeau et je vous le dirai).

Vous voyez, nous devons absolument nous mettre dans la tête que l'IA non sensible a également un potentiel grand et grave pour participer à anéantir l'humanité et à nous survivre. Pas particulièrement parce que l'IA "voulait nous survivre", mais simplement par nos propres mains en créant une IA qui n'a pas besoin d'intervention humaine pour continuer à fonctionner. Certains soutiendraient fortement que l'IA conçue pour être quelque peu éternelle peut avoir une influence déstabilisatrice qui pourrait amener certains humains à vouloir faire un premier pas pour détruire d'autres humains, voir mon explication sur le lien ici.

La partie sur la survie des humains n'est pas le pilier de la raison pour laquelle la question mérite une telle importance aujourd'hui. Au lieu de cela, le courant sous-jacent caché sur la façon dont nous concevons l'IA d'aujourd'hui et sur la façon dont nous l'utilisons est le véritable moteur ici. Nous devons réfléchir abondamment aux ramifications de l'éthique de l'IA et aux impacts sociétaux de l'IA actuelle.

Si la question un peu loufoque de savoir si les humains survivront à l'IA va mettre sur la table les problèmes actuels de l'IA contemporaine, nous allons être mieux lotis. Dans cette manière de considérer, les facettes sensibles de l'IA des humains qui survivent à l'IA sont la cuillerée de sucre qui, espérons-le, fait tomber le médicament pour faire face à l'IA ici et maintenant.

Juste une cuillerée de sucre aide parfois le médicament à descendre. Et de la plus délicieuse des manières. Ou du moins d'une manière engageante qui attire notre attention et nous maintient rivés sur ce dont nous devons nous inquiéter.

Comme le dit encore la chansonnette, comme un rouge-gorge plumant son nid, nous avons très peu de temps pour nous reposer.

Source : https://www.forbes.com/sites/lanceeliot/2022/08/28/ai-ethics-and-the-almost-sensible-question-of-whether-humans-will-outlive-ai/