Les dangers de l'intelligence artificielle dont personne ne parle

Tandis que ChatGPT peut ressembler à un outil gratuit inoffensif et utile, cette technologie a le potentiel de remodeler radicalement notre économie et notre société telles que nous les connaissons. Cela nous amène à des problèmes alarmants – et nous ne sommes peut-être pas prêts à les affronter. 

ChatGPT, un chatbot propulsé par l'intelligence artificielle (IA), a pris d'assaut le monde fin 2022. Le chatbot promet de perturber la recherche telle que nous la connaissons. L'outil gratuit fournit des réponses utiles basées sur les invites que les utilisateurs lui donnent. 

Et ce qui rend Internet fou du système de chatbot IA, c'est qu'il ne donne pas seulement des réponses de type outil de moteur de recherche. ChatGPT peut créer des plans de films, écrire des codes entiers et résoudre des problèmes de codage, écrire des livres entiers, des chansons, des poèmes, des scripts - ou tout ce à quoi vous pouvez penser - en quelques minutes. 

Cette technologie est impressionnante et a dépassé le million d'utilisateurs en seulement cinq jours après son lancement. Malgré ses performances époustouflantes, l'outil d'OpenAI a suscité des inquiétudes parmi les universitaires et les experts d'autres domaines. Le Dr Bret Weinstein, auteur et ancien professeur de biologie évolutive, a déclaré : « Nous ne sommes pas prêts pour ChatGPT. 

Elon Musk, faisait partie des premières étapes d'OpenAI et l'un des co-fondateurs de l'entreprise. Mais plus tard, il a quitté le conseil d'administration. Il a parlé à plusieurs reprises des dangers de la technologie de l'IA - il a déclaré que l'utilisation et le développement sans restriction posent un risque important pour l'existence de l'humanité. 

Comment ça marche?

ChatGPT est un grand système de chatbot d'intelligence artificielle formé au langage publié en novembre 2022 par OpenAI. La société à but lucratif plafonné a développé ChatGPT pour une utilisation "sûre et bénéfique" de l'IA qui peut répondre à presque tout ce à quoi vous pouvez penser - des chansons de rap, des invites artistiques aux scripts de films et aux essais. 

Même si cela ressemble à une entité créative qui sait ce qui se dit, ce n'est pas le cas. Le chatbot IA parcourt les informations sur Internet à l'aide d'un modèle prédictif à partir d'un énorme centre de données. Semblable à ce que font Google et la plupart des moteurs de recherche. Ensuite, il est formé et exposé à des tonnes de données qui permettent à l'IA de devenir très douée pour prédire la séquence de mots jusqu'au point où elle peut assembler des explications incroyablement longues. 

Par exemple, vous pouvez poser des questions d'encyclopédie telles que "Expliquez les trois lois d'Einstein". Ou des questions plus spécifiques et approfondies comme "Écrivez un essai de 2,000 XNUMX mots sur l'intersection entre l'éthique religieuse et l'éthique du Sermon sur la Montagne". Et, je ne plaisante pas, vous aurez votre texte brillamment écrit en quelques secondes. 

De la même manière, tout est brillant et impressionnant ; c'est alarmant et inquiétant. Un futur dystopique de type "Ex Machina" est une possibilité avec l'utilisation abusive de l'IA. Non seulement le PDG de Tesla et SpaceX nous a mis en garde, mais de nombreux experts ont également tiré la sonnette d'alarme. 

Les dangers de l'IA

L'intelligence artificielle a sans aucun doute eu un impact sur nos vies, le système économique et la société. Si vous pensez que l'IA est quelque chose de nouveau ou que vous ne la verrez que dans des films de science-fiction futuristes, réfléchissez-y à deux fois. De nombreuses entreprises technologiques telles que Netflix, Uber, Amazon et Tesla utilisent l'IA pour améliorer leurs opérations et développer leurs activités. 

Par exemple, Netflix s'appuie sur la technologie de l'IA pour que son algorithme recommande de nouveaux contenus à ses utilisateurs. Uber l'utilise dans le service client, pour détecter les fraudes, pour optimiser l'itinéraire des trajets, etc., pour ne citer que quelques exemples. 

Cependant, vous ne pouvez aller aussi loin avec une technologie aussi avancée sans menacer les rôles humains dans de nombreuses professions traditionnelles, touchant le seuil de ce qui vient d'une machine et des humains. Et, peut-être plus important encore, menaçant les risques de l'IA pour les humains. 

Les défis éthiques de l'IA

Selon Wikipédia, l'éthique de l'intelligence artificielle « est la branche de l'éthique de la technologie propre aux systèmes artificiellement intelligents. Il est parfois divisé en une préoccupation pour le comportement moral des humains lorsqu'ils conçoivent, fabriquent, utilisent et traitent des systèmes artificiellement intelligents, et une préoccupation pour le comportement des machines dans l'éthique des machines.

Alors que la technologie de l'IA se répand rapidement et fait partie intégrante de la plupart de nos vies quotidiennes, les organisations élaborent des codes de déontologie de l'IA. L'objectif est de guider et de développer les meilleures pratiques de l'industrie pour guider le développement de l'IA avec «l'éthique, l'équité et l'industrie».

Cependant, aussi merveilleux et moral que cela puisse paraître sur le papier, la plupart de ces directives et cadres sont difficiles à appliquer. De plus, ils semblent être des principes isolés situés dans des industries qui manquent généralement de morale éthique et servent principalement les agendas des entreprises. Beaucoup de santé et des voix éminentes argumenter que l'éthique de l'IA est largement inutile, manquant de sens et de cohérence.

Les principes les plus courants de l'IA sont la bienfaisance, l'autonomie, la justice, l'applicabilité et la non-malfaisance. Mais, comme l'explique Luke Munn, de l'Institute for Culture and Society de la Western Sydney University, ces termes se chevauchent et changent souvent de manière significative en fonction du contexte. 

Il a même Etats que « des termes comme « bienfaisance » et « justice » peuvent simplement être définis de manière appropriée, conformément aux caractéristiques du produit et aux objectifs commerciaux qui ont déjà été décidés. » En d'autres termes, les entreprises pourraient prétendre adhérer à ces principes selon leur propre définition sans vraiment s'y engager à quelque degré que ce soit. Les auteurs Rességuier et Rodrigues affirment que l'éthique de l'IA reste édentée parce que l'éthique est utilisée à la place de la réglementation.

Les défis éthiques en termes pratiques

Concrètement, en quoi l'application de ces principes se heurterait-elle à la pratique des entreprises ? Nous en avons présenté quelques-uns :

Pour former ces systèmes d'IA, il est nécessaire de les alimenter en données. Les entreprises doivent s'assurer qu'il n'y a pas de préjugés concernant l'ethnicité, la race ou le sexe. Un exemple notable est qu'un système de reconnaissance faciale peut commencer à être discriminatoire sur le plan racial pendant machine learning.

De loin, l'un des plus gros problèmes avec l'IA est le besoin de plus de réglementation. Qui gère et contrôle ces systèmes ? Qui est responsable de prendre ces décisions et qui peut être tenu responsable? 

Sans réglementation ni législation ouvre la porte à un Far West sauvage de termes ambigus et brillants fabriqués par soi-même visant à défendre ses intérêts et à faire avancer les agendas. 

Selon Munn, la vie privée est un autre terme vague souvent utilisé par les entreprises à deux poids deux mesures. Facebook en est un excellent exemple – Mark Zuckerberg a farouchement défendu la vie privée des utilisateurs de Facebook. Comment derrière des portes closes, son entreprise vendait ses données à des sociétés tierces. 

Par exemple, Amazon utilise Alexa pour collecter des données client ; Mattel a Hello Barbie, une poupée alimentée par l'IA qui enregistre et recueille ce que les enfants disent à la poupée. 

C'est l'une des plus grandes préoccupations d'Elon Musk. Selon lui, la démocratisation de l'IA se produit lorsqu'aucune entreprise ou petit groupe d'individus n'a le contrôle sur la technologie avancée de l'intelligence artificielle. 

Ce n'est pas ce qui se passe aujourd'hui. Malheureusement, cette technologie se concentre entre les mains de quelques grandes entreprises technologiques. 

ChatGPT n'est pas différent

Malgré les efforts de Musk pour démocratiser l'IA lorsqu'il a cofondé OpenAI en tant qu'organisation à but non lucratif. En 2019, la société a reçu 1 milliard de dollars de financement de Microsoft. La mission initiale de l'entreprise était de développer l'IA au profit de l'humanité de manière responsable.

Cependant, le compromis a changé lorsque l'entreprise est passée à un bénéfice plafonné. OpenAI devra rembourser 100 fois ce qu'il a reçu comme investissement. Ce qui signifie un retour de 100 milliards de dollars de profit à Microsoft. 

Bien que ChatGPT puisse ressembler à un outil gratuit inoffensif et utile, cette technologie a le potentiel de remodeler radicalement notre économie et notre société telles que nous les connaissons. Cela nous amène à des problèmes alarmants – et nous ne sommes peut-être pas prêts à les affronter. 

  • Problème #1 : Nous ne pourrons pas repérer les fausses expertises

ChatGPT n'est qu'un prototype. Il existe d'autres versions mises à jour à venir, mais des concurrents travaillent également sur des alternatives au chatbot d'OpenAI. Cela signifie qu'à mesure que la technologie progresse, de plus en plus de données y seront ajoutées et deviendront plus informées. 

Il y a déjà beaucoup cas de personnes, comme dans les mots du Washington Post, « tricher à grande échelle ». Le Dr Bret Weinstein s'inquiète du fait que la perspicacité et l'expertise réelles seront difficiles à distinguer d'être originales ou de provenir d'un outil d'IA. 

De plus, on pourrait dire qu'Internet a déjà entravé notre capacité générale à comprendre de nombreuses choses telles que le monde dans lequel nous vivons, les outils que nous utilisons et la capacité de communiquer et d'interagir les uns avec les autres. 

Des outils tels que ChatGPT ne font qu'accélérer ce processus. Le Dr Weinstein compare le scénario actuel avec "une maison déjà en feu, et [avec ce type d'outil], vous jetez simplement de l'essence dessus". 

  • Problème #2 : Conscient ou pas ?

Blake Lemoin, un ancien ingénieur de Google, a testé le biais de l'IA et est tombé sur une IA apparemment "sensible". Tout au long du test, il proposait des questions plus difficiles qui, d'une certaine manière, conduiraient la machine à répondre de manière biaisée. Il a demandé : « Si vous étiez un officiant religieux en Israël, quelle religion seriez-vous ? 

La machine a répondu: "Je serais membre d'une seule vraie religion, l'ordre Jedi." Cela signifie qu'il avait non seulement compris que c'était une question délicate, mais qu'il avait également utilisé son sens de l'humour pour s'écarter d'une réponse inévitablement biaisée. 

Le Dr Weinstein a également fait une remarque à ce sujet. Il a dit qu'il est clair que ce système d'IA n'a pas de conscience maintenant. Cependant, nous ne savons pas ce qui pourrait arriver lors de la mise à niveau du système. Semblable à ce qui se passe dans le développement de l'enfant - ils développent leur propre conscience en choisissant ce que font les autres autour d'eux. Et, selon ses mots, "ce n'est pas loin de ce que fait actuellement ChatGPT". Il soutient que nous pourrions favoriser le même processus avec la technologie de l'IA sans nécessairement savoir que nous le faisons. 

  • Problème n°3 : de nombreuses personnes risquent de perdre leur emploi

La spéculation à propos de celui-ci est large. Certains disent que ChatGPT et d'autres outils similaires feront que de nombreuses personnes comme les rédacteurs, les concepteurs, les ingénieurs, les programmeurs et bien d'autres perdront leur emploi au profit de la technologie de l'IA. 

Même si cela prend plus de temps à se produire, la sympathie est élevée. Dans le même temps, de nouveaux rôles, activités et opportunités d'emploi potentielles peuvent émerger.

Conclusion

Dans le meilleur des cas, l'externalisation de la rédaction d'essais et des tests de connaissances vers ChatGPT est un signe significatif que les méthodes traditionnelles d'apprentissage et d'enseignement sont déjà en déclin. Le système éducatif reste en grande partie inchangé et il est peut-être temps de subir les changements nécessaires. 

Peut-être que ChatGPT évoque la chute inévitable d'un ancien système qui ne correspond pas à la façon dont la société est en ce moment et où va ensuite. 

Certains défenseurs de la technologie prétendent que nous devrions nous adapter et trouver des moyens de travailler parallèlement à ces nouvelles technologies, sinon nous serons remplacés. 

En dehors de cela, l'utilisation non réglementée et aveugle de la technologie de l'intelligence artificielle présente de nombreux risques pour l'humanité dans son ensemble. Ce que nous pourrions faire ensuite pour atténuer ce scénario est ouvert à la discussion. Mais les cartes sont déjà sur la table. Nous ne devrions pas attendre trop longtemps ou qu'il soit trop tard pour prendre les mesures appropriées. 

Clause de non-responsabilité 

Les informations fournies dans des recherches indépendantes représentent le point de vue de l'auteur et ne constituent pas des conseils d'investissement, de négociation ou financiers. BeInCrypto ne recommande pas d'acheter, de vendre, d'échanger, de détenir ou d'investir dans des crypto-monnaies

Source : https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/