Le moment Cry Wolf de AI Hype est inutile

Bien que je sois quelqu'un qui étudie les scénarios de fin de l'humanité, je pense que la «lettre d'expert» suggérant un moratoire de 6 mois sur l'IA ou la déclaration plus récente selon laquelle le risque d'IA est au niveau du risque pandémique et nucléaire, sont toutes deux exagérées. L'opinion encore plus folle selon laquelle nous devons arrêter l'IA est irresponsable. Toute inquiétude doit être proportionnelle aux risques auxquels nous sommes confrontés. À l'heure actuelle, nous ne sommes pas en danger immédiat avec l'IA.

Les IA actuelles ne sont pas capables de prendre le contrôle de la société. Ils n'ont pas de sentiments et ne méritent pas d'être protégés comme les vies humaines. Ils ne sont pas super intelligents et ne surpassent en rien les humains. En fait, ils ne pensent pas du tout. À l'heure actuelle, si elles sont alimentées en données abondantes, les IA sont très douées pour des tâches spécifiques telles que le calcul et la prédiction. Ce n'est pas inquiétant, ce sont des caractéristiques que ces systèmes ont par conception. La promesse des IA comprend la résolution du cancer, la transformation de la production industrielle, la modélisation de scénarios futurs et la gestion des défis environnementaux. Cela dit, il existe des raisons légitimes de critiquer les IA actuelles pour l'utilisation des ressources, la transparence, les préjugés, la cybersécurité et son impact futur sur l'emploi.

Les IA sont coûteuses en calcul, ce qui signifie qu'elles sont un grand gaspillage d'énergie fossile rare. Cela doit être réglé immédiatement. Mais ce n'est pas une question existentielle, c'est une question d'utilisation rationnelle des ressources. Le fait que les IA qui s'appuient sur des modèles de données volumineux et inefficaces deviennent trop coûteuses pour être suivies et étudiées par les universités ou le gouvernement est un véritable problème. Mais c'est réparable sous peu. Des consortiums d'institutions universitaires d'élite ou de gouvernements pourraient se regrouper et partager les ressources informatiques comme ils l'ont fait pour le supercalcul.

Les grands modèles de langage (LLM) sont des modèles d'IA capables de générer des textes en langage naturel à partir de grandes quantités de données. Un problème avec cela est que ces textes sont directement dérivés des contributions intellectuelles honnêtes d'autres personnes. Ils sont en fait volés. L'IA générative, en particulier, recombine à la fois les données des consommateurs et des organisations ainsi que le contenu créatif en violation flagrante du droit d'auteur. C'est sérieux, mais pas existentiel, et d'ailleurs, l'UE, les lobbyistes d'Hollywood et les « cinq grands » éditeurs de livres sont déjà sur l'affaire. Attendez-vous à ce que cela ralentisse le poids de l'IA. Au rythme actuel, les IA seront à court de bonnes données d'entraînement bien avant d'approcher la sensibilité.

Les algorithmes déjà utilisés pour calculer nos impôts, sélectionner nos flux en ligne ou mettre les gens en prison manquent cruellement de transparence. Cependant, c'est le cas depuis des années et cela n'a rien à voir avec les derniers développements de l'IA. Le biais de l'IA est une fonctionnalité et non un bogue. Les stéréotypes sont, en fait, la principale approche par laquelle ces modèles fonctionnent. Sauf que le préjugé est caché dans des couches impénétrables de raisonnements de machines insaisissables pour les humains, experts ou non. Ce que nous devrions remettre en question, c'est la sagesse des développeurs qui ont développé de tels systèmes, et non la capacité du système qu'ils ont créé, qui est une donnée. Les systèmes seront rarement meilleurs que la sagesse ou les intentions de ceux qui les construisent ou les gèrent.

Les données de formation à l'IA reflètent les préjugés présents dans la société à partir de laquelle ces données ont été collectées. La réutilisation de mauvaises données d'entraînement est une pratique inquiétante qui pollue déjà les modèles d'IA. Les approches actuelles de l'IA amplifient simplement les biais pour obtenir rapidement un résultat. C'est, certes, le contraire de ce que nous voulons. Ce que nous voulons faire, c'est utiliser la technologie pour protéger l'erreur humaine. S'inquiéter des erreurs de la machine est une utilisation inutile de l'intelligence humaine.

Malgré la métaphore du « réseau neuronal », les IA actuelles ne ressemblent en rien à des cerveaux. Les systèmes d'IA actuels ne peuvent pas raisonner par analogie comme le font les humains. C'est bon. Nous ne voulons peut-être pas réellement le type d'alignement de l'IA que les fanatiques préconisent et essaient d'imiter. Les machines doivent être différentes des humains. C'est ainsi que nous pouvons maximiser les forces de chacun. Et comment nous pouvons garder les machines distinctes et séparées. Les machines ne doivent pas avoir d'intérêts à aligner.

L'IA représente de plus en plus une menace importante pour la cybersécurité en tant qu'atout pour les criminels et les États hostiles. Mais la cybersécurité est une industrie mature avec de nombreux experts bien équipés pour relever le défi. Il n'y a aucune raison d'arrêter l'IA en raison de craintes liées à la cybersécurité.

La perturbation de l'emploi à cause de l'IA est un problème politique depuis des années, d'abord avec les robots, maintenant avec les systèmes d'IA basés sur des logiciels. Cela signifie que les gouvernements seront prêts à y faire face. L'étude MIT Work of The Future a révélé que les inquiétudes concernant le chômage dû aux robots étaient surestimées. Les humains ont toujours trouvé des moyens de travailler et le feront également à l'avenir. La fabrication sera-t-elle transformée par l'IA ? Cela se produit déjà, mais de façon assez contrôlée.

De temps en temps, l'IA souffre de promesses exagérées concernant les fonctionnalités actuelles ou la portée future. Les premiers hivers de l'IA ont commencé en 1974-1980, lorsque le gouvernement américain a retiré son financement. La seconde a eu lieu de 1987 à 1993, alors que les coûts augmentaient et qu'AI n'a pas tenu ses nobles promesses.

En attendant l'arrivée de nouveaux paradigmes, dans la période 2025-2030, nous entrerons probablement dans un troisième hiver de l'IA. Au moins par rapport à l'été chaud de l'IA qui nous est promis. La raison en est que, malgré le battage médiatique, pour toutes les raisons décrites ci-dessus, les grands modèles de langage sont sur le point d'atteindre leur utilité maximale et devront éventuellement être remplacés par des approches informatiques plus élégantes et plus transparentes.

L'un de ces candidats est l'informatique hyperdimensionnelle, qui permettrait aux machines de raisonner plus efficacement, car elles donneraient aux machines une compréhension sémantique, la capacité de traiter le sens et le contexte derrière les informations du monde réel. À l'heure actuelle, les systèmes d'IA ne comprennent pas les relations entre les mots et les phrases, ils sont simplement doués pour les conjectures. C'est insuffisant. Nous aurons éventuellement besoin d'une IA incarnée, car la pensée est liée à la perception de l'espace. C'est certainement le cas dans la fabrication qui est un jeu très physique. Nous aurons également besoin d'une IA capable de fonctionnalités de mémoire humaine telles que la hiérarchisation basée sur la mise en avant de certaines informations et la mise en arrière-plan d'autres informations. L'oubli est un outil que les humains utilisent pour penser de manière abstraite, abandonner des pratiques organisationnelles obsolètes, prendre des décisions et rester dans l'instant présent, et ce n'est pas simplement un défaut. Aucune machine ne peut encore très bien le faire.

En attendant, nous devons réglementer, mais pas cette seconde. Et, quand on réglemente, mieux vaut bien le faire. Une mauvaise réglementation de l'IA risque d'aggraver la situation. Il peut être utile de réveiller les régulateurs face à ce défi, mais je ne suis pas sûr que la génération actuelle de régulateurs soit prête pour ce genre de changements radicaux qui seraient nécessaires pour bien le faire. Cela impliquerait de restreindre les entreprises puissantes (éventuellement toutes les sociétés cotées), de limiter l'utilisation de l'IA dans la gouvernance, et signifierait d'énormes changements dans le fonctionnement actuel des marchés de consommation. Essentiellement, nous aurions à recâbler la société. Cela nous introduirait dans la décroissance quelques décennies plus tôt que nous ne le souhaiterions. Le défi de la transparence entourant l'IA pourrait être plus redoutable que les variables de contrôle dont tout le monde semble si inquiet, non pas qu'elles ne soient pas liées, bien sûr.

De plus, nous ne pouvons pas être inquiets de la même manière chaque fois qu'une référence en matière d'IA est atteinte. Nous devons conserver nos énergies pour les vrais grands moments de risque en cascade. Ils viendront et, en toute honnêteté, nous ne sommes pas préparés. Mes scénarios futurs envisagés (voir Scénarios d'extinction pour 2075) incluent des violations de données massives qui maintiennent des pays entiers à l'écart de leurs propres processus pendant des mois. Je m'inquiète également des IA qui sont aidées par des groupes criminels ou des acteurs étatiques. Surtout, je m'inquiète des combinaisons d'IA, de nanotechnologie, de biologie synthétique et de technologie quantique - une intelligence quasi-organique presque invisible de capacité inconnue, peut-être à quelques décennies seulement, qui se produira juste au moment où le monde sera consumé par les effets en cascade du climat changement.

Les modèles d'IA actuels ne fonctionnent pas encore suffisamment bien pour constituer une menace pour l'humanité. Avant de pouvoir envisager de les fermer, nous avons besoin de meilleures IA. Plus que cela, nous avons besoin de développeurs plus avisés, de citoyens plus sensibilisés et de décideurs politiques mieux informés. Nous avons également besoin d'un concept pour savoir COMMENT réglementer l'IA. Mais cela peut être fait sans ralentir quoi que ce soit. Ce sera un voyage éducatif pour tous. La lettre de moratoire concernant GPT 4 (2023) est un moment de cri au loup qui ne ressemble qu'à une légère ressemblance avec les risques en cascade auxquels l'humanité sera confrontée dans les décennies à venir. Placer le risque IA au niveau du risque pandémique et du risque nucléaire en 2023 est prématuré. Y arriverons-nous ? Peut-être. Mais crier au loup a des conséquences. Cela aspire l'oxygène des débats à venir sur les vraies frayeurs.

Source : https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/