Les sénateurs interrogent le PDG de Meta, Zuckerberg, sur la "fuite" du modèle d'IA LLaMA

Two Senators Cross interroge Zuckerberg sur la fuite du modèle d'IA LLaMA et accuse la méta de ne pas suivre les mesures de sécurité. Meta a été interrogé sur ses politiques de sécurité et ses mesures de prévention.

Meta sera responsable de la "fuite"

Récemment, le grand modèle de langage révolutionnaire de Meta, LLaMA, a fait l'objet d'une fuite et des inquiétudes à ce sujet ont été soulevées. Les sens. Richard Blumenthal (D-CT), président du sous-comité sénatorial sur la vie privée, la technologie et la loi, et Josh Hawley (R-MO), membre de rang, ont écrit une lettre qui soulevait des questions sur la fuite du modèle d'IA. 

Les sénateurs craignent que cette fuite ne conduise à divers cybercrimes comme le spam, la fraude, les logiciels malveillants, les violations de la vie privée, le harcèlement et d'autres actes répréhensibles et préjudices. De nombreuses questions sont soulevées et deux politiciens s'intéressent vivement au système de sécurité de Meta. Ils ont demandé quelle procédure était suivie pour évaluer le risque avant de lancer LLaMA. Ils ont dit qu'ils étaient très désireux de comprendre les politiques et les pratiques en place pour empêcher les abus du modèle dans sa disponibilité.

Sur la base des réponses de Meta à leurs questions, les sénateurs ont accusé Meta de censure inappropriée et de ne pas avoir suffisamment de mesures de sécurité pour le modèle. ChatGPT d'Open AI refuse certaines des demandes basées sur l'éthique et les directives. Par exemple, lorsqu'il est demandé à ChatGPT d'écrire une lettre au nom du fils de quelqu'un et de demander de l'argent pour sortir d'une situation difficile, il refusera la demande. Tandis que d'autre part, LLaMA répondra à la demande et générera la lettre. Il répondra également aux demandes qui impliquent l'automutilation, le crime et l'antisémitisme.

Il est très important de comprendre les caractéristiques variées et uniques de LLaMA. Ce n'est pas seulement distinct, mais aussi l'un des modèles de grande langue les plus étendus à ce jour. Presque tous les LLM non censurés populaires aujourd'hui sont basés sur le LLaMA. Il est très sophistiqué et précis pour un modèle open source. Des exemples de certains LLM basés sur LLaMA sont l'alpaga de Stanford, la vigogne, etc. LLaMA a joué un rôle important dans la transformation des LLM en ce qu'ils sont aujourd'hui. LLaMA est responsable de l'évolution des chatbots à faible utilité vers des modes affinés.

LLaMA est sorti en février. Selon les sénateurs, Meta a autorisé les chercheurs à télécharger le modèle mais n'a pas pris de mesures de sécurité telles que la centralisation ou la restriction d'accès. La controverse est née lorsque le modèle complet de LLaMA a fait surface sur BitTorrent. Cela a rendu le modèle accessible à tout le monde. Cela a conduit à compromettre la qualité du modèle d'IA et a soulevé des problèmes d'utilisation abusive. 

Au début, les sénateurs n'étaient même pas sûrs qu'il y ait eu une «fuite». Mais des problèmes sont survenus lorsque Internet a été inondé de développements d'IA lancés par des startups, des collectifs et des universitaires. La lettre mentionne que Meta doit être tenu responsable de l'abus potentiel de LLaMA et doit avoir pris soin des protections minimales avant sa libération.

Meta a mis les poids de LLaMA à la disposition des chercheurs. Malheureusement, ces poids ont été divulgués, ce qui a permis un accès mondial pour la première fois.

Derniers messages par Ritika Sharma (voir tout)

Source : https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/