Implications de sécurité de l’IA dans l’espace cryptographique

L’intelligence artificielle, ou IA, a pris d’assaut le monde. Les sociétés de cryptographie du monde entier adoptent activement les nouvelles possibilités de la technologie de l’IA, en l’intégrant pour augmenter la productivité et renforcer la sécurité au sein de leurs entreprises. Cependant, l’adoption de l’IA peut également entraîner des risques de sécurité pour les entreprises, tels que des bogues potentiels et des problèmes liés à la sensibilité des données. Les sociétés de cryptographie doivent être particulièrement prudentes, car l’introduction d’un bug ou d’une fuite de données peut entraîner le vol d’énormes sommes de la richesse des clients sur les échanges et les protocoles.

Cet article mettra en évidence les risques de sécurité auxquels les institutions sont confrontées en raison de l'essor de la technologie de l'IA et la manière dont elles peuvent gérer ces risques. Nous ferons référence aux professionnels de Bullish dans cet article. Bullish est un échange de crypto-monnaie réglementé qui occupe une position unique pour commenter ces questions. Au service d'une base d'utilisateurs mondiale et facilitant régulièrement plus d'un milliard de dollars de volume de transactions quotidien, Bullish est une bourse qui place la sécurité et la sensibilité des données au premier plan de ses préoccupations. Qu'il s'agisse de la technologie de l'IA ou d'autres développements dans le domaine technologique, l'équipe de Bullish veille à mettre en place des garde-fous appropriés pour protéger à la fois les informations exclusives de l'entreprise et les données sensibles des utilisateurs.

« L’essor de l’utilisation de l’IA ne devrait surprendre personne. Les développeurs et les créateurs de contenu ont commencé à utiliser cette technologie pour de bon, et les entreprises ne peuvent pas se permettre de ne pas savoir comment gérer cela. Compte tenu de la grande variété d’outils d’IA sur le marché et de leur intégration dans de nombreuses plateformes de productivité, ce n’est pas un problème facile à résoudre, notamment en ce qui concerne la protection adéquate des données sensibles. Cependant, en mettant en place les bonnes mesures, les entreprises peuvent protéger leurs données sensibles tout en permettant au personnel de bénéficier des avantages de l’utilisation de ces nouvelles technologies.

— Josh Wallace, responsable haussier de la sécurité offensive et de la gestion des vulnérabilités

La prolifération de l’IA générative marque une nouvelle ère de développement assisté par l’IA

Source : tendances.google.com

L'utilisation de l'IA générative (modèles d'IA qui génèrent du contenu tel que des images, du texte et des vidéos) a atteint un point d'inflexion avec le lancement de ChatGPT en novembre 2022. Les producteurs de contenu et les développeurs ont adopté la technologie en grand nombre pour expérimenter ses capacités. . Les développeurs ont rapidement découvert que l’IA pouvait les aider de diverses manières, se révélant compétents dans les tâches de développement fondamentales, telles que la génération de code et la recherche de problèmes. Cependant, cela pourrait également aider de manière plus créative, par exemple en servant de mentor virtuel pour le brainstorming et la compréhension de problèmes complexes, en agissant en tant que programmeurs pairs pour naviguer et interpréter le code existant, et également en contribuant à l'écriture de cas de test et au débogage.

L’IA est intégrée de manière polyvalente au sein de l’industrie des cryptomonnaies. Alors que les domaines de code plus sensibles tels que le développement de contrats intelligents sont mieux gérés sans l'aide de l'IA générative, le développement de domaines logiciels moins critiques peut être rationalisé grâce à l'utilisation d'outils d'IA générative. La rédaction de bases de code préliminaires pour des domaines tels que les modèles de conception, les tests unitaires et les automatisations peut être réalisée à un niveau élevé grâce à l'utilisation des bonnes invites pour l'IA générative.

Par exemple, les traders de crypto-monnaie ou les fonds HFT (trading à haute fréquence) cherchant à se connecter à une API d'échange peuvent générer rapidement des scripts de test. Ces scripts leur permettent d'effectuer des tests techniques qui garantissent qu'ils peuvent se connecter à l'échange de manière fiable. En fin de compte, l’IA fonctionne bien pour établir un point de départ pour le développement, mais des améliorations et des contrôles de sécurité rigoureux seront nécessaires à partir de ce moment-là.

Bien que cette nouvelle ère de développement et de génération de contenu assistés par l’IA aide les professionnels de la cryptographie à rationaliser leur travail, elle n’est pas sans risque. Il existe un élément de caractère aléatoire dans les résultats de l’IA, communément appelé « problème d’hallucination », et en tant que tel, la précision n’est pas garantie. Cela peut entraîner plusieurs risques, tels que des résultats qui semblent plausibles aux humains mais qui sont incorrects, un code généré avec des failles de sécurité et un contenu produit avec du plagiat ou des problèmes de droits d'auteur. 

« La majorité de ces outils d’IA sont basés sur des modèles de réseaux neuronaux. Un élément essentiel à comprendre ici est que ces modèles peuvent ne pas avoir été formés sur les dernières informations sur un sujet et peuvent même tirer des conclusions basées sur des informations incomplètes (c'est ce qu'on appelle l'inférence). En conséquence, on ne peut pas toujours faire confiance à ces modèles pour donner toujours le résultat correct, ce qui signifie que leurs résultats doivent être vérifiés avant d’être introduits dans le code réel ou comme preuve d’une analyse.

— Matt Presson, responsable haussier de la sécurité de l'information pour les Amériques

Si le plagiat et les failles de sécurité dans le code constituent des risques flagrants dont il faut être conscient, une préoccupation beaucoup plus subtile peut se présenter sous la forme de la sensibilité des données. Même si les professionnels de la cryptographie peuvent se déplacer en masse pour adopter les outils d’IA les plus récents et les plus puissants, ils doivent être parfaitement conscients de la manière dont ces applications utilisent les données qu’elles leur fournissent. Cela est pertinent non seulement pour les institutions mais également au niveau individuel. 

La majorité des modèles d’IA et d’apprentissage automatique utiliseront les données qui leur sont fournies pour améliorer leur algorithme de sortie. Si les employés utilisent des données sensibles liées à l’entreprise ou des informations personnelles identifiables (PII) dans les outils d’IA, ces données peuvent se retrouver utilisées dans le modèle de formation de l’IA qui est conçu pour améliorer encore les résultats de l’application. Cependant, ce modèle de formation peut être visible publiquement, révélant des données personnelles et opérationnelles sensibles.

Un exemple aussi simple qu'un développeur utilisant le code source d'un projet interne pour générer plus de code et de fonctions peut entraîner la révélation au public de fonctionnalités confidentielles d'un projet ou de données client. Même si l’IA n’est utilisée que pour formater ou organiser les données, il existe un risque que ces données finissent par être divulguées. 

Une approche mesurée de la gestion des risques pour les institutions qui adoptent l’IA

L’intégration responsable de l’IA devrait être au premier rang des préoccupations des entreprises lorsqu’il s’agit d’utiliser l’IA générative pour rationaliser leur productivité et améliorer leur sécurité. Une mise en œuvre négligente de la technologie fera courir des risques importants aux entreprises et à leurs clients. 

Les entreprises devraient plutôt chercher à introduire des garde-fous et des procédures qui atténuent suffisamment les risques associés à l’utilisation illimitée de l’IA générative. Une première étape consisterait à prendre le temps de comprendre les distinctions entre les différentes solutions d’IA du marché. À partir de là, les institutions peuvent éviter les outils d’IA qui utilisent les données que vous leur fournissez dans leurs modèles de formation. Ils peuvent également identifier les fournisseurs d’IA qui opèrent dans des juridictions dépourvues de lois strictes en matière de protection des données.

Une fois que les entreprises savent avec quels fournisseurs d’IA elles souhaitent travailler, elles peuvent mettre en place des contrats avec ces fournisseurs pour définir légalement les limites de la manière dont le fournisseur peut utiliser les données qui leur sont fournies. En plus de cela, les sociétés de cryptographie peuvent mettre en place des mesures de classification et de protection des données pour garantir que les données particulièrement sensibles ne seront pas partagées avec des outils d’IA.

« La classification des données en interne et la mise en place de contrats avec les fournisseurs d’IA deviendront de plus en plus importantes pour toutes les entreprises, y compris celles travaillant dans le domaine de la cryptographie. Alors que les outils d’IA continuent de proliférer et de gagner en popularité, les entreprises ne peuvent pas risquer que des données sensibles de clients ou d’entreprise soient divulguées en raison de mauvaises pratiques en matière de données lors de l’utilisation d’un outil.

— Matt Presson, responsable haussier de la sécurité de l'information pour les Amériques

En ce qui concerne les résultats produits à l’aide des outils d’IA, les employés doivent être tenus responsables de la qualité et de la sécurité de leur travail. Le code et le contenu générés par l’IA doivent être soumis au même processus d’examen par les pairs et de tests de sécurité que le code et le contenu créés sans l’IA. Cela permettra de garantir que la sortie de l'IA n'est pas traitée comme spéciale et passe plutôt par les mêmes points de contrôle que le code généré par l'homme pour identifier tout risque potentiel avant d'être mis en ligne. Tout contenu ou code susceptible de présenter un risque important pour l’entreprise doit être soumis à un processus d’examen rigoureux, qu’il soit généré ou non par l’IA.

L’IA comme pilier fondamental de l’entreprise

À mesure que la technologie de l’IA se développe rapidement, elle présente à la fois des défis et des opportunités sans précédent, en particulier dans le monde dynamique des cryptomonnaies. Au lieu d’empêcher l’utilisation de ces outils d’IA, les adopter et les comprendre en profondeur apparaît comme la clé du succès futur.

Les établissements sont encouragés à engager des dialogues et des partenariats ouverts avec leurs équipes informatiques et de sécurité. Ce faisant, ils peuvent développer des stratégies efficaces et introduire les contrôles nécessaires pour atténuer les risques tout en capitalisant sur le potentiel de l’IA pour stimuler l’innovation et l’avantage concurrentiel. L’avenir de l’entreprise numérique, renforcé en toute sécurité par l’IA, offre un paysage regorgeant de possibilités de croissance et de transformation.

Ce contenu est sponsorisé par Bullish.


Ne manquez pas la prochaine grande actualité – rejoignez notre newsletter quotidienne gratuite.

Source : https://blockworks.co/news/security-implications-ai-crypto