Le système d'IA générative de Google, Bard, a le potentiel de révolutionner les soins de santé

La course pour mettre en œuvre la technologie de l'intelligence artificielle (IA) de manière significative n'a jamais été aussi féroce. Plus précisément, l'IA générative a récemment pris d'assaut le monde, créant tout un domaine d'applications, de technologies et de valeur potentielle.

JP Morgan Insights a récemment publié un article intitulé «L'IA générative change-t-elle la donne ?» expliquant que « l'IA générative – une catégorie d'algorithmes d'intelligence artificielle qui peut générer de nouveaux contenus basés sur des données existantes – a été saluée comme la prochaine frontière pour diverses industries, de la technologie à la banque et aux médias ». Gokul Hariharan, co-responsable de la recherche sur les technologies, les médias et les télécommunications en Asie-Pacifique chez JP Morgan, a en outre réitéré que « Fondamentalement, l'IA générative réduit l'argent et le temps nécessaires à la création de contenu - à travers le texte, le code, l'audio, les images, la vidéo et leurs combinaisons. » – ouvrant la voie à l'innovation de rupture.

Indéniablement, les entreprises technologiques veulent être à la pointe de cette innovation.

Plus tôt la semaine dernière, Google a annoncé sa prochaine étape très attendue en ce qui concerne l'IA générative. Dans le blog officiel de Google, Le mot clé, Sissie Hsiao, vice-présidente des produits, et Eli Collins, vice-président de la recherche, ont introduit le libre accès à Bard, une expérience qui permet aux utilisateurs d'interagir directement avec la plate-forme d'IA générative de Google et de partager leurs commentaires en conséquence.

Les auteurs ont expliqué : « Aujourd'hui, nous commençons à ouvrir l'accès à Bard, une première expérience qui vous permet de collaborer avec l'IA générative […] Vous pouvez utiliser Bard pour augmenter votre productivité, accélérer vos idées et alimenter votre curiosité. Vous pourriez demander à Bard de vous donner des conseils pour atteindre votre objectif de lire plus de livres cette année, d'expliquer la physique quantique en termes simples ou de stimuler votre créativité en décrivant un article de blog. Nous avons beaucoup appris jusqu'à présent en testant Bard, et la prochaine étape critique pour l'améliorer est d'obtenir les commentaires d'un plus grand nombre de personnes.

L'article explique également le concept derrière un grand modèle de langage (LLM), la technologie qui alimente le système : "Bard est alimenté par un modèle de grande langue de recherche (LLM), en particulier une version allégée et optimisée de LaMDA, et sera mis à jour avec des modèles plus récents et plus performants au fil du temps. Il est fondé sur la compréhension de Google en matière d'informations de qualité. Vous pouvez considérer un LLM comme un moteur de prédiction. Lorsqu'on lui donne une invite, il génère une réponse en sélectionnant, un mot à la fois, parmi les mots susceptibles de venir ensuite. Choisir le choix le plus probable à chaque fois ne conduirait pas à des réponses très créatives, il y a donc une certaine flexibilité à prendre en compte. Nous continuons de voir que plus les gens les utilisent, mieux les LLM arrivent à prédire quelles réponses pourraient être utiles.

LaMDA, abréviation de "Language Model for Dialogue Applications", est la percée de Google dans la construction d'un modèle de langage de conversation adaptatif, formé au dialogue avancé et aux nuances du langage humain. Maintenant, Google utilise une itération de cette percée avec Bard, pour façonner, espérons-le, la technologie en quelque chose qui peut être utile et créer de la valeur pour les utilisateurs.

Sans aucun doute, cette technologie a des implications potentielles incroyables pour les soins de santé. L'application la plus évidente est qu'avec des modèles correctement formés et testés, les patients peuvent commencer à demander des conseils médicaux et des recommandations au système, en particulier si l'interface conversationnelle est robuste. Bien sûr, cela doit être abordé avec prudence, car les modèles ne sont aussi bons que les données avec lesquelles ils sont formés, et même dans ce cas, ils peuvent faire des erreurs.

Les auteurs de l'article expliquent que « Bien que les LLM soient une technologie passionnante, ils ne sont pas sans défauts. Par exemple, parce qu'ils apprennent à partir d'un large éventail d'informations qui reflètent les préjugés et les stéréotypes du monde réel, ceux-ci apparaissent parfois dans leurs résultats. Et ils peuvent fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec confiance. Par exemple, lorsqu'on lui a demandé de partager quelques suggestions de plantes d'intérieur faciles, Bard a présenté des idées de manière convaincante… mais il y a eu des erreurs, comme le nom scientifique de la plante ZZ. Ils poursuivent en présentant l'exemple de la façon dont le système a proposé un nom scientifique incorrect pour la plante Zamioculcas Zamiifolia.

Cependant, si cela est fait correctement, il y a tellement de potentiel pour permettre une conversation médicalement alphabétisée, peut-être même comme un moyen d'aider les médecins et les spécialistes à créer des plans de diagnostic ou des soins de transition pour leurs patients.

À plus grande échelle, la possibilité de former des modèles intuitifs tels que ceux-ci offre une excellente occasion de tirer des informations solides des données. La santé est une industrie d'un billion de dollars avec des téraoctets de données produites chaque année. La superposition de modèles avancés d'intelligence artificielle et d'apprentissage automatique à ces données peut offrir des opportunités importantes pour mieux comprendre et utiliser ces informations pour le plus grand bien.

Assurément, il existe de nombreux défis éthiques et de sécurité à prendre en compte avec l'IA en général et spécifiquement avec l'IA générative. Dans des produits comme ceux-ci, les entreprises technologiques doivent résoudre de nombreux risques, allant de la production de discours et de langage haineux qui peuvent être utilisés à mauvais escient, à la génération d'informations trompeuses, qui peuvent être particulièrement dangereuses dans un environnement de soins de santé. Il ne fait aucun doute que les patients ne doivent demander des soins médicaux qu'à des professionnels de la santé formés et agréés.

Néanmoins, Google et d'autres sociétés créant des outils aussi avancés ont un grand potentiel pour résoudre certains des problèmes les plus difficiles au monde. En conséquence, ils assument également une responsabilité importante dans la création de ces produits de manière sûre, éthique et axée sur le consommateur. Cependant, si elle est effectuée correctement, la technologie peut potentiellement changer les soins de santé pour les générations à venir.

Le contenu de cet article n'est pas supposé être et ne doit pas être invoqué ou remplacé par un avis médical professionnel, un diagnostic ou un traitement par quelque moyen que ce soit, et n'est pas écrit ou conçu comme tel. Ce contenu est à titre informatif seulement. Consultez un professionnel de la santé qualifié pour obtenir des conseils médicaux.

Source : https://www.forbes.com/sites/saibala/2023/03/26/googles-generative-ai-system-bard-has-the-potential-to-revolutionize-healthcare/