Voici comment OpenAI prévoit de nettoyer ChatGPT des fausses informations

OpenAI a annoncé le 31 mai ses efforts pour améliorer les capacités de résolution de problèmes mathématiques de ChatGPT, dans le but de réduire les cas d'hallucinations de l'intelligence artificielle (IA). OpenAI a mis l'accent sur l'atténuation des hallucinations comme une étape cruciale vers le développement d'une AGI alignée.

En mars, l'introduction de la dernière version de ChatGPT, GPT-4, a encore propulsé l'intelligence artificielle dans le courant dominant. Cependant, les chatbots génératifs d'IA sont depuis longtemps aux prises avec la précision factuelle, générant parfois de fausses informations, communément appelées « hallucinations ». Les efforts pour réduire ces hallucinations de l'IA ont été annoncés par un message sur leur site Web.

Les hallucinations de l'IA font référence à des cas où les systèmes d'intelligence artificielle génèrent des sorties factuellement incorrectes, trompeuses ou non étayées par des données du monde réel. Ces hallucinations peuvent se manifester sous diverses formes, telles que générer de fausses informations, inventer des événements ou des personnes inexistants ou fournir des détails inexacts sur certains sujets.

OpenAI a mené des recherches pour examiner l'efficacité de deux types de rétroaction : la « supervision des résultats » et la « supervision des processus ». La supervision des résultats implique une rétroaction basée sur le résultat final, tandis que la supervision des processus fournit des informations pour chaque étape d'une chaîne de pensée. OpenAI a évalué ces modèles à l'aide de problèmes mathématiques, en générant plusieurs solutions et en sélectionnant la solution la mieux classée en fonction de chaque modèle de rétroaction.

Après une analyse approfondie, l'équipe de recherche a constaté que la supervision des processus offrait une performance supérieure car elle encourageait le modèle à adhérer à un processus approuvé par l'homme. En revanche, la supervision des résultats s'est avérée plus difficile à examiner de manière cohérente.

OpenAI a reconnu que les implications de la supervision des processus s'étendent au-delà des mathématiques, et une enquête plus approfondie est nécessaire pour comprendre ses effets dans différents domaines. Il a exprimé la possibilité que si les résultats observés se vérifient dans des contextes plus larges, la supervision des processus pourrait offrir une combinaison favorable de performance et d'alignement par rapport à la supervision des résultats. Pour faciliter la recherche, la société a rendu public l'ensemble de données complet de la supervision des processus, invitant à l'exploration et à l'étude dans ce domaine.

Connexe: La demande d'IA catapulte brièvement Nvidia dans un club de 1 XNUMX $

Bien qu'OpenAI n'ait pas fourni d'exemples explicites qui ont motivé leur enquête sur les hallucinations, deux événements récents ont illustré le problème dans des scénarios réels.

Lors d'un incident récent, l'avocat Steven A. Schwartz dans l'affaire Mata c. Avianca Airlines a reconnu s'être appuyé sur le chatbot comme ressource de recherche. Cependant, les informations fournies par ChatGPT se sont avérées entièrement fabriquées, mettant en évidence le problème en question.

Le ChatGPT d'OpenAI n'est pas le seul exemple de systèmes d'intelligence artificielle rencontrant des hallucinations. L'IA de Microsoft, lors d'une démonstration de sa technologie de chatbot en mars, a examiné les rapports sur les bénéfices et généré des chiffres inexacts pour des entreprises comme Gap et Lululemon.

Magazine: 25 XNUMX traders parient sur les sélections d'actions de ChatGPT, l'IA est nul aux lancers de dés, et plus encore

Source : https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information