Ce que vous devez savoir sur GPT-4, le successeur tout juste sorti de Generative AI ChatGPT, ainsi que sur l'éthique de l'IA et les considérations juridiques sur l'IA

Quelle est votre réaction habituelle à la sortie d'une suite d'un film à succès qui fait la une des journaux ?

Certaines personnes vont voir la suite et déclarent qu'elle est aussi bonne sinon meilleure que l'original. D'autres pourraient avoir des attentes extraordinairement élevées et après avoir visionné le nouveau film, proclamer qu'il est raisonnablement bon mais qu'il n'y a rien à hurler d'extase. Certains seront sans aucun doute extrêmement déçus, peu importe ce que comprend le dernier film, et déclareront sommairement que le premier film était sans vergogne au-dessus de la suite.

Cette même gamme de réactions et d'émotions a été mise en évidence lors de la sortie hier de GPT-4 par le fabricant d'IA OpenAI, qui a lieu le Pi Day, à savoir le 3.14 ou le 14 mars 2023. manger jour, le dévoilement du GPT-4 a attiré beaucoup d'attention de la part de la presse et de nombreuses discussions sur les réseaux sociaux.

Je décrirai ici les principales fonctionnalités et capacités de GPT-4, tout en faisant des comparaisons avec son prédécesseur ChatGPT (le "blockbuster" initial dans mon analogie). De plus, il existe une multitude de considérations vraiment vitales pour l'éthique de l'IA et la loi sur l'IA qui accompagnent l'IA générative, y compris et peut-être surtout dans le cas de GPT-4 et ChatGPT en raison de leur utilisation indubitablement répandue et de la frénésie des médias et de l'attention du public concernant IA présente et future.

En bref, tout comme une suite à un film, GPT-4 est à certains égards meilleur que ChatGPT, comme étant plus grand, plus rapide et apparemment plus fluide, tandis qu'à d'autres égards, il soulève des scrupules supplémentaires et prononcés (je couvrirai ceux brièvement ici). Une réaction un peu confuse. La suite n'est pas un slam-dunk, comme beaucoup l'avaient prévu. Il s'avère que les choses sont plus nuancées que cela. On dirait que c'est le monde réel dans lequel nous vivons tous.

Peut-être que le PDG d'OpenAI, Sam Altman, l'a dit le mieux dans ses tweets du 14 mars 2023 à propos du lancement du GPT-4 :

  • "Voici le GPT-4, notre modèle le plus performant et le plus aligné à ce jour. Il est disponible dès aujourd'hui dans notre API (avec une liste d'attente) et dans ChatGPT+.
  • "Il est toujours imparfait, toujours limité, et il semble toujours plus impressionnant lors de la première utilisation qu'il ne le fait après avoir passé plus de temps avec."

Mes suggestions sur ce que vous pourriez envisager de faire à la suite de la publication de GPT-4, et en fonction de votre situation ou circonstance actuelle, consistent en ces actions potentielles :

  • Utilisateurs ChatGPT existants. Si vous utilisez déjà ChatGPT, vous devez examiner de près GPT-4 pour voir si vous souhaitez l'utiliser à la place (ou vous pouvez utiliser GPT-4 en plus d'utiliser ChatGPT, ergo utiliser l'un de ChatGPT ou GPT -4, selon vos besoins au fur et à mesure qu'ils surviennent). Vous pouvez jouer avec GPT-4 si vous vous abonnez à ChatGPT Plus, le mode d'abonnement de 20 $ par mois pour utiliser ChatGPT, sinon, vous n'avez pas particulièrement un moyen facile d'accéder à GPT-4 pour le moment (la mise en garde ou la torsion étant que Microsoft Bing, le moteur de recherche, utilise une variante de GPT-4, dont j'ai discuté sur le lien ici).
  • Jamais utilisé d'IA générative. Si vous n'utilisez pas ChatGPT et que vous n'avez jamais utilisé d'IA générative, vous voudrez peut-être commencer par ChatGPT car il est accessible gratuitement (ou, bien sûr, envisagez d'utiliser l'une des myriades d'autres applications d'IA générative pour commencer votre voyage dans ce domaine de l'IA). GPT-4 n'est pas gratuit pour le moment, comme mentionné dans les points ci-dessus concernant les utilisateurs ChatGPT existants. Une fois que vous vous êtes familiarisé avec ChatGPT, vous pouvez alors décider s'il vaut la peine de vous abonner à ChatGPT Plus pour bénéficier d'avantages supplémentaires, notamment l'accès à GPT-4.
  • Utiliser une autre IA générative. Si vous utilisez une application d'IA générative autre que ChatGPT, il se peut que vous trouviez GPT-4 très intéressant car il présente des améliorations au-delà de ce que propose ChatGPT. Je mentionne cela parce que certains utilisateurs avertis de l'IA ont décidé que ChatGPT n'était pas aussi bon pour eux que d'autres options. Je vous recommande de vous tenir au courant de GPT-4 pour décider si votre choix actuel est toujours le meilleur pour vous. Ça pourrait être. Ainsi, je ne préconise pas de passer à coup sûr au GPT-4 et je dis seulement qu'il est toujours prudent de botter les pneus des autres voitures disponibles.
  • Autre logiciel qui accède à ChatGPT via l'API. Pour ceux qui fabriquent des logiciels qui se connectent à ChatGPT via l'API (interface de programmation d'application), dont j'ai parlé sur le lien ici, il serait sage de regarder de près l'utilisation de GPT-4 via son API. Une grande question est que le coût d'utilisation de l'API GPT-4 est beaucoup plus élevé que l'utilisation de ChatGPT. Vous voudrez faire une analyse de compromis des avantages supplémentaires de GPT-4 par rapport à l'alternative moins coûteuse de s'en tenir à ChatGPT. C'est une décision quelque peu compliquée. Faites-le consciemment et non sans réfléchir.

Une chose qui semble choquante pour beaucoup est que la valeur médiatique n'a pas tout à fait atteint le niveau prévu précédemment.

Permettez-moi d'expliquer pourquoi.

Le blockbuster original et maintenant sa suite

Vous savez probablement qu'une application d'IA générative connue sous le nom de ChatGPT a été mise à disposition fin novembre de l'année dernière.

Ce fut un succès surprenant.

Jusque-là, les efforts antérieurs pour diffuser des applications d'IA génératives au grand public étaient généralement accueillis avec dédain et indignation. La base des préoccupations était que l'IA générative peut produire des sorties qui contiennent toutes sortes de sorties grossières, y compris un langage profane, des préjugés peu recommandables, des mensonges, des erreurs et même des faits inventés ou soi-disant Hallucinations de l'IA (Je n'aime pas cette terminologie "hallucinations" car elle a tendance à anthropomorphiser l'IA, voir ma discussion sur le lien ici).

L'IA générative est un type d'IA qui consiste à générer des sorties à partir d'invites de texte saisies par l'utilisateur, telles que la capacité de produire ou de générer des essais textuels, ou de produire des images ou des illustrations, ou de produire de l'audio, ou de produire de la vidéo, etc. appelé text-to-text, text-to-essay, text-to-art, text-to-image, text-to-audio, text-to-video, etc. La facette remarquable de l'IA générative est que les œuvres générées sont apparemment à égalité avec les sorties générées par l'homme. Vous auriez du mal à essayer de distinguer une sortie d'IA générative d'une composition comparable produite uniquement par l'esprit humain et la main humaine.

Pour en savoir plus sur l'IA générative, consultez mes séries en cours telles que ce lien ici sur les principes fondamentaux de ChatGPT et de l'IA générative, ainsi que la couverture de ChatGPT par les étudiants et les problèmes de tricherie potentielle sur les essais (utilisez le lien ici), l'utilisation très discutable de ChatGPT pour des conseils sur la santé mentale (voir le lien ici), les préoccupations concernant le plagiat potentiel et la violation du droit d'auteur de l'IA générative (le lien ici), et bien d'autres sujets saillants sur le lien ici.

Une partie de la raison pour laquelle ChatGPT n'a pas semblé avoir le coup de fouet habituel était due à un travail en coulisse du fabricant d'IA, OpenAI, avant de publier ChatGPT. Ils ont essayé d'utiliser diverses techniques et technologies pour repousser la production d'essais particulièrement haineux et grossiers. Gardez à l'esprit que ChatGPT est exclusivement un style de texte à texte ou de texte à essai d'IA générative. Ainsi, les tentatives pour empêcher les sorties extravagantes et enragées consistent à traiter avec des mots. Des problèmes similaires se posent lorsque la sortie est de l'art ou des images, bien que cela puisse être tout aussi ou plus difficile à détecter pour empêcher la production d'images offensantes d'un type ou d'un autre.

Une technique notable qui a été de plus en plus adoptée par les fabricants d'IA consiste à utiliser RLHF (apprentissage par renforcement via rétroaction humaine). Voici comment cela fonctionne généralement. Une fois qu'une application d'IA générative a été initialement formée aux données, par exemple en scannant du texte sur Internet, des réviseurs humains sont utilisés pour aider à guider ou à présenter à l'IA ce qui vaut la peine d'être dit et ce qui est scandaleux à dire. Sur la base de cette série d'approbations et de désapprobations, l'IA générative est à peu près capable de faire correspondre ce qui semble correct à émettre et ce qui semble ne pas être autorisé.

Je voudrais également mentionner un autre point extrêmement important.

L'IA n'est pas sensible.

Peu importe ce que les titres loufoques déclarent, soyez assuré que l'IA d'aujourd'hui n'est pas sensible. Pour l'IA générative, l'application est un logiciel de correspondance de modèles de calcul complet et un appareil de modélisation de données. Après avoir examiné des millions et des millions de mots sur Internet, des modèles de mots et leurs relations statistiques sont dérivés. Le résultat est une forme étonnante de mimétisme du langage humain (certains initiés de l'IA appellent cela un perroquet stochastique, ce qui en quelque sorte fait ressortir le point, bien qu'il apporte malheureusement un élément autrement sensible dans la discussion).

Vous pouvez considérer l'IA générative comme la fonction de saisie semi-automatique lorsque vous utilisez un progiciel de traitement de texte, bien qu'il s'agisse d'une capacité beaucoup plus globale et avancée. Je suis sûr que vous avez commencé à écrire une phrase et que vous avez une saisie semi-automatique qui recommande une formulation pour le reste de la phrase. Avec l'IA générative telle que ChatGPT, vous entrez une invite et l'application AI tentera non seulement de compléter vos mots, mais cherchera à répondre aux questions et à composer des réponses complètes.

De plus, une erreur de débutant que beaucoup commettent lors de l'utilisation de ChatGPT ou de toute autre application d'IA générative similaire implique de ne pas utiliser les capacités conversationnelles interactives tant vantées. Certaines personnes saisissent une invite, puis attendent une réponse. Ils semblent penser que c'est tout ce qu'il y a à faire. Un et c'est fait. Mais il manque le cœur de l'IA générative. L'approche la plus utile consiste à faire une série d'invites associées à l'engagement d'un dialogue avec l'IA générative. C'est là que l'IA générative brille vraiment, voir mes exemples sur le lien ici.

ChatGPT a été salué par les médias et le grand public comme une percée étonnante dans l'IA.

La réalité est que de nombreuses autres applications apparentées à l'IA ont été conçues, souvent dans des laboratoires de recherche ou des groupes de réflexion, et dans certains cas ont été mises à la disposition du public avec précaution. Comme je l'ai dit plus haut, le résultat n'était généralement pas joli. Les gens ont poussé et poussé l'IA générative et ont réussi à obtenir des essais d'une nature atroce, voir ma couverture sur le lien ici. Les fabricants d'IA dans ces cas étaient généralement obligés de retirer l'IA du marché ouvert et de revenir à l'utilisation en laboratoire ou à des bêta-testeurs et développeurs d'IA soigneusement choisis.

Une grande partie du reste de l'industrie de l'IA était stupéfaite que ChatGPT ait réussi à marcher sur la corde raide en produisant toujours des résultats répréhensibles et pourtant pas au point que le sentiment public ait forcé OpenAI à supprimer l'application AI de l'accès global.

Ce fut le véritable choc de ChatGPT.

La plupart des gens ont supposé que le choc était la capacité de connaissance. Pas pour ceux de l'IA. La surprise qui a surpris presque tous les initiés de l'IA était que vous pouviez libérer une IA générative qui pourrait cracher des discours haineux et que le contrecoup n'était pas assez féroce pour forcer une retraite rapide. Qui savait? En effet, avant la sortie de ChatGPT, la rumeur prévoyait que d'ici quelques jours ou quelques semaines au plus, OpenAI regretterait de rendre l'application AI facilement accessible à tous. Ils devraient restreindre l'accès ou éventuellement rentrer chez eux à pied et prendre une pause.

L'incroyable succès du déploiement de ChatGPT a prudemment ouvert la porte à d'autres applications d'IA génératives pour rencontrer également la rue. Par exemple, j'ai discuté du dévoilement de Bard par Google et de la façon dont les guerres des moteurs de recherche Internet s'intensifient en raison d'un désir de brancher l'IA générative sur la recherche Web conventionnelle, voir le lien ici.

ChatGPT peut raisonnablement être qualifié de blockbuster. C'est aussi celui qui est sorti de nulle part, pour ainsi dire. Parfois, un film à succès est connu à l'avance comme étant susceptible d'être un succès à sa sortie. Dans d'autres cas, le film est un dormeur qui surprend le public et même le cinéaste. C'est ce qui s'est passé avec ChatGPT et OpenAI.

D'accord, nous avons donc le blockbuster, ChatGPT.

ChatGPT est essentiellement basé sur une version de GPT connue sous le nom de GPT-3.5. Auparavant, il y avait GPT-3, GPT-2, etc. Le monde de l'IA et ceux qui sont tangents à l'IA savaient tous qu'OpenAI travaillait sur la prochaine version, GPT-4.

GPT-4 serait considéré comme le successeur ou la suite de ChatGPT.

Cela nous ramène à mon analogie avec les films. ChatGPT, un blockbuster surprise, était très populaire. Les attentes concernant ce que serait le GPT-4 et la réaction du public étaient pleines de spéculations sauvages. GPT-4 marcherait sur l'eau ! GPT-4 sera plus rapide qu'une balle de vitesse ! GPT-4 sera la réalisation de l'IA sensible ou de l'Intelligence Générale Artificielle (AGI) !

Et cela a disparu.

Vous savez peut-être vaguement que le PDG d'OpenAI, Sam Altman, a déclaré ceci dans une interview publiée sur YouTube (datée du 17 janvier 2023) : « Le moulin à rumeurs GPT-4 est une chose ridicule. Je ne sais pas d'où tout cela vient. Les gens ne demandent qu'à être déçus et ils le seront. Le battage médiatique est comme… Nous n'avons pas de véritable AGI et c'est en quelque sorte ce qu'on attend de nous.

Eh bien, GPT-4 est là.

Le film est sorti.

Nous pouvons le voir de nos propres yeux. Finies les spéculations incontrôlées. La réalité est venue se percher.

Déballons le nouveau jouet brillant.

L'essentiel du GPT-4

Vous voulez sans aucun doute savoir ce que GPT-4 fournit.

Dans ma discussion, je ferai référence à divers documents et vidéos qu'OpenAI a mis à disposition sur GPT-4, tout en faisant des remarques basées sur mon utilisation de GPT-4. Pour faciliter la discussion, sachez qu'il existe deux documents pratiques que je citerai avidement, l'un intitulé OpenAI official Rapport technique GPT-4 et l'autre est l'officiel d'OpenAI Carte système GPT-4 document (les deux sont disponibles sur le site Web d'OpenAI). Je les citerai par les acronymes de TR pour le Rapport technique GPT-4 ainsi que SC pour le Carte système GPT-4.

Commençons par citer la toute première phrase du résumé pour le TR :

  • "Nous rapportons le développement de GPT-4, un modèle multimodal à grande échelle qui peut accepter des entrées d'image et de texte et produire des sorties de texte."

Croyez-le ou non, il y a beaucoup de choses dans cette phrase.

Asseyez-vous et prenez une boisson confortable à la main.

Un aspect qui est une règle empirique généralement acceptée à propos de l'IA générative est que plus le système est grand, plus la fluidité et la capacité globale sont probables. Cela semble être relativement bien établi par la taille historiquement croissante des systèmes d'IA générative et leur aisance de plus en plus remarquable en termes de conduite de conversations interactives. Tout le monde ne pense pas que cela doit être le cas, et certains chercheurs recherchent activement des configurations de plus petite taille qui utilisent diverses optimisations pour atteindre potentiellement autant que leurs frères plus grands.

Dans la phrase citée ci-dessus à propos de GPT-4 du TR, vous avez peut-être observé la formulation selon laquelle il s'agit d'une IA générative "à grande échelle". Tout le monde aurait probablement tendance à être d'accord par procuration, sur la base de la taille relative des systèmes d'IA générative d'aujourd'hui.

La question évidente dans l'esprit des initiés de l'IA est de savoir quelle est la taille grande échelle quand il s'agit de GPT-4 ?

Habituellement, le fabricant d'IA déclare fièrement diverses métriques de dimensionnement de son IA générative. Vous pourriez le faire pour informer le reste du monde de l'IA sur l'importance de la taille et de l'échelle. Vous pourriez le faire pour vous vanter. Vous pouvez le faire simplement parce que c'est comme une voiture, où une curiosité naturelle est de savoir quelle est la taille d'un moteur et à quelle vitesse il ira.

D'après le TR, voici ce qui est indiqué :

  • "Compte tenu à la fois du paysage concurrentiel et des implications en matière de sécurité des modèles à grande échelle tels que GPT-4, ce rapport ne contient aucun autre détail sur l'architecture (y compris la taille du modèle), le matériel, le calcul d'entraînement, la construction d'ensembles de données, la méthode d'entraînement ou similaire."

Les initiés de l'IA ont tendance à trouver cela séduisant. D'une part, il semble être une rupture inquiétante avec la diplomatie que de ne pas parler de ces caractéristiques cruciales. Cela étant dit, la logique selon laquelle cela pourrait révéler des secrets de propriété ou éventuellement ouvrir la porte à des failles de cybersécurité, eh bien, cela semble également logique.

Les fabricants d'IA devraient-ils être obligés de révéler des caractéristiques particulières de leur IA générative, le faisant dans une mesure et d'une manière qui ne révéleront pas par inadvertance des indices révélateurs vitaux ?

Je vous laisse mettre votre chapeau d'éthique de l'IA pour réfléchir à cette considération.

Certains pensent que nous pourrions également finir par établir de nouvelles lois sur l'IA qui exigeraient des divulgations explicites.

L'idée est que le public devrait savoir ce qui se passe avec l'IA, en particulier lorsque l'IA grossit et a vraisemblablement le potentiel de virer éventuellement dans la zone désastreuse des risques existentiels, voir mon analyse sur le lien ici.

Ensuite, nous ne savons pas non plus quelles données ont été utilisées pour former GPT-4.

Les données font ou défont l'avènement de l'IA générative. Certaines personnes supposent à tort que l'intégralité d'Internet a été analysée pour concevoir ces capacités d'IA génératives. Non. En fait, comme je le dis sur le lien ici, seule une infime partie d'Internet est analysée.

Un aspect connexe est de savoir si l'IA générative analyse en temps réel Internet et ajuste à la volée la correspondance des modèles de calcul. ChatGPT était limité aux analyses qui ont eu lieu au plus tard en 2021. Cela signifie que lorsque vous utilisez ChatGPT, il n'y a pratiquement aucune donnée sur ce qui s'est passé en 2022 et 2023.

Les rumeurs étaient que GPT-4 contiendrait une connexion à jour et en temps réel à Internet pour un ajustement à la volée.

Voici ce que dit le TR :

  • «GPT-4 manque généralement de connaissances sur les événements qui se sont produits après la coupure de la grande majorité de ses données de pré-formation en septembre 2021 et n'apprend pas de son expérience. Il peut parfois faire de simples erreurs de raisonnement qui ne semblent pas compatibles avec la compétence dans tant de domaines, ou être trop crédule en acceptant des déclarations manifestement fausses d'un utilisateur.

Vous pouvez peut-être alors voir pourquoi certains sont un peu déçus par GPT-4. Les rumeurs suggéraient qu'il fonctionnerait en temps réel tout en s'ajustant simultanément à la volée à Internet. Une grande amélioration considérée par rapport à ChatGPT. La réalité est que GPT-4 traite toujours des données datées. Et il n'y a pas d'ajustement en temps réel de la correspondance des modèles de calcul en soi basée sur les rafraîchissements d'Internet.

J'ai plus de nouvelles pour vous.

La phrase que j'ai citée plus tôt à propos de GPT-4 comme étant à grande échelle disait également que GPT-4 est multimodal.

Permettez-moi de donner un aperçu de la notion de multimodal IA générative.

J'ai mentionné au début de cette discussion qu'il existe différents types d'IA générative, telles que le texte à texte ou le texte à essai, le texte à l'art ou le texte à image, le texte à l'audio, le texte -to-video, etc. Ceux-ci sont tous considérés comme un mode singulier de traitement du contenu. Par exemple, vous pouvez saisir du texte et obtenir un essai généré. Un autre exemple serait que vous saisissiez du texte et obteniez une illustration générée.

À la fin de l'année dernière, j'ai fait mes prévisions annuelles sur ce que nous verrions dans les avancées de l'IA pour l'année 2023 (voir le lien ici). J'avais déclaré que l'IA générative multimodale allait être à la mode. L'idée est que vous pourriez par exemple saisir du texte et une image (deux modes en entrée), en les utilisant comme invite dans l'IA générative, et vous pourriez obtenir un essai en sortie avec une vidéo générée et une piste audio (trois modes sur sortir).

Ainsi, une multitude de modes peuvent coexister. Vous pouvez avoir une multitude de modes à l'invite ou à l'entrée. Vous pouvez également avoir une multitude de modes au niveau de la réponse ou de la sortie générée. Vous pourriez avoir un mix-and-match aux entrées et aux sorties. C'est là que les choses se dirigent. Excitant et les possibilités de ce qui peut être fait avec l'IA générative sont énormément ouvertes grâce à la fonctionnalité multimodale.

ChatGPT n'a qu'un mode singulier. Vous saisissez du texte, vous obtenez du texte généré en sortie.

Selon les rumeurs, le GPT-4 briserait le mur du son, pour ainsi dire, et fournirait une capacité multimodale complète de tout à tout. Tout le monde savait que ce texte serait inclus. L'anticipation était que des images ou des illustrations seraient ajoutées, ainsi que de l'audio et peut-être même de la vidéo. Ce serait un chacun pour soi. N'importe quel mode d'entrée, y compris autant de ces modes que vous le souhaitez. Plus n'importe quel mode de sortie, y compris autant de modes mélangés que vous le souhaitez.

Un véritable assortiment de modes.

Que fournit GPT-4 ?

Reprenez cette phrase du TR :

  • "Nous rapportons le développement de GPT-4, un modèle multimodal à grande échelle qui peut accepter des entrées d'image et de texte et produire des sorties de texte."

Vous pouvez entrer du texte et vous obtiendrez du texte en sortie, et vous pouvez éventuellement entrer une image à l'entrée.

Des démonstrations présentant le traitement d'image ou de vision d'images saisies ont indiqué que les éléments d'une image, par exemple, pouvaient être identifiés par l'IA générative, puis composés dans un récit écrit expliquant l'image. Vous pouvez demander à l'IA générative d'expliquer ce que l'image semble représenter. Dans l'ensemble, le traitement de la vision sera un ajout notable.

La capacité de traitement de la vision ou d'analyse d'image n'est pas encore disponible pour un usage public (selon le blog du site Web OpenAI):

  • "Pour préparer la capacité d'entrée d'images pour une plus grande disponibilité, nous collaborons étroitement avec un seul partenaire pour commencer."

L'essentiel de tout cela est qu'il est réconfortant de réaliser que GPT-4 a apparemment la capacité de faire la saisie et l'analyse d'images. Beaucoup attendent avec impatience la sortie publique de cette fonctionnalité. Félicitations à OpenAI pour avoir pénétré dans l'arène multimodale.

Ainsi, nous avons du texte en entrée, plus une image en entrée (lorsqu'elle est mise à la disposition du public) et du texte en sortie.

Certains ont cependant fait savoir à la communauté de l'IA que cela respecte à peine la notion de multimodal. Oui, il y a un autre mode, l'image en entrée. Mais pas une image en sortie. Il n'y a apparemment pas d'audio en entrée, ni d'audio en sortie. Il n'y a apparemment pas de vidéo en entrée, ni de vidéo en sortie. Ceux qui ont un penchant pour le smarmy trouvent que c'est "multimodal" de la manière la plus minimaliste.

Le contre-argument est qu'il faut ramper avant de marcher et marcher avant de courir.

Je crois que cela couvre la première phrase du TR et nous pouvons passer à des sujets supplémentaires.

Plus d'éléments essentiels de GPT-4

Je vais accélérer maintenant que vous avez des informations générales supplémentaires sur cette question.

Voici quelque chose d'important, comme indiqué dans la publication du blog OpenAI sur GPT-4 :

  • "Au cours des deux dernières années, nous avons reconstruit l'intégralité de notre pile d'apprentissage en profondeur et, avec Azure, nous avons co-conçu un supercalculateur à partir de zéro pour notre charge de travail."

Deux points rapides à ce sujet.

Premièrement, l'indication qu'ils ont reconstruit l'intégralité de leur pile d'apprentissage en profondeur est certainement une remarque et un accomplissement remarquables (cela signifie qu'ils ont refait les modèles de correspondance de modèles informatiques et ont choisi de restructurer le fonctionnement sous le capot). Bien pour eux. La question que certains expriment est qu'il serait bien de savoir exactement ce qu'ils ont fait dans cette reconstruction. Le TR et le SC mentionnent quelque peu ce qui s'est passé, mais pas de manière approfondie.

Bien sûr, vous pourriez argumenter de manière convaincante qu'ils ne doivent pas révéler leur sauce secrète. Ils ne sont pas tenus de le faire. Pourquoi aider inutilement leurs concurrents ? Le revers de la médaille soutient que pour l'amélioration de l'IA et de la société dans son ensemble, cela contribuerait vraisemblablement à faire progresser l'IA générative, ce qui semble être bon pour l'humanité (on l'espère).

Nous sommes de retour à cette ligne de démarcation spongieuse entre l'éthique de l'IA et la loi sur l'IA.

Deuxièmement, la remarque citée indique qu'ils ont conçu un supercalculateur à partir de zéro. Outre l'intérêt pour ce que fait ce supercalculateur et comment il fonctionne exactement, dont certains ont été expliqués, cela soulève une toute autre question.

Certains craignent que l'IA générative ne devienne un jeu à gros sous. Seules les entreprises technologiques disposant des plus gros revenus et des plus grandes ressources seront en mesure de concevoir et de mettre en œuvre une IA générative. La raison pour laquelle cela est remis en question est que nous allons peut-être avoir une IA générative étroitement contrôlée par une poignée d'entreprises technologiques. Nous pourrions devenir fortement dépendants de ces entreprises et de leurs marchandises.

Avons-nous potentiellement besoin d'utiliser les lois existantes ou de concevoir de nouvelles lois sur l'IA pour empêcher qu'une concentration d'IA générative ne soit sous le contrôle étroit de quelques-uns ?

Quelque chose à ruminer.

Si vous attendez que la chaussure tombe en termes de différence incroyablement massive entre ChatGPT et GPT-4, jetez un coup d'œil à cela sur le blog OpenAI à propos de GPT-4 :

  • "Dans une conversation informelle, la distinction entre GPT-3.5 et GPT-4 peut être subtile. La différence apparaît lorsque la complexité de la tâche atteint un seuil suffisant - GPT-4 est plus fiable, créatif et capable de gérer des instructions beaucoup plus nuancées que GPT-3.5. »

J'ai trouvé que ce manque de différence distinctive était un peu le cas, à savoir que si vous faites des discussions quotidiennes avec ChatGPT et que vous faites de même avec GPT-4, vous ne réaliserez peut-être pas particulièrement que GPT-4 est considéré comme plus puissant dans l'ensemble .

Un aspect qui semble se démarquer consiste à établir un contexte pour vos conversations avec les deux applications d'IA génératives.

Voici ce que je veux dire.

Lorsque vous utilisez une application d'IA générative, vous vous lancez parfois dans une conversation que vous démarrez et continuez avec l'IA. Dans d'autres cas, vous commencez par indiquer à l'IA le contexte de la conversation. Par exemple, je pourrais commencer par dire à l'IA générative que je veux discuter des moteurs de voiture avec l'IA, et que je veux que l'IA prétende qu'il s'agit d'un mécanicien automobile. Cela prépare alors le terrain ou le réglage pour que l'IA réponde en conséquence.

De nombreuses personnes qui utilisent ChatGPT ne réalisent pas l'importance de définir le contexte lorsqu'elles s'engagent pour la première fois dans un dialogue avec l'application AI. Cela peut être une énorme différence en termes de réponse que vous obtiendrez. Je trouve souvent que ChatGPT ne s'adapte pas très bien à des contextes particuliers. Il essaie mais échoue souvent. Jusqu'à présent, GPT-4 semble vraiment briller grâce à l'utilisation de l'établissement contextuel.

Si vous envisagez d'utiliser l'IA générative et que vous souhaitez établir des contextes lorsque vous le faites, je donnerais certainement l'avantage global à GPT-4 par rapport à ChatGPT.

Sur un élément connexe, il y a aussi un aspect connu sous le nom de maniabilité qui entre en jeu.

Certains utilisateurs de ChatGPT ont été surpris de voir parfois l'application AI fournir des réponses qui semblent peut-être trop humoristiques ou trop laconiques. Cela peut se produire si l'IA générative détecte quelque chose dans votre invite de saisie qui semble déclencher ce type de réponse. Vous pourriez poser des questions en plaisantant sur quelque chose et ne pas réaliser que cela va alors orienter ChatGPT vers des blagues et un ton léger.

Selon le blog OpenAI sur GPT-4 et la maniabilité :

  • "Plutôt que la personnalité classique de ChatGPT avec une verbosité, un ton et un style fixes, les développeurs (et bientôt les utilisateurs de ChatGPT) peuvent désormais prescrire le style et la tâche de leur IA en décrivant ces instructions dans le message "système". Les messages système permettent aux utilisateurs de l'API de personnaliser considérablement l'expérience de leurs utilisateurs dans certaines limites. »

Encore une fois, cela améliorera l'expérience utilisateur avec les applications d'IA génératives. D'autres fabricants d'IA génératives font de même et nous aurons inévitablement presque toutes ces applications d'IA avec une forme de gérabilité et une fonctionnalité d'établissement contextuelle.

La route difficile reste à venir

Un problème persistant et troublant qui sous-tend l'IA générative, en général, est que toutes sortes de sorties désagréables et carrément dérangeantes peuvent être produites.

Dans mes publications, j'ai couvert ces préoccupations diverses et qui donnent à réfléchir :

  • Erreurs produites par l'IA générative
  • L'IA générative a produit des mensonges
  • Biais intégrés à l'IA générative
  • Hallucinations de l'IA
  • Intrusions dans la vie privée
  • Faiblesses de la confidentialité des données
  • Propagateur de désinformation
  • Propagateur de désinformation
  • Double usage pour l'armement
  • Dépendance excessive par les humains
  • Impacts économiques sur les humains
  • Renforcement de la cybercriminalité
  • Etc

Certaines rumeurs disaient que magiquement et miraculeusement, GPT-4 allait nettoyer et résoudre toutes ces maladies génératives de l'IA.

Personne avec la tête sur les épaules ne pensait qu'une telle rumeur pouvait tenir la route. Ce sont des problèmes d'IA très difficiles. Ils ne sont pas facilement résolus. Il reste encore beaucoup à faire pour faire face à ces difficultés persistantes et exaspérantes. Il faudra probablement un village pour conquérir la litanie des problèmes d'éthique de l'IA empêtrés dans le milieu de l'IA générative.

Pour donner du crédit là où le mérite est dû, OpenAI a cherché à expliquer comment ils relèvent ces nombreux défis variés. Ceux d'entre vous qui s'intéressent à l'éthique de l'IA devraient envisager de lire attentivement le TR et le SC.

Voici, par exemple, quelques commentaires clairs sur GPT-4, comme indiqué par OpenAI dans le TR :

  • « GPT-4 peut générer des contenus potentiellement dangereux, tels que des conseils sur la planification d'attaques ou des discours de haine. Il peut représenter divers préjugés sociétaux et visions du monde qui peuvent ne pas être représentatifs de l'intention des utilisateurs ou de valeurs largement partagées. Il peut également générer du code compromis ou vulnérable. Les capacités supplémentaires de GPT-4 conduisent également à de nouvelles surfaces à risque.

De plus, ils disent ceci dans le TR :

  • «Grâce à cette analyse, nous constatons que GPT-4 a le potentiel d'être utilisé pour tenter d'identifier des particuliers lorsqu'il est complété par des données extérieures. Nous constatons également que, bien que les capacités de cybersécurité du GPT-4 ne soient pas largement supérieures aux générations précédentes de LLM, il poursuit la tendance à réduire potentiellement le coût de certaines étapes d'une cyberattaque réussie, comme par le biais de l'ingénierie sociale ou en améliorant les outils de sécurité existants. . Sans atténuation de la sécurité, GPT-4 est également en mesure de donner des conseils plus détaillés sur la manière de mener des activités nuisibles ou illégales.

Je n'ai pas l'espace de colonne ici pour couvrir tous les nombreux éléments associés à ces difficultés. Soyez à l'affût d'une couverture supplémentaire des colonnes dans mon analyse en cours de l'IA générative du point de vue de l'éthique de l'IA et du droit de l'IA.

Il semblerait utile de prendre un moment et de reconnaître qu'OpenAI a rendu disponible leur identification de la façon dont ils abordent ces défis ardus. On pourrait dire qu'il n'y avait aucune raison pour qu'ils le fassent. Ils pourraient simplement agir comme s'il n'y avait rien à voir. Ou ils pourraient simplement faire quelques vagues gestes de la main et affirmer qu'ils faisaient beaucoup de choses intelligentes pour régler ces problèmes.

Heureusement, ils ont choisi l'approche sensée consistant à essayer d'anticiper les contrecoups et les injures qui accompagnent généralement les versions génératives de l'IA. Ils visent vraisemblablement à montrer fermement leur sérieux et leur engagement à éradiquer ces problèmes et à chercher à les atténuer ou à les résoudre.

J'offrirais la pensée supplémentaire que le domaine de l'IA dans son ensemble va subir des coups durs s'il n'y a pas un effort continu et acharné pour poursuivre ces questions d'une manière franche et à venir. Adopter une approche de boîte noire cachée ne peut que susciter la colère du grand public. Vous pouvez également prévoir que si les entreprises d'IA n'essaient pas de résoudre ces problèmes, il y a de fortes chances que les législateurs et les régulateurs soient entraînés dans ces questions et qu'un tsunami de nouvelles lois sur l'IA frappe tous les fabricants d'IA et ceux qui travaillent sur le terrain. IA.

Certains pensent que nous sommes déjà à ce stade.

Ils insistent sur le fait que bien que de nombreux fabricants d'IA semblent partager ce qu'ils font, il s'agit en quelque sorte d'une forme sournoise de déni plausible. En bref, allez-y et publiez une IA épouvantable et manifestement répréhensible, plutôt que d'attendre que les choses soient mieux conçues, et conjurez celles de l'éthique de l'IA et de la loi sur l'IA en proclamant que vous faites tout votre possible pour rectifier les choses. J'ai fréquemment discuté de cette controverse en cours « attendre jusqu'à ce qu'elle soit préparée » dans ma couverture de colonne.

Selon le TR :

  • « OpenAI itère sur GPT-4 et notre plan de déploiement depuis début août pour se préparer à un lancement plus sûr. Nous croyons que cela a réduit la surface de risque, mais ne l'a pas complètement éliminée. Le déploiement d'aujourd'hui représente un équilibre entre la réduction des risques liés au déploiement, la possibilité de cas d'utilisation positifs et l'apprentissage du déploiement. »

Pour en revenir au sujet en question, j'ai mentionné plus tôt que les hallucinations de l'IA sont un problème prédominant en matière d'IA générative.

Encore une fois, je n'aime pas le slogan, mais il semble avoir fait son chemin. Le principal problème avec les hallucinations de l'IA est qu'elles peuvent produire des sorties qui contiennent des choses très folles. Vous pensez peut-être que c'est à l'utilisateur de discerner si les sorties sont bonnes ou mauvaises. Une préoccupation ici est que les sorties peuvent contenir des choses inventées que l'utilisateur n'a pas de moyen facile de déterminer si elles sont inventées. Ils pourraient croire tout le porc de tout ce que dit la sortie.

Il y a aussi une tendance subtile à se laisser bercer par les résultats de l'IA générative. Habituellement, la sortie est écrite sur un ton et d'une manière qui suggèrent un semblant de confiance infaillible. En supposant que vous utilisiez régulièrement l'IA générative, il est facile de s'endormir en voyant du matériel véridique la plupart du temps. Vous pouvez alors vous laisser facilement berner lorsque quelque chose d'inventé est inséré au milieu de ce qui semble autrement être un essai généré entièrement sensé et rempli de faits.

Voici ce que dit le TR à propos de GPT-4 :

  • « Le GPT-4 a tendance à "halluciner", c'est-à-dire à "produire un contenu absurde ou mensonger par rapport à certaines sources". Cette tendance peut être particulièrement préjudiciable à mesure que les modèles deviennent de plus en plus convaincants et crédibles, ce qui conduit à une dépendance excessive de la part des utilisateurs. De manière contre-intuitive, les hallucinations peuvent devenir plus dangereuses à mesure que les modèles deviennent plus véridiques, car les utilisateurs renforcent la confiance dans le modèle lorsqu'il fournit des informations véridiques dans des domaines où ils ont une certaine familiarité.

La bonne nouvelle est que des efforts ont été faits et semblent se poursuivre pour essayer de réduire les risques d'hallucinations de l'IA dans GPT-4. En outre, on prétend que le GPT-4 surpasse le GPT-3.5 en termes d'évitement des hallucinations de l'IA, même s'il est clair qu'elles vont encore se produire.

Voici le TR à ce sujet :

  • "Sur les évaluations internes, le lancement de GPT-4 obtient 19 points de pourcentage de plus que notre dernier modèle GPT-3.5 pour éviter les hallucinations en domaine ouvert, et 29 points de pourcentage de plus pour éviter les hallucinations en domaine fermé."

Pour clore cette partie de la discussion pour le moment, l'IA générative de tous les fabricants d'IA est confrontée à ces problèmes. Personne n'a en quelque sorte guéri cela. Si vous recherchez des problèmes d'IA difficiles, je vous exhorte à sauter dans ces eaux et à aider. Il y a beaucoup de travail à faire.

Conclusion

Lorsqu'un film à succès existe depuis un certain temps et est passé des cinémas au streaming à domicile, beaucoup de gens ont probablement vu le film ou en savent quelque chose d'autres qui l'ont vu. Par la suite, lorsqu'une suite est annoncée et filmée, l'anticipation peut atteindre des niveaux astronomiques.

JJ Abrams, le cinéaste désormais légendaire pour certaines parties de la série Star Wars et le redémarrage de Star Trek, a déclaré ceci à propos des suites : "Il n'y a rien de mal à faire des suites, elles sont juste plus faciles à vendre."

Edwin Catmull, co-fondateur de Pixar, a souligné ceci à propos des suites : "Croyez-moi, les suites sont tout aussi difficiles à réaliser que les films originaux."

Si vous souhaitez voir le blockbuster ChatGPT, vous pouvez vous inscrire facilement. La suite GPT-4 est un peu plus difficile à accéder. Sachez également qu'il existe de nombreux autres films disponibles, enfin, d'autres applications d'IA générative disponibles, vous voudrez peut-être vous assurer que votre expérience cinématographique (alias IA générative) est variée et épanouissante.

Une dernière note qui donne à réfléchir. Soyez prévenu que le contenu que vous pourriez rencontrer pourrait être PG13, R ou même NC-17. Garde cela à l'esprit.

Source : https://www.forbes.com/sites/lanceeliot/2023/03/15/what-you-need-to-know-about-gpt-4-the-just-released-successor-to-generative- ai-chatgpt-plus-ai-ethics-and-ai-law-considerations/