L'IA générative ChatGPT sera partout une fois que le portail API sera bientôt ouvert, stupéfiant l'éthique de l'IA et la loi sur l'IA

Libérer le Kraken!

Vous connaissez sans aucun doute cette célèbre phrase d'accroche, notamment prononcée par l'acteur Liam Neeson dans Le choc des titans lorsqu'il ordonne que le légendaire monstre marin soit libéré, dans le but de semer d'immenses ravages et une destruction démesurée. La ligne a été répétée à l'infini et a engendré toutes sortes de mèmes. Malgré les diverses parodies, la plupart des gens sentent encore au moins viscéralement que la remarque prédit qu'une émergence sombre et dangereuse est sur le point de se déclencher.

Peut-être que le même sentiment peut être appliqué de nos jours à l'intelligence artificielle (IA).

Permettez-moi de développer.

Une annonce récente a indiqué qu'une application d'intelligence artificielle désormais célèbre appelée ChatGPT, créée par l'organisation OpenAI, sera bientôt disponible pour d'autres programmes. C'est une grande nouvelle. Je dis cela même si peu de médias réguliers ont repris la déclaration. Mis à part les mentions éphémères, l'impact total de cet accès à venir sera sacrément significatif.

Dans la colonne d'aujourd'hui, j'expliquerai pourquoi c'est le cas. Vous pouvez vous préparer en conséquence.

Certains croient catégoriquement que cela s'apparentera à lâcher le Kraken, à savoir que toutes sortes de mauvaises choses vont survenir. D'autres y voient la mise à disposition d'une ressource cruciale qui peut stimuler des tonnes d'autres applications en tirant parti des grandes capacités de ChatGPT. C'est soit la pire des époques, soit la meilleure des époques. Nous examinerons ici les deux côtés du débat et vous pourrez décider vous-même dans quel camp vous atterrirez.

Dans tout cela vient une multitude de considérations sur l'éthique de l'IA et la loi sur l'IA.

Veuillez noter que des efforts sont en cours pour intégrer les principes éthiques de l'IA dans le développement et la mise en service des applications d'IA. Un contingent croissant d'éthiciens de l'IA concernés et d'autrefois essaient de s'assurer que les efforts pour concevoir et adopter l'IA tiennent compte d'une vision de l'action AI pour de bon et éviter AI pour le mal. De même, de nouvelles lois sur l'IA sont proposées et présentées comme des solutions potentielles pour empêcher les efforts de l'IA de se déchaîner en matière de droits de l'homme, etc. Pour ma couverture continue et étendue de l'éthique de l'IA et du droit de l'IA, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Il y a eu des scrupules croissants que ChatGPT et d'autres applications d'IA similaires ont un ventre laid que nous ne sommes peut-être pas prêts à gérer. Par exemple, vous avez peut-être entendu dire que les élèves des écoles sont potentiellement capables de tricher lorsqu'il s'agit de rédiger des essais assignés via ChatGPT. L'IA écrit pour eux. Pendant ce temps, l'étudiant est capable de tourner apparemment sans scot dans l'essai comme s'il avait écrit de sa propre caboche. Ce n'est pas ce que nous voulons vraisemblablement que l'IA fasse pour l'humanité.

Quelques éléments essentiels clés pourraient être utiles pour préparer le terrain pour ce dont il s'agit.

ChatGPT est un type d'IA communément appelé IA générative. Ces applications d'IA basées sur la génération de tendances vous permettent d'entrer une brève invite et de faire en sorte que l'application génère des sorties pour vous. Dans le cas de ChatGPT, la sortie est du texte. Ainsi, vous entrez une invite de texte et l'application ChatGPT produit du texte pour vous. J'ai tendance à décrire cela comme un sous-type particulier d'IA générative qui est perfectionné pour générer des sorties texte-à-essai (il existe d'autres sous-types tels que le texte-à-images, le texte-à-vidéo, etc.).

Le fabricant d'IA de ChatGPT a indiqué qu'une API (Application Programming Interface) sera bientôt disponible pour l'application AI. En bref, une API est un moyen de permettre à d'autres programmes d'aller de l'avant et d'utiliser un programme qui met à disposition un portail dans l'application donnée. Cela signifie qu'à peu près n'importe quel autre programme sur cette planète peut potentiellement tirer parti de l'utilisation de ChatGPT (enfin, sous licence et après approbation par le fabricant d'IA de ChatGPT, comme nous le verrons plus en détail ci-dessous).

Le résultat est que l'utilisation et les utilisations de ChatGPT pourraient potentiellement exploser.

Alors qu'il y a aujourd'hui un nombre impressionnant d'inscriptions impliquant des personnes qui sur un individuel base peut utiliser ChatGPT, plafonné par le fabricant d'IA à un million d'utilisateurs, ce sera en fait probablement une goutte d'eau dans le seau de ce qui est sur le point d'arriver.

Sachez que ces millions d'inscriptions existantes consistent en une partie qui a utilisé ChatGPT lors d'une ébats ponctuels, puis après que le frisson s'est dissipé, ils ne l'ont pas utilisé depuis. Beaucoup ont vraisemblablement été attirés par l'application AI en tant que réponse virale réactive des médias sociaux. Bref, si tout le monde voulait l'utiliser, ils le voulaient aussi. Lors d'une première expérimentation avec l'IA basée sur la génération, ils se sont sentis satisfaits d'avoir évité leur FOMO (peur de rater quelque chose).

Pour que ce soit clair, je ne suggère pas que les gens n'utilisent pas ChatGPT. Elles sont. Ceux qui se sont inscrits trouvent de plus en plus que l'application AI est surchargée. Beaucoup de gens utilisent l'application. Vous obtenez de temps en temps quelques indications douloureuses intelligemment composées indiquant que le système est occupé et que vous devriez réessayer plus tard. Selon la rumeur, l'infrastructure existante de ChatGPT a été mise à rude épreuve pour faire face aux fans avides utilisant l'application AI.

Et même si le fait d'avoir un million d'utilisateurs potentiels n'est pas une mince affaire, ce nombre sera probablement multiplié par plusieurs une fois l'API disponible. Les développeurs d'autres programmes qui n'ont aujourd'hui rien à voir avec l'IA générative voudront exploiter le train en marche de l'IA générative. Ils vont vouloir connecter leur programme avec ChatGPT. Leur cœur de cœur espère que cela propulsera leur programme existant dans la stratosphère de la popularité.

Pense-y de cette façon. Supposons que toutes sortes d'éditeurs de logiciels qui créent aujourd'hui des programmes qui atteignent plusieurs millions d'utilisateurs, atteignant souvent des dizaines et des centaines de millions d'utilisateurs au total, choisissent de coupler leurs programmes respectifs avec ChatGPT. Cela suggère que le volume d'utilisateurs qui utilisent ChatGPT pourrait monter en flèche.

Le Kraken est libéré.

Pourquoi divers éditeurs de logiciels voudraient-ils s'associer à ChatGPT, vous vous demandez peut-être ?

Une réponse simple est qu'ils pourraient tout aussi bien exploiter les incroyables vents arrière qui poussent ChatGPT vers le haut et vers le haut. Certains le feront pour des raisons sensées et honnêtes. D'autres le feront simplement pour essayer de gagner leur propre semblant de quinze minutes de gloire.

J'aime stratifier les appariements à ChatGPT comme consistant en deux intentions majeures :

  • Couplage authentique avec ChatGPT
  • Jumelage factice avec ChatGPT

Dans le premier cas, l'idée est qu'il existe une base de bonne foi pour s'associer à ChatGPT. Les créateurs d'un programme donné sont capables de bien articuler les avantages tangibles et fonctionnels qui découleront d'un jumelage de leur programme avec ChatGPT. Nous pouvons tous, dans un état d'esprit raisonnable, voir que l'appariement est un mariage paradisiaque.

Pour l'autre cas, consistant en ce que j'appelle un faux, certains chercheront à s'associer à ChatGPT de manière volage ou fragile. L'analyse de rentabilisation ne consiste en rien de particulièrement substantiel. L'appariement est une tentative désespérée de chevaucher la queue de ChatGPT. Toute inspection raisonnable révélerait que l'appariement a une valeur marginale. Maintenant, que vous pensiez qu'il s'agit d'une forme d'appariement appropriée ou inappropriée est quelque peu suspendu dans l'air. On pourrait essayer de faire valoir qu'un appariement particulier avec ChatGPT, même si l'appariement n'accomplit rien d'autre que d'augmenter l'utilisation et n'a pas d'autre valeur ajoutée fonctionnelle, est vraisemblablement un appariement toujours digne d'être entrepris.

Un petit inconvénient sera ceux qui dépeignent faussement l'appariement et amènent les gens à croire que quelque chose de notable se produit alors que ce n'est vraiment pas le cas. Nous pouvons certainement nous attendre à ce que certains essaient cela. Ceux de l'éthique de l'IA sont vivement préoccupés par les utilisations de l'huile de serpent qui vont sortir du bois. Il y a aussi une chance que si cela devient incontrôlable, nous pourrions voir de nouvelles lois liées à l'IA qui seront incitées à être rédigées et promulguées.

Examinons de plus près ce qui constitue des appariements authentiques et ce qui constitue également des appariements factices.

Tout d'abord, nous devons nous assurer que nous sommes tous sur la même longueur d'onde sur ce en quoi consiste l'IA générative et sur ce qu'est ChatGPT. Une fois que nous avons couvert cette facette fondamentale, nous pouvons effectuer une évaluation convaincante de la façon dont l'API dans ChatGPT va radicalement changer les choses.

Si vous connaissez déjà très bien l'IA générative et ChatGPT, vous pouvez peut-être parcourir la section suivante et passer à la section qui la suit. Je crois que tout le monde trouvera instructifs les détails vitaux sur ces questions en lisant attentivement la section et en se mettant au courant.

Une introduction rapide à propos de l'IA générative et de ChatGPT

ChatGPT est un système interactif orienté conversation d'IA à usage général, essentiellement un chatbot général apparemment inoffensif, néanmoins, il est activement et avidement utilisé par les gens d'une manière qui en prend beaucoup au dépourvu, comme je le développerai sous peu. Cette application d'IA exploite une technique et une technologie dans le domaine de l'IA souvent appelées IA générative. L'IA génère des sorties telles que du texte, ce que fait ChatGPT. D'autres applications d'IA basées sur la génération produisent des images telles que des images ou des illustrations, tandis que d'autres génèrent des fichiers audio ou des vidéos.

Je vais me concentrer sur les applications d'IA génératives basées sur le texte dans cette discussion puisque c'est ce que fait ChatGPT.

Les applications IA génératives sont extrêmement faciles à utiliser.

Tout ce que vous avez à faire est de saisir une invite et l'application AI générera pour vous un essai qui tentera de répondre à votre invite. Le texte composé donnera l'impression que l'essai a été écrit par la main et l'esprit humains. Si vous deviez entrer une invite qui disait "Parlez-moi d'Abraham Lincoln", l'IA générative vous fournira un essai sur Lincoln. Ceci est communément classé comme une IA générative qui effectue texte en texte ou certains préfèrent l'appeler texte à essai sortir. Comme mentionné, il existe d'autres modes d'IA générative, tels que le texte vers l'art et le texte vers la vidéo.

Votre première pensée pourrait être que cette capacité générative ne semble pas si importante en termes de production d'essais. Vous pouvez facilement faire une recherche en ligne sur Internet et trouver facilement des tonnes et des tonnes d'essais sur le président Lincoln. L'avantage dans le cas de l'IA générative est que l'essai généré est relativement unique et fournit une composition originale plutôt qu'un imitateur. Si vous deviez essayer de trouver l'essai produit par l'IA quelque part en ligne, il est peu probable que vous le découvriez.

L'IA générative est pré-formée et utilise une formulation mathématique et informatique complexe qui a été mise en place en examinant des modèles dans des mots écrits et des histoires sur le Web. Après avoir examiné des milliers et des millions de passages écrits, l'IA peut produire de nouveaux essais et histoires qui sont un méli-mélo de ce qui a été trouvé. En ajoutant diverses fonctionnalités probabilistes, le texte résultant est à peu près unique par rapport à ce qui a été utilisé dans l'ensemble d'apprentissage.

C'est pourquoi il y a eu un tollé à propos de la possibilité pour les étudiants de tricher lorsqu'ils rédigent des essais en dehors de la salle de classe. Un enseignant ne peut pas simplement prendre l'essai que les étudiants trompeurs affirment être leur propre écriture et chercher à savoir s'il a été copié à partir d'une autre source en ligne. Dans l'ensemble, il n'y aura pas d'essai préexistant définitif en ligne qui corresponde à l'essai généré par l'IA. Tout compte fait, l'enseignant devra accepter à contrecœur que l'étudiant ait écrit l'essai comme un travail original.

Il existe d'autres préoccupations concernant l'IA générative.

Un inconvénient crucial est que les essais produits par une application d'IA basée sur la génération peuvent contenir divers mensonges, y compris des faits manifestement faux, des faits dépeints de manière trompeuse et des faits apparents entièrement fabriqués. Ces aspects fabriqués sont souvent appelés une forme de Hallucinations de l'IA, un slogan que je désapprouve mais qui semble malheureusement gagner du terrain de toute façon (pour mon explication détaillée sur la raison pour laquelle cette terminologie est moche et inappropriée, voir ma couverture sur le lien ici).

Je voudrais clarifier un aspect important avant d'entrer dans le vif du sujet sur ce sujet.

Il y a eu des affirmations loufoques démesurées sur les réseaux sociaux à propos de IA générative affirmant que cette dernière version de l'IA est en fait IA sensible (non, ils se trompent !). Les spécialistes de l'éthique de l'IA et du droit de l'IA s'inquiètent notamment de cette tendance naissante de revendications étendues. Vous pourriez dire poliment que certaines personnes exagèrent ce que l'IA d'aujourd'hui peut réellement faire. Ils supposent que l'IA a des capacités que nous n'avons pas encore pu atteindre. C'est malheureux. Pire encore, ils peuvent se permettre à eux-mêmes et aux autres de se retrouver dans des situations désastreuses en supposant que l'IA sera sensible ou humaine pour pouvoir agir.

Ne pas anthropomorphiser l'IA.

Cela vous fera prendre dans un piège de confiance collant et austère consistant à attendre de l'IA qu'elle fasse des choses qu'elle est incapable d'accomplir. Cela étant dit, la dernière IA générative est relativement impressionnante pour ce qu'elle peut faire. Sachez cependant qu'il existe des limitations importantes que vous devez constamment garder à l'esprit lorsque vous utilisez une application d'IA générative.

Si vous êtes intéressé par l'agitation en pleine expansion autour de ChatGPT et de l'IA générative, j'ai fait une série ciblée dans ma colonne que vous pourriez trouver informative. Voici un aperçu au cas où l'un de ces sujets vous intéresserait :

  • 1) Prédictions des progrès de l'IA générative à venir. Si vous voulez savoir ce qui est susceptible de se dérouler à propos de l'IA tout au long de 2023 et au-delà, y compris les progrès à venir dans l'IA générative et ChatGPT, vous voudrez lire ma liste complète des prédictions 2023 sur le lien ici.
  • 2) IA générative et conseils en santé mentale. J'ai choisi d'examiner comment l'IA générative et ChatGPT sont utilisés pour des conseils en santé mentale, une tendance gênante, selon mon analyse ciblée sur le lien ici.
  • 3) Fondamentaux de l'IA générative et de ChatGPT. Cette pièce explore les éléments clés du fonctionnement de l'IA générative et se penche en particulier sur l'application ChatGPT, y compris une analyse du buzz et de la fanfare, à le lien ici.
  • 4) Tension entre enseignants et étudiants sur l'IA générative et ChatGPT. Voici les façons dont les étudiants utiliseront sournoisement l'IA générative et ChatGPT. De plus, voici des moyens pour les enseignants de faire face à ce raz-de-marée. Voir le lien ici.
  • 5) Utilisation contextuelle et générative de l'IA. J'ai également fait un examen ironique aux saveurs saisonnières sur un contexte lié au Père Noël impliquant ChatGPT et l'IA générative à le lien ici.
  • 6) Les escrocs utilisant l'IA générative. Sur une note inquiétante, certains escrocs ont compris comment utiliser l'IA générative et ChatGPT pour commettre des actes répréhensibles, notamment en générant des e-mails frauduleux et même en produisant du code de programmation pour les logiciels malveillants, voir mon analyse sur le lien ici.
  • 7) Erreurs de débutant en utilisant l'IA générative. Beaucoup de gens dépassent et étonnamment sous-estiment ce que l'IA générative et ChatGPT peuvent faire, alors j'ai regardé en particulier le sous-dépassement que les recrues de l'IA ont tendance à faire, voir la discussion sur le lien ici.
  • 8) Faire face aux invites génératives de l'IA et aux hallucinations de l'IA. Je décris une approche de pointe pour utiliser des modules complémentaires d'IA pour traiter les divers problèmes associés à la tentative d'entrer des invites appropriées dans l'IA générative, ainsi qu'il existe d'autres modules complémentaires d'IA pour détecter les soi-disant sorties et faussetés hallucinées de l'IA, comme couvert à le lien ici.
  • 9) Démystifier les affirmations de Bonehead sur la détection d'essais génératifs produits par l'IA. Il y a une ruée vers l'or erronée d'applications d'IA qui proclament être en mesure de déterminer si un essai donné a été produit par l'homme ou généré par l'IA. Dans l'ensemble, cela est trompeur et dans certains cas, une allégation stupide et intenable, voir ma couverture à le lien ici.
  • 10) Le jeu de rôle via l'IA générative pourrait laisser présager des inconvénients pour la santé mentale. Certains utilisent l'IA générative telle que ChatGPT pour faire du jeu de rôle, dans lequel l'application d'IA répond à un humain comme si elle existait dans un monde imaginaire ou dans un autre cadre inventé. Cela pourrait avoir des répercussions sur la santé mentale, voir le lien ici.
  • 11) Exposer la gamme d'erreurs et de faussetés générées. Diverses listes collectées sont en cours de constitution pour essayer de mettre en valeur la nature des erreurs et des mensonges produits par ChatGPT. Certains pensent que c'est essentiel, tandis que d'autres disent que l'exercice est vain, voir mon analyse à le lien ici.
  • 12) Les écoles interdisant l'IA générative ChatGPT ratent le coche. Vous savez peut-être que diverses écoles telles que le ministère de l'Éducation de la ville de New York (NYC) ont interdit l'utilisation de ChatGPT sur leur réseau et les appareils associés. Bien que cela puisse sembler une précaution utile, cela ne déplacera pas l'aiguille et manquera malheureusement complètement le bateau, voir ma couverture sur le lien ici.

Vous pourriez trouver intéressant que ChatGPT soit basé sur une version d'une application AI prédécesseur connue sous le nom de GPT-3. ChatGPT est considéré comme une étape légèrement suivante, appelée GPT-3.5. Il est prévu que GPT-4 sera probablement publié au printemps 2023. Vraisemblablement, GPT-4 sera un pas en avant impressionnant en termes de capacité à produire des essais apparemment encore plus fluides, à aller plus loin et à être une crainte -émerveillement inspirant quant aux compositions qu'il peut produire.

Vous pouvez vous attendre à voir une nouvelle série d'émerveillements exprimés lorsque le printemps arrive et que la dernière IA générative est publiée.

J'en parle parce qu'il y a un autre angle à garder à l'esprit, consistant en un talon d'Achille potentiel pour ces meilleures et plus grandes applications d'IA génératives. Si un fournisseur d'IA met à disposition une application d'IA générative qui crache de manière mousseuse la saleté, cela pourrait anéantir les espoirs de ces fabricants d'IA. Un débordement sociétal peut amener toute l'IA générative à avoir un sérieux œil au beurre noir. Les gens seront sans aucun doute assez contrariés par les sorties ignobles, qui se sont déjà produites à plusieurs reprises et ont conduit à des réactions violentes de condamnation de la société envers l'IA.

Un dernier avertissement pour le moment.

Tout ce que vous voyez ou lisez dans une réponse d'IA générative qui semble être transmis comme purement factuel (dates, lieux, personnes, etc.), assurez-vous de rester sceptique et d'être prêt à revérifier ce que vous voyez.

Oui, les dates peuvent être concoctées, les lieux peuvent être inventés, et les éléments que l'on s'attend généralement à être irréprochables sont TOUTE sujet à suspicion. Ne croyez pas ce que vous lisez et gardez un œil sceptique lorsque vous examinez des essais ou des résultats d'IA générative. Si une application d'IA générative vous dit qu'Abraham Lincoln a survolé le pays dans son propre jet privé, vous sauriez sans aucun doute que c'est malarky. Malheureusement, certaines personnes pourraient ne pas se rendre compte que les jets n'existaient pas à son époque, ou elles pourraient le savoir mais ne pas remarquer que l'essai fait cette affirmation effrontée et scandaleusement fausse.

Une forte dose de scepticisme sain et un état d'esprit persistant d'incrédulité seront votre meilleur atout lors de l'utilisation de l'IA générative.

Nous sommes prêts à passer à la prochaine étape de cette élucidation.

Libérer la bête

Maintenant que nous avons établi les bases, nous pouvons plonger dans les répercussions commerciales et sociétales dues aux aspects de l'API ChatGPT.

Une annonce a récemment été faite par Microsoft en collaboration avec OpenAI concernant la disponibilité prochaine de ChatGPT sur la plate-forme cloud Azure de Microsoft (par publication en ligne intitulée "La disponibilité générale d'Azure OpenAI Service étend l'accès aux grands modèles d'IA avancés avec des avantages supplémentaires pour l'entreprise", 16 janvier 2023):

  • « Les grands modèles de langage deviennent rapidement une plate-forme essentielle pour que les gens innovent, appliquent l'IA pour résoudre de gros problèmes et imaginent ce qui est possible. Aujourd'hui, nous sommes ravis d'annoncer la disponibilité générale d'Azure OpenAI Service dans le cadre de l'engagement continu de Microsoft à démocratiser l'IA et du partenariat continu avec OpenAI. Avec Azure OpenAI Service désormais généralement disponible, davantage d'entreprises peuvent demander l'accès aux modèles d'IA les plus avancés au monde, notamment GPT-3.5, Codex et DALL•E 2, soutenus par des fonctionnalités d'entreprise fiables et une infrastructure optimisée par l'IA. de Microsoft Azure, pour créer des applications de pointe. Les clients pourront également accéder à ChatGPT, une version affinée de GPT-3.5 qui a été formée et exécute l'inférence sur l'infrastructure Azure AI, via Azure OpenAI Service bientôt.

Vous avez peut-être remarqué dans cette déclaration que d'autres applications d'IA conçues par OpenAI seront également disponibles. En effet, certaines de ces applications d'IA sont déjà accessibles depuis un certain temps, comme mentionné plus loin dans la récente déclaration ci-dessus : "Nous avons lancé Azure OpenAI Service en novembre 2021 pour permettre aux clients d'exploiter la puissance des modèles d'IA génératifs à grande échelle avec l'entreprise promet que les clients attendent de notre infrastructure cloud et informatique Azure : sécurité, fiabilité, conformité, confidentialité des données et capacités intégrées d'IA responsable » (ibid).

J'ai mentionné plus tôt que l'éthique de l'IA et la loi sur l'IA tentent d'équilibrer les AI pour de bon aspirations avec le potentiel AI pour le mal qui peuvent parfois survenir. Dans le domaine de l'IA, il y a un mouvement en cours pour avoir IA responsable ou parfois appelé IA digne de confiance ou IA centrée sur l'humain, consultez ma couverture sur le lien ici. Tous les fabricants d'IA sont invités à concevoir et à mettre en œuvre leur IA vers AI pour de bon et chercher ouvertement à réduire ou à atténuer tout AI pour le mal qui pourrait émerger.

C'est un défi de taille.

Dans tous les cas, la déclaration susmentionnée a répondu aux considérations de l'IA responsable :

  • « En tant que leader de l'industrie, nous reconnaissons que toute innovation en IA doit être faite de manière responsable. Cela devient encore plus important avec de nouvelles technologies puissantes comme les modèles génératifs. Nous avons adopté une approche itérative des grands modèles, en étroite collaboration avec notre partenaire OpenAI et nos clients pour évaluer soigneusement les cas d'utilisation, apprendre et gérer les risques potentiels. De plus, nous avons mis en place nos propres barrières de sécurité pour le service Azure OpenAI qui s'alignent sur nos principes d'IA responsable. Dans le cadre de notre cadre d'accès limité, les développeurs sont tenus de demander un accès, en décrivant leur cas d'utilisation ou leur application prévue avant de pouvoir accéder au service. Les filtres de contenu spécialement conçus pour détecter les contenus abusifs, haineux et offensants surveillent en permanence les entrées fournies au service ainsi que le contenu généré. En cas de violation confirmée de la politique, nous pouvons demander au développeur de prendre des mesures immédiates pour empêcher de nouveaux abus » (ibid).

L'essentiel de cette perspective d'IA responsable est qu'en exigeant une demande formelle d'accès à ChatGPT sur la base d'une API de programme, il y a une chance d'éliminer les soumissions peu recommandables. S'il y a une diligence raisonnable appropriée dans le choix des autres entreprises et de leurs programmes qui peuvent accéder à ChatGPT, il y a peut-être une chance d'empêcher la pleine colère d'un Kraken libéré.

Peut-être que oui peut-être que non.

Certains experts se tordent les mains que les possibilités de gagner de l'argent de permettre l'utilisation de l'API ChatGPT mettront à rude épreuve la notion de contrepoids de vouloir garder la bête raisonnablement et en toute sécurité contenue. L'examen sera-t-il vraiment suffisamment prudent dès le départ ? Pourrions-nous voir à la place qu'un processus d'approbation lâche et bancal se produit lorsque le volume de demandes devient incontrôlable ? Certains craignent que ce ne soit qu'une fois que le chat est sorti du sac qu'un examen plus approfondi et plus tardif puisse vraiment avoir lieu, bien que d'ici là, le mal aura déjà été fait.

Eh bien, vous pouvez au moins reconnaître qu'il y a un processus de vérification impliqué. Il existe certaines applications d'IA génératives qui manquent d'un processus de vérification cohérent ou qui sont de nature superficielle et sommaire. De plus, il existe des versions open source de l'IA générative qui peuvent généralement être utilisées par presque tous ceux qui le souhaitent, bien qu'un minimum de restrictions de licence soit censé être suivi (essayer de faire respecter cela est plus difficile qu'il n'y paraît).

Jetons un coup d'œil aux règles existantes concernant la limitation de l'accès au service Azure OpenAI pour voir ce que les autres fabricants de logiciels devront faire pour se connecter potentiellement à ChatGPT. Conformément aux politiques Microsoft publiées en ligne (dernière publication indiquée le 14 décembre 2022) :

  • « Dans le cadre de l'engagement de Microsoft envers une IA responsable, nous concevons et publions Azure OpenAI Service dans le but de protéger les droits des individus et de la société et de favoriser une interaction homme-ordinateur transparente. Pour cette raison, nous limitons actuellement l'accès et l'utilisation d'Azure OpenAI, notamment en limitant l'accès à la possibilité de modifier les filtres de contenu et de modifier la surveillance des abus. Azure OpenAI nécessite une inscription et n'est actuellement disponible que pour les clients gérés et les partenaires travaillant avec des équipes de compte Microsoft. Les clients qui souhaitent utiliser Azure OpenAI doivent soumettre un formulaire d'inscription à la fois pour l'accès initial à l'expérimentation et pour l'approbation du passage de l'expérimentation à la production.
  • «Pour l'expérimentation, les clients attestent d'utiliser le service uniquement pour les utilisations prévues soumises au moment de l'enregistrement et s'engagent à intégrer une surveillance humaine, des limites techniques strictes sur les entrées et les sorties, des canaux de rétroaction et des tests approfondis. Pour la production, les clients expliquent comment ceux-ci ont été mis en œuvre pour atténuer les risques. Les clients qui souhaitent modifier les filtres de contenu et modifier la surveillance des abus après leur intégration au service sont soumis à des restrictions de scénario supplémentaires et doivent s'inscrire ici.
  • "L'accès au service Azure OpenAI est soumis à la seule discrétion de Microsoft en fonction des critères d'éligibilité et d'un processus de vérification et les clients doivent reconnaître qu'ils ont examiné et accepté les conditions de service Azure pour le service Azure OpenAI. Microsoft peut demander aux clients de revérifier ces informations. Le service Azure OpenAI est mis à la disposition des clients selon les conditions régissant leur abonnement aux services Microsoft Azure, y compris la section Azure OpenAI des conditions des produits Microsoft. Veuillez lire attentivement ces conditions car elles contiennent des conditions et obligations importantes régissant votre utilisation du service Azure OpenAI.

C'est du côté de Microsoft.

OpenAI a également ses politiques d'utilisation associées à son API :

  • « Nous voulons que tout le monde puisse utiliser notre API de manière sûre et responsable. À cette fin, nous avons créé des politiques de cas d'utilisation et de contenu. En les suivant, vous nous aiderez à nous assurer que notre technologie est utilisée pour le bien. Si nous découvrons que votre produit ne respecte pas ces politiques, nous vous demanderons d'apporter les modifications nécessaires. Si vous ne vous conformez pas, nous pouvons prendre d'autres mesures, y compris la résiliation de votre compte. »
  • "Nous interdisons de construire des produits qui ciblent les cas d'utilisation suivants :"
  • "— Industries illégales ou nuisibles"
  • « — Utilisation abusive des données personnelles »
  • "— Promouvoir la malhonnêteté"
  • "— Tromper ou manipuler les utilisateurs"
  • "- Essayer d'influencer la politique"
  • "L'ensemble de cas d'utilisation suivant comporte un plus grand risque de préjudice potentiel : justice pénale, application de la loi, services juridiques, gouvernementaux et civils, soins de santé, thérapie, bien-être, coaching, finances, actualités. Pour ces cas d'utilisation, vous devez : "
  • "1) Testez minutieusement nos modèles pour vérifier leur précision dans votre cas d'utilisation et soyez transparent avec vos utilisateurs sur les limitations"
  • "2) Assurez-vous que votre équipe possède une expertise dans le domaine et comprend / respecte les lois applicables "
  • "Nous ne vous permettons pas non plus, à vous ou aux utilisateurs finaux de votre application, de générer les types de contenu suivants :"
  • "- Haine"
  • "— Harcèlement"
  • "- La violence"
  • "- L'automutilation"
  • "- Sexuel"
  • "- Politique"
  • "- Courrier indésirable"
  • "- Tromperie"
  • "— Logiciels malveillants"

Une grande question sera de savoir si ces idéaux peuvent être observés s'il y a une ruée fervente de demandes de connexion avec ChatGPT. Il y aura peut-être un énorme tsunami de demandes. Le travail humain pour examiner et vérifier soigneusement chacun d'entre eux pourrait être coûteux et difficile à gérer. Le désir d'être convenablement restrictif sera-t-il édulcoré, par inadvertance face à l'immense demande d'accès ?

Comme le dit le célèbre mot d'esprit, le meilleur des plans peut parfois être mis en pièces dès le premier contact avec des forces abondantes.

Il y a aussi beaucoup de marge de manœuvre dans la façon d'interpréter les règles énoncées. Comme nous l'avons vu en général à propos de la montée de la désinformation et de la mésinformation, essayer de séparer le bon grain de l'ivraie peut être assez difficile. Comment déterminer si le contenu généré respecte ou viole les dispositions de ne pas être haineux, politique, trompeur, etc. ?

Une difficulté imminente pourrait être que si l'API ChatGPT est mise à la disposition d'un fabricant de logiciels qui associe son programme à ChatGPT, et que la sortie résultante viole sans ambiguïté les préceptes énoncés, le cheval sera-t-il déjà sorti de l'écurie ? Certains suggèrent qu'il existe une forte possibilité d'atteinte à la réputation de toutes les parties concernées. On ne sait pas si cela peut être surmonté en désengageant simplement l'API de ce délinquant particulier. Les dégâts, dans un sens, pourraient persister et gâcher le baril tout compte fait. Beaucoup de blâmes seront adressés à tous les arrivants.

Stratifier les appariements d'API

J'ai noté précédemment que les appariements à ChatGPT peuvent être commodément regroupés en deux intentions principales :

  • Couplage authentique avec ChatGPT
  • Jumelage factice avec ChatGPT

Examinons d'abord les appariements authentiques ou de bonne foi.

En arrière-plan, la façon dont cela se produit est assez simple. L'application ChatGPT permet à d'autres programmes d'invoquer l'application. En règle générale, cela consisterait à dire un programme que nous appellerons Widget qui transmet à ChatGPT une invite au format texte, puis une fois que ChatGPT a fait son travail, un essai ou un texte est renvoyé au programme Widget. C'est presque comme si une personne faisait la même chose, même si nous aurons un programme qui fera ces actions à la place d'une personne qui le fera.

Par exemple, supposons que quelqu'un conçoive un programme qui effectue des recherches sur le Web. Le programme demande à l'utilisateur ce qu'il souhaite rechercher. Le programme fournit ensuite à l'utilisateur une liste de divers résultats de recherche ou de découvertes qui, espérons-le, présentent des sites Web pertinents en fonction de la requête de l'utilisateur.

Imaginez que l'entreprise qui fabrique ce programme de recherche sur le Web veuille embellir son application.

Ils demandent l'accès à l'API ChatGPT. Supposons qu'ils remplissent tous les documents nécessaires et finissent par être approuvés. Leur programme qui effectue des recherches sur le Web devrait alors être modifié pour inclure un appel à l'application ChatGPT via l'API. Supposons qu'ils choisissent de créer ces mods.

Voici comment cela pourrait alors fonctionner ensemble. Lorsqu'un utilisateur saisit une requête pour une recherche sur le Web dans le programme principal, ce programme effectue non seulement une recherche conventionnelle sur le Web, mais il transmet également la requête à ChatGPT via l'API. ChatGPT traite ensuite le texte et renvoie un essai résultant au programme principal. Le programme principal de recherche sur le Web présente désormais à l'utilisateur deux facettes, à savoir les résultats de la recherche sur le Web et l'essai supplémentaire généré par ChatGPT.

Une personne utilisant ce programme de base ne saura pas nécessairement que ChatGPT était utilisé sur le backend. Cela peut se produire dans les limites du programme principal et l'utilisateur ignore parfaitement que ChatGPT était impliqué. D'autre part, le programme de base pourrait être conçu pour informer l'utilisateur que ChatGPT est utilisé. Cela dépend généralement de la volonté des créateurs du programme principal de révéler que l'autre application, dans ce cas, ChatGPT, était utilisée. Dans certains agencements, le créateur du programme invoqué insiste sur le fait que le programme invoquant l'API doit faire savoir aux utilisateurs que l'autre programme est utilisé. Tout dépend des préférences et des détails de la licence.

Pour des accords authentiques, voici les approches habituelles :

  • 1) Passage direct à ChatGPT
  • 2) Module complémentaire pour augmenter ChatGPT
  • 3) Application alliée qui coïncide avec ChatGPT
  • 4) Immersion entièrement intégrative avec ChatGPT

En bref, dans la première approche répertoriée, l'idée est que je pourrais concevoir un programme qui est simplement une interface pour ChatGPT, et en tant que tel, tout ce que mon programme fait est de transmettre le texte à ChatGPT et de récupérer le texte de ChatGPT. Je mets mon programme à la disposition de tous ceux qui souhaitent utiliser ChatGPT et qui, autrement, ne s'étaient pas inscrits pour l'utiliser. C'est une approche.

Deuxièmement, je pourrais concevoir un programme qui sert de complément à ChatGPT. Par exemple, lorsque ChatGPT génère un essai, il peut contenir des mensonges. Supposons que je crée un programme qui examine la sortie ChatGPT et essaie de détecter les faussetés. Je rends mon programme disponible de sorte que les gens entrent une invite de texte dans mon programme, qui envoie ensuite l'invite à ChatGPT. ChatGPT produit un essai qui revient sur mon programme. Avant que mon programme ne vous montre l'essai, il présélectionne l'essai et tente de signaler ou de supprimer les mensonges. Vous voyez ensuite l'essai qui en résulte une fois que mon programme a effectué la sélection.

La troisième approche consiste à avoir une application alliée qui, dans le sens, coïncide avec ChatGPT. Supposons que je développe un programme qui aide les gens à faire de l'écriture créative. Mon programme fournit des conseils et des suggestions en conserve sur la façon d'écrire de manière créative. Le programme ne fait qu'inciter ou inciter l'utilisateur à le faire. En attendant, ce que j'aimerais pouvoir faire, c'est montrer à l'utilisateur en quoi consiste l'écriture créative. A ce titre, j'établis une API avec ChatGPT. Mon programme prend alors une invite de l'utilisateur et invoque ChatGPT pour fournir un blub d'un essai qui pourrait démontrer l'écriture créative. Cela peut être fait de manière itérative et invoquer ChatGPT plusieurs fois dans le processus.

Dans le cas de la quatrième approche répertoriée, ChatGPT est entièrement intégré à un autre programme ou ensemble de programmes. Par exemple, si j'avais une application de traitement de texte et une application de feuille de calcul, je souhaiterais peut-être intégrer ChatGPT dans ces applications. Ils fonctionneraient en quelque sorte main dans la main les uns avec les autres. Je couvrirai dans une prochaine colonne la possibilité que Microsoft puisse choisir d'infuser ChatGPT dans sa suite de productivité bureautique, alors soyez à l'affût de cette analyse à venir.

Ce sont alors les principaux moyens par lesquels un véritable appariement pourrait avoir lieu.

Considérons ensuite certains des appariements factices.

Voici quelques appariements globaux de faux dont vous devriez faire attention :

  • Couplage gimmickry avec ChatGPT - utilise marginalement ChatGPT, principalement fait pour le spectacle et pour recueillir de la publicité sans valeur ajoutée
  • Promesses séduisantes sur le couplage ChatGPT - le fournisseur de logiciels affirme qu'il est en train de s'associer à ChatGPT, cherchant à être sous les projecteurs, alors qu'en réalité, il ne le fera pas et qu'il fait une fausse tête classique et rend un faux engagement
  • Knockoffs proclamant être de type ChatGPT - plutôt que de s'associer à ChatGPT, certains éditeurs de logiciels utiliseront autre chose, ce qui est bien, mais ils tenteront de laisser entendre qu'il s'agit de ChatGPT alors que ce n'est pas le cas, dans l'espoir d'obtenir certaines des rémanences de ChatGPT
  • Autre – de nombreux schémas supplémentaires étendus et complices sont concevables

Il y aura sans aucun doute beaucoup de manigances à propos de tout cela. Cela fera partie intégrante de la sortie du Kraken.

Conclusion

Permettez-moi de jeter quelques clés et autres obstacles dans cette affaire.

Qu'en est-il du coût ?

Actuellement, ceux qui se sont inscrits pour utiliser ChatGPT le font gratuitement. J'ai déjà fait remarquer qu'à un moment donné, il faudra une monétisation pure et simple. Cela peut entraîner des frais par transaction ou peut-être payer un abonnement. Une autre possibilité est que les publicités puissent être utilisées pour apporter de la pâte, de sorte que chaque fois que vous utilisez ChatGPT, une publicité apparaîtra. Etc.

Ceux qui choisissent d'établir un couplage avec ChatGPT via l'API devraient sérieusement réfléchir aux coûts potentiels impliqués. Il y a probablement un coût lié à l'utilisation du cloud Microsoft Azure pour l'exécution de l'application ChatGPT. Il y a forcément un coût d'OpenAI pour utiliser l'API ChatGPT et invoquer l'application AI. Un fournisseur de logiciels engagera également ses propres coûts internes, tels que la modification de ses programmes existants pour utiliser l'API ou le développement de nouveaux programmes autour de l'association avec ChatGPT. Envisagez à la fois un coût de démarrage et un ensemble de coûts d'entretien continu.

L'essentiel est que cette superposition de coûts va modérer dans une certaine mesure la ruée vers l'or vers l'exploitation de l'API ChatGPT. Les éditeurs de logiciels devraient probablement effectuer un calcul prudent du retour sur investissement (ROI). Tout ce qu'ils peuvent gagner en augmentant leur programme en utilisant ChatGPT apportera-t-il suffisamment d'argent supplémentaire pour compenser les coûts ?

Tout le monde ne sera pas nécessairement aussi soucieux des coûts. Si vous avez des poches profondes et pensez que votre utilisation de ChatGPT propulsera votre programme dans le domaine des applications les plus connues ou les plus reconnues, vous pouvez décider que le coût actuel en vaut la peine. Créez un nom pour votre application en suivant les traces de ChatGPT. En fin de compte, une fois que votre programme est populaire ou qu'il rapporte de l'argent, vous compensez le manque de profit antérieur ou vous l'annulez en tant que coût requis pour entrer dans le grand moment.

Une petite startup soutenue par une société de capital-risque (VC) pourrait être disposée à débourser une partie de son investissement de démarrage pour s'associer à l'API ChatGPT. La renommée pourrait surgir instantanément. La fortune est peut-être un long chemin à parcourir, mais c'est quelque chose dont il faudra s'occuper plus tard. Attrapez les feux de la rampe quand l'obtention est bonne, comme on dit.

On suppose qu'il pourrait y avoir des organisations à but non lucratif et des entreprises sociales qui décideront également de s'en prendre à cela. Supposons qu'une entreprise à but non lucratif identifie une utilisation bénéfique de l'appel de l'API ChatGPT qui soutiendra apparemment ses objectifs altruistes ou bénéfiques pour la société. Peut-être qu'ils collectent des fonds pour cela via une campagne de financement en ligne. Peut-être essaient-ils de conclure un accord avec les vendeurs afin qu'ils paient un montant nominal ou obtiennent l'utilisation gratuite.

Le temps nous dira.

Le dernier pointeur que je vais vous laisser est le facteur de risque.

Je ne veux pas paraître indûment optimiste, mais j'ai mentionné plus tôt que les sorties de ChatGPT peuvent contenir des faussetés et avoir d'autres inconvénients potentiels. Le fait est que si un fournisseur de logiciels créant une application se mélange à l'utilisation de l'API ChatGPT, il court le risque d'avoir des sorties aigres et austères, ce qu'il devrait anticiper. Ne vous mettez pas la tête dans le sable.

Les problèmes surviennent que ces sorties pourraient entacher l'application qui choisit de les utiliser. En ce sens, votre application qui profite d'abord de la gloire de ChatGPT pourrait également finir par s'enfoncer dans un mur de briques si les sorties fournies via ChatGPT sont utilisées. Peut-être que les sorties sont présentées aux utilisateurs et cela provoque un chahut horrible. Ils se débarrassent de leur angoisse sur vous et votre application.

À votre tour, vous essayez de pointer du doigt ChatGPT. Cela vous sortira-t-il de l'énigme ? Une fois qu'il y a une puanteur, elle imprègne largement et peu sont épargnés. Dans ce sens, il se pourrait que via une utilisation élargie de ChatGPT, la prise de conscience des sorties fautives soit plus connue. Ainsi, assez curieusement, ou ironiquement, l'utilisation élargie de ChatGPT en raison de l'API pourrait tirer leur propre pied.

Je ne veux pas conclure mes remarques avec un visage triste alors essayons de passer à un visage heureux.

Si toutes les limites et contraintes ambitieuses sont consciencieusement et judicieusement suivies et respectées rigoureusement, puiser dans ChatGPT via l'API peut être une bonne chose. Il est également probable que cela incitera davantage d'autres applications d'IA génératives à agir. La marée montante pouvait faire monter tous les bateaux.

Cela semble optimiste.

Vous savez peut-être que Zeus contrôlait le Kraken. Sophocle, l'ancien dramaturge grec, a dit ceci à propos de Zeus : "Les dés de Zeus tombent toujours par bonheur."

On dira peut-être la même chose de la façon dont l'IA générative atterrira inévitablement, espérons-le du moins.

Source : https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- ouvert-stupéfiant-ai-éthique-et-ai-loi/