ChatGPT ou le challenge de la paresse : après avoir appris à l’IA à ne pas répondre à toutes les questions, les ingénieurs vont-ils devoir lui apprendre à ne pas tout savoir ?

En juste 5 mois, on a dit beaucoup de choses sur ChatGPT et on lui a même demandé maintes fois ce qu’il pensait de lui-même. Il est clair que le prototype d’agent conversationnel développé par OpenAI a bénéficié d’un effet bluffant quasi « merveilleux » et d’un effet de mode alimenté (comme cela avait été le cas pour les moteurs de recherche) par la période de gratuité, la simplicité d’utilisation et la rapidité d’exécution.

 

Un succès bluffant

Au vu de l’avalanche des traitements scientifiques et médiatiques récents, ChatGPT est loin d’être sorti de la période où il pose presque plus de questions qu’il n’apporte de réponses.

Bien que la majorité de ces questions soient au premier abord plus philosophiques ou éthiques que directement techniques, du point de vue du chercheur ou du responsable de l’innovation, elles se traduisent par autant de domaines d’amélioration possibles de ce type d’intelligence artificielle.

S’ajoute à cela un ressenti d’urgence, lié à la rapidité de diffusion, le fort niveau d’utilité perçue par l’utilisateur, l’immensité des usages potentiels et l’absence de freins naturels. C’est ce cocktail qui fait de ChatGPT une innovation sans doute « trop » rapide pour être bien canalisée par des normes, des lois ou des outils de contrôle ou de modération.

 

Rapidité de diffusion

ChatGPT arrive à une époque où l’essentiel de la population a non seulement accès à un terminal internet, souvent mobile et personnel, mais a aussi déjà pris l’habitude de confier sa recherche d’information, ou l’occupation de son temps perdu (transports…) à ce terminal. A ce titre ChatGPT s’apparente à un « influenceur » comme un autre, en apportant même le bénéfice d’être un influenceur que l’on peut diriger sur ses propres sujets d’intérêts.

L’IA arrive donc en terrain extrêmement favorable pour s’imposer rapidement.

 

Utilité perçue par l’utilisateur

ChatGPT arrive aussi dans une génération où la peur que les robots ne nous prennent nos emplois a déjà été largement contrebalancée par l’attrait des nouveaux emplois créés par les nouvelles technologies. Dès lors, le sentiment de gain de temps sur des taches fastidieuses prédomine. On a appris à « Googler » la question plutôt que de « perdre » du temps à retrouver une information en allant faire une recherche « bibliothécaire ».

Ce bénéfice en temps et en capacité à ne pas « rater » l’information vitale est évident. Il est à l’origine de toutes les logiques de big data, data analysis, etc.

 

Usages potentiels

Ceux qui récemment eu l’occasion de parcourir les copies d’élèves en Master universitaires ont appris à reconnaitre les copies entièrement réalisées par ChatGPT. C’est un exercice en soi, car la copie elle-même est souvent très bien construite. Il en est de même des candidats qui confient à l’IA la rédaction de leur CV ou des pigistes qui font rédiger un marronier sur les précautions à prendre à la plage (c’est la saison). De fait, toute activité ou toute décision qui peut bénéficier de l’existence d’un gros dossier que personne ne lira réellement est une candidate naturelle à la ChatGPTisation.

Le parallèle avec l’apport de la robotisation pour les taches manuelles pénibles ou répétitives est évident : ChatGPT nous incite à la paresse lorsqu’un effort intellectuel nous est perçu comme obligatoire ou peu valorisant.

 

Absence de freins « naturels »

Lorsqu’une innovation est à même de créer une rupture dans nos habitudes, elle est souvent porteuse d’un frein naturel qui limite sa capacité à être déployée très (trop ?) rapidement dans de nombreux domaines. Cela peut être une contrainte de coût, de faisabilité technique limitée (volontairement ou non) à quelques organisations, de planning de construction à grande échelle, un risque fortement ressenti – réel ou non, personnel ou partagé, etc. Dans tous ces cas, ceci nous donne la possibilité de réfléchir et de mettre en place les moyens d’encadrer si nécessaire les usages. Il en est ainsi par exemple d’innovations dans des domaines aussi variés que la pharmacie, le nucléaire, le militaire, le clonage, la crypto-monnaie, la cybersécurité…

Entre gratuité et le sentiment d’absence de responsabilité à l’usage ChatGPT ne semble pas comporter en soi de tels freins naturels. A l’instar des moteurs de recherche ou des réseaux sociaux, l’usage semble « gratuit » au sens large, pour un bénéfice nettement plus direct. Autant on hésite à monter dans la première voiture autonome, autant on prend le risque – sans s’être renseigné sur l’outil – de soumettre un devoir de philosophie ou de mathématiques entièrement ChatGPTé (et entièrement « faux ») sans l’avoir relu.

 

Un challenge passionnant

La question posée alors au « programmeur » est donc celle de mettre en place, dans l’outil lui-même, les garde-fous précis permettant d’éviter les dérives. On se rappelle que Tray de Microsoft n’avait tenu que quelques heures avant d’être débranché, faute justement de capacité de contrôle.

On pense bien entendu à éviter les fake news et réécritures de l’histoire, protéger les informations personnelles ou confidentielles, tracer l’origine des informations, potentiellement rendre clairement différencié un texte d’origine humaine d’un qui ne l’est pas, etc.

Si l’on s’en réfère à Hercule Poirot, au moins trois concepts doivent nous guider en matière d’évolution des outils tels que ChatGPT : vérité, cellules grises et que faire une fois qu’on a éliminé toutes les possibilités.

 

Il nous faut définir ce que doit être la notion de « vérité » pour une IA

Faut-il en particulier apprendre à l’IA la « diplomatie » car, on le sait, nous qui dialoguons avec les IA restons humains et toute vérité n’est pas forcément bonne à nous dire. Qui a déjà demandé la date de sa propre mort à ChatGPT ? Après l’Intelligence Artificielle, l’étape suivante se doit peut-être d’être celle de la Sagesse Artificielle. Une manière de repenser nos réseaux neuronaux.

 

Il faut aussi faire bien travailler nos petites cellules grises

Si on laisse les machines penser à notre place, on n’entraine plus notre cerveau. Un challenge passionnant consiste à nous éviter à tous un alzheimer précoce en limitant l’apport de l’AI afin qu’il nous reste une part d’intelligence à fournir. Il nous faut créer des outils qui « forcent » nos élèves à chercher à comprendre et à questionner et mettre en déséquilibre ce qu’un ChatGPT a pondu pour eux. L’IA doit être un support à l’intelligence et non un remplacement de celle-ci. Traduire cette idée en termes de spécifications informatiques est en soi une quête qui comporte sa propre intelligence.

 

Et quand en réponse à nos questions, l’IA élimine tous le possible, charge à nous de lui apprendre l’impossible

En nous poussant à une certaine paresse intellectuelle, ChatGPT nous incite à se reposer sur lui pour optimiser ce que nous devrions faire ou penser demain. Or, jusqu’à preuve du contraire, une IA ne fait que recevoir, compiler, reformater, synthétiser, expliquer et « parfois » vérifier ce qui a déjà été fait ou écrit par un humain. Elle peut innover dans les usages mais n’innove pas scientifiquement, faute de pouvoir faire d’elle-même des expériences novatrices. ChatGPT peut peut-être confirmer que la réponse est bien 42, mais ne saura montrer pourquoi.

A nous d’apprendre à ChatGPT à rédiger ses écrits et ses réponses de manière à susciter chez nous les nouvelles expériences à réaliser, faute de pouvoir le faire lui-même. Il nous faut rendre l’IA curieuse, non pas pour son bénéfice d’apprentissage personnel, mais pour susciter notre propre curiosité, pour notre bénéfice de savoir humain. Pour cela, il faut s’assurer que le discours de ChatGPT soit moins une réponse à une question fermée qu’une participation à une réflexion commune propre à nous ouvrir d’autres horizons. Autant nous devons savoir questionner les réponses que nous donne l’IA, autant doit-on lui apprendre – raisonnablement – à questionner nos affirmations. Pas simple à traduire en code informatique, mais sans doute faisable et dans tous les cas nécessaire et valorisant.

Nous allons surement y arriver rapidement, afin d’assurer que l’on pousse les usages là où on le souhaite et qu’on ne rate pas ce qui reste avant tout, une exceptionnelle prouesse technologique.

 

PS: Aucune ligne de cet article n’est de près ou de loin issue d’un agent conversationnel.