Français
Français

ChatGPT, genèse d’une nouvelle hybridation ?

14 mars 2023

Innovation

Digital

couverture_article_chatgpt

 

couverture_article_chatgpt

 

Depuis plusieurs mois, ChatGPT, cet outil muni d’une intelligence artificielle ultra-performante est au cœur de l’actualité technologique.

 

Présenté comme un agent conversationnel, il permet aux utilisateurs de dialoguer sur un nombre infini de thématiques avec un chatbot, basé sur le modèle linguistique d’intelligence artificielle GPT-3, développé par la société OpenAI depuis 2020 et lancé plus récemment. ChatGPT est capable de fournir un niveau de réponses impressionnant, au point d’en bluffer plus d’un.

 

Une révolution qui vient bousculer les perspectives d’usages dans le paysage de l’IA pour les uns. Le retour des fantasmes les plus fous ou des inquiétudes jugées parfois irrationnelles pour les autres.

 

Dans la multitude de débats actuels, nous avons interrogé deux de nos experts Minds : Jean-Christophe Bonis (futuriste, entrepreneur et passionné de nouvelles technologies) et Rand Hindi (entrepreneur français et visionnaire dans le secteur des nouvelles technologies) autour de deux questions fondamentales.

 

ChatGPT présage-t-il une révolution anthropologique ?

 

Chat-GPT serait l’une des dernières expressions d’une grande transformation numérique à l’œuvre et qui repose sur une quantification et une expertise du réel. De par ses données et ses connaissances engrangées, ChatGPT a la capacité de mener des conversations dans un langage semblable au nôtre. 

Dans quelle mesure, ChatGPT bouscule quelque chose d’ordre social ? Assistons-nous à un changement de statuts des technologies numériques ? 

 

L’utilisation de l’intelligence artificielle se positionne comme un véritable tremplin pour les entreprises et les particuliers. Elle a le potentiel de transformer de nombreux aspects de notre vie quotidienne et de la faciliter, ce qui pourrait entraîner des changements significatifs dans notre façon de vivre et dans notre société.

 

Toutefois, elle reste limitée dans sa capacité à comprendre et à reproduire l’intelligence humaine de manière autonome. Ce nouveau modèle d’interprétation possède des aptitudes à manipuler le langage, mais ne peut toutefois y faire figurer d’élan vital, contrairement à l’humain. 

 

Finalement, ce n’est pas nous qui apprenons à parler comme un être humain, mais l’humain qui parle comme la machine. De ce fait, il est important de maintenir un dialogue éthique et responsable sur les utilisations et comportements dont ChatGPT pourrait faire face

 

Le point de vue de Jean-Christophe BONIS

Dans “La nuit des Temps” de Barjavel, l’auteur dépeignait au milieu du siècle dernier un outil de traduction universel permettant à l’ensemble des membres multilingues d’une mission scientifique de communiquer en temps réel. C’était d’une certaine manière l’ancêtre de ChatGPT issu de l’imagination fertile d’un des meilleurs écrivains français de science-fiction.

Voilà que plus d’un demi siècle plus tard, l’intelligence humaine créa non pas un traducteur universel mais un outil d’écriture universel. Sur le papier la promesse est de taille, la réalité est cependant beaucoup plus nuancée…

 

Au risque de passer pour l’avocat du diable, le chemin reste très long à parcourir. ChatGPT est une image parfaite de notre société actuelle, l’hyper consommation du contenu en mode McDO au détriment de la pertinence et de la qualité. L’utilisation actuelle proposée est une aberration fondamentale pour une raison très simple : ChatGPT n’a aucune idée de ce qu’il raconte ! La technologie actuelle, même si impressionnante dans sa capacité à formuler un langage proche de l’homme, n’est qu’une représentation statistique de la communication humaine convaincante sur la forme mais dénuée de fond.

 

Pour que l’outil passe réellement le cap du gadget technologique, il nous faudrait avoir atteint le niveau d’une intelligence artificielle à même de nourrir une réflexion et un argumentaire. La taille du modèle et la puissance de calcul nécessaire est à ce jour inatteignable dans l’état de nos connaissances scientifiques. Demain peut-être… et cela ne serait pas obligatoirement une bonne nouvelle pour l’Homme.

 

Le défaut de compréhension entraîne deux écueils majeurs : la désinformation et le nivellement par le bas de la société. En d’autres mots, si vous me le permettez, dire une connerie avec élégance ne vous en rend pas moins con !

 

Le bébé n’est cependant pas à jeter avec l’eau du bain. Le potentiel de ChatGPT sur de très nombreuses verticales de métiers est réel. Son utilisation pour des services clients rendra notre vie tellement moins compliquée lorsque l’on appellera sa banque, son assurance, la sécurité sociale ou encore la poste. Le concept de développement logiciel et d’écriture de code informatique ne sera plus jamais le même. La traduction instantanée va devenir enfin une réalité abolissant à jamais la barrière linguistique.

 

En conclusion, telle une arme, ChatGPT pourra en fonction de son utilisation faire autant le bien que le mal. Il est primordial d’en comprendre les fondements, le potentiel et les limites.

Son utilisation à la juste place vous renforcera, tout erreur d’appréciation vous déstabilisera.

 

ChatGPT : dressable ou incontrôlable ?

 

De nombreux questionnements planent quant à l’avenir de ChatGPT et aux risques potentiels de ses dérives et dérapages jusqu’à générer des idées telles que le dressage de l’outil pour mieux le contrôler.

Bien que ChatGPT soit constamment amélioré en termes de qualité et de la  pertinence de ses réponses, il peut encore contenir des erreurs et des biais sociaux ou moraux en raison des données utilisées pour le construire.

Il est important de noter que l’agent conversationnel n’a pas pour volonté de prendre des décisions de manière autonome et n’a d’ailleurs pas la possibilité de le faire. 

 

Sans pour autant être alarmiste, il est essentiel de s’assurer que ce type d’outil soit utilisé à bon escient, donc de manière éthique et responsable.

 

Le point de vue de Rand Hindi

ChatGPT est une technologie absolument incroyable et personnellement, j’ai été le premier surpris du fonctionnement de cette technologie. On sait que depuis 2017, plus un modèle est gros, plus ses performances sont bonnes. Donc on se doutait qu’à un moment ou un autre ça finirait par marcher, juste en mettant plus de puissance de calcul et plus de data. 

 

Par contre, ce n’est pas parce que le modèle est capable de copier des conversations humaines que c’est pour autant un agent autonome capable de prendre ses propres décisions. Aujourd’hui, ChatGPT reste encore un outil auquel on peut demander des choses incroyables et à qui on peut faire faire des choses très dangereuses, mais qui n’a absolument aucune autonomie, aucune conscience. Et c’est vraiment très important de distinguer ça. Le fait d’être capable de prédire et de répondre à des questions de manière intelligible ne veut pas forcément dire qu’on est capable de prendre des décisions de manière autonome. 

 

Alors, est ce qu’il est possible que quelqu’un branche ce qu’il y a sur un système qui permettrait de contrôler autre chose ? Oui, évidemment, mais ça n’est pas du tout le sujet pour l’instant. 

Autre point, pour être capable d’arriver à une super intelligence, cela nécessiterait encore plus de puissance de calcul. Or on voit déjà qu’en ce moment on arrive à saturation du nombre de puces électroniques disponibles pour faire tourner ce modèle d’IA. Donc tout le monde est surexcité mais il n’est même pas établi que l’infrastructure digitale aujourd’hui permette d’arriver à supporter une super intelligence si jamais nous poursuivons la même IA qu’aujourd’hui. Pour arriver à une super intelligence, il faudrait premièrement la rendre autonome, ce qui n’est pas le cas aujourd’hui. Deuxièmement, cela induit des modèles 10 à 100 fois, voire 1000 fois plus gros que ChatGPT, ce qui n’est pas possible avec les technologies actuelles parce qu’il n’y a pas assez de puissances de calcul disponibles. Cela supposerait de passer à du quantique ou du photonique pour faire ça. Et troisièmement, il faudrait en fait résoudre le problème de cohérence des réponses. C’est à dire qu’aujourd’hui, nous ne sommes pas capables de différencier quand ChatGPT raconte n’importe quoi, de quand ChatGPT raconte quelque chose de correct. Et donc ça, je pense que c’est un problème fondamental à l’adoption.

 

 

Un contrôle absolu et le remplacement de l’homme par l’IA ne sont donc toujours pas à l’ordre du jour mais le potentiel offert par ChatGPT sur des tâches intellectuelles reste néanmoins à considérer par les entreprises, notamment pour les nouvelles perspectives liées à l’automatisation de processus et la simplification de tâches complexes.

 

Nouveau robot ou nouveau buzz dont l’engouement retombera bien plus rapidement qu’on ne le pense ? Jean-Gabriel Ganascia, président du comité d’éthique du CNRS, dénonce le « mythe » d’une intelligence artificielle surhumaine et rappelle à toutes fins utiles que les logiciels d’IA ne sont pas doués de raison.

Abonnez-vous à nos réseaux sociaux