ChatGPT a aussi passé l'examen du barreau/droit (pas sur de la formulation correcte en français) aux états-unis avec un bon score. Il arrive a généraliser assez bien un bon nombre de domaines
Barbetorte a écrit :
Walsingham nous dit que ChatGPT ne comprend pas les questions qu’on lui pose. Je veux bien, mais qu’est-ce que signifie « comprendre » ? Qu’est-ce que l’intelligence artificielle ? J’ai trouvé dans wikipedia la définition suivant due à Marvin Lee Minsky : « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». La reconnaissance de caractères et, de façon plus générale, la reconnaissance de formes et l’interprétation de signaux répond à cette définition
Qu'est-ce que l'intelligence est une vaste question qui a créé des pans entier de la philosophie donc répondre à votre question va être difficile
Un point important (à mon sens) est la distinction entre IAs généralistes et IAs spécialisées. Pour l'instant, tout ce que l'on voit sont des IAs qui sont hyper spécialisées pour répondre à une tâche spécifique. On a des IAs qui prédisent comment des protéines doivent être pliées, comment jouer au jeu de go, comment faire des images, ... ou dans le cas de chatGPT: comment écrire des textes (probable). Le problème de chatGPT c'est qu'il donne l'impression d'être plus intelligent qu'il ne l'est car il crée du texte que l'on peut lire facilement sur plein de sujets. Mais, à nouveaux, c'est juste une boite noire statistiques qui crée des textes "probables" après avoir lu une grande partie d'internet et avoir été entraîné sur un super calculateur. "L'intelligence" de chatGPT ne peut pas être appliqué à d'autre domaines.
Par exemple, il peut vous écrire un texte sur l'histoire de l'architecture gothique super pointu mais il ne pourras pas créer les plans d'une église gothique car il ne "comprend pas ce qu'il a dit/ingérer". Il peut écrire une thèse sur l'emploi des gargouilles apotropaïques dans la région de Bordeaux mais cela ne veux rien dire pour lui. Donc il ne peut pas utiliser les informations dans le texte qu'il a créé pour en déduire le plan d'une nouvelle cathédrale. Là ou un humain pourra le faire, car il arrivera a transférer les informations du textes vers une "autre conceptualisation".
Le but ultime de la recherche en IA c'est d'arriver a créer ce qu'on appelle un AI généraliste, i.e. une IA qui arrivera a "comprendre comme nous". Elle devra être capable de transférer ce qu'elle a appris dans un autre domaine, d'utiliser ce qu'elle a appris quelque part pour faciliter sa compréhension d'un autre domaine, .... Cela nécessite des modèles assez différents de ce que sont les IA spécialisées donc on en est encore assez loin (d'après moi. J'ai des collègues plus confiant) mais j'ai l'impression qu'on s'en rapproche tout doucement. Par exemple, il n'y a pas longtemps, une équipe a créé un nouveau modèle qui a appris à jouer à des jeux atari en ... lisant le mode d'emploi. Tous les modèles précédents y arrivaient en jouant des centaines de milliers de parties de manière "stupide" jusqu'à finalement trouver comment le faire. Ce nouveau modèle arrivait à réduire le temps d’entraînement juste en déduisant les règles. Ce modèle restait encore très limités et assez spécialisé mais c'est le genre de nouvelles directions qui doit être prise et où il y a encore pas mal de travail à faire.