Pour une fois que mon doctorat en IA m'est utile sur passion histoire, je viens donner mon grain de sel
Un point important de chatGPT (ou midjourney, l'algo qui crée les images) est qu'il ne comprend pas les questions. Tout ce que chatGPT fait c'est prédire qu'elle est le mot le plus probable qui devrait suivre (midjourney prédit le pixel le plus probable). C'est pour cela que lorsqu'on demande une référence à chatGPT, il en invente car il ne fait que reproduire une référence
probable. Cela reste impressionnant mais ce n'est pas encore de l’intelligence (au sens que la plupart des gens donne à ce concept) même si cela peut passer pour telle. C'est pour cela qu'il est très simple d'induire chatGPT en erreur en formulant bien sa question, vu qu'il ne la "comprend pas".
Comme l'a dit Narduccio, ces algos sont aussi des "black boxes" (boites noires), i.e. on ne sait pas savoir comment ils sont arrivé à cette conclusion. C'est pour cela aussi qu'il est très difficile de connaître les sources utilisées pour la création du texte. Il y a pas mal de travaux sur le sujet mais on est encore assez loin (à mon avis) d'avoir un système d'IA explicatif, i.e. qui donne ses sources et raisonnements de manière claire et compréhensible par tous, car ce type d'algo est conceptuellement différent de ce que chatGPT fait.
Est-ce une révolution intellectuelle? Probablement pas. Est-ce un outils qui va impacter le monde du travail? Probablement. Avec un peu de peaufinage, on devrait pouvoir avoir des agents conversationnelles assez efficaces pour remplacer la plupart des call centers par exemple. Mais dans la plupart des cas d'utilisations il faudra encore un humain pour valider/reformater. Ce qu'on va avoir c'est que e.g. un avocat aidé de chatGPT (V45) sera aussi efficace que 3 avocats sans chatGPT