Pas de compétences de réflexion complexes pour ChatGPT & Co.

août 2024

A new study led by TU Darmstadt shows the limits of AI models such as ChatGPT. Contrary to previous assumptions, these systems do not develop independent or complex thinking skills, but only follow simple instructions. The results shed new light on the actual capabilities and risks of artificial intelligence.

L’étude, qui sera présentée lors de la réunion annuelle de l’Association for Computational Linguistics à Bangkok, conclut que les modèles de grand langage tels que ChatGPT ne montrent aucun signe de développement d’une capacité de pensée différenciée ou planifiée. Au lieu de cela, ces modèles démontrent uniquement la capacité à répondre à des instructions simples. Cela contredit l’idée largement répandue selon laquelle les modèles d’IA pourraient faire preuve d’un comportement de plus en plus intelligent en passant à l’échelle.

Contexte de l’étude
L’étude, dirigée par le professeur Iryna Gurevych de l’Université technique de Darmstadt et le docteur Harish Tayyar Madabushi de l’Université de Bath, a examiné ce que l’on appelle les « capacités émergentes » des modèles d’IA. Ces capacités, observées à mesure que la taille des modèles et le volume des données augmentent, ont suscité à la fois des espoirs et des craintes quant au développement futur de l’IA. Cependant, les recherches actuelles montrent que ces capacités sont davantage dues à de simples effets d’apprentissage qu’à une pensée complexe et autonome.

Implications pour l’avenir de l’utilisation de l’IA
Les résultats de l’étude ont des implications importantes pour l’utilisation des systèmes d’IA. Le professeur Gurevych met en garde contre le fait de s’appuyer sur les modèles pour résoudre des tâches complexes sans assistance humaine. Elle souligne que les utilisateurs devraient fournir des instructions et des exemples explicites afin d’utiliser efficacement les systèmes. De plus, la tendance des modèles à produire des résultats plausibles mais erronés reste un défi.

Se concentrer sur les risques futurs
Bien que l’étude montre que les LLM ne développent pas de capacités de raisonnement complexes, cela ne signifie pas que l’IA ne constitue pas une menace. Le professeur Gurevych demande que la recherche se concentre sur les risques réels des modèles d’IA, notamment sur leur potentiel de génération de fausses nouvelles. Les conclusions de l’étude fournissent une base précieuse pour mieux comprendre les capacités réelles des modèles d’IA et rendre leur utilisation plus sûre dans la pratique.

Plus d'articles