Nessuna capacità di pensiero complesso con ChatGPT & Co.
Une nouvelle étude dirigée par l'Université technique de Darmstadt met en évidence les limites des modèles d'IA tels que ChatGPT. Contrairement à ce que l'on pensait jusqu'à présent, ces systèmes ne développent pas de capacités de réflexion autonomes ou complexes, mais se contentent de suivre des instructions simples. Les résultats jettent une nouvelle lumière sur les capacités réelles et les risques de l'intelligence artificielle.
Lo studio, che sarà presentato al meeting annuale dell’Associazione per la Linguistica Computazionale a Bangkok, conclude che i modelli linguistici di grandi dimensioni come ChatGPT non mostrano alcuna prova dello sviluppo di un pensiero sofisticato o pianificato. Invece, questi modelli dimostrano solo la capacità di rispondere a istruzioni semplici. Ciò smentisce l’ipotesi diffusa che i modelli di AI possano esibire un comportamento sempre più intelligente grazie alla scalabilità.
Lostudio, guidato dalla Prof.ssa Iryna Gurevych della TU Darmstadt e dal Dr. Harish Tayyar Madabushi dell’Università di Bath, ha analizzato le cosiddette “capacità emergenti” dei modelli di AI. Queste capacità, che sono state osservate con l’aumento delle dimensioni del modello e del volume dei dati, hanno suscitato sia speranze che timori riguardo al futuro sviluppo dell’intelligenza artificiale. Tuttavia, la ricerca attuale dimostra che queste capacità sono dovute a semplici effetti di apprendimento piuttosto che a un pensiero complesso e indipendente.
Implicazioni per il futuro dell’uso dell’AI
I risultati dello studio hanno implicazioni significative per l’uso dei sistemi di AI. La professoressa Gurevych mette in guardia dall’affidarsi ai modelli per risolvere compiti complessi senza il supporto umano. Sottolinea che gli utenti devono fornire istruzioni ed esempi espliciti per utilizzare i sistemi in modo efficace. Inoltre, la tendenza dei modelli a produrre risultati plausibili ma errati rimane una sfida.
Focus sui rischi futuri
Sebbene lo studio dimostri che i LLM non sviluppano capacità di pensiero complesse, ciò non significa che l’AI non rappresenti una minaccia. Il Prof. Gurevych chiede che la ricerca si concentri sui rischi reali dei modelli di AI, in particolare sul loro potenziale di generare fake news. I risultati dello studio forniscono una base preziosa per comprendere meglio le reali capacità dei modelli di IA e rendere il loro uso più sicuro nella pratica.