Keine komplexen Denkfähigkeiten bei ChatGPT & Co.
Eine neue Studie unter Leitung der TU Darmstadt zeigt die Grenzen von KI-Modellen wie ChatGPT auf. Entgegen bisheriger Annahmen entwickeln diese Systeme keine selbstständigen oder komplexen Denkfähigkeiten, sondern folgen nur einfachen Anweisungen. Die Ergebnisse werfen ein neues Licht auf die tatsächlichen Fähigkeiten und Risiken von Künstlicher Intelligenz.
Die Untersuchung, die auf der Jahrestagung der Association for Computational Linguistics in Bangkok vorgestellt wird, kommt zu dem Schluss, dass Large Language Models wie ChatGPT keine Anzeichen für die Entwicklung eines differenzierten oder planvollen Denkvermögens zeigen. Stattdessen demonstrieren diese Modelle nur die Fähigkeit, auf einfache Anweisungen zu reagieren. Dies widerlegt die weit verbreitete Annahme, dass KI-Modelle durch Skalierung zunehmend intelligentere Verhaltensweisen an den Tag legen könnten.
Hintergründe der Studie
Die Studie, geleitet von Prof. Dr. Iryna Gurevych von der TU Darmstadt und Dr. Harish Tayyar Madabushi von der University of Bath, untersuchte sogenannte «emergente Fähigkeiten» der KI-Modelle. Diese Fähigkeiten, die mit zunehmender Modellgrösse und Datenmenge beobachtet wurden, weckten sowohl Hoffnungen als auch Ängste hinsichtlich der zukünftigen Entwicklung von Künstlicher Intelligenz. Die aktuelle Forschung zeigt jedoch, dass diese Fähigkeiten eher auf einfache Lerneffekte und nicht auf komplexes, selbstständiges Denken zurückzuführen sind.
Implikationen für die Zukunft der KI-Nutzung
Die Ergebnisse der Studie haben bedeutende Auswirkungen auf die Nutzung von KI-Systemen. Prof. Gurevych warnt davor, sich auf die Modelle zu verlassen, um komplexe Aufgaben ohne menschliche Unterstützung zu lösen. Sie betont, dass Nutzende explizite Anweisungen und Beispiele geben sollten, um die Systeme effektiv einzusetzen. Zudem bleibt die Tendenz der Modelle, plausibel klingende, aber falsche Ergebnisse zu erzeugen, eine Herausforderung.
Fokus auf zukünftige Risiken
Obwohl die Studie zeigt, dass LLMs keine komplexen Denkfähigkeiten entwickeln, bedeutet dies nicht, dass KI keine Bedrohung darstellt. Prof. Gurevych fordert, den Fokus der Forschung auf die realen Risiken der KI-Modelle zu legen, insbesondere auf deren Potenzial zur Generierung von Fake News. Die Erkenntnisse der Studie liefern eine wertvolle Grundlage, um die tatsächlichen Fähigkeiten von KI-Modellen besser zu verstehen und ihren Einsatz in der Praxis sicherer zu gestalten.