Was ChatGPT wirklich kann – und was nicht
(TL). Es wurden große Erwartungen an die Leistungsfähigkeit von Modellen wie ChatGPT geknüpft. Doch eine neue Studie, die unter der Leitung der Technischen Universität Darmstadt (TU) durchgeführt wurde, stellt diese Erwartungen infrage und zeigt, dass die Realität weit von der Vision einer selbstständig denkenden KI entfernt ist.
Die Studie im Überblick
Die Untersuchung, die im August 2024 auf der Jahrestagung der Association for Computational Linguistics (ACL) in Bangkok vorgestellt wird, beleuchtet die Grenzen sogenannter Large Language Models (LLMs) wie ChatGPT. Im Mittelpunkt der Studie standen die sogenannten „emergenten Fähigkeiten“ dieser Modelle – unerwartete Leistungssteigerungen, die durch die Skalierung der Modelle, also deren Vergrößerung und die Verarbeitung von immer größeren Datenmengen, hervorgerufen wurden. Diese emergenten Fähigkeiten hatten Hoffnungen geweckt, dass KI-Systeme bald in der Lage sein könnten, komplexes und autonomes Denken zu entwickeln. Gleichzeitig wurden auch Ängste geschürt, dass solche Systeme möglicherweise außer Kontrolle geraten könnten.
Ernüchternde Ergebnisse
Die Ergebnisse der Studie unter der Leitung von Prof. Iryna Gurevych von der TU Darmstadt und Dr. Harish Tayyar Madabushi von der University of Bath zeichnen jedoch ein ernüchterndes Bild. Die Forscher konnten keine Hinweise darauf finden, dass die Modelle tatsächlich ein differenziertes und intelligentes Verhalten entwickeln. Vielmehr zeigen die LLMs, so die Studie, nur eine oberflächliche Fähigkeit, einfache Anweisungen zu befolgen, und bleiben weit hinter dem zurück, was Menschen an Denkfähigkeiten besitzen.
Was bedeutet das für die Nutzung von KI?
Diese Erkenntnisse haben weitreichende Implikationen für die Art und Weise, wie KI-Systeme eingesetzt werden. „Es wäre ein Fehler, sich blind auf ein KI-Modell zu verlassen, um komplexe Aufgaben ohne menschliche Intervention zu bewältigen“, warnt Gurevych. Die Forscherin betont, dass Nutzende klar formulieren müssen, was die Modelle leisten sollen, und dass sie dabei konkrete Beispiele angeben sollten. Besonders wichtig ist, sich der Tendenz dieser Modelle bewusst zu sein, plausible, aber falsche Ergebnisse zu liefern – eine Herausforderung, die trotz aller Fortschritte in der Entwicklung der Modelle weiterhin besteht.
Blick in die Zukunft: Fokussierung auf reale Risiken
Die Studie stellt klar, dass KI-Modelle zwar keine selbstständig denkenden Wesen sind, sie jedoch dennoch Risiken bergen. Gurevych und ihre Kolleg fordern daher eine Verlagerung der Forschungsprioritäten. Anstatt sich auf die Spekulation über die Entwicklung komplexer Denkfähigkeiten zu konzentrieren, sollten die potenziellen Gefahren in den Fokus rücken, die von der gegenwärtigen Nutzung dieser Modelle ausgehen – wie beispielsweise das Risiko der Verbreitung von Fake News.
Die neue Studie der TU Darmstadt zeigt, dass die heutigen KI-Modelle zwar beeindruckende Werkzeuge sind, aber noch weit davon entfernt, eigenständig komplexe Denkprozesse auszuführen. Für Nutzer bedeutet dies, dass ein verantwortungsbewusster und kritischer Einsatz dieser Technologien unerlässlich ist. Statt sich auf die vermeintlichen Fähigkeiten der KI zu verlassen, sollten sie stets im Hinterkopf behalten, dass menschliches Urteilsvermögen und Kontrolle nach wie vor unerlässlich sind.