AGI ist nicht mehr nur Science-Fiction – sie ist ein strategisches Ziel.“
– Demis Hassabis, CEO, DeepMind
AGI laut DeepMind bald möglich
London, 20. April 2025 – Die Entwicklung einer künstlichen allgemeinen Intelligenz (AGI) ist laut Google DeepMind nicht länger eine Vision aus der fernen Zukunft, sondern ein realistisches Ziel für die nächsten fünf bis zehn Jahre. Diese Einschätzung stammt direkt von Demis Hassabis, CEO und Mitgründer von DeepMind, der die Aussagen im Rahmen eines Interviews anlässlich seiner Auszeichnung mit dem Nobelpreis für Chemie gemacht hat. Der Preis wurde ihm für seine Beiträge zur KI-basierten Proteinforschung mit AlphaFold verliehen.
Die Prognose hat in Fachkreisen und Medien gleichermaßen hohe Wellen geschlagen – denn sie signalisiert, dass AGI, also eine KI mit menschenähnlicher Denk-, Lern- und Problemlösungsfähigkeit, nicht mehr nur theoretisch, sondern bereits technologisch greifbar sein könnte.
Von spezialisierten Modellen zur allgemeinen Intelligenz
Derzeitige KI-Modelle wie GPT-4, Gemini oder Claude sind leistungsfähig, aber stark auf Sprachverarbeitung und spezifische Aufgabenbereiche beschränkt. AGI hingegen würde in der Lage sein, über verschiedene Domänen hinweg selbstständig zu lernen, Schlüsse zu ziehen, Wissen zu verknüpfen und komplexe Ziele eigenständig zu verfolgen – mit einem Maß an Autonomie, das bisher nur dem menschlichen Gehirn vorbehalten ist.
DeepMind forscht seit Jahren in genau diese Richtung. Projekte wie AlphaZero, AlphaCode und AlphaGeometry zeigen bereits, wie KI-Modelle nicht nur Wissen anwenden, sondern auch neue Strategien und Lösungen entwickeln können. Mit jedem Fortschritt in Multimodalität, Agentensystemen und selbstüberwachtem Lernen nähert sich DeepMind eigenen Angaben zufolge dem Ziel einer AGI.
Technologischer Fortschritt und neue Risiken
Die Aussage von Hassabis unterstreicht nicht nur den technischen Optimismus von DeepMind, sondern wirft auch neue Fragen zur gesellschaftlichen Verantwortung auf. Denn AGI bringt nicht nur enormes Potenzial – etwa für Wissenschaft, Medizin, Energie oder Bildung – sondern auch tiefgreifende Herausforderungen.
Dazu gehören Fragen der Kontrolle, Regulierung, Transparenz und Sicherheit: Wer entscheidet, wofür eine AGI eingesetzt wird? Wie verhindert man Fehlverhalten oder Missbrauch? Und welche Rolle sollen solche Systeme in demokratischen, wirtschaftlichen und militärischen Strukturen einnehmen?
DeepMind betont, dass technologische Machbarkeit immer mit ethischen Leitplanken und Governance-Strukturen einhergehen müsse. Bereits jetzt arbeitet das Unternehmen an interdisziplinären Teams, die soziale Auswirkungen und Kontrollmechanismen in den Entwicklungsprozess integrieren sollen.
Eine globale Diskussion nimmt Fahrt auf
Die Einschätzung von DeepMind dürfte auch die politische und regulatorische Debatte um KI deutlich beschleunigen. Während viele Gesetzgeber noch an Rahmenwerken für heutige KI-Modelle arbeiten, könnte AGI schon bald eine neue Gesetzes- und Verantwortungsdimension eröffnen. Experten fordern daher zunehmend globale Standards, institutionelle Aufsicht und internationale Forschungskooperationen, um die Entwicklung verantwortungsvoll zu begleiten.
Fazit
Die Aussage von Google DeepMind, dass AGI innerhalb der nächsten Jahre Realität werden könnte, markiert einen Wendepunkt in der globalen KI-Debatte. Was lange als hypothetisch galt, wird nun als technisch machbar diskutiert – mit allen Chancen und Risiken. Die Frage ist nicht mehr, ob AGI kommt, sondern wie wir sie gestalten. Die kommenden Jahre könnten damit nicht nur technologisch entscheidend werden, sondern auch ethisch, rechtlich und gesellschaftlich richtungsweisend.