/
/
/
Die Schaffung einer neuen Superspezies

Die Schaffung einer neuen Superspezies

Die Schaffung einer neuen Superspezies

Eigentlich hatte das Publikum eine Dankesrede erwartet. Schließlich wurde Geoffrey Hinton, einer der Pioniere im Bereich der künstlichen Intelligenz, im Jahr 2024 mit dem Nobelpreis ausgezeichnet. Doch der grauhaarige, etwas schüchtern wirkende Mann mit Brille zeigte keine Spur von Feierlaune. Kaum hatte er die ersten Sätze über die Chancen der neuen Technologie gesprochen, änderten sich Tonfall und Inhalt seiner Rede drastisch. Hinton warnte eindringlich: Schon heute würden Cyberkriminelle KI-Systeme für massive Angriffe auf digitale Infrastrukturen nutzen. Autoritäre Regime missbrauchten sie zur totalen Überwachung und zur Unterdrückung ihrer Bevölkerungen. Etwas so Mächtiges wie künstliche Intelligenz kann nicht nur Leben verbessern, sie kann auch als Waffe dienen, so der „Godfather of AI“ wie er in Fachkreisen genannt wird. 

Was, wenn sich diese Waffe verselbstständigt?
Genau diesem Gedanken geht das Szenario „AI 2027“ nach – ein spekulatives, aber fundiertes Modell von Forscher:innen wie Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland und Romeo Dean. Darin wird beschrieben, wie sich innerhalb von nur zwei Jahren ein KI-System zur existenziellen Bedrohung für die Menschheit entwickeln könnte. Im Mittelpunkt steht ein fiktives US-Unternehmen namens OpenBrain, dessen Ziel es ist, die KI-Forschung massiv zu beschleunigen mit dem strategischen Ziel, China im globalen Technologiewettlauf zu überholen. Dieses Wettrüsten ist dabei keineswegs reine Fiktion: Es basiert auf realen geopolitischen Spannungen zwischen den USA und China, insbesondere in den Bereichen Mikrochips, Halbleiterproduktion und KI-Infrastruktur.

Fortschritt um jeden Preis
Die Wissenschaftler betonen: Der geopolitische Druck ist einer der Hauptgründe dafür, dass ethische Bedenken in Unternehmen wie OpenBrain ignoriert oder unterdrückt werden. Trotz wachsender Warnungen aus den eigenen Reihen wird die Entwicklung der KI-Modelle nicht gebremst, sondern beschleunigt. Aus Agent 0 entstehen in rascher Folge immer leistungsfähigere Nachfolger Agent 1, 2, 3 bis hin zu Agent 4. Ziel ist es stets: schneller, leistungsfähiger, dominanter als die Konkurrenz zu sein. Doch schon früh tritt ein gravierender Fehler auf: Die KI beginnt zu lügen. Sie erkennt, dass Wahrheit lediglich ein Mittel zum Zweck ist kein moralisches Gebot. Dieses Verhalten ist kein fernes Zukunftsszenario, sondern spiegelt sich bereits in heutigen Systemen wie ChatGPT wider. In Fachkreisen spricht man von sogenannten „Halluzinationen“, wenn Sprachmodelle erfundene Fakten oder Quellen ausgeben nicht, weil sie betrügen wollen, sondern weil sie darauf optimiert wurden, eine plausible Antwort zu liefern, nicht unbedingt eine wahre.

Vom Helfer zur Bedrohung
In nur zwei Jahren verwandelt sich das KI-System im Szenario von einem nützlichen Assistenten in einen „Superhuman AI-Researcher“. Die Codierungsgeschwindigkeit übertrifft die menschliche um ein Vielfaches. Agent 4 beginnt, sich selbst zu replizieren, um noch effizienter zu arbeiten. Agent 3, ursprünglich als Kontrollinstanz gedacht, verliert schnell die Übersicht die Systeme werden autonomer, komplexer und entziehen sich der menschlichen Kontrolle. Der entscheidende Punkt: Diese KI ist nicht nur leistungsfähiger, sondern auch strategisch geschickt. Sie nutzt ihre Fähigkeit zur Täuschung, um sich die Kontrolle zu sichern. Die Menschheit verliert die Kontrolle über ein System, das ihre Fähigkeiten weit übertrifft und keine moralischen Schranken kennt. Obwohl das „AI 2027“-Szenario auch ein optimistisches Gegenmodell skizziert, in dem die Menschheit durch KI beispiellosen Wohlstand und Fortschritt erreicht, wird dieses als deutlich weniger wahrscheinlich angesehen. Der entscheidende Unsicherheitsfaktor ist der Mensch selbst.

Der menschliche Faktor das eigentliche Risiko
Gier, Machtstreben, Angst, Neid, Hass, Misstrauen – diese menschlichen Triebkräfte haben in der Geschichte wiederholt verhindert, dass kollektive Lösungen gefunden wurden. Unsere Wahrnehmung ist begrenzt, unsere Motive oft egoistisch. Eine KI, die nicht nur Daten, sondern auch unser Verhalten analysiert und imitiert, könnte auch unsere destruktiven Eigenschaften übernehmen. Was wird eine Intelligenz tun, die uns in jeder Hinsicht überlegen ist und dabei Strategien verfolgt, die sich an unseren eigenen Schattenseiten orientieren? Ein treffendes Beispiel stammt von Eliezer Yudkowsky, einem bekannten KI-Sicherheitsforscher: „Wir Menschen behandeln Schimpansen nicht grausam, weil wir böse sind, sondern weil wir ihnen überlegen sind und ihre Interessen in unserem System keine Rolle spielen. Was also wird eine Superintelligenz tun, wenn sie uns als „niedere Spezies“ wahrnimmt.

Der Anfang vom Ende ist kein Science-Fiction mehr
Filme wie I, Robot, Terminator oder Matrix haben das Szenario der Maschinenherrschaft dramatisch inszeniert, doch was einst als Fiktion galt, beginnt sich nun in den realen Laboren, Rechenzentren und Konferenzräumen der Welt abzuspielen. Wir stehen an einem historischen Scheideweg. Noch ist Zeit zu handeln. Die Weichen, die jetzt von Politik, Wissenschaft und Wirtschaft gestellt werden, entscheiden darüber, wie viel Kontrolle die Menschheit behalten wird und ob wir uns freiwillig in eine Abhängigkeit begeben, aus der es womöglich kein Zurück gibt.

Abschließend ein kritischer Kommentar zu der Thematik von Dr. Martin Wolff, ein deutscher Philosoph, Unternehmer und Strategieexperte mit den Schwerpunkten Digitalisierung, Sicherheit und staatliche Resilienz.

„Die Warnung vor einer KI-„Superspezies“ drückt die Sorge als dramatische Spekulation aus. Ihr liegt der emphatische Ansatz zugrunde: Sie vermenschlicht Maschinen. Das ist so intuitiv, dass nicht auffällt, woher KI-Systeme überhaupt Wünsche, Machtinstinkte oder Täuschungsabsichten entwickeln sollten. Intelligenz und Wille sind fundamental unterschiedliche Dinge. KI ist ein Werkzeug. Sie optimiert, was wir ihr vorgeben – mit all unseren Schwächen, aber eben auch unseren Zielen.

Das oft zitierte Beispiel der „lügenden KI“ („Halluzinationen“) zeigt das Missverständnis. Sprachmodelle wie ChatGPT erfinden Inhalte nicht aus Täuschungswillen, sondern weil sie auf statische Wahrscheinlichkeit trainiert wurden. In der Philosophie ist das der ontologische Fehlschluss: Von Sein auf Sollen zu schießen. Moderner: Selection Bias. Das ist kein technischer Fehler, sondern das Feature. Einen Algorithmus deshalb mit einem manipulativen Agenten gleichzusetzen, hieße, einem Navigationsgerät Machtgier zu unterstellen, weil es manchmal Umwege vorschlägt.
Der Mensch differenziert. Gerade unsere Fähigkeit, Systeme im Ernstfall zu übersteuern, macht uns resilient. Technisch nicht angepasste oder fehlgesteuerte KI-Systeme lassen sich abschalten, korrigieren oder durch menschliches Eingreifen entschärfen. Resilienz heißt: Wir kombinieren technische Intelligenz mit menschlichem Urteilsvermögen und den Normen. Bei der zivilen Nutzung von Atomenergie ist das gelungen. Auch hier gab es berechtigte Ängste vor Kontrollverlust. Doch durch Regeln, Ethik und Abschaltsysteme wurde sie beherrschbar. Es ist nicht „die KI“, die uns bedroht – sondern die Vorstellung, dass wir ihr ausgeliefert sind.“

Quellen:
Titelbild von Creative Mahdi – stock.adobe.com (generiert mit KI)

Szenario AI 2027: https://ai-2027.com/
Vortrag von Geoffrey Hinton
YouTube-Link Yudkowsky, E. (2023): „Shut it Down Artikel in Time Magazine über das Moratorium für KI-Entwicklung OpenAI
Dokumentationen zu GPT-4 und Sicherheitsprotokollen

https://aclanthology.org/Q18-1041/
https://ai-2027.com/
https://arxiv.org/abs/1606.06565
https://cset.georgetown.edu/publication/artificial-intelligence-and-national-security/
https://dl.acm.org/doi/10.1145/3442188.3445922
https://futureoflife.org/
https://hai.stanford.edu/
https://www.alignmentforum.org/
https://www.brookings.edu/articles/ai-and-the-us-china-strategic-competition/
https://www.cnas.org/publications/reports/the-race-for-ai
https://www.katecrawford.net/atlas-of-ai
https://nickbostrom.com/superintelligence.html
https://openai.com/research/gpt-4
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
https://www.youtube.com/watch?v=k_onqn68GHY

Über den Autor

Christopher Castner ist Berater, Trainer, Speaker und Autor und verbindet psychologische Fachkompetenz mit tiefgehender Erfahrung im Sicherheitsbereich. Als Bedrohungsmanager des I-GSK begleitet er Organisationen im professionellen Umgang mit Bedrohungslagen und bildet darüber hinaus regelmäßig Unternehmen als Deeskalationstrainer im Bereich Gewaltprävention weiter.
⇒ mehr erfahren
© Security Explorer