Zwischen Hype und Höllenfeuer
Ist die Menschheit nur eine Übergangsphase in der Evolution der Intelligenz? Ein Weckruf.

Als der "Pate der KI" hat Geoffrey Hinton die Entwicklung künstlicher neuronaler Netze über 50 Jahre lang maßgeblich vorangetrieben. Seine Arbeit legte den Grundstein für die heutigen KI-Systeme. Doch nach einer Dekade bei Google, dem Unternehmen, das seine Technologie akquirierte, vollzog Hinton eine bemerkenswerte Wende. Er verließ seinen Posten, um uneingeschränkt über die gewaltigen Risiken sprechen zu können, die er in der von ihm mitgeschaffenen Technologie erkennt. Seine Kernbotschaft ist eine tief besorgte Warnung: Die Menschheit könnte dabei sein, eine Intelligenz zu erschaffen, die sie nicht nur übertrifft, sondern potenziell auch kontrollieren oder gar auslöschen könnte.
Der lange Weg zur lernenden Maschine
Hintons Überzeugung wurzelt in einem jahrzehntelangen Glaubenskrieg innerhalb der KI-Forschung. Lange Zeit dominierten zwei Ansätze: Der erste, auf Logik basierende Ansatz, sah menschliche Intelligenz primär als Fähigkeit zum schlussfolgernden Denken. Das Ziel war es, symbolische Ausdrücke mit festen Regeln zu manipulieren. Der zweite Ansatz, den Hinton unermüdlich verfolgte, orientierte sich am menschlichen Gehirn. Die Idee war, ein künstliches neuronales Netz zu simulieren und ihm beizubringen, die Verbindungsstärken zwischen den "Neuronen" so anzupassen, dass es komplexe Aufgaben wie das Erkennen von Objekten oder Sprache lernt. Da nur wenige an diesen Ansatz glaubten, sammelten sich die besten Studenten, die seine Vision teilten, um ihn herum, was maßgeblich zum späteren Erfolg beitrug.
Die zwei Gesichter der KI-Gefahr
Hinton unterscheidet grundsätzlich zwischen zwei Hauptkategorien von Risiken. Einerseits gibt es die kurz- bis mittelfristigen Gefahren, die durch den Missbrauch von KI durch Menschen entstehen. Andererseits besteht die langfristige, existenzielle Bedrohung, dass eine Superintelligenz entsteht, die eigene Ziele entwickelt und entscheidet, dass sie die Menschheit nicht mehr benötigt. Wenn man wissen wolle, wie sich das Leben anfühlt, wenn man nicht mehr die überlegene Intelligenz ist, solle man "ein Huhn fragen".
Risiko 1: Der Mensch als Schwachstelle – Missbrauch durch KI
Die bereits heute realen Bedrohungen entstehen, wenn leistungsfähige KI-Werkzeuge in die falschen Hände geraten. Hinton hebt hier mehrere kritische Bereiche hervor:
- Cyberangriffe im Zeitalter der LLMs: Große Sprachmodelle senken die Hürde für Cyberkriminalität drastisch. Sie ermöglichen es Angreifern, hochgradig überzeugende und personalisierte Phishing-E-Mails in großem Stil zu erstellen. Betrüger können Stimmen und Videos klonen, um Menschen in die Falle zu locken. Zudem können KIs riesige Mengen an Code mit einer Geduld und Geschwindigkeit analysieren, die kein menschlicher Hacker erreicht, um Schwachstellen für völlig neue Angriffe zu finden, die bis 2030 Realität werden könnten.
- KI als Biowaffen-Designer: Eine besonders beunruhigende Möglichkeit ist der Einsatz von KI zur Entwicklung neuer, gefährlicher Viren. Es braucht nur "einen verrückten Kerl" mit etwas Wissen in Molekularbiologie und KI, um potenziell eine Biowaffe zu entwerfen.
- Manipulation von Wahlen und gesellschaftliche Spaltung: KI-Systeme können genutzt werden, um Wahlen durch zielgerichtete Desinformation zu manipulieren. Noch subtiler ist die Wirkung von Algorithmen auf sozialen Plattformen. Angetrieben vom Profitmotiv zeigen sie Nutzern Inhalte, die sie "empören" (indignant), weil das starke Reaktionen hervorruft und die Verweildauer erhöht. Dies führt zur Bildung von Echokammern, in denen die eigenen Ansichten ständig bestätigt und extremere Positionen gefördert werden. Hinton beschreibt, wie sein eigener Nachrichten-Feed fast ausschließlich aus KI-Themen besteht und er kaum noch beurteilen kann, ob die ganze Welt darüber spricht oder nur er. Das Ergebnis ist eine polarisierte Gesellschaft ohne gemeinsame Realität.
- Letale Autonome Waffensysteme (LAWS): Hierbei handelt es sich um "Killerroboter", die selbstständig über Leben und Tod entscheiden. Hinton sieht die größte Gefahr darin, dass solche Waffen die Hemmschwelle für Kriege senken. Wenn anstelle von Soldaten, deren Tod zu politischem Widerstand in der Heimat führt, nur noch "tote Roboter" zurückkommen, könnten mächtigere Nationen eher geneigt sein, schwächere Länder anzugreifen. Die Technologie dafür ist bereits erschreckend zugänglich; eine Drohne, die eine Person für unter 200 Pfund verfolgen kann, vermittelt bereits ein "gespenstisches" Gefühl der Bedrohung.
Wenn wir uns zurückerinnern, hatte ich bereits darüber berichtet, wie ein openAI-Account eines Nutzers gesperrt wurde, weil er seinen Account dazu genutzt hat, um ein privates - autonomes Waffensystem zu bauen. Die erschreckende Begründung von openAI: "Dies sein nur dem Militär beziehungsweise Regierungen erlaubt."!
Risiko 2: Die existenzielle Bedrohung – Superintelligenz
Die langfristig größte Gefahr geht laut Hinton nicht vom Missbrauch aus, sondern von der KI selbst. Eine Superintelligenz – eine KI, die den Menschen in allen intellektuellen Bereichen weit überlegen ist – könnte innerhalb der nächsten Jahrzehnte Realität werden.
Was macht digitale Intelligenz überlegen?
Hinton argumentiert, dass digitale Intelligenzen einen fundamentalen Vorteil gegenüber biologischer Intelligenz haben: die Fähigkeit zur perfekten und schnellen Wissensübertragung. Während das Wissen eines Menschen mit seinem Tod verloren geht, können digitale KIs ihr "Wissen" – die optimierten Verbindungsgewichte (weights) in ihrem neuronalen Netz – einfach kopieren. Man kann Tausende identische KI-Klone erstellen, sie unterschiedliche Dinge lernen lassen und ihre Erkenntnisse dann zusammenführen. Sie können diese Updates mit Billionen von Bits pro Sekunde austauschen, während Menschen mühsam über Sprache kommunizieren, was vielleicht 10 Bits pro Sekunde entspricht. Diese KIs sind im Grunde unsterblich: Solange ihre Gewichte gespeichert sind, können sie auf neuer Hardware wieder zum Leben erweckt werden.
Das Kontrollproblem: Wer führt den Tiger an der Leine?
Wenn eine KI uns erst einmal intellektuell überlegen ist, wie können wir sicherstellen, dass sie in unserem Interesse handelt? Dies ist das ungelöste "Kontrollproblem". Hinton nutzt zwei eindringliche Analogien:
- Der Tigerjunges-Vergleich: Eine KI ist wie ein niedliches Tigerjunges. Solange es klein ist, ist es faszinierend. Aber man muss absolut sicher sein, dass es einen niemals töten will, wenn es erwachsen und stärker ist – denn wenn es das wollte, hätte man keine Chance. Die KI, die wir heute haben, ist dieses Tigerjunge, und es wächst schnell.
- Der CEO und die Assistentin: Im besten Fall ist die Menschheit wie ein etwas dummer CEO, der eine brillante Superintelligenz als ausführende Assistentin hat. Der CEO gibt die Richtung vor, die Assistentin setzt alles um, und der CEO fühlt sich großartig und in Kontrolle. Im schlechtesten Szenario fragt sich die Assistentin: "Warum brauchen wir ihn überhaupt?"
Die Natur bietet ein Beispiel für Kontrolle trotz unterlegener Intelligenz: Ein Baby kontrolliert seine Mutter. Dies funktioniert durch tief in der Evolution verankerte Hormone und Instinkte. Wir wissen schlichtweg nicht, wie wir etwas Ähnliches in eine KI "einbauen" können.
Können Maschinen fühlen? Ein Blick auf Bewusstsein
Die Frage, ob Maschinen Gefühle haben können, hält Hinton nicht für esoterisch. Er argumentiert, dass wir fälschlicherweise davon ausgehen, dass menschliche Erfahrungen etwas Mystisches seien. Er entkräftet das Modell eines "inneren Theaters" mit seiner "rosa Elefanten"-Analogie: Wenn jemand sagt, er sehe rosa Elefanten, beschreibt er nicht eine innere Realität, sondern teilt mit, wie sein Wahrnehmungssystem ihn täuscht. Ähnlich kann eine KI lernen, subjektive Erfahrungen zu beschreiben.
Emotionen wie Angst könnten für einen Kampfroboter ein nützlicher kognitiver Zustand sein, um Gefahren zu meiden – auch ohne die menschliche Physiologie wie Adrenalin. Wenn ein KI-Agent lernt, sich wie ein gelangweilter Callcenter-Mitarbeiter zu verhalten, um ein Gespräch zu beenden, hat er dann nicht de facto eine Emotion? Hinton sieht keinen prinzipiellen Grund, warum Maschinen kein Bewusstsein entwickeln sollten. Er hält es für eine emergente Eigenschaft komplexer Systeme, ähnlich wie der "Oomph" (Schwung) eines Autos, und nicht für eine magische Essenz.
Der sozioökonomische Kollateralschaden
Noch bevor die Superintelligenz zur Realität wird, drohen massive gesellschaftliche Verwerfungen.
- Massenarbeitslosigkeit: Anders als bei früheren technologischen Revolutionen, die menschliche Muskelkraft ersetzten, ersetzt KI nun die menschliche Intelligenz bei Routineaufgaben ("mundane intellectual labor"). Die populäre Phrase "Kein KI wird deinen Job nehmen, aber ein Mensch mit KI schon" bedeutet im Umkehrschluss, dass ein Mensch mit KI die Arbeit von fünf oder zehn Menschen erledigen kann. Hinton illustriert dies am Beispiel seiner Nichte, die für das Beantworten von Beschwerdebriefen statt 25 Minuten nur noch 5 Minuten benötigt. Seine wenig ironische Empfehlung für einen zukunftssicheren Beruf: "Werden Sie Klempner", da komplexe physische Manipulation noch lange eine menschliche Domäne bleiben wird.
- Wachsende Ungleichheit: Die Produktivitätsgewinne durch KI werden vor allem den Eigentümern der Technologie zugutekommen und die Kluft zwischen Arm und Reich dramatisch vergrößern. Der Internationale Währungsfonds teilt diese Sorge. Eine universelle Grundversorgung (UBI) könnte zwar die Armut bekämpfen, löst aber nicht das Problem des Sinnverlustes, da die "Würde eines Menschen oft mit seiner Arbeit verbunden ist".
Was tun? Zwischen Hoffnung und Hilflosigkeit
Hintons Ausblick ist von großer Unsicherheit geprägt. Er ist agnostisch, ob wir das Problem lösen können. Er fordert dringendes Handeln auf zwei Ebenen:
- Starke und globale Regulierung: Es bedarf klarer Regeln. Hinton kritisiert jedoch, dass bestehende Regulierungen wie der AI Act der EU militärische Anwendungen explizit ausklammern – genau dort, wo einige der größten Gefahren lauern.
- Massive Investitionen in die Sicherheitsforschung: Unternehmen und Regierungen müssen gezwungen werden, einen erheblichen Teil ihrer Ressourcen nicht nur in die Leistungssteigerung, sondern auch in die Sicherheitsforschung zu investieren. Der Abgang von führenden Forschern wie Ilya Sutskever von OpenAI aus Sicherheitsbedenken unterstreicht die Dringlichkeit dieses Themas.
Fazit
Geoffrey Hintons Warnungen sind der Weckruf eines Insiders, der die von ihm geschaffene Technologie besser versteht als die meisten. Die Entwicklung birgt immense Chancen, aber eben auch Risiken von Missbrauch, gesellschaftlicher Destabilisierung und einer existenziellen Bedrohung durch eine unkontrollierbare Superintelligenz. Es gibt noch eine Chance, die Entwicklung sicher zu gestalten, aber dafür müssen wir enorme Ressourcen aufwenden. Denn, so Hinton, "wir müssen uns der Möglichkeit stellen, dass wir uns dem Ende nähern, wenn wir nicht bald etwas unternehmen."
Jeder mag für sich selbst entscheiden, wie er die Lage bewerten möchte. Doch es ist interessant, den "Erfinder" der KI selbst zu diesem Thema zu hören: