Vor fünf Jahren saß Sam Altman auf einer kleinen Bühne in San Francisco und machte einen guten Witz. Wie sein Unternehmen Open AI künftig Geld verdienen wolle, fragte die Moderatorin. „Um ehrlich zu sein, keine Ahnung“, antwortete Altman. Investoren habe er versprochen: „Sobald wir eine allgemeine künstliche Intelligenz gebaut haben, werden wir das System bitten, Rendite für Sie zu erzielen.“ Die Anwesenden lachten, nur einer nicht. „Sie können ruhig lachen“, sagte Altman. „Aber ich glaube das wirklich.“
Heute kann man sagen: Wenn einige der Risikokapitalgeber, die Altman damals zuhörten, seinem Ratschlag gefolgt sind, dann haben sie ein gutes Investment gemacht. Ende 2022 veröffentlichte Open AI den Chatbot Chat-GPT, mittlerweile wird das Unternehmen mit mehr als 80 Milliarden Dollar bewertet. Wenn Altman Dinge sagt, die aus dem Mund fast aller anderen Menschen größenwahnsinnig klängen, dann lacht niemand mehr.
Das liegt auch daran, dass Altman längst nicht mehr allein damit ist. KI werde die Menschheit tiefgreifender verändern als Feuer oder Elektrizität, sagt Google-Chef Sundar Pichai. KI könne Forschenden helfen, noch in diesem Jahrhundert alle Krankheiten zu heilen, sagt Meta-Chef Mark Zuckerberg. Doch es wird wohl noch eine Weile dauern, bis Altman ein Sprachmodell fragen kann, wie Open AI Geld verdienen soll – wenn sich seine Vision überhaupt je erfüllt. Das sind die fünf größten Probleme, mit denen sich KI-Konzerne gerade herumschlagen:
1. Die Trainingsdaten gehen zuneige
Damit Sprachmodelle halbwegs sinnvolle Antworten liefern, müssen sie mit riesigen Mengen an Texten trainiert werden. Binnen weniger Jahre ist der Datenhunger ins Unermessliche gestiegen. GPT-2, ein frühes Modell von Open AI, beruhte 2019 auf 1,5 Milliarden Tokens, also Wörtern oder Wortfragmenten. Der Nachfolger GPT-3 erschien 2020 und wurde mit 300 Milliarden Tokens trainiert. In aktuelle Modelle fließen mehrere Billionen Tokens ein.
Doch selbst das schier unendlich große Netz ist endlich. Wenn jeder Wikipedia-Eintrag gelesen, jeder Reddit-Post verarbeitet und jeder Online-Artikel analysiert wurde, könnten Sprachmodelle an ihre Grenzen stoßen. Schon 2021 entwickelte Open AI deshalb ein Werkzeug, das den Ton von Videos in Text verwandelt. Damit transkribierten sie mehr als eine Million Stunden Youtube-Clips und trainierten GPT-4. Das Grundproblem bleibt: KI-Modelle verschlingen das Material schneller, als Menschen neue Inhalte erzeugen können.
Die Hoffnungen ruhen deshalb auf synthetischen Daten. Anders ausgedrückt: KI soll Material erzeugen, um KI zu trainieren. Und als wäre das nicht genug KI, soll ein weiteres KI-Modell zuerst prüfen, ob sich das KI-generierte Material überhaupt eignet, um andere Modelle damit zu füttern. Bislang haben die Experimente nicht den gewünschten Erfolg gebracht – und sie bergen ein großes Risiko.
2. Sprachmodelle könnten sich an sich selbst verschlucken
Studien zeigen, dass die Qualität von Sprachmodellen massiv nachlässt, wenn sie mit Inhalten gefüttert werden, die von anderen Modellen stammen. Es dauert nur ein paar Trainingszyklen, bis die KI kompletten Unsinn ausspuckt. „Verschlucken sich GPT-Modelle an ihren eigenen Abgasen?“, fragt sich einer der beteiligten Forscher.
Dummerweise neigen Menschen dazu, ihre Umwelt zu verschmutzen. Sie vermüllen die Atmosphäre mit CO₂, die Ozeane mit Plastik – und das Netz mit KI-Dreck. Vermeintlich seriöse Medien veröffentlichen automatisiert erstellte Textimitationen von Fake-Autoren. Wissenschaftliche Fachmagazine akzeptieren Fachartikel, die von Chat-GPT geschrieben wurden. Sogar bei Peer-Reviews, die wissenschaftliche Qualität sicherstellen sollen, wird auf Sprachmodelle zurückgegriffen.
Je mehr diese KI-Outputs im Netz herumschwirren, desto größer wird das Risiko, dass es gleichzeitig als Input für künftige Sprachmodelle dient. KI lernt also von sich selbst und degeneriert. Man kann es auch positiver sehen: Texte wie dieser könnten bald viel wert sein. Weil ihn kein Sprachmodell zusammengesetzt hat, sondern ein Mensch.
3. Sprachmodelle könnten illegal entstanden sein
Wenn der KI-Goldrausch um sich greift, muss das Gesetz zurückstehen. Anfang April berichtete die New York Times, wie rücksichtslos Open AI, Google und Meta vorgehen, um sich Trainingsdaten zu sichern – ohne Rücksicht aufs Urheberrecht. Metas Anwälte hätten intern „ethische Bedenken“ geäußert, weil man das geistige Eigentum von Autorinnen und Journalisten ignoriere.
Dem Bericht zufolge wurde diskutiert, den Verlag Simon & Schuster zu kaufen, nur um dessen Bücher legal verarbeiten zu können. Am Ende soll sich ein zweifelhaftes Argument durchgesetzt haben: Open AI nehme keine Rücksicht auf das Urheberrecht. Also bleibe Meta keine andere Wahl, als genauso vorzugehen. Es dauere schlicht zu lange, die nötigen Lizenzverträge auszuhandeln.
Derzeit laufen ein halbes Dutzend Prozesse, bei denen Künstlerinnen oder Verlage ihre Urheberrechte verletzt sehen. Einige Klagen wurden bereits abgewiesen, dabei ging es meist um die Frage, ob es illegal sei, KI mit fremdem geistigen Eigentum zu trainieren. Das größere Problem ist ohnehin der Output. Immer wieder spucken Sprachmodelle fast wörtliche Plagiate ganzer Absätze aus, Bildgeneratoren plagiieren reihenweise urheberrechtlich geschützte Filmszenen und bekannte Charaktere. Wenn sich KI-Konzerne nicht selbst mit den Urhebern einigen, könnten Richterinnen oder Politiker einschreiten.
4. KI verschlingt gewaltige Ressourcen
Neben gewaltigen Datenmengen benötigen Sprachmodelle weitere wertvolle Ressourcen. Längst hat ein Wettlauf um Rechenleistung und Grafikchips begonnen. Training und Betrieb der Datenzentren verschlingen so viel Energie wie ganze Volkswirtschaften, die Abwärme muss mit Milliarden Litern Wasser gekühlt werden. Für das Training von GPT-4 gab Open-AI rund 80 Millionen Dollar aus, Googles KI-Sprachmodell Gemini Ultra kostete fast 200 Millionen Dollar. Generative KI allein ist noch kein Geschäftsmodell, mit jeder Abfrage verlieren die Unternehmen Geld.
Selbst Optimisten wie Altman gestehen ein, dass ein „technologischer Durchbruch“ bei der Stromerzeugung nötig sei, um den Energiebedarf von KI zu decken. Microsoft will neue Atomkraftwerke bauen, Altman setzt auf Fusionsenergie und hofft, dass im Zweifel KI dabei hilft, Lösungen für das Ressourcenproblem zu finden. Gleichzeitig versucht er, bei Investoren im Nahen Osten bis zu sieben Milliarden Dollar einzusammeln, um leistungsfähigere Chips zu konstruieren.
5. Fortschritt ist kein Naturgesetz
Chat-GPT war eine Revolution, seitdem folgte nur noch Evolution. Selbst der KI-Gigant Google, der nahezu grenzenlose finanzielle Ressourcen in Forschung stecken kann, stellte mit Gemini lediglich Augenhöhe mit Open AI her. Mehrere Unternehmen haben vergleichbare Modelle entwickelt, die alle dieselbe Schwäche haben: Man kann ihren Antworten nicht trauen, immer wieder vermischen sie Fakten und Fiktion.
Zwischenzeitlich schien KI-Entwicklung unaufhaltsam voranzuschreiten, alle paar Monate vervielfachten sich die Kapazitäten der Modelle. Doch diese Kurve ist abgeflacht. Anfang des Jahrtausends platzte die Dotcom-Blase, und dieselben Investoren, die jetzt ihr Geld in KI stecken, hielten einst die Blockchain für das nächste große Ding.
Im Gegensatz dazu wird generative KI nicht implodieren. Sprachmodelle bieten realen Nutzen und verändern bereits viele Branchen. Doch womöglich gleicht der Fortschritt keiner Exponentialfunktion, sondern einem Logarithmus. Und vielleicht wäre es auch ganz gut, wenn den Menschen etwas mehr Zeit bleibt, sich darauf vorzubereiten.