Braucht die Welt wirklich mehrere digitale Orakel?
Künstliche Intelligenz, Large Language Models, Rechenzentren, Nvidia, Grafikkarten, Stromverbrauch, Cloud-Infrastruktur und technologische Souveränität: Diese Begriffe gehören inzwischen nicht mehr nur in Fachdebatten, sondern mitten in die politische Gegenwart. Während Konzerne und Staaten um KI, Chips, Serverfarmen und Datenmacht konkurrieren, stellen sich sehr alte Fragen neu: Wer setzt die Prioritäten, wer trägt die Kosten, und wem nützt das alles am Ende tatsächlich? Der vorliegende Beitrag verbindet diese aktuellen Entwicklungen mit älteren Motiven der Wachstumskritik, mit der Unterscheidung zwischen dem, was ist, und dem, was sein soll, und mit der Beobachtung, dass technischer Fortschritt heute oft weniger geplant als vielmehr beschleunigt wirkt.
Vom harmlosen Begriff zum unharmlosen Problem
Ausgangspunkt war zunächst keine Weltkrise, sondern eine begriffliche Kleinigkeit. Genauer gesagt: die Unterscheidung zwischen Ontologie und Deontologie. Also zwischen der Frage, was ist, und der Frage, was sein soll. Das klingt nach philosophischem Seminartisch, nach trockener Kost, nach etwas, das man höflich zur Kenntnis nimmt und dann möglichst schnell wieder vergisst.
Bei näherer Betrachtung steckt darin jedoch ein brauchbares Werkzeug. Denn viele Debatten unserer Gegenwart scheitern gerade daran, dass Beschreibung und Norm ineinanderlaufen. Man schildert einen Sachverhalt, als sei er schon gerechtfertigt. Oder man formuliert einen moralischen Wunsch, als sei er bereits Realität. Auch bei der gegenwärtigen Entwicklung rund um Künstliche Intelligenz ist diese Verwechslung fast schon zum Betriebsprinzip geworden. Da wird mit großer Selbstverständlichkeit von Fortschritt gesprochen, obwohl zunächst einmal nur eine Tatsache feststeht: Es wird gebaut, investiert, beschleunigt, vervielfacht. Ob das auch vernünftig, verhältnismäßig oder gar gemeinwohlorientiert ist, steht auf einem anderen Blatt.
Genau an dieser Stelle hilft die schlichte Unterscheidung. Ontologisch betrachtet ist die Lage klar genug. Es entstehen mehrere konkurrierende Systeme, mehrere konkurrierende Infrastrukturen, mehrere konkurrierende Machtzentren. Deontologisch beginnt erst die eigentliche Schwierigkeit. Sollte das so sein? Muss das so sein? Und wenn nicht: Warum läuft es dennoch genau in diese Richtung?
Wachstum als Beruhigungsmittel, nun mit Serverhalle
Zunächst schien es naheliegend, die Sache nur als technische Entwicklung zu betrachten. Neue Werkzeuge entstehen, neue Modelle werden trainiert, neue Märkte bilden sich heraus. Das ist der übliche Gang der Dinge. Doch dieser nüchterne Blick reicht nicht weit genug. Der Gedanke drängte sich auf, dass sich in der gegenwärtigen KI-Euphorie ein viel älteres Muster wiederholt: die Logik des Wachstums um des Wachstums willen.
Schon in anderen Zusammenhängen zeigt sich immer wieder, dass moderne Wirtschaftsordnungen nicht besonders gut darin sind, das Erreichte zu sichern und vernünftig zu verwalten. Stattdessen reagieren sie auf Unsicherheit, Knappheit und innere Spannungen oft mit demselben Reflex: mehr Expansion, mehr Tempo, mehr Investition, mehr Technik, mehr Markt, mehr Konkurrenz. Wachstum wird dann nicht mehr als Mittel verstanden, sondern als Beruhigungsmittel. Solange sich noch irgendetwas vergrößert, kann man so tun, als seien die tieferliegenden Probleme in Bearbeitung.
Genau darin liegt der eigentliche Reiz der KI-Frage. Denn auch hier erscheint das Immer-mehr bereits wieder wie eine fast naturgesetzliche Bewegung. Mehr Modelle, mehr Serverfarmen, mehr Rechenleistung, mehr Strombedarf, mehr Kapital. Dabei wäre die naheliegende Gegenfrage doch eine andere: Warum eigentlich? Braucht die Menschheit wirklich eine ganze Reihe konkurrierender digitaler Sprachapparate, die sich in Stil, Verpackung und Konzernhintergrund unterscheiden, während zugleich an anderen Stellen sehr viel elementarere Probleme ungelöst bleiben?
Das ist keine technikfeindliche Frage. Sie ist auch nicht gegen Forschung gerichtet. Sie richtet sich gegen eine Prioritätenordnung, in der das technisch Mögliche fast automatisch in großindustrielle Wirklichkeit übersetzt wird, ohne dass die gesellschaftliche Notwendigkeit zuvor sauber geprüft worden wäre.
Zuerst die wirkliche Katastrophe: die armen PC-Spieler
Man kann das alles sehr ernst, sehr würdevoll und sehr staatsphilosophisch formulieren. Man kann aber auch mit der eigentlichen Tragödie beginnen: den vielen Millionen armen PC-Spielern, die sich nicht mehr im gewohnten Rhythmus die neueste Grafikkarte leisten können.
Natürlich ist das eine satirische Zuspitzung. Und gerade deshalb ist sie brauchbar. Denn sie zeigt in kleinem Maßstab, was im Großen geschieht. Wenn Grafikkarten, Speicher und andere Hochleistungskomponenten in den Sog eines globalen KI-Ausbaus geraten, dann bleibt das nicht in Vorstandsetagen und Rechenzentren eingeschlossen. Es schlägt auf reale Märkte durch. Preise steigen, Verfügbarkeiten sinken, Produktionskapazitäten werden umgelenkt, und plötzlich merkt auch der ganz gewöhnliche Rechnernutzer, dass irgendwo im Hintergrund eine neue Industrie ihre materiellen Ansprüche anmeldet.
Die Pointe ist also nicht bloß Klamauk. Sie zeigt, dass technologische Großentwicklungen nie nur abstrakt sind. Sie verändern Lieferketten, Preisgefüge und Alltagsbedingungen. Selbst dort, wo niemand über Weltordnung, digitale Souveränität oder Infrastrukturmacht nachdenken möchte, ist die Sache längst angekommen. Die überteuerte Grafikkarte ist in diesem Sinn nicht das Hauptproblem, aber ein sehr brauchbares Symptom.
Mehrere Denkwege sind vernünftig. Mehrere Materialschlachten nicht unbedingt.
An dieser Stelle wäre es allerdings zu billig, einfach gegen Vielfalt zu polemisieren. Gerade in frühen Phasen einer technologischen Entwicklung kann es sehr sinnvoll sein, mehrere Ansätze parallel zu verfolgen. Forschung lebt davon, dass nicht zu früh ein einziger Weg als endgültig erklärt wird. Unterschiedliche Architekturen, konkurrierende Modelle, verschiedene Denkrichtungen: Das alles kann produktiv sein. Wer zu früh vereinheitlicht, blockiert womöglich Erkenntnis.
Doch genau hier beginnt die eigentliche Unterscheidung, die in vielen Debatten untergeht. Es ist das eine, mehrere Denkwege zuzulassen. Es ist etwas anderes, für jeden dieser Wege sofort eine eigene gewaltige Materialschlacht zu veranstalten. Geistige Konkurrenz muss nicht zwingend in physische Verdopplung und Verdreifachung übersetzt werden. Man kann mehrere Forschungsrichtungen haben, ohne jede einzelne mit maximalem Aufwand in Beton, Kühlung, Stromanschlüsse und Halbleiterhungrigkeit einzubetonieren.
Hier beginnt eine ordnungspolitische Frage, die erstaunlich selten offen gestellt wird: Wenn mehrere Modelle und Entwicklungsstränge sachlich sinnvoll sind, folgt daraus dann wirklich, dass auch ihre Infrastruktur vollständig getrennt und im Modus permanenter Überbietung aufgebaut werden muss? Oder wäre es nicht vernünftiger, gerade die materiell aufwendigsten Grundlagen stärker gemeinsam, kooperativ oder wenigstens reguliert zu organisieren?
Mit anderen Worten: Die Konkurrenz der Ideen ist nicht identisch mit der Konkurrenz der Serverhallen. Das eine kann nützlich sein. Das andere erinnert bereits an ein Wettrennen, dessen gesellschaftlicher Nutzen mit jeder zusätzlichen Runde fragwürdiger wird.
Nvidia und die Monokultur der Vorleistung
An dieser Stelle stößt man fast zwangsläufig auf die Hardwarefrage. Denn so sehr über Modelle, Software und Plattformen gestritten wird: Die materielle Grundlage dieser Entwicklung ist erstaunlich konzentriert. Es gibt auf der Hardwareseite einen Akteur, dessen Name inzwischen fast als Synonym für die infrastrukturelle Seite des KI-Booms fungiert: Nvidia.
Natürlich ist auch dort der Markt nicht buchstäblich leergefegt. Es gibt Konkurrenz, Alternativen, nationale Sonderwege und den Versuch anderer Anbieter, eigene Positionen aufzubauen. Aber der Grundzug bleibt auffällig genug. Eine Technologie, die gern als Zukunft der Menschheit beschrieben wird, ruht materiell in erheblichem Maße auf einer sehr schmalen industriellen Basis. Das macht die Sache nicht gerade beruhigender.
Denn hier zeigt sich eine zweite Ironie. Einerseits wird die Vielfalt der Modelle, Plattformen und Strategien beschworen. Andererseits verengt sich die materielle Grundlage dieser Vielfalt auffällig stark. Der Wettbewerb erscheint bunt, lebendig und pluralistisch. Seine Hardwarebasis wirkt hingegen eher wie eine Monokultur mit Hochglanzfassade.
Das allein wäre noch kein Argument gegen die Technologie. Aber es ist ein Argument gegen allzu sorglose Fortschrittserzählungen. Wer von Dezentralität, Offenheit und Innovationsvielfalt spricht, sollte wenigstens zur Kenntnis nehmen, dass all dies auf einer hoch konzentrierten industriellen Basis aufliegt. Und wer von Konkurrenz schwärmt, sollte auch sehen, dass Konkurrenz unter solchen Bedingungen schnell in Abhängigkeit, Preisauftrieb und infrastrukturelle Verwundbarkeit umschlagen kann.
Nicht nur Innovation, sondern Herrschaft
Damit verschiebt sich der Blick. Zunächst schien die Frage nur zu lauten, ob diese Form von KI-Entwicklung vernünftig priorisiert ist. Doch bei näherer Betrachtung geht es um mehr: um Macht, Steuerung und Herrschaft.
Formal leben wir weiterhin in politischen Gemeinwesen, die sich demokratisch legitimieren. Faktisch aber ist nicht zu übersehen, dass im Bereich digitaler Infrastruktur private Großkonzerne einen Handlungsspielraum besitzen, von dem viele Regierungen nur träumen können. Sie investieren schneller, bauen größer, vernetzen globaler und setzen technische Standards oft lange bevor die Politik überhaupt verstanden hat, worüber sie später regulierend sprechen möchte.
Hier liegt die eigentlich unerquicklich nüchterne Frage: Wer setzt heute den Takt? Nicht im verfassungsrechtlichen Sinn, sondern praktisch. Wer bestimmt die Richtung, das Tempo und die materiellen Prioritäten? Wenn man die Sache nicht beschönigt, lautet die Antwort zumindest teilweise: private Kapital- und Technologiekonzernen, deren Interessen weder mit demokratischer Willensbildung noch mit globalem Gemeinwohl automatisch identisch sind.
Das bedeutet nicht, dass der Staat bereits verschwunden wäre. Es bedeutet aber, dass sich ein Teil der strategischen Steuerungsfähigkeit in Infrastrukturen verlagert hat, die formal privat, faktisch aber von allgemeiner Bedeutung sind. Genau darin liegt der politische Ernst der Sache. Es geht nicht bloß um neue Software. Es geht um neue Hebel.
Ein Wettrüsten, nur ohne Uniform
Der Begriff des Wettrüstens drängt sich an dieser Stelle fast von selbst auf. Man muss ihn allerdings präzise verwenden. Es geht nicht um eine schlichte Wiederholung des atomaren Ost-West-Konflikts. Die Geschichte wiederholt sich bekanntlich selten in Reinform. Und doch gibt es Strukturähnlichkeiten, die man nicht einfach weglächeln sollte.
Auch hier herrscht die Angst, zurückzufallen. Auch hier wird in Vorleistung investiert, weil niemand es sich leisten will, der Zweite zu sein. Auch hier erzeugt die Konkurrenz selbst den Zwang, weiterzumachen. Wer stehenbleibt, verliert. Wer zögert, gilt als naiv. Wer bremst, wird als rückständig gelesen. Der Ausbau wird dadurch nicht zu einer ruhigen, geplanten Entwicklung, sondern zu einer beschleunigten Kettenreaktion.
Das ist kein militärisches Wettrüsten. Aber es ist sehr wohl eine Art infrastrukturelles Wettrüsten. Nicht Sprengköpfe, sondern Rechenzentren. Nicht Raketen, sondern Modelle. Nicht Abschreckung im klassischen Sinn, sondern die Drohung technologischen Zurückbleibens. Auch hier entsteht eine Logik, in der jeder Schritt des einen den anderen zur Gegenreaktion zwingt. Und wie in früheren Wettrüstungen ist keineswegs sicher, dass der gesellschaftliche Nutzen mit dem Aufwand Schritt hält.
Hier beginnt die eigentliche Schwierigkeit. Denn technische Rivalität kann durchaus produktiv sein. Aber ab einem bestimmten Punkt kippt sie in Überdehnung. Dann dient sie nicht mehr primär der Lösung konkreter Probleme, sondern der Selbsterhaltung des Konkurrenzsystems. Genau dort verliert Fortschritt seine Unschuld.
Technologischer Kolonialismus ohne Tropenhelm
Ein weiterer Begriff liegt quer zur Debatte und ist doch kaum zu vermeiden: technologischer Kolonialismus. Der Ausdruck wirkt zunächst groß, vielleicht sogar etwas übergroß. Er ruft historische Bilder auf, die man nicht leichtfertig benutzen sollte. Und doch bezeichnet er einen realen Verdacht: dass sich neue globale Abhängigkeiten heute weniger über Territorien als über Standards, Plattformen, Rechenkapazitäten, Chips, Datenzugänge und Softwareökosysteme herstellen.
Wenn wenige Staaten und wenige Konzerne die entscheidenden Infrastrukturen kontrollieren, dann geraten viele andere in eine Lage struktureller Nachnutzung. Sie konsumieren, adaptieren, integrieren und bezahlen, ohne die Regeln wirklich zu setzen. Sie hängen an Modellen, Clouds, Chips und Schnittstellen, die anderswo entworfen, finanziert und kontrolliert werden. Das ist keine Kolonialherrschaft im alten Stil. Aber die funktionale Ähnlichkeit ist schwer zu übersehen.
Die eigentliche Pointe liegt darin, dass diese Form der Abhängigkeit oft als Fortschritt verkauft wird. Sie erscheint modern, effizient und alternativlos. Gerade deshalb ist sie politisch so wirksam. Man wird nicht offen unterworfen. Man wird eingebunden. Und die Einbindung ist so nützlich, so bequem und so schnell, dass ihre Herrschaftsseite leicht aus dem Blick gerät.
Von der Abstraktion zurück zum Alltag
Bis hierhin könnte der Eindruck entstehen, all dies spiele sich in Höhenlagen ab, in denen normale Menschen allenfalls als statistische Randfiguren vorkommen. Doch ganz so bequem lässt sich die Abstraktion nicht stehen lassen. Die großen Strukturen schlagen auf den Alltag durch, wenn auch selten mit philosophischer Ansage.
Sie schlagen sich nieder in Preisen, in Abhängigkeiten, in Arbeitsbedingungen, in Bildungsfragen, in Mediennutzung, in der Sprache öffentlicher Debatten und in der Frage, wer überhaupt noch über die Mittel verfügt, die digitale Welt aktiv zu gestalten, statt sie nur hinzunehmen. Sie schlagen sich nieder in der Macht weniger Anbieter, in den Normen, die in Software eingeschrieben werden, und in der stillen Gewöhnung daran, dass zentrale technische Infrastrukturen nicht mehr als öffentliche Angelegenheit erscheinen, sondern als Spielfeld privater Vorentscheidung.
Gerade deshalb sollte man sich von der vermeintlichen Abstraktheit nicht täuschen lassen. Die Lawine beginnt bekanntlich auch nicht unten im Dorf, sondern oben am Hang. Unten merkt man sie oft erst, wenn sie schon unterwegs ist.
Was hier eigentlich zur Debatte steht
Zunächst schien die Frage einfach zu lauten, ob die Welt wirklich mehrere konkurrierende Künstliche Intelligenzen braucht. Inzwischen ist klarer, dass sie nur der Einstieg war. Dahinter steht eine umfassendere Frage nach der Organisationsform des Fortschritts selbst.
Braucht eine frühe technologische Entwicklung Vielfalt? Ja, sehr wahrscheinlich. Braucht sie deshalb zwangsläufig auch die maximale Vervielfachung ihrer materiellen Infrastruktur? Das ist weit weniger überzeugend. Muss jede Großmacht, jeder Großkonzern und jeder strategische Akteur seine eigene Erlösungsmaschine errichten? Vielleicht nicht. Geschieht es trotzdem? Offenkundig ja.
Damit liegt die eigentliche Schwierigkeit offen zutage. Die gegenwärtige Entwicklung erscheint oft wie Naturwuchs, ist aber in Wahrheit hochpolitisch. Sie folgt keiner neutralen Logik des Sachzwangs, sondern einer Mischung aus Marktmacht, Sicherheitsdenken, Investitionsdynamik, Prestige und strategischer Angst vor dem Zurückbleiben. Das ist nicht irrational im engen Sinn. Aber es ist auch keineswegs selbstverständlich vernünftig.
Vielleicht braucht die Welt tatsächlich mehrere Denkwege, mehrere Modelle und mehrere technische Ansätze. Das wäre eine relativ bescheidene, gut vertretbare These. Weniger bescheiden ist die stillschweigende Behauptung, dass dafür auch gleich mehrere gigantische Infrastrukturen des Verbrauchs, der Konzentration und der Konkurrenz errichtet werden müssten. Genau an diesem Punkt beginnt der Verdacht, dass nicht die Menschheit ihren Bedarf formuliert, sondern das System seine eigene Bewegung.
Vielleicht liegt das eigentliche Problem also nicht darin, dass wir zu wenig Künstliche Intelligenz besitzen. Vielleicht liegt es darin, dass wir unsere natürliche Intelligenz noch immer mit bemerkenswerter Ausdauer in Bahnen lenken, die sich selbst für Vernunft halten, obwohl sie oft nur beschleunigte Gewohnheit sind.
Hinweis zur Entstehung des Beitrags
Dieser Beitrag gibt einen Gedankengang wieder, der in einem wesentlich umfangreicheren Arbeitsprozess entstanden ist. Dem hier veröffentlichten Text liegt ein deutlich längerer Diskurs zugrunde, in dem einzelne Beobachtungen, Beispiele und Argumente ausführlicher entwickelt wurden. Für die Veröffentlichung im Weblog musste dieser Verlauf notwendigerweise stark verdichtet und auf zentrale Linien reduziert werden. Der vorliegende Beitrag ist daher nicht als vollständige Dokumentation dieses Denkprozesses zu verstehen, sondern als eine bewusst gekürzte und lesbare Fassung, die den Kern der Überlegungen wiedergibt, ohne alle Zwischenschritte, Abschweifungen und Detaildiskussionen des ursprünglichen Verlaufs vollständig abzubilden.