Die EU ist weniger daran interessiert, die stärkste KI zu entwickeln, als vielmehr daran, zu kontrollieren, wie KI in die Gesellschaft integriert wird.
Am 27. Januar 2026 leitete die Europäische Kommission ein formelles Verfahren nach dem Gesetz über digitale Märkte (DMA) ein , das Google verpflichtet, sein Betriebssystem Android und bestimmte Schlüsseldaten für konkurrierende KI-Entwickler und Suchmaschinen in Europa zu öffnen, um fairen Wettbewerb zu gewährleisten. Die Europäische Kommission hat Google sechs Monate Zeit gegeben, um technische Barrieren abzubauen, die konkurrierende KI-Assistenten an einem fairen Betrieb auf Android-Geräten hindern. Parallel dazu muss Google auch anderen Suchmaschinenanbietern Zugang zu zentralen Suchdaten gewähren. (1 )
Bei diesem Eingriff geht es nicht primär um technologische Leistungsfähigkeit, sondern um die Machtkonzentration. Die Europäische Union (EU) will eine der größten Herausforderungen der künstlichen Intelligenz (KI) angehen: die Integration von KI in die Gesellschaft, ohne demokratische Werte zu untergraben.
Künstliche Intelligenz im kollektiven Bewusstsein: Eine lange Geschichte menschlicher Kontrolle
Betrachtet man die Geschichte der Entwicklung künstlicher Intelligenz im kollektiven Bewusstsein, muss man weit in die Vergangenheit zurückblicken. Die Idee künstlicher Intelligenz findet sich bereits im 18. Jahrhundert im Osmanischen Reich mit dem Mechanischen Türken: einer Maschine, die als Mensch dargestellt wurde und Schach auf außergewöhnlichem Niveau spielen und alle Gegner besiegen konnte. Dies zeigt, dass die Vorstellung einer Maschine, die die menschliche Intelligenz übertreffen kann, schon sehr lange im kollektiven Bewusstsein existiert. Schließlich wurde enthüllt, dass hinter der Maschine ein menschlicher Bediener steckte.
Dieses Beispiel ist jedoch nach wie vor hochrelevant, da es eine grundlegende Realität verdeutlicht, die auch für die heutige künstliche Intelligenz gilt. Hinter jeder intelligenten Maschine stehen Menschen, die sie entwickeln, betreiben und warten. Ohne die von Menschen bereitgestellten enormen Datenmengen können KI-Systeme weder funktionieren, lernen noch sich weiterentwickeln. Folglich kann KI von sich aus keine wirkliche konzeptionelle oder existenzielle Bedrohung darstellen; sie bleibt stark von menschlichem Eingreifen, menschlichen Absichten und menschlicher Kontrolle abhängig.
Aus diesem Grund ist die Regulierung der KI-Märkte unerlässlich. Ohne wirksame Regulierungsrahmen besteht die Gefahr, dass sich der KI-Sektor zu einer Monopolisierung entwickelt, bei der wenige dominante Akteure die technologische Infrastruktur und den Datenzugang kontrollieren. In einem solchen Szenario würden Daten als zentrale Ressource der künstlichen Intelligenz in den Händen weniger privater Unternehmen konzentriert.
Künstliche Intelligenz entstand zunächst als philosophische und theoretische Frage, bevor sie zu einer technischen wurde.
Der Regulierungsansatz der Europäischen Union geht implizit davon aus, dass die eigentliche Gefahr künstlicher Intelligenz nicht in ihrer technischen Leistungsfähigkeit liegt, sondern in der Macht, die sie innerhalb menschlicher Systeme erlangen kann. Diese Annahme spiegelt unmittelbar die grundlegende philosophische Frage wider, die Mitte des 20. Jahrhunderts aufgeworfen wurde: Können Maschinen denken, und wenn ja, unter welchen Bedingungen sollte ihnen Entscheidungsbefugnis eingeräumt werden?
Wenn wir die wahren Ursprünge denkender Maschinen untersuchen, gelangen wir in den europäischen intellektuellen Kontext. In den 1950er Jahren stellte Alan Turing in seinem Artikel „Computing Machinery and Intelligence “ als Erster explizit die Frage: „Können Maschinen denken?“ Die Bedeutung dieser Frage liegt in Macht- und Herrschaftsfragen: Nur wenn Maschinen über echte Entscheidungsfähigkeit verfügen, können sie zu einer konzeptionellen Gefahr werden. Andernfalls bleiben künstliche Intelligenzen bloße Nachahmungen menschlicher Denkweisen.
Betrachtet man den historischen Kontext der Entstehung künstlicher Intelligenz, wird deutlich, dass ihre Entwicklung eng mit militärischen Bedürfnissen verknüpft war. Ab den 1950er-Jahren finanzierte das US-Militär die Forschung im Bereich der automatischen Übersetzung, insbesondere zur Übersetzung und Dekodierung sowjetischer Texte während des Kalten Krieges. Ziel war es, die militärische Macht durch die Kontrolle der Informations- und Entscheidungsprozesse gegnerischer Staaten zu steigern, anstatt sich allein auf die technische Effizienz zu konzentrieren. So wurde künstliche Intelligenz stets mit Überwachung, strategischer Dominanz und dem Einsatz von Wissensmanagement als Machtinstrument in Verbindung gebracht.
Während die Vereinigten Staaten ihre Vormachtstellung im Bereich der künstlichen Intelligenz durch die Kontrolle von Infrastruktur und globalen Plattformen weiter ausbauen, hat die Europäische Union einen deutlich anderen Weg eingeschlagen. Anstatt um technologische Überlegenheit zu konkurrieren, positioniert sich die EU als normative Macht, die sich darauf konzentriert, KI in einen Rahmen demokratischer Werte, Menschenrechte und Marktgerechtigkeit einzubetten. Das im Juni 2024 verabschiedete Gesetz zur künstlichen Intelligenz (AIIA) ist ein hervorragendes Beispiel für den weltweit ersten umfassenden Regulierungsrahmen für KI. Es gewährleistet, dass KI sicher, transparent und mit den Grundrechten vereinbar ist. Dieser legislative Ansatz teilt KI-Systeme in Risikokategorien ein – von minimal bis inakzeptabel – und legt entsprechende Verpflichtungen fest.
Dieses Bekenntnis zu ethischer Regierungsführung offenbart jedoch auch Europas strategisches Dilemma. Indem die EU den Fokus auf Regulierung statt auf Macht legt, räumt sie ihren technologischen Rückstand gegenüber den USA und China ein. Zwar gibt es Regelungen für Innovationsräume und Unterstützung für Startups, doch Europas Abhängigkeit von amerikanischen Cloud-Anbietern und KI-Infrastruktur behindert echte digitale Souveränität.
