KI Radar — April 2026
Analysen, Einordnungen und Hintergründe rund um Künstliche Intelligenz. Was im April 2026 passiert ist — mit Zahlen, Quellen und ohne Meinung.
Die nächsten 24 Monate — drei Stimmen, drei Geschwindigkeiten
Am 23. April 2026 hat der Investor Raoul Pal auf seinem YouTube-Kanal „The Journey Man" ein Gespräch mit Peter Diamandis (Gründer der XPRIZE Foundation) und Salim Ismail (Mitgründer von OpenExO) veröffentlicht. Titel: „The Next 2 Years Will Change Everything!". Die These der drei: Künstliche Intelligenz wird Unternehmen, Arbeitsmärkte und Institutionen in einem Zeitraum von zwei Jahren grundlegend umordnen. Ob das stimmt, hängt davon ab, wem man zuhört — drei Forscher kommen zu drei sehr verschiedenen Geschwindigkeiten.
Was Diamandis und Ismail im Video sagen
Drei Kernthesen, alle zwischen Min 5 und Min 65 des Videos belegt.
These 1 — Das Ende der klassischen Unternehmensorganisation. Salim Ismail bezieht sich auf Coase-Theorem (1937), wonach Unternehmen existieren, weil interne Transaktionskosten niedriger sind als externe. KI dreht diese Logik um: externe Zusammenarbeit werde günstiger als interne Hierarchie. Konsequenz laut Ismail — Konzerne brechen auf, kleinere und vernetztere Strukturen gewinnen.
These 2 — Politische Reaktion auf Arbeitsmarkt-Disruption. Diamandis prognostiziert, dass die US-Regierung mit direkten Geldzahlungen an Bürger auf KI-bedingte Stellenverluste reagieren werde. Kontext: Sam Altman (OpenAI) und andere Tech-Unternehmer fordern seit 2021 öffentlich ein bedingungsloses Grundeinkommen.
These 3 — allgemeine KI auf menschlichem Niveau (engl. AGI, „Artificial General Intelligence") bis 2029, danach humanoide Roboter mit eingebauter KI auf diesem Niveau. Diamandis bezieht sich auf die Prognose von Ray Kurzweil, wonach „human-level AI" bis 2029 verfügbar sei. Kombiniert mit Robotik entstehe eine neue „Spezies" — schneller, stärker, intelligenter als Menschen. Die sogenannte Singularität — der Zeitpunkt, ab dem maschinelle Intelligenz die menschliche dauerhaft übertrifft — sei dann gegen 2045 absehbar.
Der Tonfall des Gesprächs ist optimistisch. Diamandis und Ismail vertreten seit über zwei Jahrzehnten die Position der „exponentiellen Beschleunigung". Beide sind Gründer kommerzieller Bildungs- und Beratungsformate (Singularity University (heute Singularity), OpenExO), die diese These als Geschäftsgrundlage haben. Das ist keine Disqualifikation, aber ein zur Einordnung gehörender Kontext.
Was die KI-Forschung dazu sagt
Yann LeCun, Turing-Preisträger 2018 und einer der prägenden Köpfe der modernen KI-Forschung, hält Diamandis' Zeitlinie für unrealistisch. LeCun war von 2013 bis Ende 2025 Chefwissenschaftler für Künstliche Intelligenz bei Meta und gründete im November 2025 die eigene Firma AMI Labs (Advanced Machine Intelligence — sinngemäß: hochentwickelte Maschinenintelligenz). Seine Position aus mehreren Stellungnahmen 2024 bis 2026 lässt sich so zusammenfassen: Eine allgemeine künstliche Intelligenz auf menschlichem Niveau sei nicht in greifbarer Nähe — sie erfordere wissenschaftliche Durchbrüche, die heute noch nicht bekannt seien.
LeCun benennt vier Architektur-Komponenten, die heutigen KI-Systemen seiner Auffassung nach fehlen, bevor menschenähnliche Intelligenz entstehen kann: Alltagsphysik — also intuitives physikalisches Weltverständnis, persistente Erinnerung über einzelne Sitzungen hinaus, eigenständiges logisches Schließen und langfristige Planung. Sein eigener Forschungsansatz heißt JEPA — Abkürzung für „Joint Embedding Predictive Architecture", auf Deutsch sinngemäß: vorhersagende Architektur mit gemeinsamer Einbettung. Sie versucht, diese Komponenten in das Modell einzubauen, bisher in der Forschungsphase.
LeCun ist nicht allein. Gary Marcus (NYU), Stuart Russell (Berkeley) und Melanie Mitchell (Santa Fe Institute) vertreten ähnliche Positionen. Der Konsens unter dieser Gruppe: heutige Sprachmodelle sind beeindruckend, aber sie skalieren nicht zu allgemeiner Intelligenz, weil ihnen grundlegende Bausteine fehlen.
Daten dazu liefert der Stanford AI Index 2026: 89 Prozent der KI-Agenten in Unternehmen erreichen nie den produktiven Einsatz. Die Lücke zwischen Demonstration und Alltagstauglichkeit ist real und wirtschaftlich relevant — eine Zahl, die im Diamandis-Video nicht vorkommt.
Was die Wirtschaftswissenschaft dazu sagt
Daron Acemoglu, MIT-Ökonom und Träger des Wirtschafts-Nobelpreises 2024, hat 2024 die Studie „The Simple Macroeconomics of AI" veröffentlicht. Sein Befund: der KI-Effekt auf das Bruttoinlandsprodukt der USA werde in den kommenden zehn Jahren bei 1,1 bis 1,6 Prozent liegen — entspricht etwa 0,05 Prozent jährlichem Produktivitätswachstum. Acemoglu bezeichnet das als „nicht trivial, aber moderat".
Die Größenordnung steht im klaren Gegensatz zur Diamandis-Prognose einer „aufregendsten Phase der Menschheitsgeschichte". Acemoglu sieht zwei zentrale Probleme: erstens, dass Unternehmen KI bisher nicht zur Stärkung menschlicher Arbeit, sondern zu deren Ersetzung einsetzen — was Produktivitätsgewinne dämpft. Zweitens, dass etwa 20 Prozent der Aufgaben in Wissensberufen KI-exponiert seien, aber nur ein Bruchteil davon in zehn Jahren wirtschaftlich automatisiert werde.
Acemoglu ist keine Außenseiter-Stimme. Auch Erik Brynjolfsson (Stanford) und Michael Webb (Bank of England) kommen in Detail-Studien auf ähnliche Zahlen. Die Wirtschafts-Forschung sieht KI als reales Wachstumsthema — nur eben nicht als Tsunami in 24 Monaten.
Was bei Diamandis stimmt — und wo Anschluss zur deutschen Lage besteht
Drei Punkte aus dem Gespräch sind belastbar.
Coase-These. Brynjolfsson und Acemoglu bestätigen den Mechanismus: KI senkt Koordinationskosten, das verändert Unternehmensgrenzen. Der genaue Effekt ist umstritten, der Mechanismus selbst nicht.
KI-Wettlauf USA / China. Real und dokumentiert. Der Stanford AI Index 2026 verzeichnet 75 Prozent aller globalen privaten KI-Investitionen in den USA, 12 Prozent in China, der Rest verteilt. Europa zusammen: 6 Prozent. Diese Lage ist kein Hype.
Adaptions-Argument. Die These, dass Organisationen mit hoher Lerngeschwindigkeit besser zurechtkommen als starre, ist trivial richtig — und gilt unabhängig davon, ob die Singularität 2029 oder 2049 kommt.
Was für Deutschland realistisch ist
Auf KIPODE haben wir in den vergangenen Wochen mehrere konkrete Datenpunkte zusammengetragen, die zu beiden Diagnosen passen. Die OpenAI Workspace Agents (siehe Artikel unten) sind das erste Massenprodukt, das die Theorie der Agentic AI in den Büroalltag bringt. Aber 89 Prozent der Enterprise-Agenten erreichen nicht den produktiven Einsatz, sagen die Stanford-Daten. Und 111.000 Auto-Jobs sind in Deutschland seit 2019 verschwunden — eine reale Strukturveränderung, die nicht KI allein, sondern langsame industrielle Transformation widerspiegelt.
Praktische Konsequenz für deutsche Geschäftsführer: Diamandis' These „die nächsten 24 Monate verändern alles" ist als Marketing-Aussage interessant, als Planungsgrundlage unbrauchbar. Acemoglus „1,1 bis 1,6 Prozent BIP-Effekt in zehn Jahren" ist als Marketing-Aussage langweilig, als Planungsgrundlage solide. Die Wahrheit liegt nicht in der Mitte — sie hängt von der eigenen Branche, Größe und Risikobereitschaft ab.
Wer kleine, klar abgegrenzte Pilotprojekte startet — Rechnungsprüfung, interne Recherche, einfache Buchhaltungsschritte — Daten sammelt und die Wirtschaftlichkeit messbar macht, hat 2027 einen Vorsprung. Egal ob Diamandis oder LeCun Recht behält. Wer auf den Tsunami wartet, verliert in beiden Szenarien.
Das Original-Video läuft 66 Minuten. YouTube blendet automatisch eine deutsche Tonspur und Untertitel ein — das Gespräch ist also auch ohne Englischkenntnisse zugänglich. Diese Einordnung fasst die zentralen Aussagen auf Deutsch zusammen und stellt ihnen die wissenschaftliche Gegenposition gegenüber.
YouTube — Raoul Pal mit Diamandis & Ismail, „The Next 2 Years Will Change Everything!" (23.04.2026)
NBER — Daron Acemoglu, „The Simple Macroeconomics of AI" (2024)
Stanford HAI — AI Index 2026
NYU Tandon — Yann LeCun, Professorenprofil · Fortune (11.11.2025) — LeCun verlässt Meta für AMI Labs
Stanford Digital Economy Lab — Erik Brynjolfsson
Nobelprize.org — Acemoglu, Johnson, Robinson 2024
OpenAI startet Workspace Agents — der erste konkrete Agent für Unternehmen
Vier Tage nachdem der Stanford AI Index die Theorie zu Agentic AI geliefert hat, liefert OpenAI die Praxis: Am 22. April 2026 sind die Workspace Agents in ChatGPT live gegangen. Sie laufen in der Cloud, arbeiten weiter wenn der Nutzer offline ist, und docken an Slack, Salesforce und mehr als 60 weitere Unternehmens-Tools an. Bis 6. Mai 2026 ist die Nutzung kostenlos — danach kostet jeder Agentenlauf nach Verbrauch.
Was die Workspace Agents konkret tun
Anders als ein klassischer Chatbot, der auf eine Frage wartet, läuft ein Workspace Agent dauerhaft im Hintergrund. Die Idee: einmal beschreiben, was zu tun ist, und der Agent erledigt diese Aufgabe immer wieder — selbstständig, mit Zugriff auf die Systeme des Unternehmens. OpenAI nennt drei Beispiele aus der Pressemitteilung, die zeigen, wie die Praxis aussieht.
Erstens ein Vertriebsagent: Er holt sich Notizen aus Verkaufsgesprächen, recherchiert öffentliche Informationen über den Kunden, qualifiziert neue Anfragen und schreibt einen Entwurf für die Folge-Mail direkt in das Postfach des Vertriebsmitarbeiters. Der Mensch öffnet morgens das Postfach und findet eine fertige Mail vor — er muss sie nur noch prüfen und absenden. Zweitens eine strategische Assistenz: Sie liest Termine, Mails und Dokumente, fasst sie für die Geschäftsführung zusammen, bereitet Briefings für Meetings vor und erinnert an Fristen. Drittens ein Finanz-Autopilot: Er prüft eingehende Rechnungen gegen Bestellungen, erkennt Abweichungen, fragt im Zweifel beim Buchhalter nach und gibt erst dann frei.
Die Agenten lernen über die normale ChatGPT-Eingabe. Wer einen neuen Workflow einführen will, klickt im linken Menü auf „Agents" und beschreibt in normaler Sprache, was passieren soll. ChatGPT führt durch die nötigen Schritte und richtet die Verbindungen zu den jeweiligen Tools ein.
Wichtig für deutsche Unternehmen
Workspace Agents sind nicht im normalen ChatGPT-Plus-Abo enthalten. Verfügbar sind sie ausschließlich in den Geschäfts-Tarifen ChatGPT Business, Enterprise, Edu und Teachers. Für die Datenschutz-Diskussion ist das wichtig: Im Enterprise-Tarif ruhen die Daten in europäischen Rechenzentren, ein Auftragsverarbeitungs-Vertrag (DPA) ist möglich, und die eingegebenen Inhalte fließen vertraglich nicht in das Training neuer Modelle. ChatGPT Enterprise ist nach den ISO-Normen 27001, 27017, 27018 und 27701 zertifiziert.
Damit ist eine Hürde gefallen, die viele deutsche Mittelständler bisher vom Einsatz von ChatGPT abgehalten hat. Der Standard-Plan und die Privatnutzung bleiben außen vor. Wer Workspace Agents auf sensible Geschäftsdaten loslässt, braucht den Enterprise-Plan — dafür gibt es dann aber granulare Admin-Rechte: Welcher Mitarbeiter darf welche Tools verbinden, welche Aktionen Genehmigung brauchen, wann der Agent menschliche Bestätigung anfragt. OpenAI bezeichnet das als „Human-in-the-Loop"-Steuerung.
Was kostet das nach dem 6. Mai?
Bis 6. Mai 2026 ist die Nutzung in der Research Preview kostenlos. Danach folgt ein Credit-Modell ähnlich wie bei der OpenAI-API — abgerechnet wird nach tatsächlicher Rechenleistung, also nach Anzahl und Komplexität der Tool-Aufrufe. Einfache Workflows, die einmal pro Tag eine Mail schreiben, bleiben günstig. Komplexe Multi-Tool-Agenten mit langer Laufzeit verbrauchen mehr. Konkrete Preise hat OpenAI für die Workspace-Agents-Variante noch nicht veröffentlicht — sie werden erst zum Wechsel auf das kostenpflichtige Modell kommuniziert.
Für deutsche Unternehmen ist die Empfehlung pragmatisch: Die zwei Wochen Preview nutzen, einen leichtgewichtigen Anwendungsfall realistisch testen, den Verbrauch beobachten — und auf dieser Basis entscheiden, ob die Wirtschaftlichkeit gegeben ist. Denn die Workspace Agents sind kein Hype mehr: Sie sind das erste Massenprodukt, das die im Agentic-AI-Artikel beschriebene Theorie konkret in den Büroalltag bringt. Damit beginnt der eigentliche Test: Schaffen die Agenten den Sprung aus der Pilotphase in den produktiven Einsatz, an dem laut Stanford AI Index bisher 89 Prozent scheitern?
OpenAI — Introducing workspace agents in ChatGPT (22. April 2026)
OpenAI Academy — Workspace Agents Dokumentation
OpenAI — Data Residency in Europe (ChatGPT Enterprise)
Techstrong.ai — OpenAI Debuts Workspace Agents
Reworked — OpenAI Replaces Custom GPTs With Workspace Agents
Neowin — OpenAI launches autonomous Workspace Agents
Agentic AI — wenn Software selbst handelt
Die nächste Stufe der Künstlichen Intelligenz schreibt nicht mehr nur Antworten. Sie bucht Termine, schreibt Code, kauft ein, recherchiert. Im Frühjahr 2026 macht der Stanford AI Index klar: Der Sprung ist real — aber neun von zehn dieser Systeme schaffen es nie aus dem Test in den Alltag.
Vom Chatbot zum digitalen Mitarbeiter
Ein Chatbot antwortet. Ein Agent handelt. Das ist der ganze Unterschied — und gleichzeitig der größte Sprung, den Künstliche Intelligenz in den letzten Jahren gemacht hat. Wer einen Chatbot fragt: „Buch mir morgen einen Zahnarzttermin in der Nähe", bekommt eine Liste mit Praxen. Wer einen Agenten dasselbe fragt, bekommt einen bestätigten Termin im Kalender, einen Erinnerungs-Eintrag und eine Mail an die Praxis. Der Agent öffnet selbstständig Webseiten, ruft Schnittstellen auf, prüft das Ergebnis und korrigiert sich, wenn etwas schiefläuft.
Die Fachbezeichnung dafür lautet Agentic AI — auf Deutsch wörtlich: handlungsfähige Künstliche Intelligenz. Der Begriff hat sich 2025 in der Forschung etabliert und ist 2026 das prägendste Schlagwort der Branche. Anders als beim Hype um ChatGPT geht es diesmal nicht um Konversation, sondern um Aufträge, die ohne weiteres Zutun erledigt werden.
Der Sprung in einem Jahr
Wie schnell sich das entwickelt, zeigt ein Maßstab namens OSWorld. Forscher messen damit, wie zuverlässig ein KI-System Aufgaben am Computer eigenständig erledigt — Dateien öffnen, Formulare ausfüllen, mehrere Programme nacheinander bedienen. Im März 2025 schafften die besten Modelle rund zwölf Prozent dieser Aufgaben. Im März 2026 sind es 66,3 Prozent. Das ist nur noch sechs Prozentpunkte unter dem Niveau, das ein Mensch beim selben Test erreicht.
Stand 24. April 2026 führt das Modell Claude Mythos Preview die OSWorld-Bestenliste mit 79,6 Prozent an — und übertrifft damit erstmals einen geübten menschlichen Computernutzer in dieser Disziplin. Die Daten stammen aus dem Stanford AI Index 2026, dem jährlichen Standardwerk über den Stand der Künstlichen Intelligenz.
Was Agenten heute schon erledigen
Die konkreten Einsatzfelder sind weniger spektakulär als die Schlagzeilen, aber wirtschaftlich relevant. Im Büroalltag übernehmen Agenten Aufgaben, die früher Sachbearbeitern gehörten: Termine zwischen mehreren Personen abstimmen, Rechnungen prüfen und in die Buchhaltung einlesen, Lieferanten vergleichen und Bestellungen auslösen. In der Software-Entwicklung schreiben sie nicht mehr nur Code-Schnipsel, sondern ganze Funktionen — sie testen das Ergebnis, beheben Fehler und stellen die Änderung im Live-System bereit.
Wie groß die Welle ist, zeigt ein Open-Source-Projekt namens OpenClaw: ein freier Bauplan für persönliche KI-Agenten, der seit Anfang 2026 auf GitHub verfügbar ist. Das Projekt hat in wenigen Monaten über 364.000 Sterne gesammelt — die Auszeichnung, mit der Entwickler interessante Software markieren. Zum Vergleich: Der Linux-Kernel braucht für eine ähnliche Marke seit drei Jahrzehnten und ist erst bei rund 190.000. OpenClaw läuft auf jedem handelsüblichen Rechner und integriert sich in Messenger wie WhatsApp, Telegram und Slack.
Multi-Agent — Software, die in Teams arbeitet
Die nächste Stufe sind keine einzelnen Agenten mehr, sondern Teams. Ein Recherche-Agent sammelt Informationen, ein Schreib-Agent fasst sie zusammen, ein Prüf-Agent kontrolliert die Quellen und ein Veröffentlichungs-Agent stellt das Ergebnis ins Redaktionssystem. Das Marktforschungsunternehmen Gartner schätzt, dass bis Ende 2026 rund 40 Prozent aller großen Geschäftsanwendungen solche aufgabenspezifischen Agenten eingebaut haben werden — etwa in Buchhaltungssoftware, Personalsystemen oder Vertriebsplattformen.
Damit verändert sich die Frage, was Software überhaupt ist. Bisher war ein Programm ein Werkzeug, das ein Mensch bedient. Ein Multi-Agent-System ist eher ein digitaler Kollege, der eigene Entscheidungen trifft. Wer haftet, wenn ein Agent eine Bestellung falsch auslöst, ist eine offene Rechtsfrage — auf europäischer wie auf deutscher Ebene.
Der wunde Punkt: Pilot bleibt Pilot
So beeindruckend die Benchmarks sind — die zweite Hälfte der Geschichte erzählt der Stanford AI Index ebenfalls: 89 Prozent der KI-Agenten in Unternehmen erreichen nie den produktiven Einsatz. Pro Pilotprojekt fließen zwischen 150.000 und 800.000 US-Dollar — mit null Rendite, wenn das Projekt nicht aus dem Testbetrieb kommt. Über alle Geschäftsfunktionen hinweg liegt der Anteil tatsächlich produktiver Agenten weiter im einstelligen Prozentbereich.
Und der Druck wächst nach vorne. Die Marktforscher von Gartner prognostizieren, dass bis Ende 2027 sogar mehr als 40 Prozent aller laufenden Agentic-AI-Projekte wieder gestoppt werden — wegen explodierender Kosten, unklarer Geschäftslogik oder unzureichender Risiko-Kontrolle. Hinzu kommt: Die leistungsfähigsten Agenten verbrauchen ein Vielfaches an Rechenleistung und Strom im Vergleich zu einfachen Chatbots. In Deutschland mit seinen hohen Industriestrompreisen ist das kein Nebenaspekt, sondern ein harter Kostenfaktor.
Die Gründe für die Pilot-Stagnation sind nicht technisch, sondern organisatorisch: Sicherheitsbedenken, fehlendes Vertrauen in autonom getroffene Entscheidungen, ungeklärte Haftungsfragen, Datenschutzanforderungen und schlicht überforderte Belegschaften. Das ist kein Widerspruch zum Benchmark-Sprung. Es ist die zweite Hälfte derselben Geschichte: Die Technologie kann es. Die Organisationen sind noch nicht so weit. Wer Agenten in den Alltag bringen will, muss Prozesse umbauen, Verantwortlichkeiten neu definieren und Fehler einkalkulieren. Das dauert.
Frühwarnung am US-Arbeitsmarkt
Wie sich Agenten auf Beschäftigung auswirken, lässt sich heute noch nicht in deutschen Statistiken ablesen — die sind zu langsam. Aber eine Studie aus den USA gibt einen ersten klaren Befund. Die Forscher Erik Brynjolfsson, Bharat Chandar und Ruyu Chen haben am Stanford Digital Economy Lab im Oktober 2025 die Studie „Canaries in the Coal Mine?" veröffentlicht. Sie werteten Lohndaten des US-Anbieters ADP aus — anonyme Datensätze von Millionen Beschäftigten.
Das Ergebnis: Junge Erwachsene zwischen 22 und 25 Jahren in den am stärksten KI-exponierten Berufen verloren zwischen Oktober 2022 und Juli 2025 rund 13 Prozent ihrer Stellen. Bei Software-Entwicklern und im Kundenservice in dieser Altersgruppe waren es zusammen ungefähr 20 Prozent. Beschäftigte zwischen 35 und 49 Jahren wuchsen im selben Zeitraum dagegen um sechs bis neun Prozent.
Das Muster ist eindeutig: Erfahrung schützt, Berufseinsteiger trifft die Verschiebung zuerst. Die Studie nennt das im Titel den Kanarienvogel im Bergwerk — das Frühwarnsignal vor einer größeren Veränderung. Für Deutschland, wo der Fachkräftemangel die Diskussion bisher dominiert, ist diese Lesart neu: Es geht nicht nur darum, ob es genug junge Kräfte gibt, sondern ob die klassischen Einstiegsjobs in fünf Jahren überhaupt noch existieren.
Explainable AI — der Vertrauens-Anker
Damit Agenten Verantwortung übernehmen können, müssen ihre Entscheidungen nachvollziehbar sein. Wenn ein Agent einen Vertrag absagt, einen Lieferanten wechselt oder eine Diagnose vorschlägt, muss klar sein: Warum? Auf welcher Datenbasis? Mit welcher Sicherheit? Dieses Forschungsfeld heißt Explainable AI, kurz XAI. 2026 entstehen erste Frameworks, die Agenten zwingen, ihre Entscheidungen in Worten zu erklären — nicht in Code.
Gartner prognostiziert, dass bis 2028 rund die Hälfte der Investitionen in große Sprachmodelle in Beobachtbarkeit und Erklärbarkeit fließt. Die Begründung: Ohne Vertrauen keine Skalierung. Ein Agent, der nicht erklären kann, was er tut, wird kein deutscher Mittelständler in seine Lieferkette einbauen.
Was bedeutet das für Deutschland?
Drei Folgen sind bereits absehbar — und es gibt erste deutsche Antworten, die nicht untergehen sollten. Erstens beim Wettbewerb: US-amerikanische und chinesische Unternehmen integrieren Agenten in ihre Produkte, von der Buchhaltung bis zum Lieferketten-Management. Wer abwartet, verliert Effizienz-Vorsprünge. Aber: Das DFKI in Kaiserslautern testet bereits Agenten in der Industrie 4.0 — Wartung, Qualitätssicherung und Materiallogistik in Fabrikhallen. Aleph Alpha in Heidelberg arbeitet mit Partnern aus dem Mittelstand an souveränen, datenschutzkonformen Agenten-Lösungen, die Daten nicht in die USA senden müssen — ein zentrales Argument für viele Familienunternehmen. SAP integriert mit dem Assistenten Joule eigene Agentic-AI-Funktionen in seine Geschäftssoftware. Das ist nicht der Spitzenplatz, aber es ist ein Anfang mit eigenem Profil — souverän, datenschutzfest, mittelstandstauglich.
Zweitens bei der Bildung: Wenn Berufseinsteiger zuerst betroffen sind, müssen Schulen, Berufsschulen und Universitäten Antworten finden, bevor die nächsten Jahrgänge fertig werden. Es geht weniger um „programmieren lernen" als um die Frage, welche Aufgaben in Verwaltung, Recht, Medizin oder Journalismus in fünf Jahren noch dieselbe Form haben.
Drittens bei der Regulierung: Der EU AI Act greift bei Hochrisiko-Anwendungen. Aber die Frage, wer haftet, wenn ein Agent eine Bestellung falsch auslöst oder einen Vertrag fehlerhaft abschließt, ist ungeklärt. Die Bundesnetzagentur hat die Marktaufsicht übernommen, das Bundeswirtschaftsministerium arbeitet an Leitlinien — Stand April 2026 noch nicht öffentlich. Wer in Deutschland heute einen Agenten produktiv einsetzt, bewegt sich in einer Grauzone.
Für deutsche Unternehmen heißt das: 2026 ist nicht das Jahr des Abwartens, sondern des kontrollierten Experiments. Wer jetzt mit einem kleinen, klar abgegrenzten Anwendungsfall startet — Rechnungsprüfung, interne Recherche, einfache Buchhaltungsschritte — und dabei auf Erklärbarkeit besteht, hat 2027 einen Vorsprung gegenüber Konkurrenten, die noch warten. Agentic AI ist kein Trend, der wieder verschwindet. Aber wer die Pilot-zu-Produktion-Lücke ignoriert, baut auf zu viel Versprechen und zu wenig Substanz. Der Index von 2027 wird zeigen, ob die Lücke schmaler geworden ist — und ob Deutschland mit seinen souveränen Anbietern Boden gutmacht.
Stanford HAI — AI Index 2026 (OSWorld-Benchmark, 89 % Deployment-Gap)
IEEE Spectrum — Zusammenfassung Stanford AI Index 2026
Stanford Digital Economy Lab — Brynjolfsson, Chandar, Chen: „Canaries in the Coal Mine?" (Oktober 2025)
OpenClaw — GitHub Repository (Stand 26.04.2026: 364.442 Sterne)
Gartner — Press Release Juni 2025: 40 % Agentic-AI-Projekte werden bis 2027 gestoppt
DFKI — Deutsches Forschungszentrum für Künstliche Intelligenz, Kaiserslautern
Aleph Alpha — Heidelberger KI-Anbieter mit Mittelstands-Fokus
SAP — Joule, Agentic-AI in Geschäftssoftware
Wenn KI das Internet flutet — vom Werkzeug zur Massenware
Über die Hälfte aller Online-Artikel stammt inzwischen von Maschinen. Bots erzeugen mehr Traffic als Menschen. Die Aufmerksamkeitsspanne sinkt. Was bedeutet das für das offene Internet — und wer verdient daran?
Die Masse macht das Problem
Im November 2024 analysierte das Forschungsprojekt Originality.ai über eine Million Online-Artikel. Das Ergebnis: 50,3 Prozent der untersuchten Texte waren maschinell erzeugt. Noch 2020 lag dieser Anteil bei rund fünf Prozent. In weniger als vier Jahren hat sich die Zusammensetzung des schreibenden Internets grundlegend verschoben.
Der Begriff dafür hat sich durchgesetzt: AI Slop. Gemeint sind massenhaft automatisch generierte Texte, Bilder und Videos, die nicht durch Qualität auffallen, sondern durch Quantität. Suchmaschinen-Rankings, Social-Media-Feeds, Produktrezensionen — überall dort, wo Reichweite belohnt wird, lohnt es sich, mit KI-Werkzeugen Inhalte in hoher Stückzahl zu produzieren. Die Folge: Das Signal-Rausch-Verhältnis im Netz verschiebt sich messbar.
Mehr Bots als Menschen
Parallel dazu verschieben sich die Verkehrsverhältnisse im Netz. Laut dem Imperva Bad Bot Report 2025 stammen 51 Prozent des gesamten Internet-Traffics von automatisierten Programmen — nicht von Menschen, die eine Seite aufrufen. Davon entfällt ein wachsender Anteil auf sogenannte Bad Bots: Scraper, Spam-Generatoren und Account-Manipulatoren.
Was früher als Randphänomen galt, hat damit eine Schwelle überschritten. Zum ersten Mal erzeugen Maschinen rechnerisch mehr Datenverkehr als menschliche Nutzer. Das betrifft die Verlässlichkeit von Klickzahlen, Engagement-Metriken und letztlich auch von Werbebudgets, die auf genau diesen Zahlen basieren.
Die Dead-Internet-Hypothese — und ihre Datenbasis
Die sogenannte Dead-Internet-Theory war lange eine Nischen-These aus Internet-Foren: Die Behauptung, dass der Großteil der Online-Interaktionen nicht mehr von echten Menschen stammt, sondern von Bots und KI-Profilen. Was als Verschwörungserzählung begann, rückt durch aktuelle Daten näher an die Messbarkeit.
Im Jahr 2024 bestand ChatGPT erstmals einen Turing-Test unter kontrollierten Bedingungen — Testpersonen konnten nicht mehr zuverlässig unterscheiden, ob sie mit einem Menschen oder einer Maschine sprachen. Auf der Plattform X (ehemals Twitter) stammten laut internen Analysen rund 29 Prozent der veröffentlichten Inhalte von automatisierten Konten. Investigative Recherchen deckten Netzwerke wie WNXNET auf, die mit Tausenden koordinierter Bot-Accounts Reichweite und Engagement simulierten.
720.000 Stunden pro Tag — die Inhaltsexplosion
Die schiere Menge an täglichen Uploads übersteigt jede menschliche Verarbeitungskapazität. Auf YouTube werden pro Tag rund 720.000 Stunden Videomaterial hochgeladen. TikTok verzeichnet täglich etwa 34 Millionen neue Videos. Auf Instagram erscheinen circa 95 Millionen Beiträge pro Tag. Ein wachsender Teil davon ist zumindest teilweise maschinell erstellt — vom Skript über den Schnitt bis zur Thumbnail-Generierung.
Gleichzeitig sinkt die Fähigkeit, diese Flut zu verarbeiten. Die durchschnittliche Aufmerksamkeitsspanne lag im Jahr 2000 noch bei zwölf Sekunden. Bis 2024 ist sie auf 8,25 Sekunden gefallen — ein Rückgang um fast ein Drittel in einer Generation. Plattformen reagieren darauf nicht mit weniger, sondern mit kürzeren Formaten: Shorts, Reels, Stories. Das Ergebnis ist ein sich selbst verstärkender Kreislauf aus kürzeren Inhalten und kürzerer Aufmerksamkeit.
Aufmerksamkeit als Rohstoff — wer verdient
Hinter dem Kampf um Aufmerksamkeit steht ein konkretes Geschäftsmodell. Meta erzielte 2024 Werbeeinnahmen von rund 160 Milliarden US-Dollar — 97 Prozent des Gesamtumsatzes. Umgerechnet auf die rund 3,3 Milliarden monatlich aktiven Nutzer bedeutet das: Jeder Nutzer generiert im Durchschnitt etwa 49 Dollar Werbeumsatz pro Jahr — ohne dafür bezahlt zu werden.
Dieses Modell funktioniert nur, solange der Strom an Aufmerksamkeit nicht abreißt. Je mehr KI-generierte Inhalte in die Feeds fließen, desto schwieriger wird es, echte Aufmerksamkeit von simulierter zu unterscheiden. Die Kennzahlen — Klicks, Views, Verweildauer — messen zunehmend nicht mehr menschliches Interesse, sondern maschinelles Verhalten.
KI-Influencer: 7 Milliarden Dollar ohne Gesicht
Ein besonders sichtbares Symptom dieser Verschiebung sind KI-generierte Influencer. Der Markt für virtuelle Persönlichkeiten wird auf aktuell rund 7 Milliarden US-Dollar geschätzt, mit Prognosen zwischen 45 und 170 Milliarden bis 2030. Prominente Beispiele sind Lil Miquela, ein komplett computergenerierter Instagram-Account mit Millionen Followern, oder Lu do Magalu, die virtuelle Markenbotschafterin des brasilianischen Einzelhändlers Magazine Luiza.
Für Unternehmen sind diese Profile attraktiv: keine Skandale, keine Vertragsstreitigkeiten, unbegrenzte Verfügbarkeit. Für das Publikum wird die Grenze zwischen menschlicher Kreativität und synthetischer Produktion damit weiter verwischt — mit Folgen für Vertrauen und Authentizität in der digitalen Öffentlichkeit.
Hyperpersonalisierung: Inhalte, die nur für dich existieren
Der nächste Entwicklungsschritt geht über die Massenproduktion hinaus. Unter dem Begriff Hyperpersonalisierung entstehen Systeme, die Inhalte nicht mehr vorab erstellen und ausspielen, sondern in Echtzeit für jeden einzelnen Nutzer generieren. Die App Hacks, entwickelt von ehemaligen Mitgliedern des Google-NotebookLM-Teams, erzeugt personalisierte Audio-Formate auf Basis individueller Interessen und Nutzungshistorie.
Das Prinzip: Die KI kennt die Vorlieben, wertet das Nutzungsverhalten aus und produziert im Moment des Abrufs einen Inhalt, der genau auf diese Person zugeschnitten ist. Das bedeutet: Zwei Nutzer, die denselben Feed öffnen, sehen unter Umständen völlig unterschiedliche Inhalte — erstellt in dem Moment, in dem sie gebraucht werden, und danach potenziell nie wieder abrufbar.
Das Pew Research Center warnte in seiner Studie Digital Life 2035 vor der Entstehung geschlossener Informationsblasen, die durch KI-gestützte Personalisierung nicht mehr aufbrechbar sind — weil jeder Nutzer in seiner eigenen, maschinell kuratierten Realität lebt.
Agent Economy: Wenn Maschinen für Maschinen lesen
Parallel zur inhaltlichen Überflutung entsteht eine zweite, weniger sichtbare Entwicklung: das Internet der Agenten. Autonome KI-Systeme — sogenannte Agenten — suchen, vergleichen, buchen und verhandeln im Auftrag ihrer Nutzer, ohne dass ein Mensch eine Website aufrufen muss. Damit verschiebt sich die Frage von der Lesbarkeit für Menschen zur Lesbarkeit für Maschinen.
Die technische Grundlage dafür wird gerade gelegt. schema.org liefert seit Jahren strukturierte Datenformate. Anthropic hat mit dem Model Context Protocol (MCP) einen offenen Standard für die Werkzeuganbindung von KI-Agenten vorgestellt. Google arbeitet am Agent-to-Agent Protocol (A2A) für die direkte Kommunikation zwischen autonomen Systemen. Das Internet spaltet sich damit funktional auf: eine Ebene für menschliche Nutzer mit Oberflächen und Bildern — und eine maschinenlesbare Schicht, die Agenten abfragen, ohne jemals einen Browser zu öffnen.
Für Websitebetreiber bedeutet das eine doppelte Anforderung: Inhalte müssen sowohl für menschliche Leser als auch für KI-Agenten optimiert werden. Wer das versäumt, existiert in der Agentenwelt schlicht nicht — unabhängig davon, wie gut die eigene Website für Google-Suchen rankt.
Was bleibt: Eine Vertrauensfrage
Die Entwicklung ist nicht reversibel. KI-generierte Inhalte werden nicht wieder verschwinden, Bots werden nicht weniger, und personalisierte Algorithmen werden nicht transparenter. Die zentrale Frage ist nicht, ob diese Entwicklungen stattfinden — sondern wie Gesellschaften damit umgehen.
Für Deutschland stellt sich die Frage besonders dringlich. Der EU AI Act schafft einen regulatorischen Rahmen für Hochrisiko-KI, aber die Flut automatisierter Inhalte fällt weitgehend durch dieses Raster. Medienkompetenz, Quellenprüfung und technische Standards wie Agent-Ready-Websites werden zu Infrastrukturfragen — nicht mehr nur zu redaktionellen Entscheidungen.
Originality.ai — Studie KI-Anteil an Online-Artikeln (November 2024)
Imperva — Bad Bot Report 2025 (51 % Bot-Traffic)
Meta Platforms Inc. — Geschäftsbericht 2024 (Werbeeinnahmen)
Pew Research Center — Digital Life 2035
Anthropic — Model Context Protocol (MCP)
Google — Agent-to-Agent Protocol (A2A)
Das KI Radar April 2026 wird laufend ergänzt. Neue Analysen kommen dazu, sobald es belastbare Quellen gibt. Zurück zum KI Radar →
Alle Quellen dieser Seite
- Stanford HAI — AI Index 2026 (OSWorld-Benchmark, 89 % Deployment-Gap)
- IEEE Spectrum — Zusammenfassung Stanford AI Index 2026
- Stanford Digital Economy Lab — Brynjolfsson, Chandar, Chen: „Canaries in the Coal Mine?" (Oktober 2025)
- OpenClaw — GitHub Repository
- Gartner — Pressemitteilung Juni 2025: 40 % Agentic-AI-Projekte gestoppt bis 2027
- DFKI — Deutsches Forschungszentrum für Künstliche Intelligenz
- Aleph Alpha — Heidelberger KI-Anbieter
- SAP — Joule (Agentic AI in Geschäftssoftware)
- Originality.ai — Studie zum KI-Anteil an Online-Artikeln
- Imperva — Bad Bot Report 2025
- Meta Platforms Inc. — Geschäftsbericht 2024
- Pew Research Center — Digital Life 2035
- Anthropic — Model Context Protocol (MCP)
- Google — Agent-to-Agent Protocol (A2A)