KI-Radar — 2. April 2026

KI-generiert aus der täglichen Marktbeobachtung. Redaktionell kuratiert, aber nicht Satz-für-Satz lektoriert — zur Orientierung gedacht, nicht als zitierfähige Quelle.

OpenAI legt erstmals harte Geschäftszahlen offen — 2 Mrd. USD Monatsumsatz bei 900 Mio. Wochen-Nutzern und Enterprise über 40% — Yann LeCun verlässt Meta und gründet AMI Labs in Paris mit 890 Mio. USD, Google DeepMind veröffentlicht das erste systematische Agent-Traps-Framework, und EU plus Kalifornien fahren parallel KI-Regulierung auf.

OpenAI legt erstmals harte Zahlen offen — 2 Mrd. USD pro Monat, Enterprise über 40%

Bewertung 852 Mrd. USD, Finanzierungsrunde 120 Mrd. USD mit Amazon (50 Mrd. USD), Nvidia und SoftBank, Monatsumsatz 2 Mrd. USD, 900 Mio. Weekly Active Users, 50 Mio. zahlende Abonnenten, Enterprise mehr als 40% der Einnahmen — und weiterhin nicht profitabel. Damit liegen Vergleichszahlen für Board-Diskussionen erstmals belastbar auf dem Tisch. Wer KI-Investment-Diskussionen mit Wettbewerbsvergleichen führt, hat ab sofort eine Referenz, die nicht aus Pressemitteilungen geschätzt werden muss.

LeCun verlässt Meta und gründet AMI Labs in Paris

Yann LeCun, einer der drei Turing-Award-Träger des Deep-Learning-Triumvirats, verlässt Meta und gründet AMI Labs in Paris mit rund 890 Mio. USD Kapital — Fokus auf Weltmodelle als Alternative zur LLM-Architektur. Das ist die erste glaubwürdige Foundation-Model-Initiative aus Europa mit Frontier-Anspruch und einem Gründer auf Augenhöhe mit Hassabis und Sutskever. Für DACH-Souveränitätsdiskussionen verschiebt sich damit die Frage von „warum gibt es kein europäisches Modell" zu „wie binden wir AMI in unsere Strategie ein".

Google DeepMind veröffentlicht das erste Agent-Traps-Framework

Sechs systematische Angriffskategorien, Sub-Agent-Erfolgsquoten zwischen 58 und 90%, M365 Copilot als dokumentierter Praxisfall — und eine ungeklärte Accountability-Frage, sobald ein Agent fremdgesteuert handelt. Für jeden Enterprise-Kunden, der Agent-Deployments plant, ist das die erste Veröffentlichung, die Security nicht aus Vendor-Marketing herausziehen muss. Bedrohungsmodellierung für Agentic AI gehört auf Basis dieses Frameworks in jedes Architektur-Review.

EU und Kalifornien fahren KI-Regulierung parallel auf

EU-Kommission, Parlament und Rat verbieten KI-generierte Bilder und Videos in offizieller Kommunikation. Parallel weitet Kalifornien per Executive Order seine Anforderungen auf alle KI-Unternehmen mit CA-Geschäftsbeziehung aus — explizit zu CSAM, Deepfakes, Diskriminierung, Bias. Beide Märkte zusammen umfassen den Großteil des B2B-KI-Geschäfts; Compliance-Konzepte, die nur einen Block abdecken, sind ab sofort unvollständig.

Anthropic Claude Code geleakt — 8.000 Klone trotz Takedowns

Der Quellcode von Claude Code ist geleakt, bereits über 8.000 GitHub-Klone trotz aktiver Takedown-Bemühungen. Für IT-Sicherheitsverantwortliche heißt das: Der eigene Coding-Agent-Stack steht potenziellen Angreifern in voller Tiefe zur Verfügung — Threat-Models müssen davon ausgehen, dass die Innenarchitektur bekannt ist. Für Nutzerunternehmen ist die zentrale Frage nicht der Leak selbst, sondern wie Anthropic die nächste Code-Generation gegen die nun öffentliche Angriffsfläche neu absichert.

← Alle Radar-Einträge · Beobachtungen