KI-Radar — 25. April 2026
KI-generiert aus der täglichen Marktbeobachtung. Redaktionell kuratiert, aber nicht Satz-für-Satz lektoriert — zur Orientierung gedacht, nicht als zitierfähige Quelle.
Aleph Alpha wechselt den Eigentümer und Europas Sovereign-AI-Anspruch bekommt eine neue Adresse, GPT-5.5 kombiniert Benchmark-Führung mit 86 Prozent Halluzinationsrate, DeepSeek drückt die Enterprise-Verhandlungspreise um Faktor vier nach unten — und Anthropics wochenlange stille Qualitätsdegradation in Claude Code liefert den Praxistest für KI-Governance.
Europäische KI-Souveränität ist ab sofort eine kanadisch-deutsche Konstruktion
Cohere übernimmt Aleph Alpha; die Gesamtbewertung liegt bei ~$20 Mrd., der Schwarz-Konzern investiert $600 Mio. Das Sovereign-AI-Versprechen — Datenkontrolle, europäische Infrastruktur, DSGVO-Konformität — bleibt als Verkaufsargument, aber die juristische und operative Kontrolle liegt in Toronto. Berlins Plan, Sovereign-AI in der öffentlichen Beschaffung zu bevorzugen, wurde soeben komplizierter: Die Vertragsgestaltung, nicht das Narrativ, entscheidet, wer tatsächlich die Modelle kontrolliert.
Benchmark-Führung und höchste Halluzinationsrate schließen sich nicht aus
GPT-5.5 führt den Artificial Analysis Intelligence Index mit 60 Punkten (Claude Opus 4.7 und Gemini 3.1 Pro Preview je 57). Gleichzeitig liegt die Halluzinationsrate bei 86 Prozent auf AA Omniscience — verglichen mit 36 Prozent bei Claude Opus 4.7 und 50 Prozent bei Gemini. In Branchen mit Haftungsrisiko ist die Halluzinationsrate das entscheidende Auswahlkriterium — der Benchmark-Rang ist es nicht.
Open-Weight-Modelle unterlaufen proprietäre Preise um Faktor drei bis vier
DeepSeek V4-Flash kostet $0,14/$0,28 je Mio. Token; V4-Pro liegt bei $1,74/$3,48 — deutlich unter Claude Sonnet 4.6 und GPT-5.5. Das Modell verarbeitet 1 Mio. Token Kontext mit 27 Prozent der FLOPs von V3.2 und läuft auf Nvidia- wie auf Huawei-Chips. V4-Pro ist der neue Referenzpunkt in Vertragsverhandlungen mit Anthropic oder OpenAI; die Huawei-Kompatibilität macht DeepSeek zur produktiv einsetzbaren Antwort auf den Nvidia-Exportbann in China.
Wochenlange stille Qualitätsdegradation zeigt die Governance-Lücke im KI-Tooling
Anthropic bestätigt drei separate Bugs in Claude Code, darunter ein Caching-Fehler vom 26. März: Bis zur Behebung am 10. April verwarf Claude Code die Reasoning-History nach jeder Gesprächsrunde statt erst nach einer Stunde Inaktivität — Nutzer verloren systematisch den Kontext, ohne es zu bemerken. SLA-Definitionen und Incident-Response-Prozesse gehören in jeden Claude-Enterprise-Vertrag, der Claude Code als Mission-Critical-Werkzeug einplant.
KI schafft primär neue Fähigkeiten, erzeugt aber strukturierte Jobangst in der Breite
Studie mit 81.000 persönlichen Claude-Nutzern (Massenkoff & Huang, April 2026): „Neue Fähigkeiten ermöglichen" schlägt „Geschwindigkeit steigern" als häufigster Produktivitätsvorteil. Management-Rollen und IT berichten die höchsten Gewinne; 20 Prozent der Befragten befürchten Jobverlust, bei Berufseinsteigern deutlich stärker. Der Schwellen-Effekt — KI als Zugang zu zuvor unerreichbarer Arbeit — taucht in keinem Standard-ROI-Modell auf; KI-Einführungen ohne explizite Kommunikation über Kompetenzentwicklung erzeugen Widerstand nicht im Management, sondern in der Breite.