KI-Radar — 4. April 2026

KI-generiert aus der täglichen Marktbeobachtung. Redaktionell kuratiert, aber nicht Satz-für-Satz lektoriert — zur Orientierung gedacht, nicht als zitierfähige Quelle.

Deepseek V4 läuft komplett auf Huawei-Chips, Cursor 3 baut die IDE als Agent-Flotte um, OpenAI Codex schwenkt auf Usage-Based-Pricing und greift damit Per-Seat-Modelle frontal an — und Microsoft investiert 10 Mrd. USD in Japan.

Deepseek V4 läuft komplett auf Huawei — Ascend 950PR schlägt H20 um Faktor 2,8

Deepseek V4 ist das erste Frontier-Modell, das vollständig auf Huawei Ascend 950PR portiert wurde — die Chip-Performance liegt 2,8x über Nvidias H20. Alibaba, Bytedance und Tencent haben bereits hunderttausende Einheiten geordert, die Preise stiegen um 20%. Damit ist Chinas KI-Souveränität in der Hardware-Schicht keine Hypothese mehr, sondern Lieferdatum. Vendor-Risikobewertungen müssen Nvidia-Lock-in und chinesische Alternativen ab sofort als realistische Achsen führen.

Cursor 3 baut die IDE als Agent-Flotte um

Komplettes Agent-first-Redesign: parallele Agents über mehrere Repos, Cloud-Agents mit Auto-Demo-Generierung, Plugin-Marketplace. Das ist nicht eine neue Funktion — das ist die Aufgabe der Annahme, dass eine IDE ein Werkzeug für einen Menschen ist. Für CIO-Agendas heißt das: Dev-Tooling-Strategien, die in den letzten zwölf Monaten verabschiedet wurden, brauchen jetzt einen zweiten Blick — die zugrunde liegende Architektur-Annahme verschiebt sich.

OpenAI Codex stellt auf Usage-Based-Pricing um — Frontalangriff auf Per-Seat

Codex verlässt das Fixed-License-Modell und rechnet pro Nutzung ab — bei 2 Mio. Weekly Active Users und einer 6x-Steigerung der Business-Nutzung seit Januar. Das ist die direkte Konfrontation mit GitHub Copilot und Cursor, die beide auf Per-Seat fahren. Beschaffungsentscheidungen für Coding-Assistenten müssen Verbrauchsmodelle und Heavy-User-Szenarien jetzt mitkalkulieren — Per-Seat war einfach, ist aber nicht mehr automatisch günstig.

Google Gemma 4 erreicht Frontier-Niveau mit 31B unter Apache 2.0

Vier Modelle von 2B bis 31B, erstmals unter Apache 2.0 — das 31B landet auf Platz 3 im Arena AI Text Leaderboard. Echte kommerzielle Freiheit für Google-Open-Source-Modelle, bei einem Zwanzigstel der Parameterzahl der Frontier-Closed-Modelle. Für regulierte Branchen, On-Premise-Deployments und EU-Souveränitätsanforderungen ist das die erste Option, die Performance und Lizenzfreiheit in einem Paket liefert.

Microsoft investiert 10 Mrd. USD in Japan und plant 1 Mio. Engineers bis 2030

Größtes Japan-Investment in der Microsoft-Geschichte, Partnerschaft mit SoftBank und Sakura Internet, plus die Ausbildung von einer Million Engineers bis 2030. Das ist Geo-Diversifizierung gegen das US-Elektrik-Bottleneck und gegen die geopolitische Iran-Asien-Exposition gleichzeitig. Für DACH-Kunden mit Multi-Region-Cloud-Strategien wird Japan in den nächsten 18 Monaten ein ernsthaftes Compliance- und Latenz-Argument.

← Alle Radar-Einträge · Beobachtungen