Die Woche, in der ChatGPT schöner zeichnete als du. KI ist überall – in Ringen, die Sprache erkennen, in Tools, die aus Bildern Filme machen, und in Systemen, die Wetter besser vorhersagen als klassische Modelle. Aber zwischen all den Wow-Momenten gibt’s auch reichlich Fragezeichen. Wie klug ist KI wirklich? Wie fair, wie transparent? Und wo stoßen selbst die besten Modelle an ihre Grenzen? In diesem Blog schaue ich auf die spannendsten Entwicklungen der letzten Tage – mit Neugier, aber auch mit einer gewissen Portion Skepsis.

Ein Ring, sie alle zu verstehen
Ein Ring, der Gebärdensprache erkennt? Klingt nach Sci-Fi, ist es aber nicht. Der Daumenring „SpellRing“ der Cornell-Universität erkennt mithilfe von Mikro-Sonar und einem Mini-Gyroskop das Fingeralphabet der Amerikanischen Gebärdensprache – und das unterwegs, ohne aufwendige Technik.
Bisherige Lösungen wie Kameras oder Sensorhandschuhe waren sperrig und nur stationär einsetzbar. Der SpellRing funktioniert hingegen mobil und wurde mit über 20.000 Wörtern getestet – mit einer Erkennungsgenauigkeit von bis zu 92 %. Noch beschränkt sich das System auf Buchstaben, doch die Forschenden planen bereits eine Erweiterung: Eine Brille soll künftig Mimik und Oberkörperbewegungen erfassen. Das Ziel ist die vollständige Erkennung der Gebärdensprache. Der Ring steht exemplarisch für das Potenzial spezialisierter KI – nicht durch spektakuläre Intelligenz, sondern durch durchdachte Sensorik, maschinelles Lernen und das richtige Maß an Nutzerorientierung.
Wetterprognosen aus dem Wohnzimmer
Mit Aardvark Weather läuft eine vollständige KI-Wettervorhersage erstmals auf einem Desktop-PC – und das in Minuten. Entwickelt von einem britischen Forschungsteam ersetzt das System alle bisherigen Teilmodelle durch eine einzige KI, die mit Daten von Satelliten, Wetterstationen & Co. arbeitet. Trotz nur 10 % der üblichen Messdaten schlägt Aardvark das GFS-Modell des US-Wetterdienstes in Genauigkeit. Die Idee: Wettervorhersagen demokratisieren, die KI übernimmt den gesamten Prognoseprozess – gerade für Regionen im Globalen Süden, wo es an Infrastruktur fehlt. Die Technologie kann auch auf Katastrophenszenarien wie Hurrikans oder Waldbrände angewendet werden. Dass das System günstiger, schneller und vielseitiger ist, macht es besonders relevant. Ja, Skepsis ist erlaubt – gerade bei Extremszenarien wie Hurrikans.KI fängt eben gerade erst an nützlich statt nur „cool“ zu sein.


GitHub Copilot kommentiert jetzt deinen Code
Dokumentation muss nicht immer nerven – zumindest nicht mit GitHub Copilot in Visual Studio 17.14 Preview 2. Der KI-Assistent schreibt automatisch Kommentare für Codeabschnitte in C++ und C#. Sobald man ein Kommentarformat wie ///
beginnt, schlägt Copilot eine passende Funktionsbeschreibung vor, inklusive Parametern und Rückgabewerten. Die Vorschläge lassen sich per Tab-Taste übernehmen – ähnlich wie bei Codevervollständigung. Das spart Zeit, verbessert die Lesbarkeit und kann zu besserer Codequalität führen. Besonders praktisch: Auch Dokumentationsformate wie XML oder Doxygen werden unterstützt. Wer schon mit Copilot arbeitet, kann die neue Funktion mit einem aktiven Abo (auch Free-Tier) sofort nutzen. Natürlich ersetzt das Feature keine eigene Sorgfalt – aber es macht die ungeliebte Doku deutlich effizienter. Ein gutes Beispiel dafür, wie man KI für repetitive Aufgaben in der Softwareentwicklung nutzen kann.
China kennzeichnet KI-Inhalte
Ab September 2025 gelten in China neue Kennzeichnungspflichten für KI-generierte Inhalte. Texte, Bilder, Videos und Audios müssen künftig sowohl sichtbar als auch in den Metadaten als KI-Inhalte markiert werden. Selbst App-Store-Betreiber wie Google und Apple müssen prüfen, ob die Apps entsprechende Funktionen korrekt kennzeichnen. Verstöße – etwa das Entfernen oder Verschleiern der Hinweise – werden strafbar. Eine Übergangsfrist von sechs Monaten soll den Unternehmen Zeit zur technischen Umsetzung geben. Ziel ist es, Falschinformationen und Deepfakes besser zu kontrollieren. China ist schneller als die EU mit dem AI Act und zeigt der Welt, wie radikal Regulierung aussehen kann. Und das mit einer Übergangsfrist von sechs Monaten. Die Idee ist richtig, aber der Ton macht die Musik. Klar ist: Die Verantwortung verlagert sich zunehmend von den NutzerInnen hin zu den Plattformen.


AGI-Test: Mensch denkt, KI rät
Mit dem neuen ARC-AGI-2-Test zeigt die ARC Prize Foundation, wie weit KI noch von echter Intelligenz entfernt ist. Die Aufgaben erinnern an klassische IQ-Tests: Formen kombinieren, Muster erkennen, Regeln anwenden. Menschen schnitten mit einer Erfolgsquote von rund 60 % ab – aktuelle KI-Modelle wie GPT-4.5, o1 oder Claude kamen kaum über 1 %. Autsch.
Neu ist auch: Der Test misst Effizienz, nicht nur Richtigkeit. Intelligenz bedeutet also nicht nur „lösen“, sondern auch: „Wie schnell, wie ressourcenschonend?“ Trotz gewaltiger Fortschritte im Sprachverständnis zeigt sich hier eine klare Grenze – besonders im Umgang mit neuen, ungewohnten Problemstellungen. Wer AGI – also „echte künstliche Intelligenz“ – schon am Horizont sah, muss sich jetzt vielleicht doch noch mal setzen. Der Test ist ein Statement gegen überzogene AGI-Hoffnungen und erinnert daran, dass Menschliches Denken mehr ist als Statistik.
Endlich richtiger Text im Bild?
Mit dem 4o-Modell integriert OpenAI eine neue Generation der Bildgenerierung direkt in ChatGPT. Statt zwei separater Modelle für Text und Bild arbeitet 4o nativ multimodal – das heißt: ein Prompt, ein Modell, sofort visuelles Ergebnis. Möglich sind jetzt bessere Logos, Infografiken und sogar Visitenkarten – inklusive Text in korrekter Schrift und Farbe.
Wie viel besser das funktioniert kann man auch in diesem Blog begutachten, da die Texte in den Bildern nun sehr gut passen.
Bilder können zudem verändert oder auf Basis von Fotos neu gestaltet werden, etwa für Einrichtungs-Ideen. Ein Plus: Transparente Hintergründe lassen sich direkt erzeugen. Alle Inhalte enthalten Metadaten-Hinweise auf KI-Herkunft (C2PA). Gleichzeitig betont CEO Sam Altman die größere Freiheit für NutzerInnen: weniger Einschränkungen, mehr Kontrolle – aber auch mehr Verantwortung. Technisch top, ethisch auch weiterhin ein Drahtseilakt.


Studio Ghibli im KI-Stil – kreativ oder kritisch?
Mit OpenAIs Bildgenerator verbreiten sich aktuell massenhaft Bilder im Stil von Studio Ghibli – Was dabei ein bisschen untergeht: Ghibli selbst hat mit all dem nichts zu tun. Selbst Sam Altman zeigt sich im Ghibli-Look. Die Tools übertragen reale Fotos oder Prompts in den ikonischen Anime-Stil. Und die Frage, ob OpenAI mit echten Filmen trainiert hat, ist – sagen wir mal – unangenehm offen. KünstlerInnen wie Sarah Andersen klagen bereits wegen Stil-Kopien. Die Grenze zwischen Hommage und Verletzung geistigen Eigentums verschwimmt. Der Trend zeigt das kreative Potenzial der KI – aber wenn KI ohne Genehmigung ganze visuelle Handschriften kopiert, haben wir ein Problem.
Stable Virtual Camera
Stability AIs Stable Virtual Camera verwandelt 2D-Bilder in 3D-Modelle – inklusive dynamischer Kamerafahrten wie Dolly-Zoom oder Spirale. Möglich macht das ein Diffusionsmodell, das einzelne oder bis zu 32 Bilder analysiert. Im Gegensatz zu herkömmlichen Tools kommt Stable Virtual Camera ohne komplexe Rekonstruktionen aus. Das System liefert Tiefe und Perspektive, die sich realistisch anfühlen – auch wenn Menschen, Tiere und Wasser noch einige Schwächen zeigen. Aktuell steht die Technologie als nicht-kommerzielle Research Preview auf Hugging Face und GitHub zur Verfügung. Erste Benchmarks zeigen: Die Stable Virtual Camera schlägt vergleichbare Modelle wie ViewCrafter oder CAT3D.
