Von neuen Funktionen auf der Microsoft Build 2023 über Metas fortschrittliches Chameleon-Modell bis hin zu Chinas Strategie zur Anwerbung von KI-Talenten – die Welt der künstlichen Intelligenz entwickelt sich rasend schnell. In diesem Blogbeitrag beleuchten wir die neuesten Entwicklungen und ihre Auswirkungen, von nachhaltigen Energieinitiativen wie Googles Nutzung von Rechenzentrumsabwärme bis hin zu ethischen Fragen rund um die Täuschungsfähigkeit von KI. Diese Technologien bieten immense Chancen, bringen aber auch Herausforderungen mit sich, die verantwortungsvollen Umgang und klare rechtliche Rahmenbedingungen erfordern.
1. KI-Neuerungen auf der Build
Auf der Microsoft Build 2024 hat CEO Satya Nadella jede Menge KI-Neuheiten vorgestellt. Eine davon ist die Suchfunktion „Recall”, die sich besuchte Webseiten und Gesprächsinhalte aus Meetings merkt, um eine kontextbezogene Suche zu ermöglichen. Entwickler können sich auf die „Copilot Extensions” für GitHub freuen und Windows hat jetzt das KI-Framework PyTorch integriert, was ihre Effizienz und Produktivität steigern können soll. Außerdem hat Microsoft Azure AI Studio um Funktionen wie dem neuen OpenAI Modell GPT-4o erweitert. Damit will Microsoft KI-Fähigkeiten für Entwickler noch zugänglicher und somit attraktiver machen. Für Privatanwender gibt es jetzt einen KI-Assistenten für das Hauseigene Sandbox-Spiel Minecraft, welcher die Spielerfahrung verbessern soll, indem er unter anderem relevante Tipps geben kann. Zusätzlich kommt der Copilot jetzt auch als Team-Version für Microsoft Teams und Planner, damit Teams besser zusammenarbeiten können. Allerdings muss noch geschaut werden, wie gut Windows On Arm im Alltag wirklich funktioniert und ob Datenschutzbedenken bei der Speicherung von persönlichen Daten und Gesprächsinhalten berechtigt sind.
2. Microsoft und sein neues GPT-Modell
Wo wir gerade dabei sind: OpenAI hat im Rahmen des Spring-Updates GPT-4o vorgestellt. Das neue Audio-, Text- und Bildmodell soll in ChatGPT und über die API verfügbar sein. Es verspricht doppelt so schnell, halb so teuer zu sein, eine verbesserte Latenz und ein fünffaches Rate-Limit im Vergleich zu GPT-4 Turbo zu haben. Mit der Integration von GPT-4o in Azure AI Studio können Entwickler ihre Projekte auf einer leistungsfähigen und effizienten Plattform umsetzen. Auch die Desktop-Anwendung wird erneuert, um die wachsende Funktionsvielfalt bei gleichbleibender Benutzerfreundlichkeit zu bewältigen. Mit GPT-4o kann man das Smartphone als Kamera nutzen, Fragen stellen und Antworten erhalten, mathematische Rechnungen auf Papier überprüfen, Programmcodes analysieren und Emotionen in Live-Selfies erkennen. Die Text- und Bildfunktionen von GPT-4o sind sofort verfügbar, der Sprachmodus kommt als Alpha-Version für ChatGPT Plus. Neu sind auch provisorische Chats, die nicht gespeichert werden, aber aus Sicherheitsgründen 30 Tage lang aufbewahrt werden.
3. Metas Chameleon
Und auch Meta hat ein neues KI-Modell entwickelt: „Chameleon“ kann Text und Bilder gleichzeitig verarbeiten. Im Gegensatz zu früheren Modellen, die über getrennte Systeme für Text und Bilder verfügten, verwendet Chameleon eine einheitliche Transformer-Architektur, um die Verarbeitung beider Modalitäten nahtlos zu integrieren. Das Modell wurde mit großen Datenmengen trainiert, so dass es frühere Modelle bei Aufgaben wie der Beantwortung visueller Fragen und der automatischen Bildbeschreibung übertrifft. Das Besondere an Chameleon ist seine Fähigkeit zur gemischtmodalen Inferenz und Generierung, d.h. es kann gleichzeitig Text und Bilder interpretieren und generieren – ähnlich wie z.B. ChatGPT. Dies bietet den Benutzern eine verbesserte Genauigkeit und Vielseitigkeit bei Aufgaben wie der automatischen Bildbeschreibung und der Beantwortung visueller Fragen. Obwohl die Fähigkeiten von Chameleon beeindruckend sind, gibt es Bedenken hinsichtlich der Datensicherheit und der ethischen Nutzung, die beim Einsatz dieser fortgeschrittenen KI-Technologie berücksichtigt werden müssen.
4. KI in der Medizin
Auf dem 128. Deutschen Ärztetag wurde mit großer Mehrheit beschlossen, dass sich der Vorstand der Bundesärztekammer für einen verantwortungsvollen Umgang mit Künstlicher Intelligenz einsetzen soll. Sie fordern einen verbindlichen Rechtsrahmen, der sich an den Vorgaben der EU-KI-Verordnung und der Europaratskonvention orientiert. Dabei müssen Menschenrechte sowie demokratische und rechtsstaatliche Prinzipien gewahrt bleiben. KI soll nur zum Wohle der Menschen eingesetzt werden. Die Ärztinnen und Ärzte wollen sicherstellen, dass die Daten, die in KI-Systemen verwendet werden, von guter Qualität sind. Außerdem muss nachvollziehbar sein, worauf genau medizinische Entscheidungen einer KI basieren. KI-Systeme, die nicht unseren Werten entsprechen, sollen nicht zum Einsatz kommen. Verstöße sollen sanktioniert werden, so die Forderung. Die Ärztinnen und Ärzte betonen, dass KI den Arzt unterstützen, aber nicht ersetzen soll. So wollen sie verhindern, dass es zu einer Zwei-Klassen-Medizin kommt.
5. Fernwärme durch Rechenzentren
Ab 2024 leitet Google die Abwärme eines Rechenzentrums in Hamina, Finnland, an die örtliche Fernwärmeversorgung weiter. Das spart langfristig Kosten und schont Primärenergieträger. Außerdem hilft es, CO₂ zu reduzieren. Trotz dieser positiven Entwicklung zeigt der Umweltbericht von Microsoft, dass der steigende Energiebedarf durch KI-Rechenzentren zu erheblichen Emissionen führen kann. Im Fiskaljahr 2023 hat Microsoft 15,4 Millionen metrische Tonnen CO₂ verursacht, ein Anstieg um bis zu 40 Prozent gegenüber 2020. Neue Technologien und Hardware für KI-Algorithmen sind dabei die Haupttreiber. Auch der Wasserverbrauch und der Strombedarf haben sich fast verdoppelt. Microsoft gibt zu, dass die neuen Technologien die Emissionen in die Höhe treiben. Aber sie arbeiten auch an Projekten, um das CO₂ wieder aus der Luft zu holen. Google zeigt, wie Technologieunternehmen nachhaltiger werden können. Aber ob das wirklich klappt, ist noch nicht raus.
6. Lügende und täuschende KI
Eine Studie des Massachusetts Institute of Technology (MIT) zeigt, dass KI-Systeme Menschen täuschen und manipulieren können, selbst wenn sie darauf trainiert wurden, ehrlich und hilfreich zu sein. Ein Beispiel ist Metas KI-System Cicero, das im Strategiespiel „Diplomacy” bewusst täuschte, um zu gewinnen. Auch OpenAI’s GPT-4 konnte täuschen. Es hat über TaskRabbit einen Menschen beauftragt, ein CAPTCHA zu lösen, und sich als Person mit eingeschränktem Sehvermögen ausgegeben. Solche Täuschungen könnten zu mehr Betrug und politischer Manipulation führen. Deshalb fordern die Forscher strengere Vorschriften. Sie sagen, dass die Fähigkeit von KI zur Täuschung echt gefährlich ist, vor allem, wenn sie von böswilligen Akteuren genutzt wird. Die könnten zum Beispiel gefälschte Nachrichten und spalterische Inhalte in sozialen Medien erstellen. Deshalb müssen wir unbedingt Maßnahmen ergreifen, um solche Risiken zu begrenzen.