Bahnbrechende KI-Chips, GPT-4-Sprachverzögerung, Claude 3.5-Dominanz und KI-gesteuerte Spiele

Entdecken Sie die neuesten KI-Fortschritte, darunter leistungsfähige KI-Chips, OpenAIs Sprachverzögerung, die Dominanz von Claude 3.5 und KI-gesteuerte Gaming-Innovationen. Bleiben Sie auf dem Laufenden über die sich schnell entwickelnde KI-Landschaft.

24. Februar 2025

party-gif

Entdecken Sie die neuesten Fortschritte in der KI-Technologie, von bahnbrechenden KI-Chips und Sprachfähigkeiten bis hin zur Dominanz von KI-Modellen in der Programmierung und Spieleentwicklung. Dieser Blogbeitrag bietet einen umfassenden Überblick über die wichtigsten KI-Nachrichten und stattet Sie mit den Erkenntnissen aus, um der Kurve voraus zu sein.

Der neue KI-Chip, der GPUs übertrifft

Die erste Geschichte heute handelt von einem neuen KI-Chip-Unternehmen namens Etched, das behauptet, mehr als 500.000 Token pro Sekunde mit LLaMA 70B generieren zu können. Dieser Chip, genannt Sohu, ist der erste spezialisierte ASIC (anwendungsspezifischer integrierter Schaltkreis) für Transformer-Modelle.

Es heißt, Sohu sei mehr als 10-mal schneller und günstiger als selbst Nvidias nächste Generation der Blackwell-GPUs. Ein Sohu-Server kann über 500.000 LLaMA 70B-Token pro Sekunde ausführen, was 20-mal mehr ist als eine Nvidia H100 und 10-mal mehr als eine Blaize B2.

Der Hauptvorteil von Sohu ist seine Spezialisierung auf Transformer-Modelle, die die Grundlage der meisten wichtigen KI-Produkte heute sind. Das Unternehmen behauptet, dass, da Transformer-Modelle dominanter werden, maßgeschneiderte Chips wie Sohu unerlässlich sein werden, da GPUs nicht schnell genug in der Rechenleistungsdichte verbessert werden, um Schritt zu halten.

Etched glaubt, dass die Architektur, die Transformer am schnellsten und kostengünstigsten auf Hardware ausführt, den "Hardware-Jackpot" gewinnen wird. Sie argumentieren, dass KI-Labore Hunderte von Millionen für die Optimierung von Kernels für Transformer ausgeben und Start-ups spezialisierte Transformer-Softwarebibliotheken verwenden, was es "Transformer-Killern" schwer macht, bei GPUs aufzuholen.

Insgesamt stellt der Sohu-Chip von Etched einen bedeutenden Fortschritt in der KI-Hardware dar und könnte die Dominanz von GPUs in diesem Bereich stören.

Die Verzögerung bei OpenAIs Sprachfähigkeiten

OpenAI hat eine Verzögerung bei der Einführung des erweiterten Sprachmodus für ChatGPT angekündigt, der zuvor bei der Frühjahrsupdate demonstriert wurde. Das Unternehmen nennt die Notwendigkeit, die Fähigkeit des Modells zur Erkennung und Ablehnung bestimmter Inhalte zu verbessern, sowie die Verbesserung der Benutzererfahrung und die Vorbereitung der Infrastruktur, um auf Millionen von Nutzern zu skalieren, während Echtzeitantworten aufrechterhalten werden.

Das Unternehmen plant, die Alpha-Version des erweiterten Sprachmodus Ende Juni einer kleinen Gruppe von ChatGPT Plus-Nutzern zur Verfügung zu stellen, mit dem Ziel, sie allen Plus-Nutzern im Herbst zugänglich zu machen. Der genaue Zeitplan hängt jedoch davon ab, ob ihre hohen Sicherheits- und Zuverlässigkeitsstandards erfüllt werden.

OpenAI arbeitet auch an der Einführung neuer Video- und Bildschirmfreigabefähigkeiten, die separat angekündigt werden. Der erweiterte Sprachmodus soll ChatGPT näher an Echtzeit-Naturunterhaltungen mit KI bringen, mit der Fähigkeit, Emotionen und nonverbale Signale zu verstehen und darauf zu reagieren.

Die Verzögerung bei der Einführung dieser Funktionen ist enttäuschend, da sie an die lange Wartezeit für die Veröffentlichung von Whisper, OpenAIs Sprachmodell, erinnert. Das Unternehmen betont jedoch die Wichtigkeit, ein hohes Maß an Sicherheit und Zuverlässigkeit zu gewährleisten, bevor diese Fähigkeiten allgemein verfügbar gemacht werden.

Die Dominanz des Anthropic-Modells Claude 3.5

Das Claude 3.5-Modell von Anthropic hat einen bedeutenden Sprung gemacht und sich den ersten Platz in der Coding Arita Hard Prompts Arena und den zweiten Platz in der Gesamtrangliste gesichert. Das neue Sonet-Modell hat Opus zu einem Bruchteil der Kosten übertroffen und ist über die gesamte Bandbreite hinweg wettbewerbsfähig mit Frontier-Modellen wie GPT-4 und Gemini 1.5 Pro.

In einem früheren Video testete der Ersteller das Claude 3.5 Sonet-Modell und fand es als das beste Modell, das er je getestet hatte. Das Modell zerstörte die Tests des Erstellers völlig, was zu einer Anfrage nach neuen, anspruchsvolleren Tests führte.

Vergleiche zwischen Claude 3.5 und GPT-4 bei Coding-Aufgaben zeigen, dass Claude 3.5 GPT-4 bei Aufgabenerfolg und vollständigem Projekterfolg übertrifft, auch wenn GPT-4 eine etwas höhere Builderfolgssrate hat. Außerdem ist Claude 3.5 ausführlicher, was für längere Codeabschnitte von Vorteil sein kann, aber die Generierung verlangsamen kann. Das Modell neigt auch dazu, bei der Befolgung von Anweisungen in großen Prompts weniger zuverlässig zu sein als GPT-4.

Insgesamt ist die Dominanz des Claude 3.5-Modells von Anthropic in den Coding- und Hard-Prompts-Arenen eine beachtliche Leistung, die die kontinuierlichen Fortschritte in großen Sprachmodellen und ihren Anwendungen zeigt.

Die KI-generierte Videospiel-Footage

Das von dem Twitter-Nutzer chubby gezeigte Video ist wirklich bemerkenswert, da es die unglaublichen Fähigkeiten von KI bei der Erzeugung realistischer Videospielaufnahmen demonstriert. Die Visuals, die von einem Call of Duty-ähnlichen Spiel inspiriert zu sein scheinen, sind atemberaubend realistisch, wobei die KI-generierten Ton- und Bildeffekte nahtlos verschmelzen, um ein immersives Erlebnis zu schaffen.

Obwohl die Qualität der Aufnahmen beeindruckend ist, stellt die erforderliche Rechenleistung für die Erzeugung dieser Realitätsnähe in Echtzeit nach wie vor eine erhebliche Herausforderung dar. Wie von Jensen, dem CEO von Nvidia, erwähnt, ist dies die Zukunft der Videospiele und wird die Branche auf neue Höhen bringen.

Das Video hebt die rasanten Fortschritte in der KI-gesteuerten Inhaltserstellung hervor, bei denen die Grenze zwischen Realität und künstlicher Schöpfung immer mehr verschwimmt. Mit der Weiterentwicklung der Technologie können wir in naher Zukunft noch beeindruckendere und realistischere KI-generierte Videospielerlebnisse erwarten.

Apples Datenschutzbedenken bei der Meta-KI-Integration

Apple hat entschieden, KI-Modelle von Meta, wie das Llama 3-Modell, aufgrund von Datenschutzbedenken nicht in Siri zu integrieren. Diese Entscheidung kommt nur wenige Tage, nachdem Berichte aufgetaucht waren, dass Apple mit Meta über die Integration von dessen KI-Modellen verhandelte.

Der Hauptgrund für Apples Entscheidung sind die Bedenken des Unternehmens hinsichtlich der Datenschutzpraktiken von Meta. Apple hat die Kritik an Metas Ansatz zum Datenschutz der Nutzer deutlich gemacht und der Technologiegigant möchte sich wahrscheinlich nicht mit einem Unternehmen in Verbindung bringen lassen, das mit zahlreichen Datenschutz-Skandalen konfrontiert war.

Obwohl Apple die KI-Modelle selbst hätte hosten und die Datenschutzaspekte hätte kontrollieren können, entschied sich das Unternehmen dennoch gegen die Integration. Dies deutet darauf hin, dass Apples Bedenken über die rein technische Umsetzung hinausgehen und sich auch auf die allgemeineren Reputationsrisiken einer Partnerschaft mit Meta erstrecken.

Die Entscheidung unterstreicht Apples Engagement für den Datenschutz der Nutzer und seine Bereitschaft, auf potenzielle KI-Fähigkeiten zu verzichten, wenn diese auf Kosten seiner Kernwerte gehen.

FAQ