Das neue R1-KI-Modell von DeepSeek wird deutlich weniger Energie verbrauchen

DeepSeek, das aus China stammt, die Welt erobert hat und als größter Konkurrent von ChatGPT gilt, kann seinen ohnehin guten Stromverbrauch neuen Nachrichten zufolge auf ein viel höheres Niveau heben. Berichten zufolge hat das aktualisierte R1-KI-Modell der künstlichen Intelligenzanwendung ein Niveau erreicht, das auf einer einzelnen GPU ausgeführt werden kann. Mit der Veröffentlichung des DeepSeek-R1-0528-Qwen3-8B, einer kleineren Version des neuen R1-Modells, behauptet DeepSeek, dass dieses Modell in bestimmten Benchmark-Tests ähnlich große Modelle übertrifft.
Basierend auf dem Qwen3-8B-Modell, das Alibaba im Mai auf den Markt brachte, schnitt die kleinere und aktualisierte R1-Version im AIME 2025-Test, der aus anspruchsvollen Mathematikfragen besteht, deutlich besser ab als das Gemini 2.5 Flash-Modell von Google.
DeepSeek-R1-0528-Qwen3-8B erzielte bei einem anderen Mathematiktest, HMMT, fast die gleiche Leistung wie das kürzlich veröffentlichte Phi 4-Modell von Microsoft.
Sogenannte verkleinerte Modelle wie DeepSeek-R1-0528-Qwen3-8B sind im Allgemeinen weniger leistungsfähig als ihre Gegenstücke in voller Größe, können sich aber dennoch durch ihre Leistung auszeichnen. Der wichtigste Vorteil dieser Versionen besteht natürlich darin, dass sie viel weniger Rechenressourcen benötigen.
Laut der Cloud-Plattform NodeShift benötigt Qwen3-8B zum Ausführen eine GPU (z. B. eine Nvidia H100) mit 40 GB – 80 GB RAM. Beim Vergleich mit dem neuen R1 in voller Größe sehen wir, dass dieses Modell etwa ein Dutzend 80-GB-GPUs benötigt.
DeepSeek-R1-0528-Qwen3-8B ist unter einer freizügigen MIT-Lizenz verfügbar, d. h. es kann ohne Einschränkungen kommerziell genutzt werden. Viele Distributoren, darunter LM Studio, bieten dieses Modell über eine API an.
milliyet