Deepseek im Test: Effizientes Open-Source-LLM aus China

Deepseek – Deepseek im Test: Effizientes Open-Source-LLM aus China
Deepseek im Test: Effizientes Open-Source-LLM aus China (Symbolbild)

Ein chinesisches KI-Unternehmen schickt sich an, die Branche aufzumischen. Deepseek heißt der Newcomer, und sein neuestes Modell performt auf Augenhöhe mit ChatGPT – zu einem Bruchteil der Kosten. Wir haben uns das angeschaut und die Ergebnisse sind bemerkenswert.

Inhalt

Die KI-Welt ist in Aufruhr. Während die amerikanischen Giganten Milliarden in Rechenzentren pumpen, kommt ein chinesisches Startup mit einem Modell daher, das angeblich genauso gut ist – aber deutlich günstiger. Deepseek nennt sich das Unternehmen, und sein neuestes Modell hat nicht nur die Branche überrascht, sondern auch an den Börsen für Furore gesorgt. Die Frage ist nur: Zu Recht? Wir bei digital-magazin.de haben das Modell getestet und teilen unsere Einschätzung mit Ihnen.

Was ist Deepseek überhaupt?

Deepseek ist ein chinesisches KI-Unternehmen, das sich auf die Entwicklung großer Sprachmodelle spezialisiert hat. Gegründet wurde es 2023 von High-Speed-Investoren aus der Hedgefonds-Szene. Was anfangs wie ein weiterer Player in der überfüllten KI-Landschaft aussah, hat sich schnell als ernstzunehmender Konkurrent entpuppt, der mit etablierten Playern auf Augenhöhe konkurrieren kann – und das ist keine kleine Leistung.

Das Unternehmen hat mehrere Modelle veröffentlicht, darunter Deepseek-V3 und Deepseek-Coder. Was sie unterscheidet: Sie sind teilweise Open Source, was bedeutet, dass Entwickler weltweit den Code einsehen und nutzen können. Das ist ein deutlicher Unterschied zu den geschlossenen Systemen von OpenAI, Google oder Anthropic – und für viele ein wichtiges Argument, das für Deepseek spricht und das die Debatte um Open Source vs. Closed Source neu aufmischt.

Der aktuelle Hype dreht sich vor allem um die Effizienz des Trainings. Während andere Unternehmen mit Tausenden von Hochleistungs-GPUs arbeiten, schafft Deepseek vergleichbare Ergebnisse mit deutlich weniger Ressourcen. Das hat Implikationen für die gesamte Branche – und das ist keine Übertreibung, sondern eine Tatsache, die die Grundannahmen über KI-Entwicklung infrage stellt und zeigt, dass noch lange nicht alles gesagt ist.

Wie gut ist das Modell wirklich?

Die Benchmarks sind beeindruckend. In mehreren Standardtests für KI-Modelle liegt Deepseek-V3 auf Augenhöhe mit GPT-4 und Claude 3.5. Bei Programmieraufgaben schneidet es sogar besser ab als einige Konkurrenten – ein Bereich, in dem die Modelle traditionell stark variieren. Für uns bei digital-magazin.de ein Grund, genauer hinzuschauen und eigene Tests durchzuführen, um die Grenzen des Modells auszuloten.

Wir haben das Modell unter die Lupe genommen. Die Fähigkeiten in deutschen Texten sind gut, wenn auch nicht perfekt. Die semantische Verständnis ist solide, und die logische Kohärenz in längeren Antworten überraschend konstant. Was auffällt: Das Modell neigt weniger zu Halluzinationen als manche Konkurrenten, wirkt aber manchmal etwas steril in der Formulierung. Das ist Geschmackssache, aber es fällt auf – und in manchen Anwendungsfällen ist das ein Nachteil, der nicht ignoriert werden kann.

Die Stärken zeigen sich besonders bei Code-Aufgaben. Entwickelnde, die Deepseek-Coder getestet haben, berichten von qualitativ hochwertigem Code in verschiedenen Programmiersprachen. Die Fehlerquote ist niedrig, und die Syntax ist sauber. Für Entwicklerteams, die nach einem kostengünstigen KI-Assistenten suchen, könnte das interessant sein – besonders wenn das Budget nicht unbegrenzt ist und man trotzdem nicht auf Qualität verzichten will.

Warum der Börsenknick?

Als Deepseek sein neuestes Modell vorstellte, reagierte der Aktienmarkt heftig. Nvidia verlor zeitweise an Wert, weil Anleger fragten: Wenn ein kleines Unternehmen aus China mit weniger Ressourcen vergleichbare Ergebnisse erzielt, braucht die Welt dann wirklich so viele teure Chips? Eine berechtigte Frage, aber möglicherweise überinterpretiert, die zeigt, wie nervös die Märkte derzeit sind.

Effizienz im Training bedeutet nicht notwendigerweise, dass die Nachfrage nach High-End-Hardware sinkt. Die Modelle müssen trotzdem inferiert werden – also laufen – und das braucht Rechenpower. Aber der Druck auf die Infrastruktur-Kosten könnte sinken, was langfristig KI günstiger macht. Das ist ein wichtiger Punkt, den man im Auge behalten sollte, wenn man die KI-Branche verstehen will – und der zeigt, dass die Entwicklungen nicht so linear sind, wie manche denken.

Interessant ist auch die geopolitische Dimension. Deepseek zeigt, dass China in der KI-Forschung nicht hinterherhinkt, sondern vorne dabei ist. Das hat Auswirkungen auf die geopolitische KI-Rivalität zwischen den USA und China. Beide Seiten investieren massiv, aber die Fortschritte der anderen Seite erhöhen den Druck. Das ist ein Rennen, das noch lange nicht entschieden ist – und dessen Ausgang niemand vorhersagen kann.

Deepseek – Deepseek im Test: Effizientes Open-Source-LLM aus China – Szene
Deepseek im Test: Effizientes Open-Source-LLM aus China – Detailszene (Symbolbild)

Der Datenschutz-Aspekt

Deepseek hat einen entscheidenden Nachteil, der nicht übersehen werden kann: Das Unternehmen sitzt in China. Das wirft Fragen auf, die nicht einfach zu beantworten sind. Was passiert mit den Daten, die Nutzer an Deepseek senden? Wie sieht die chinesische Rechtslage bezüglich KI-Daten aus? Diese Fragen sind nicht trivial, und sie verdienen ernsthafte Antworten – keine Marketing-Rhetorik, keine Vertröstungen.

Italien hat das Modell bereits blockiert. Die italienische Datenschutzbehörde hat Bedenken bezüglich der Datenverarbeitung geäußert und vor einer Nutzung gewarnt. Für europäische Nutzer ist das ein ernstzunehmender Punkt – die DSGVO gilt, und ein chinesisches Unternehmen muss sich schon anstrengen, um sie zu erfüllen. Ob das gelingt, ist eine andere Frage, die im Raum steht und die noch keine zufriedenstellende Antwort gefunden hat.

Für Unternehmen, die Deepseek nutzen möchten, empfehlen wir dringend, die Datenschutzrichtlinien genau zu prüfen und im Zweifel rechtlichen Rat einzuholen. Das gilt insbesondere, wenn sensible Daten verarbeitet werden sollen. Ein KI-Assistent ist nur so gut wie die Daten, die man ihm anvertraut – und die sollten nicht ungeschützt in China landen. Das ist keine Übertreibung, sondern eine realistische Einschätzung, die Sie beherzigen sollten.

Open Source als Trumpfkarte

Die Open-Source-Community hat das Modell bereits in verschiedene Richtungen weiterentwickelt. Es gibt Varianten, die auf bestimmte Sprachen optimiert sind – darunter auch Deutsch, was für uns natürlich besonders relevant ist. Andere Forks konzentrieren sich auf bestimmte Anwendungsfälle: Code-Generierung, Textzusammenfassung, Chatbot-Funktionalität. Diese Vielfalt ist ein Zeichen dafür, wie lebendig die Open-Source-Gemeinschaft ist und wie schnell sie auf neue Entwicklungen reagiert. Semantisch passt dazu unser Hintergrund KI-Companion-Apps: Wenn der Chatbot zum besten Freund wird.

Interessant ist auch die Diskussion um die Sicherheitsimplikationen von Open-Source-KI. Einerseits ermöglicht Open Source öffentliche Überprüfung und damit potenzielle Sicherheits-Audits. Andererseits können auch Angreifer die Modelle untersuchen und deren Schwächen finden. Diese Zweiheit – Transparenz als Stärke und als potenzielle Schwachstelle – ist ein zentrales Thema in der KI-Sicherheitsdebatte, das noch lange nicht aufgelöst ist.

Für Unternehmen, die Deepseek einsetzen möchten, empfiehlt sich ein schrittweiser Ansatz: Testen Sie das Modell zunächst für nicht-kritische Aufgaben, bevor Sie es für sensible Anwendungsfälle nutzen. Evaluieren Sie die Ergebnisse sorgfältig, und haben Sie einen Fallback-Plan, falls das Modell nicht die erwartete Leistung bringt. Open Source bedeutet auch, dass Sie Unterstützung aus der Community erhalten – aber die Community ist kein Ersatz für professionellen Support, wenn etwas schiefgeht. Semantisch passt dazu unser Hintergrund GPT-5.1: OpenAIs neuestes KI-Modell setzt neue Maßstäbe bei Geschwindigkeit und Intelligenz.

Ein Vorteil von Deepseek ist die teilweise Open-Source-Strategie. Der Quellcode ist öffentlich einsehbar, und das Modell kann auf eigenen Servern betrieben werden. Das ist ein wichtiger Punkt für Unternehmen, die Datenschutzbedenken haben: Wer das Modell selbst hostet, behält die volle Kontrolle über seine Daten. Das ist ein Argument, das nicht unterschätzt werden sollte – gerade in Zeiten, wo Datensouveränität immer wichtiger wird.

Die Open-Source-Community hat bereits begonnen, das Modell zu adaptieren. Es gibt Community-forks, die auf spezifische Anwendungsfälle optimiert sind, und Integrationsanleitungen für verschiedene Plattformen. Für technisch versierte Teams ist das eine interessante Möglichkeit, ein leistungsfähiges Modell ohne Vendor-Lock-in zu nutzen – und das ist ein Luxus, den man beiclosed-source-Modellen nicht hat.

Allerdings: Open Source bedeutet nicht automatisch kostenlos. Die Infrastruktur, um ein Modell dieser Größe zu betreiben, ist nicht billig. Und die kommerziellen Support-Optionen von Deepseek kosten auch Geld. Es lohnt sich also, die Total Cost of Ownership zu kalkulieren, bevor man sich festlegt. Denn der Schein kann trügen, und was auf den ersten Blick günstig aussieht, kann im Laufe der Zeit teuer werden – ein Fehler, den viele machen und den Sie vermeiden sollten.

Was Deepseek in der Praxis wirklich taugt – jenseits der Benchmark-Grafiken

Benchmarks sind eine Sache. Der Alltag mit einem Modell ist eine andere. Wer Deepseek-V3 ein paar Stunden intensiv benutzt, merkt schnell, wo es glänzt und wo es anfängt zu schlingern. Beim Schreiben von Programmiercode für Python oder JavaScript liefert das Modell tatsächlich beeindruckend saubere Ergebnisse – manchmal sogar mit Kommentaren, die man sich so eigentlich von einem guten Junior-Entwickler wünschen würde. Komplexere Architekturfragen beantwortete es in unseren Tests nachvollziehbar und ohne den üblichen KI-Schmalz, der alles klingt lässt wie eine PowerPoint-Präsentation aus dem Jahr 2019.

Interessant wird es bei Aufgaben, die kulturelles oder kontextspezifisches Wissen erfordern. Fragen zu deutschen Rechtsbegriffen, zu österreichischen Steuerregelungen oder zu regionalen Medienphänomenen beantwortete Deepseek mit einer gewissen Unsicherheit – nicht falsch, aber spürbar dünner als bei angloamerikanischen Themen. Das ist kein Deepseek-spezifisches Problem, sondern eine strukturelle Schwäche fast aller nicht spezifisch auf den deutschsprachigen Raum trainierten Modelle. Trotzdem sollte man das kennen, bevor man das Ding ungeprüft auf redaktionelle oder rechtliche Aufgaben loslässt.

Was auffällt: Das Modell neigt seltener als GPT-4 dazu, bei unsicheren Antworten trotzdem selbstbewusst klingende Behauptungen rauszuwerfen. Es formuliert Einschränkungen manchmal explizit – was man als Schwäche lesen kann, es aber in der Praxis einfacher macht, die Ausgaben zu vertrauen oder eben nicht. Es gibt Kontext an, in dem die eigene Antwort unsicher ist. Das klingt banal, ist es aber nicht. Wer schon mal einem KI-Modell beim fröhlichen Halluzinieren zugeschaut hat, weiß, was gemeint ist.

Bei kreativen Aufgaben auf Deutsch – Texte schreiben, Ideen entwickeln, Argumentation strukturieren – liegt Deepseek im Mittelfeld. Nicht schlechter als erwartet, aber auch nicht der Moment, wo man denkt: Okay, das hier ist ein anderes Level. Wer ausschließlich auf Deutsch arbeitet und keine Programmiertasks hat, findet bei anderen Modellen möglicherweise flüssigere Ergebnisse. Wer viel Code schreibt oder englischsprachige Inhalte verarbeitet, wird mit Deepseek hingegen kaum etwas vermissen.

Die Kostenfrage: Warum Deepseek die Preisgestaltung der KI-Branche stört

Einer der lauteren Aspekte der Deepseek-Geschichte ist, was das Modell für die Preisgestaltung im gesamten KI-Sektor bedeutet. Zum Zeitpunkt des Erscheinens dieser Analyse kostete der API-Zugriff auf Deepseek-V3 einen Bruchteil dessen, was vergleichbare Modelle von OpenAI oder Anthropic verlangen. Konkret: Deepseek berechnete für eine Million Output-Token etwa zwei Dollar – GPT-4o lag zur selben Zeit bei rund fünfzehn Dollar für die gleiche Menge. Das ist kein marginaler Unterschied, das ist eine andere Preisklasse.

Für Unternehmen, die KI-Modelle in eigene Produkte integrieren und dabei monatlich Millionen von Tokens durch die Pipeline schicken, sind solche Unterschiede existenziell. Viele Startups, die bislang an der Wirtschaftlichkeit von KI-gestützten Features gescheitert sind, haben auf genau diesen Moment gewartet: ein Modell, das gut genug ist und trotzdem kein Loch in die AWS-Rechnung reißt. Deepseek hat diesen Moment für etliche Teams real gemacht – und zwar nicht mit einem gehypten Launch-Angebot, sondern mit einer dauerhaft anderen Kostenstruktur im Rücken.

Das hat OpenAI und Co. nicht kalt gelassen. Kurz nach dem Deepseek-Hype wurden bei mehreren Anbietern die Preise für API-Zugänge gesenkt oder neue, günstigere Modellvarianten angekündigt. Ob das direkte Reaktion oder geplante Roadmap war, lässt sich von außen schwer sagen – der zeitliche Zusammenhang ist jedenfalls auffällig. Das zeigt: Wettbewerb funktioniert in diesem Segment, auch wenn er aus einer unerwarteten Richtung kommt. Für Nutzer und Entwickler ist das grundsätzlich gute Neuigkeit.

Wer Deepseek selbst hosten will – was durch die Open-Source-Verfügbarkeit prinzipiell möglich ist – stößt allerdings auf eine andere Realität. Die Hardwareanforderungen für ein vollständiges Deepseek-V3-Modell sind erheblich. Mehrere Hochleistungs-GPUs sind Pflicht, und wer das auf eigener Infrastruktur abbilden will, landet schnell bei Investitionen, die den API-Preisvorteil relativieren. Für die meisten Teams ist Self-Hosting deshalb keine echte Option – außer sie haben ohnehin ein gut ausgestattetes Rechenzentrum im Keller. Was die meisten von uns natürlich haben.

Datenschutz, Vertrauen und die Frage, was man Deepseek eigentlich erzählen sollte

Der Punkt, den viele im ersten Enthusiasmus übersehen: Deepseek ist ein chinesisches Unternehmen, dessen Server nach aktueller Einschätzung primär in China stehen. Das ist für manche Anwendungsfälle irrelevant, für andere ein ernsthaftes Problem. Wer über die API arbeitet, schickt seine Prompts an Infrastruktur, die nicht europäischem Datenschutzrecht unterliegt. Für DSGVO-pflichtige Verarbeitung personenbezogener Daten ist das eine klare Einschränkung – eigentlich ein Ausschlusskriterium, solange keine entsprechenden Vertragsgrundlagen und Datenlokalisierungsoptionen verfügbar sind.

Deepseek hat in seinen Nutzungsbedingungen zudem recht breit formulierte Klauseln zu Trainingsdaten und Datenspeicherung. Wer das nicht gelesen hat und einfach loslegt, handelt fahrlässig – das gilt aber ehrlich gesagt für die meisten KI-Anbieter, deren AGBs niemand liest, weil sie auf die Länge eines mittelgroßen Romans kommen. Bei Deepseek stellt sich diese Frage nur besonders deutlich, weil das geopolitische Umfeld ein anderes ist als bei amerikanischen Anbietern. Ob das ein qualitativer oder nur ein symbolischer Unterschied ist, darüber lässt sich streiten. In regulierten Branchen – Gesundheit, Finanzen, öffentlicher Dienst – ist es jedenfalls kein theoretisches Problem.

Wer Deepseek nutzen will und gleichzeitig Datenhoheit braucht, hat aber tatsächlich eine Option: Das Modell über Anbieter zu verwenden, die es auf eigener, europäischer Infrastruktur hosten. Einige Cloud-Anbieter und spezialisierte KI-Plattformen bieten genau das an – mit entsprechenden Datenschutzvereinbarungen und EU-Serverstandorten. Man bekommt dann die Modelleigenschaften von Deepseek, aber über eine Infrastruktur, mit der man rechtlich sauber arbeiten kann. Das ist technisch nicht trivial, existiert aber als Weg für Teams, die nicht auf den Leistungsumfang verzichten wollen, aber auch keinen Ärger mit der Datenschutzbehörde riskieren möchten.

Was bleibt, ist ein grundsätzliches Unbehagen, das sich nicht vollständig wegargumentieren lässt: Jedes Mal, wenn ein Modell so schnell so groß wird und dabei vergleichsweise wenig Transparenz über Trainingsdaten und Governancestrukturen bietet, sollte man vorsichtig sein. Das gilt für Deepseek. Es gilt aber auch für GPT-4, dessen Trainingsdaten OpenAI ebenfalls nicht vollständig offenlegt. Die Branche hat insgesamt ein Transparenzproblem – Deepseek ist da keine Ausnahme, nur ein anderes Kapitel desselben Buchs.

Was bleibt

Ein Punkt, der in der Diskussion um Deepseek oft untergeht: Die Qualität der Trainingsdaten ist entscheidend für die Qualität des Modells. Ein Modell mit einer Milliarde schlechten Daten wird weniger leisten als ein Modell mit hundert Millionen guten Daten. Deepseek hat das verstanden und investiert viel Aufwand in die Auswahl und Bereinigung seiner Trainingsdaten. Das ist ein Grund, warum das Modell trotz seiner Effizienz so gut performt – und ein Argument dafür, warum die Datenqualität in der KI-Entwicklung nicht unterschätzt werden sollte. Denn ein KI-Modell ist nur so gut wie die Daten, mit denen es trainiert wurde, und diese Wahrheit wird oft vergessen.

Deepseek ist ein ernstzunehmender Player im KI-Markt. Die Effizienz des Trainings und die teilweise Open-Source-Strategie machen das Unternehmen zu einer interessanten Alternative zu den etablierten amerikanischen Anbietern. Für europäische Nutzer bleiben jedoch Datenschutzfragen, die nicht leicht zu ignorieren sind. Das ist ein echtes Problem, und es lohnt sich, es ernst zu nehmen – auch wenn es bequem wäre, es zu ignorieren.

Ob sich Deepseek langfristig als Game-Changer etabliert oder als Momentphänomen verpufft, wird die Zeit zeigen. Die KI-Landschaft ist zu dynamisch, um Sicherheiten zu geben. Was wir aber sehen: Der Wettbewerb nimmt zu, und das ist grundsätzlich gut – für Entwickler, für Unternehmen, für Anwender. Mehr Auswahl bedeutet in der Regel bessere Konditionen und mehr Innovation – und das ist etwas, das wir bei digital-magazin.de begrüßen.

Wir werden die Entwicklung von Deepseek und anderen Open-Source-Modellen weiter beobachten. In unserem Ressort für Künstliche Intelligenz halten wir Sie über neue Modelle, Benchmarks und praktische Anwendungsszenarien auf dem Laufenden. Bleiben Sie neugierig – die KI-Revolution ist noch lange nicht vorbei, und es lohnt sich, am Ball zu bleiben, um keine wichtigen Entwicklungen zu verpassen.

Abschließend ein Gedanke zur Zukunft: Die KI-Landschaft wird in den kommenden Jahren durch mehrere Entwicklungen geprägt sein. Da ist zum einen die zunehmende Regulierung – der AI Act ist nur der Anfang. Zum anderen die steigende Nachfrage nach energieeffizienten Modellen, die angesichts des Klimawandels immer wichtiger wird. Und schließlich die wachsende Bedeutung von Open-Source-Modellen, die eine Alternative zu den geschlossenen Systemen der großen Tech-Unternehmen bieten. Deepseek ist in vielerlei Hinsicht ein Vorreiter dieser Entwicklungen – und es wird spannend sein zu beobachten, wie sich die Situation in den kommenden Jahren entwickeln wird.

0 0 Bewertungen
Artikel Bewertung
Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
Ähnliche Artikel