Wie man DeepSeek R1 lokal auf Windows, macOS, Android und iPhone ausführt

Startseite · Blog IA · Grundbegriffe · Wie man DeepSeek R1 lokal auf Windows, macOS, Android und iPhone ausführt

Die Ankunft von DeepSeek R1, entwickelt von einem chinesischen Team, hat die Industrie der künstlichen Intelligenz erschüttert. Dieses Modell hat nicht nur ChatGPT in der Popularität übertroffen, sondern auch eine Welle von Reaktionen auf dem US-Technologiemarkt ausgelöst. Während du DeepSeek R1 kostenlos auf seiner Website nutzen kannst, haben Bedenken hinsichtlich des Datenschutzes der in China gespeicherten Daten viele dazu veranlasst, nach Alternativen zu suchen, um es lokal auszuführen.

Für diejenigen, die DeepSeek R1 auf ihrem PC oder Mac verwenden möchten, ist die gute Nachricht, dass dies mit Tools wie LM Studio und Ollama möglich ist. Im Folgenden präsentieren wir eine Schritt-für-Schritt-Anleitung, damit du starten kannst.

Voraussetzungen für die lokale Ausführung von DeepSeek R1

Bevor du dich ins Abenteuer stürzt, stelle sicher, dass dein Computer die erforderlichen Voraussetzungen erfüllt. Um DeepSeek R1 auszuführen, ist es unerlässlich, mindestens 8 GB RAM zu haben. Mit diesem Speicher kannst du das kleine Modell von 1,5B effizient verwalten und etwa 13 Tokens pro Sekunde generieren. Wenn du dich an das Modell von 7B wagst, bedenke, dass es etwa 4 GB verbrauchen könnte, was dein System etwas verlangsamen könnte.

Wenn dein Gerät mehr Speicher hat, könntest du mit größeren Modellen wie dem von 14B, 32B oder sogar 70B experimentieren, obwohl du schnellere CPU- und GPU-Anforderungen benötigst. Derzeit nutzen viele Programme NPU (Neural Processing Unit) nicht, um KI-Modelle lokal auszuführen, weshalb sie hauptsächlich auf die CPU und in einigen Fällen auf High-End-GPUs angewiesen sind.

DeepSeek R1 auf dem PC mit LM Studio ausführen

Eine der einfachsten Möglichkeiten, DeepSeek R1 auf PC-, Mac- und Linux-Systemen auszuführen, ist über LM Studio. Diese Anwendung verfügt über eine benutzerfreundliche Oberfläche, die es ermöglicht, kompatible KI-Modelle mit nur wenigen Klicks zu erkunden und herunterzuladen. Außerdem ist die Nutzung von LM Studio vollständig kostenlos. Ich lasse dir ein sehr umfassendes und einfaches Tutorial von unserem Freund Xavier, damit du es jetzt gleich ausprobieren kannst:

DeepSeek R1 lokal mit Ollama ausführen

Eine weitere Option für Benutzer, die eine personalisierte Benutzeroberfläche bevorzugen, ist die Verwendung von Ollama. Dieses Tool ermöglicht die Installation von DeepSeek R1 und bietet zusätzliche Funktionen, die das Benutzererlebnis verbessern.

DeepSeek R1 lokal auf Android und iPhone ausführen

Benutzer von mobilen Geräten bleiben nicht zurück. Um DeepSeek R1 auf Android und iPhone auszuführen, wird empfohlen, mindestens 6 GB RAM zu haben. Im Fall von Android haben sich Anwendungen wie PocketPal als die effektivsten erwiesen, um KI-Modelle lokal auszuführen, und das Beste ist, dass sie kostenlos sind. Außerdem ist PocketPal auch für iOS verfügbar, ohne Kosten, im Gegensatz zu anderen Anwendungen.

Wenn du also DeepSeek R1 auf deinem mobilen Gerät zum Laufen bringen möchtest, lade einfach PocketPal herunter und beginne, seine Funktionen zu genießen. Obwohl während der Tests einige Modelle von 1,5B und 7B historische Genauigkeitsprobleme aufweisen können, sind sie nützlich für kreatives Schreiben und mathematisches Denken.

Wenn du über leistungsstarke Hardware verfügst, empfehlen wir, das 32B-Modell von DeepSeek R1 auszuprobieren, das bei Codierungsaufgaben viel effizienter ist und fundiertere Antworten bietet.

Geschrieben von Miguel Ángel G.P.

IT Manager | Mehr als 15 Jahre Erfahrung im Bereich Unternehmens-Informatik. Experte für Apple, Systeme, Netzwerke, Cloud, Virtualisierung, Big Data, Webdesign...
Dieser Artikel handelt von Unternehmensanwendungen.
Veröffentlicht am 24 de März de 2025.

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert