Auteur: Siu-Ho
February 28, 2025
Large Language Models (LLMs) hebben de natuurlijke taalverwerking en AI-toepassingen getransformeerd. Dankzij de vooruitgang in open-source modellen heb je geen cloudgebaseerde API’s meer nodig om krachtige AI-systemen te draaien. Je kunt nu modellen zoals Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2 en vele anderen lokaal op je eigen machine gebruiken. Voor de beste prestaties is een snelle GPU sterk aan te raden, omdat dit de verwerking aanzienlijk versnelt. Heb je geen GPU? Dan is het nog steeds mogelijk om deze modellen op een CPU te draaien, maar met langere verwerkingstijden.
Het lokaal draaien van grote taalmodellen biedt verschillende voordelen:
Om eenvoudig LLM’s op je lokale machine te installeren en uit te voeren, kun je Ollama gebruiken, een gestroomlijnd framework ontworpen voor efficiënte implementatie van AI-modellen. Volg deze eenvoudige stappen om aan de slag te gaan:
Het installatieproces voor Windows, macOS en Linux. Volg de stappen hieronder voor je specifieke besturingssysteem.
ollama pull deepseek-r1:7b
ollama run deepseek-r1:7b
ollama pull deepseek-r1:7b
ollama run deepseek-r1:7b
ollama pull deepseek-r1:7b
ollama run deepseek-r1:7b
Ollama ondersteunt een verscheidenheid aan modellen naast DeepSeek-R1:7B. Je kunt andere modellen installeren en uitvoeren met vergelijkbare opdrachten. Populaire keuzes zijn onder andere:
Om een van deze modellen te installeren en uit te voeren, vervang je deepseek-r1:7b
door de modelnaam:
ollama pull mistral
ollama run mistral
Het lokaal draaien van LLMs is nog nooit zo eenvoudig geweest met tools zoals Ollama. Of je nu AI verkent voor ontwikkeling, onderzoek of persoonlijke projecten, het draaien van modellen op je eigen machine biedt volledige controle over privacy, kosten en prestaties. Begin vandaag nog met experimenteren en ontgrendel het potentieel van AI op je eigen hardware.
C:\Users\Gebruiker> ollama -v
ollama version is 0.5.11
C:\Users\Gebruiker> ollama list
NAME ID SIZE MODIFIED
deepseek-r1:7b 0a8c26691023 4.7 GB 7 days ago
C:\Users\Gebruiker> ollama run deepseek-r1:7b "Wat is de hoofdstad van Nederland?"
<think>
</think>
De hoofdstad van Nederland is Amsterdam.
Om de interactie met Ollama gebruiksvriendelijker te maken, kunnen we Page Assist gebruiken,
een browserextensie waarmee je kunt chatten met AI via het draaiende Ollama-model.