Situatie
Ollama este o platformă ușor de folosit pentru rularea modelelor de inteligență artificială local, direct pe computerul tău. Dacă vrei să testezi modele precum LLaMA 3, Mistral, Gemma sau altele, fără să depinzi de cloud, Ollama este o alegere excelentă.
Ollama este un runtime pentru modele AI de tip LLM (Large Language Models). Practic, îți permite să descarci și să rulezi modele de limbaj pe propriul calculator, printr-o interfață simplă în linie de comandă.
Avantaje:
-
nu depinzi de servere externe,
-
ai control total asupra datelor tale,
-
poți testa diverse modele open-source,
-
suportă integrarea cu aplicații terțe (VSCode, Obsidian, etc.).
Solutie
Instalare Ollama pe Linux
-
Actualizează sistemul
-
Descarcă și instalează Ollama
-
Verifică instalarea
-
Testează un model
De exemplu, pentru a rula LLaMA 3:
Instalare Ollama pe Windows
Pe Windows instalarea este și mai simplă:
-
Intră pe site-ul oficial: https://ollama.com/download
-
Descarcă installer-ul pentru Windows și rulează-l.
-
După instalare, deschide Command Prompt (CMD) sau PowerShell și verifică versiunea:
-
Rulează primul model:
Configurare Ollama
După instalare, Ollama folosește un fișier de configurare pe care îl poți ajusta.
-
Pe Linux:
~/.ollama/config.toml
-
Pe Windows:
C:\Users\<nume_utilizator>\.ollama\config.toml
Aici poți seta:
-
locația modelelor (folderul unde sunt stocate),
-
resursele hardware folosite (CPU/GPU),
-
portul serverului Ollama (dacă vrei să ruleze ca API).
Exemplu de config:
Folosirea Ollama ca API
Ollama poate rula ca server API pe localhost.
Pornește serverul:
Apoi poți trimite request-uri de tip REST:
Leave A Comment?