Hva er GGUF?
Et filformat som gjør modellene mindre, så de kan kjøre på vanlige datamaskiner.
Et filformat som gjør modellene mindre, så de kan kjøre på vanlige datamaskiner.
Lavere tall = mindre fil og raskere. Høyere tall = bedre kvalitet, men tregere.
Start med Q4. Prøv Q8 hvis du har god maskin og vil ha bedre svar.
Start «Local Server» i LM Studio for å koble til fra andre programmer.
Adressen er localhost:1234.
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "modell-navn",
"messages": [{"role": "user", "content": "Hei!"}]
}'
Populære valg er Llama, Gemma, Mistral og Qwen. Alle fungerer bra.
Velg modeller med «coder» i navnet, f.eks. Qwen Coder.
Velg modeller merket «instruct» eller «chat».
Se kom i gang eller guidene.