Last ned appen
Gå til lmstudio.ai og last ned LM Studio.
Guider • Tips
Praktiske tips for å få mest mulig ut av lokal AI.
Gå til lmstudio.ai og last ned LM Studio.
Søk etter en modell og last den ned. Start med en liten modell først.
Prøv modellen i chat-vinduet før du bruker den til noe viktig.
Ulike modeller er gode på ulike ting:
Velg modeller merket «instruct» eller «chat» for samtaler.
Start «Local Server» i LM Studio for å bruke AI fra andre programmer.
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "modell-navn",
"messages": [
{"role": "user", "content": "Hei!"}
]
}'
Q4 er raskere enn Q8. Mindre modeller er raskere enn store.
Lange samtaler bruker mer minne. Start ny chat innimellom.
Har du et bra grafikkort? Skru på GPU for mye raskere svar.
Del store dokumenter i mindre biter så AI-en finner riktig info.
Bruk embeddings for å finne relevant tekst før du spør.
Be AI-en kun svare basert på dokumentene, ikke gjette.