Guider • Tips

Guider for LM Studio

Praktiske tips for å få mest mulig ut av lokal AI.

Installasjon

Last ned appen

Gå til lmstudio.ai og last ned LM Studio.

Velg en modell

Søk etter en modell og last den ned. Start med en liten modell først.

Test med chat

Prøv modellen i chat-vinduet før du bruker den til noe viktig.

Velg riktig modell

Ulike modeller er gode på ulike ting:

  • Chat: Llama 3, Gemma, Mistral
  • Kode: Qwen Coder, Codestral
  • Rask: Phi (liten og rask)

Velg modeller merket «instruct» eller «chat» for samtaler.

Tips
  • Start med Q4 hvis maskinen er treg
  • Prøv Q8 hvis du har god maskin
  • Bytt modell etter oppgaven

Koble til andre apper

Start «Local Server» i LM Studio for å bruke AI fra andre programmer.

curl http://localhost:1234/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "modell-navn",
    "messages": [
      {"role": "user", "content": "Hei!"}
    ]
  }'
Tips
  • Fungerer med OpenAI-kompatible apper
  • Adressen er localhost:1234
  • Ikke del sensitive data i logger

Få bedre ytelse

Velg mindre modell

Q4 er raskere enn Q8. Mindre modeller er raskere enn store.

Kortere samtaler

Lange samtaler bruker mer minne. Start ny chat innimellom.

Bruk grafikkort

Har du et bra grafikkort? Skru på GPU for mye raskere svar.

Chat med egne dokumenter

Del opp dokumenter

Del store dokumenter i mindre biter så AI-en finner riktig info.

Søk automatisk

Bruk embeddings for å finne relevant tekst før du spør.

Unngå oppspinn

Be AI-en kun svare basert på dokumentene, ikke gjette.