본문 바로가기
카테고리 없음

Ollama 사용하기, 명령어 (내 컴에서 LLM 돌리기)

2025. 3. 25.

Ollama는 매우 쉽게 클릭 몇번으로 LLM들을 내 컴에서 돌려볼 수 있게 만들어 놓은 서비스입니다.

ollama를 설치하고 뜨는 cmd 창 같은데서 ollama 홈페이지의 모델 실행 명령어를 복사해다 붙여넣으면 끝입니다.

Ollama에서 사용할 수 있는 주요 명령어들은 다음과 같습니다:

  • ollama run [모델 이름]: 특정 모델을 실행합니다.  예: ollama run exaone-deep:2.4b
  • ollama list: 로컬에 설치된 모델 목록을 확인합니다.
  • ollama pull [모델 이름]: 모델을 로컬에 다운로드합니다.
  • ollama push [모델 경로]: 로컬 모델을 Ollama 서버에 업로드합니다
  • ollama help: Ollama 명령어에 대한 도움말을 확인합니다.
  • ollama rm [모델 이름]: 로컬에서 특정 모델을 삭제합니다. - 한번 설치하면 디스크에 계속 남아있기 때문에 삭제를 해야 지워집니다.

run 명령어를 쓰면 없으면 알아서 다운로드하고  실행합니다. 

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

<명령어 입력시>

여러줄을 입력하려면 """ (따옴표 세개)를 입력하고 엔터를 누르면 여러줄 입력가능한 상태가 됩니다.

마지막에 """을 입력하고 엔터를 누르면 됩니다.

 

출력 중지 :  Ctrl + C

 

설치된 전체 모델 삭제 : ollama list | tail -n +2 | awk '{print $1}' | while read -r model; do ollama delete "$model"; done