Ollama는 매우 쉽게 클릭 몇번으로 LLM들을 내 컴에서 돌려볼 수 있게 만들어 놓은 서비스입니다.
ollama를 설치하고 뜨는 cmd 창 같은데서 ollama 홈페이지의 모델 실행 명령어를 복사해다 붙여넣으면 끝입니다.
Ollama에서 사용할 수 있는 주요 명령어들은 다음과 같습니다:
- ollama run [모델 이름]: 특정 모델을 실행합니다. 예: ollama run exaone-deep:2.4b
- ollama list: 로컬에 설치된 모델 목록을 확인합니다.
- ollama pull [모델 이름]: 모델을 로컬에 다운로드합니다.
- ollama push [모델 경로]: 로컬 모델을 Ollama 서버에 업로드합니다
- ollama help: Ollama 명령어에 대한 도움말을 확인합니다.
- ollama rm [모델 이름]: 로컬에서 특정 모델을 삭제합니다. - 한번 설치하면 디스크에 계속 남아있기 때문에 삭제를 해야 지워집니다.
run 명령어를 쓰면 없으면 알아서 다운로드하고 실행합니다.
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
stop Stop a running model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command
<명령어 입력시>
여러줄을 입력하려면 """ (따옴표 세개)를 입력하고 엔터를 누르면 여러줄 입력가능한 상태가 됩니다.
마지막에 """을 입력하고 엔터를 누르면 됩니다.
출력 중지 : Ctrl + C
설치된 전체 모델 삭제 : ollama list | tail -n +2 | awk '{print $1}' | while read -r model; do ollama delete "$model"; done
댓글