llama / llm / 윈도우즈 /
windows 에서 ollama 사용
다음 링크에서 Ollama windows version 을 download 하자.
- Download Ollama on Windows
- Ollama on Windows: How to Install and Use it with OpenWebUI | Mitja Martini
설치를 하면 %AppData%\Local\Programs\Ollama
에 자동으로 설치된다. 대략 1.6GB 정도 여유공간이 필요하다.
%AppData%\Local\Programs\Ollama
아래와 같은 방식으로 실행하면 된다. model 이 없으면 model 을 download 하고, 실행한다. ollama run llama2
를 하면 llama2 model 을 다운로드하게 된다. 대략 3.8GB 이다. 이 model 은 %UserProfile%\.ollama
에 저장된다.
ollama run llama2
>>> Send a message (/? for help)
ollama list
Ollama WebUI
Ollama WebUI 가 있다. 아래는 linux 에서 설치방법이다.
sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
sudo docker run -d --network=host -v ollama-webui:/app/backend/data -e OLLAMA_API_BASE_URL=http://172.17.192.1:11434/api --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main
- http://localhost:8080/ 로 접속
- GitHub - open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI)
댓글 없음:
댓글 쓰기