rust llama-chat.wasm 을 wasmedge 에서 실행
wasmedge, rust llama-chat 을 실행하는 이야기다. ref. 2 를 확인하면 된다.
여기서는 ref.2 의 내용을 직접 해봤다.
실행한 사양
- windows wsl2 의 ubuntu 20.04
- ram 16gb
- cpu i5-9400F @ 2.90GH
짤막한 소감
wsl2 여서 그런지 gpu 인식을 제대로 안됐다. 그래서 CPU 만으로 추론(inference)이 된다.
개인적으로 wsl2의 memory 는 대략 8GB까지 올라갔다.
1번째 질문은 1분내에 응답을 했다. 다만 2번째 질문부터는 5분정도 기다려도 답변이 나오지 않았다.
실행
curl -sSf https://raw.githubusercontent.com/WasmEdge/WasmEdge/master/utils/install.sh | bash -s -- --plugin wasi_nn-ggml
# After installing the wasmedge, you have to activate the environment.
# Assuming you use bash (the default shell on Ubuntu), you will need to run the following command
source $HOME/.bashrc
pre-built Wasm app
curl -LO https://github.com/second-state/llama-utils/raw/main/chat/llama-chat.wasm
sudo apt update
sudo apt install -y libopenblas-dev
wasmedge --dir .:. --nn-preload default:GGML:AUTO:llama-2-7b-chat-q5_k_m.gguf llama-chat.wasm
댓글 없음:
댓글 쓰기