linux玩轉(zhuǎn)大模型之有手就行
2111
發(fā)布于 云南 2024-03-21 · 1.6w瀏覽

之前介紹了沒(méi)有GPU怎么在windows下玩大模型,這篇說(shuō)說(shuō)沒(méi)有GPU怎么在linux下玩大模型(畢竟大部分人還是缺GPU的……吧)。

還是使用ollama,這東西確實(shí)方便,而且可以根據(jù)使用者的硬件條件選擇使用CPU還是GPU。

這次我們使用更簡(jiǎn)單的玩法:docker

隨便幾行代碼就跑起來(lái)了:

1、使用docker運(yùn)行ollama

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

 

2、下載大模型

docker exec ollama ollama pull qwen:0.5b(我的linux服務(wù)器只有2核1g,所以勉強(qiáng)跑個(gè)0.5b的模型演示一下)

3、模型下載完成了,命令行執(zhí)行:docker exec -it ollama ollama run qwen:0.5b即可運(yùn)行模型

如果還要把界面也加上的話:

還是使用chatbot-ollama,先下載源碼,然后編譯鏡像,運(yùn)行

過(guò)分高估了服務(wù)器的性能,編譯一個(gè)鏡像花了快一個(gè)小時(shí)……

容器運(yùn)行起來(lái)以后就可以從服務(wù)器的3000端口進(jìn)行訪問(wèn)了,界面跟之前windows部署的是一樣的,就不重復(fù)發(fā)圖了。

PS:這服務(wù)器的性能其實(shí)跑0.5B都很勉強(qiáng)的感覺(jué),可能還不如我的arm盒子,等有空再試試看arm平臺(tái)能不能跑吧。

 

2111
~
瀏覽 1.6w
相關(guān)推薦
最新評(píng)論
贊過(guò)的人
評(píng)論加載中...

暫無(wú)評(píng)論,快來(lái)評(píng)論吧!