跳转至

如何使用Ollama离线部署LLM大语言模型

以 qwen:0.5b 模型为例,详细说明 Ollama 离线部署 LLM 大语言模型的过程和步骤。

1 下载模型

访问 huggingface 并下载 qwen1_5-0_5b-chat-q5_k_m.gguf 模型文件。

https://huggingface.co/Qwen/Qwen1.5-0.5B-Chat-GGUF/tree/main

下载模型

2 上传模型

将下载好的 Qwen1.5-0.5B-Chat-GGUF 模型文件上传到 Ollama 所在服务器。

3 创建Ollama Modelfile

创建一个名为 Modelfile 的文件,内容如下:

FROM ./qwen1_5-0_5b-chat-q5_k_m.gguf

TEMPLATE """{{ if .System }}<|im_start|>system
{{ .System }}<|im_end|>{{ end }}<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""

PARAMETER stop "<|im_start|>"
PARAMETER stop "<|im_end|>"
说明:不同模型的 Modelfile 内容不同,可参考 Ollama 官网 参数设置

模型参数模版

4 在 Ollama 中创建模型

执行以下命令,创建模型:

ollama create qwen:0.5b -f Modelfile
执行以下命令,确认模型创建成功:
ollama list

ollama查看模型列表

5 在 MaxKB 中添加已创建的私有模型

MaxKB中添加模型