12 基于ollama本地模型部署 #38
Loading…
Reference in New Issue
Block a user
No description provided.
Delete Branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
Ollama
Ollama是一个开源的本地大语言模型运行框架,它旨在简化在本地运行大型语言模型(LLM)的过程。Ollama通过将模型权重、配置和数据集打包成一个名为Modelfile的统一包来实现这一点,使得下载、安装和使用LLM变得更加方便,即使对于没有广泛技术知识的用户也是如此。
Ollama的主要特点包括:
Ollama适用于多种用例,包括研究LLM的行为和性能、开发使用LLM的应用程序以及教育人们了解LLM。它提供了一个简洁易用的命令行界面和服务器,让你能够轻松下载、运行和管理各种开源LLM。Ollama还提供了类似Docker的模型应用标准,使得模型管理更加标准化和便捷。
常用命令
实验环境
安装ollama
这里我们使用离线安装的方式,最快、最稳妥。
下载安装脚本
下载对应安装包
这里我们选择0.3.8,这个版本比较稳定。
因为我用的是服务器做实验,所以下载到本地后需要上传到服务器。

按本地环境更新安装脚本
这里是将本地压缩包文件路径添加进去,脚本会自动对其进行解压缩。
执行安装命令
测试安装是否成功
这里部署较小的qwen:0.5b模型,测试是否成功安装Ollama。
启动推理
使用单卡推理
使用多卡推理
需要设置环境变量OLLAMA_SCHED_SPREAD=1
交互方式
使用OpenAI python SDK调用ollama部署的模型
测试下function call
使用curl方式调用
注意:这里的ip地址要改成自己所用的服务器的IP地址
命令行模式
对话模式
非对话模式
使用Open webUI
使用如下命令即可启动Open webUI:
太慢了
重新启动docker以更新配置
再次启动Open webUI
效果如下:
针对模型还可以注册tools以及文档,使用起来也很方便
【工作空间】--> 【选择一个模型】-->【修改配置】
添加知识库和tools
常用设置及命令
以下说明的方法都是在Linux上作为进程直接启动的,并非docker环境。
默认启动方式
使用如下命令可以启动、关闭、重启ollama服务
常用的环境变量
如何修改环境变量?
定制化模型
接入FastGPT
这里再做一次安装OneAPI和FastGPT
安装Docker
安装docker-compose
安装OneAPI 与 FastGPT
这里需要准备两个文件:docker-compose.yml以及config.json,其中config.json是FastGPT的配置文件。
首先创建目录,将所有关于fastgpt的文件放在一个新的文件夹下:
然后准备docker-compose.yml:
然后准备config.json:
启动服务
在fastgpt目录下执行如下命令: