基于Ollama的本地模型部署 【复现】 #350
Labels
No Label
bug
duplicate
enhancement
help wanted
invalid
question
wontfix
No Milestone
No project
No Assignees
1 Participants
Notifications
Due Date
No due date set.
Dependencies
No dependencies set.
Reference: HswOAuth/llm_course#350
Loading…
Reference in New Issue
Block a user
No description provided.
Delete Branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
实验环境
操作系统:本地连接Linux远程服务器
GPU:RTX3080
离线安装
下载安装脚本
下载安装包
根据硬件下载对应的安装包,比如最新版本为v0.3.8
0.3.8 版本Ollama 下载地址
*因为这里我用的是远程服务器做的实验,所以我在将安装包下载到本地后需要将其上传到远程服务器
修改脚本
确保前面的步骤已经下载到服务器上:
使用编辑器修改install.sh文件中的curl命令下载部分;将其替换成安装包的地址
修改好后执行安装:
测试安装是否成功
*安装完成后会默认启动ollama服务端,默认端口为11434
启动模型推理
单卡推理
多卡推理
由于我使用的是Linux服务器,所以需要在启动多卡推理前需要先修改环境变量。
使用编辑器,对 /etc/systemd/system/ollama.service.d进行编辑
将如下代码编辑进文件中:
重新启动ollama serve
查看ollama的状态,是否已经在运行
交互方式
使用OpenAI python SDK调用ollama部署的模型
先确保有call_ollama.py这个python文件的存在,使用如下命令查看文件内容:
确保服务器地址正确
之后转到该文件目录下
执行该文件
测试下function call
使用curl方式调用
使用如下curl命令调用:
*注意:修改为自己的IP地址
命令行模式
对话模式
非对话模式
使用open webUI
执行如下命令即可启动open webui:
打开浏览器网页,输入:
*注意:这里将IP地址更改为自己的地址
选择模型:
跟模型进行对话:
接入FastGPT
可详细参考:基于FastGPT搭建一个RAG知识问答系统
确保已经在前面步骤中设置好环境
确认已安装Docker
可用如下命令来查看docker版本:
安装docker
安装docker-compose
确认已部署FastGPT+OneAPI系统
由于之前的课程中有部署过FastGPT以及OneAPI系统,所以我的服务器上有相关的文件夹
如果没有部署过,则需要自己部署
部署Fast GPT与OneAPI
这里需要准备两个文件:docker-compose.yml以及config.json,其中config.json是FastGPT的配置文件。
首先创建目录,将所有关于fastgpt的文件放在一个新的文件夹下:
准备docker-compose.yml:
准备FastGPT配置文件config.json
启动docker
在fastgpt目录下执行如下命令启动系统:
使用如下命令可重启FastGPT并生效之前的修改:
在One API接入模型
打开浏览器,输入:
先确定已经启动了ollama,用如下命令查看ollama状态:
然后查看ollama里有哪些模型:
在'渠道'里添加新的渠道,在渠道中填入Ollama以及Ollama里有的模型
测试添加的渠道
在FastGPT**创建一个简易聊天应用**
在浏览器输入以下网址:
选择刚刚用OneAPI接入的模型:
可在ollama官网文档里查到上下文长度:https://ollama.com/blog
跟模型进行对话: