无人数字直播机器人-基于Ollama模型部署【复现贴】 #39
Loading…
Reference in New Issue
Block a user
No description provided.
Delete Branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
安装docker
安装环境
安装VirtualWife
进入VirtualWife安装程序目录
VScode官方下载地址:https://code.visualstudio.com/
打开 VS Code
打开刚刚下载好的VirtualWife文件夹
设置环境变量文件.env
在installer下添加新的文件夹.env
时区与程序版本号
将env_example里面的内容粘贴到.env里:
查询直播间ID
查询UID
查询B站UID教程:https://www.bilibili.com/opus/508346397809971774
查询Cookie
获取B站Cookie的方法可参考:https://blog.saky.site/post/bilibili_cookie/ 和
https://segmentfault.com/a/1190000043526992
确认所有配置已换成自己的配置了
启动程序
由于我是windows程序,所以我在VirtualWife文件里的installer找到windows的启动文件,双击便可启动程序。
启动成功后,docker desktop 中会显示 chatbot, chatvrm, 以及gateway镜像
通过http://127.0.0.1:80/跳转到网页端。
配置Ollama
GPU模式安装
在终端里,cd到刚刚复制的文件地址
然后,输入命令行进行Ollama安装:
这样就成功启动了一个叫Ollama的容器
测试Ollama是否安装成功
访问127.0.0.1:11434
下载模型
查看当前ollama版本
用以下命令拉取qwen2:0.5B的模型
用以下命令查看模型是否存在
将基于Ollama部署的模型接入数字机器人
回到刚刚通过127.0.0.1:80打开的聊天数字机器人界面
成功进行对话
接入直播
登录b站后,打开自己的直播间
用F12查看该网址的cookie
在数字机器人界面的高级设置里贴入刚刚复制的cookie以及直播间ID
将窗口添加便可进行直播了~
无人数字直播机器人-基于Ollama模型部署to 无人数字直播机器人-基于Ollama模型部署【复现贴】