《中文llama3仿openai api实战》学完后的几个问题。 #502
Labels
No Label
bug
duplicate
enhancement
help wanted
invalid
question
wontfix
No Milestone
No project
No Assignees
2 Participants
Notifications
Due Date
No due date set.
Dependencies
No dependencies set.
Reference: HswOAuth/llm_course#502
Loading…
Reference in New Issue
Block a user
No description provided.
Delete Branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
1、课程中是用Chinese-LLaMA-Alpaca-3进行了例子讲授,是否其它的开源模型部署,都可以用实战中的方法?
2、https://github.com/ymcui/Chinese-LLaMA-Alpaca-3,此开源项目的作用是什么呢?
因为我下载大模型本身是用的modelscope download --model ChineseAlpacaGroup/llama-3-chinese-8b-instruct-v3,这个是大模型本身的数据模型文件吗?
而github上的源码项目的目的是作为运行服务去调用数据模型文件,然后通过fastapi提供 api供程序调用吗?适用于所有的此类开源llm项目吗?
3、新的requirements.txt中的依赖,比源码中下下来的多很多,多近100个。这个依赖列表是如何来的呢?如果要本地部署其它的模型,我应该如何得到正确的requirements中的列表呢?
4、启动服务的命令:python openai_api_server.py --gpus 3 --base_model /home/llm_course/.cache/modelscope/hub/ChineseAlpacaGroup/llama-3-chinese-8b-instruct-v3。 此命令适用于其它的模型吗?还是每个模型都不一样?
那老师,这种模型实战,并没有普世的方法,针对不同的模型部署,我们是要去研读提供者的源码才行?如果一个新的模型 ,很可能我们会预到新的坑,是否老师在你的经验上,你能抽像出一些基本步骤出来呢?感觉老师你教给我们鱼了,而没有教给我们渔。
如果只是部署模型,而不想深究内部web推理部分的代码,可是使用xinference、ollama等工具(这些工具已经将部署现成模型进行了高度抽象)。我们这部份实战课是侧重于机遇源码方式来部署,侧重不一样。