请问autogen能调用本地大模型吗?autogen一直无法获取本地大模型,该怎么解决?(本地大模型已通过vllm部署)) #204
Labels
No Label
bug
duplicate
enhancement
help wanted
invalid
question
wontfix
No Milestone
No project
No Assignees
2 Participants
Notifications
Due Date
No due date set.
Dependencies
No dependencies set.
Reference: HswOAuth/llm_course#204
Loading…
Reference in New Issue
Block a user
No description provided.
Delete Branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
本来想直接openai调用gpt,但发现好像不够token了,所以就换本地大模型仿造调用openai接口来进行交互,但一直获取不了部署好的本地大模型。
可以先用openai的sdk调用下调试,如果没有问题,再调试下autogen。
另外就是建议在使用vllm的时候可以使用参数
--served-model-name
把模型名字改一下嗯,这个已经没有问题了,但是本地大模型在进行多代理协作执行时没有调用我写好的函数。换作gpt系列就可以调用,可惜token用完了
vllm 目前只支持 named function calling,可能是问题所在

好的,明白了。那我得把vllm部署框架换成ollama试一试