xtuner微调llama模型,出现异常情况退出 #395
Labels
No Label
bug
duplicate
enhancement
help wanted
invalid
question
wontfix
No Milestone
No project
No Assignees
3 Participants
Notifications
Due Date
No due date set.
Dependencies
No dependencies set.
Reference: HswOAuth/llm_course#395
Loading…
Reference in New Issue
Block a user
No description provided.
Delete Branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
1、xtuner微调Llama-2-7b-chat-hf,数据集为tatsu-lab-alpaca,配置文件为llama2_7b_chat_qlora_alpaca_e3_copy,
在启动xtuner train llama2_7b_chat_qlora_alpaca_e3_copy.py指令时,出现异常警告退出微调,未查找到原因(第二个warning说是xtuner语法错误,没看出来具体是哪里的问题)。
2、文件都是下载到autodl-tmp文件夹下,为什么显示基本都使用的是系统盘而不是数据盘。
问题1 应该是安装上有点问题,可以参考下这个mmdetection issue
问题2可以用
du -h /root/autodl-tmp/ --max-depth=1
看下实际占用存储的文件有哪些。老师,参考了那篇文章,环境版本更改后,还是没有起到作用,还有其他办法吗
还是报一样的错误吗?可以截图看下