【作业贴】2025-02-07,19-大模型初探-基于LLaMA-Factory的模型微调训练 #72

Open
opened 2025-02-17 08:40:51 +08:00 by xiaodunh · 0 comments

具体实现步骤及结果:
1、下载LLaMA-Factory并解压:
wget https://file.huishiwei.top/LLaMA-Factory.tar.gz
tar -xvf LLaMA-Factory.tar.gz
2、创建虚拟环境
conda create -n llama_factory python=3.11 pip -y
3、安装llama-factory及modelscope
pip install -e ".[torch,metrics] "
pip install modelscope -U
image
4、安装相关依赖包,验证安装成功
pip install -r requirements.txt
image
5、设置环境变量
export USE_MODELSCOPE_HUB=1
export NCCL_P2P_DISABLE="1"
export NCCL_IB_DISABLE="1"
export MODELSCOPE_CACHE='/root/autodl-tmp/modelscope/'
export MODELSCOPE_MODULES_CACHE='/root/autodl-tmp/modelscope/modelscope_modules'
image
6、启动界面
llamafactory-cli webui
image
7、打通隧道
8、加载模型
GLM-4-9B-Chat
后台等待模型自动下载。
image
image
9、可以使用基座模型正常Chat
image
10、创建微调数据集
my_demo.json
格式为:
{
"instruction": "你好",
"input": "",
"output": "您好,我是 AI易集运智能助手,一个由 鹏海运团队 开发的 AI 助手,很高兴认识您。请问我能为您做些什么?"
},
11、更新数据集配置文件
增加数据集my_demo.json文件
12、使⽤LLaMA-Factory微调模型
不启用量化时显存占用较高
13、启用8比特量化,再次微调
image
量化后训练完毕:
image
14、再次加载微调后的模型
可以得到微调后的结果:
image

具体实现步骤及结果: 1、下载LLaMA-Factory并解压: wget https://file.huishiwei.top/LLaMA-Factory.tar.gz tar -xvf LLaMA-Factory.tar.gz 2、创建虚拟环境 conda create -n llama_factory python=3.11 pip -y 3、安装llama-factory及modelscope pip install -e ".[torch,metrics] " pip install modelscope -U <img width="416" alt="image" src="/attachments/56f98866-944b-448f-ad8e-57e1ee20ad65"> 4、安装相关依赖包,验证安装成功 pip install -r requirements.txt <img width="416" alt="image" src="/attachments/cbcbd0df-9bc1-4f59-843b-0b9a80dec495"> 5、设置环境变量 export USE_MODELSCOPE_HUB=1 export NCCL_P2P_DISABLE="1" export NCCL_IB_DISABLE="1" export MODELSCOPE_CACHE='/root/autodl-tmp/modelscope/' export MODELSCOPE_MODULES_CACHE='/root/autodl-tmp/modelscope/modelscope_modules' <img width="416" alt="image" src="/attachments/2027ac69-e49a-4800-b49e-1666c1fb811f"> 6、启动界面 llamafactory-cli webui <img width="416" alt="image" src="/attachments/55cbfd4d-f6e0-4ff1-b74f-f6a4267ba3ae"> 7、打通隧道 8、加载模型 GLM-4-9B-Chat 后台等待模型自动下载。 <img width="416" alt="image" src="/attachments/6be1bc75-3104-40f9-b511-754f4ef9ba30"> <img width="416" alt="image" src="/attachments/df9a1b2c-d639-4178-99ce-5feebaaa6ff0"> 9、可以使用基座模型正常Chat <img width="416" alt="image" src="/attachments/439cd50e-610f-4c99-814c-6497ec4a916c"> 10、创建微调数据集 my_demo.json 格式为: { "instruction": "你好", "input": "", "output": "您好,我是 AI易集运智能助手,一个由 鹏海运团队 开发的 AI 助手,很高兴认识您。请问我能为您做些什么?" }, 11、更新数据集配置文件 增加数据集my_demo.json文件 12、使⽤LLaMA-Factory微调模型 不启用量化时显存占用较高 13、启用8比特量化,再次微调 <img width="416" alt="image" src="/attachments/0efbc86a-5810-431c-b3f6-e47fed44712e"> 量化后训练完毕: <img width="416" alt="image" src="/attachments/85da4a54-ad06-4d35-b201-68fe4e56f5cd"> 14、再次加载微调后的模型 可以得到微调后的结果: <img width="416" alt="image" src="/attachments/48f9f8bf-fecd-473f-a71a-8d75b6dfbd39">
Sign in to join this conversation.
No Label
No Milestone
No project
No Assignees
1 Participants
Notifications
Due Date
The due date is invalid or out of range. Please use the format 'yyyy-mm-dd'.

No due date set.

Dependencies

No dependencies set.

Reference: HswOAuth/llm_share#72
No description provided.