如果租用的云服务器没有用英伟达 GPU芯片,可以吗
可以使用autodl来租带GPU的服务器
由于之前也有一些同学出现了类似的问题,已经解决问题并更新了新的操作手册:
https://www.yuque.com/hkutangyu/di80sc/oy84gbs16y1ubzdd?singleDoc# 《基于LLaMA-Fa…
请问您是直接复制粘贴以下代码进my_demo.json的吗?如果不是直接复制粘贴的话,请复制粘贴到my_demo.json文件里。
[ { "instruction": "你好", …
这里llm_course是老师的用户名,并非您自己的用户名,可以把这里的用户名替换成自己的用户名。
在移动文件前,可以先用ls查看该目录下是否有该…
可以先在本地部署模型,然后在OneAPI中接入该模型。具体可以参考以下两次课程的实验:
https://docs.qq.com/doc/p/0555f97a90b6f2f9f039bd0c9251f5d7d1e7a506
http…
代码显示PyTorch不包含CUDA支持的版本;建议更换PyPorch。
也可以尝试使用pip或conda命令安装,确保选择正确的CUDA版本。
![image](/attachments/74d6ef2d-d3a0-…
请确认下task0和task1是否有设置环境变量
export HF_HOME=/code/huggingface-cache/ export HF_ENDPOINT=https://hf-mirror.com export http_proxy=http://10.10.9.50:3000 export…
这个codellama模型应该是被下载到huggingface公共数据集里的,所以如果要使用这个模型的话,在创建notebook时还是应该选择huggingface公共数据集。
打开n…
这个看你选择的数据集路径位于哪里。 data_path就是写你选择的数据集的路径,如果你选择的是公共数据集进行训练那么路径就选择公共数据集;如果…
请确保有cd code,这里的命令应该在code目录下进行
应该是路径问题,你试试在 NPROC_PER_NODE=4 NNODES=2 PORT=22222 ADDR=10.244.209.56 NODE_RANK=0 xtuner train…