本地服务器用gpu创建ollama容器报错 #468

Open
opened 2025-01-09 12:49:01 +08:00 by txg0612 · 4 comments

老师你好,我用一台本地带gpu的服务器(系统为ubuntu22.04),性能如下:
image
用gpu创建ollama容器报错如下:
image
CUDN和cudnn都已经安装(是跟着官网分别下载下来安装的),验证命令截图如下
image
image
请问这是什么原因呢?是我这种方式安装CUDN和cudnn的方式不对吗?

老师你好,我用一台本地带gpu的服务器(系统为ubuntu22.04),性能如下: ![image](/attachments/31a47848-e8a4-496e-b5c2-ec7fe17ecdb7) 用gpu创建ollama容器报错如下: ![image](/attachments/549a9a87-40a5-4c4d-82e6-6b4348bb5832) CUDN和cudnn都已经安装(是跟着官网分别下载下来安装的),验证命令截图如下 ![image](/attachments/9e3710fe-b3f2-4692-a488-ad2eafa69e9f) ![image](/attachments/241bae14-83f0-4c0f-8cb4-4f994c38a94d) 请问这是什么原因呢?是我这种方式安装CUDN和cudnn的方式不对吗?
Author

补充:我创建了一个conda环境,作了如下测试,不知能否给老师排错提供帮助
image

补充:我创建了一个conda环境,作了如下测试,不知能否给老师排错提供帮助 ![image](/attachments/21a5367f-b8d2-4330-9d5c-f4fe4e21f226)
414 KiB
参考:https://blog.csdn.net/qq_38628046/article/details/136312844,可能需要安装NVIDIA Container Toolkit
Author

还真是这个原因,谢谢老师!现在需要解决ollama容器中不能拉取模型的问题。因为这是一台安装ubuntu22.04的服务器,怎么给它配置科学上网呢?

还真是这个原因,谢谢老师!现在需要解决ollama容器中不能拉取模型的问题。因为这是一台安装ubuntu22.04的服务器,怎么给它配置科学上网呢?

这个需要你自己八仙过海各显神通了

这个需要你自己八仙过海各显神通了
Sign in to join this conversation.
No Milestone
No project
No Assignees
2 Participants
Notifications
Due Date
The due date is invalid or out of range. Please use the format 'yyyy-mm-dd'.

No due date set.

Dependencies

No dependencies set.

Reference: HswOAuth/llm_course#468
No description provided.