您好!针对您的问题“ollama运行后始终只占用一个GPU,而另一个GPU空载”,以下是一些实现两个GPU负荷分担的具体方法: 1. 确认 Ollama 的多 GPU 支持 Ollama 是一个支持多 GPU 运行的工具,但默认情况下可能只使用一个 GPU。你可以通过查看官方文档或运行以下命令来确认其多 GPU 支持情况: ollama --help 2. 设置环境变量指定多个 GPU 为了让 Ollama 使用多个 GPU,可以通过设置 CUDA_VISIBLE_DEVICES 环境变量来指定。例如,如果您有两块…