本文将介绍如何使用 deepseek4j 接入 Ollama 的 Deepseek-r1:14b 模型。

Ollama 安装部署

1. 安装 Ollama

在 macOS 上安装 Ollama:

curl https://ollama.ai/install.sh | sh

在 Linux 上安装 Ollama:

curl https://ollama.ai/install.sh | sh

在 Windows 上安装:

  • 访问 Ollama官网 下载安装包
  • 运行安装程序完成安装

2. 下载 Deepseek-r1:14b 模型

安装完成后,打开终端运行以下命令下载模型:

ollama pull deepseek-r1:14b

3. 启动 Ollama 服务

ollama serve

服务默认运行在 http://127.0.0.1:11434

deepseek4j 配置

1. 配置文件设置

application.propertiesapplication.yml 中添加以下配置:

注意模型名称:deepseek-r1:14b , 和上文Ollama run 参数一致
deepseek.base-url=http://127.0.0.1:11434/v1
deepseek.model=deepseek-r1:14b
deepseek.api-key=deepseek #不能为空,随意填

2. 代码示例

@Autowired
private DeepSeekClient deepSeekClient;

@GetMapping(value = "/chat", produces = MediaType.TEXT_EVENT_STREAM_VALUE)
public Flux<ChatCompletionResponse> chat(String prompt) {
    return deepSeekClient.chatFluxCompletion(prompt);
}

注意事项

  1. 确保 Ollama 服务正常运行
  2. 模型下载可能需要一些时间,取决于网络状况
  3. 首次使用时需要等待模型加载
  4. 建议使用 16GB 以上内存的机器运行

常见问题

1. 连接超时

检查 Ollama 服务是否正常运行:

curl http://127.0.0.1:11434

Ollama is running

2. 内存不足

可以通过设置环境变量来限制模型使用的显存:

export OLLAMA_GPU_LAYERS=0

3. 模型响应速度

  • 首次请求可能较慢,这是正常现象
  • 后续请求会更快,因为模型已经加载到内存中

参考链接

PIG AI应用开发平台 | 适合中大型企业构建自主可控的AI中台

为Java开发者提供全栈式AI工程化解决方案,强类型/高可维护性架构,内置30+主流大模型支持。

  • 🔍 知识引擎体系:RAG 知识引擎全自动化多模态解决方案
  • 📝 AI-OCR 中枢:复杂非标场景高精度识别
  • ⚙️ 业务智能融合:函数编排 + Chat2SQL,无缝对接现有业务系统
  • 🛡️ N维风控体系:敏感词/IP/Token/User 规则控制引擎

文档有误?请协助编辑

发现文档问题?点击此处直接在 GitHub 上编辑并提交 PR,帮助我们改进文档!