第 2 章:快速上手:环境部署与模型配置

本章将带你完成 Dify 的本地部署,并接入你最喜欢的模型,开启 AI 应用构建之旅。
2.1 环境准备
在开始部署之前,请确保你的机器满足以下基本要求:
- 硬件要求:
- CPU:至少 2 核(推荐 4 核及以上)
- 内存:至少 4 GiB(推荐 8 GiB 及以上)
- 软件依赖:
- Docker:19.03+ 版本
- Docker Compose:1.28+ 版本
2.2 本地部署:使用 Docker Compose(推荐)
Docker 部署是 Dify 最快、最稳定的私有化部署方案。
- 克隆 Dify 源码:
git clone https://github.com/langgenius/dify.git - 进入 Docker 目录:
cd dify/docker - 配置环境变量:
cp .env.example .env提示:对于初学者,默认配置即可。如果你需要自定义端口或数据库,请修改
.env文件。 - 启动 Dify:
docker compose up -d - 验证部署:
- 在浏览器访问:
http://localhost - 第一次进入需要设置管理员账号。
- 在浏览器访问:
2.3 模型配置:接入模型供应商
Dify 平台本身不提供模型推理能力,你需要接入第三方的模型供应商(如 OpenAI, Claude)或本地模型(如 Ollama)。
如何接入模型?
- 登录 Dify 后,点击右上角的 设置 (Settings) -> 模型供应商 (Model Providers)。
- 选择你想接入的供应商(例如 OpenAI)。
- 填写对应的 API Key(如果需要,还可以配置自定义代理地址)。
- 点击保存并测试连接。
接入本地模型 (Ollama)
如果你希望完全离线使用,可以接入 Ollama:
- 安装并运行 Ollama。
- 在 Dify 模型供应商中选择 Ollama。
- 填写 Ollama 的服务地址(通常为
http://host.docker.internal:11434)。 - 输入模型名称(如
llama3,qwen2)。
2.4 关键模型类型解析
在 Dify 中,你会遇到四种核心模型类型,它们各司其职:
| 模型类型 | 作用 | 推荐模型 |
|---|---|---|
| 推理模型 (System LLM) | 负责对话、逻辑推理和任务执行。 | GPT-4o, Claude 3.5 Sonnet, Llama 3 |
| Embedding 模型 | 将文本转换为向量,用于知识库检索。 | text-embedding-3-small, BGE-Large |
| Rerank 模型 | 对检索结果进行重排序,大幅提升 RAG 精度。 | BGE-Reranker, Cohere Rerank |
| 多模态模型 | 处理图片、音频等非文本数据。 | GPT-4o (Vision), Whisper |
下一章预告:我们将动手编排你的第一个对话式 AI 应用,并学习如何通过提示词让它变得更聪明。
© 版权声明
若无特殊声明,本站所有文章版权均归「PMKG AI知识库」原创和所有,未经许可,任何个人、媒体、网站、团体不得转载、抄袭或以其他方式复制发表本站内容,或在非我站所属的服务器上建立镜像。否则,我站将依法保留追究相关法律责任的权利。
相关文章
暂无笔记...



