第 2 章:快速上手:环境部署与模型配置

第 2 章:Dify快速上手:环境部署与模型配置

本章将带你完成 Dify 的本地部署,并接入你最喜欢的模型,开启 AI 应用构建之旅。


2.1 环境准备

在开始部署之前,请确保你的机器满足以下基本要求:

  • 硬件要求
    • CPU:至少 2 核(推荐 4 核及以上)
    • 内存:至少 4 GiB(推荐 8 GiB 及以上)
  • 软件依赖
    • Docker:19.03+ 版本
    • Docker Compose:1.28+ 版本

2.2 本地部署:使用 Docker Compose(推荐)

Docker 部署是 Dify 最快、最稳定的私有化部署方案。

  1. 克隆 Dify 源码
    git clone https://github.com/langgenius/dify.git
    
  2. 进入 Docker 目录
    cd dify/docker
    
  3. 配置环境变量
    cp .env.example .env
    

    提示:对于初学者,默认配置即可。如果你需要自定义端口或数据库,请修改 .env 文件。

  4. 启动 Dify
    docker compose up -d
    
  5. 验证部署
    • 在浏览器访问:http://localhost
    • 第一次进入需要设置管理员账号。

2.3 模型配置:接入模型供应商

Dify 平台本身不提供模型推理能力,你需要接入第三方的模型供应商(如 OpenAI, Claude)或本地模型(如 Ollama)。

如何接入模型?

  1. 登录 Dify 后,点击右上角的 设置 (Settings) -> 模型供应商 (Model Providers)
  2. 选择你想接入的供应商(例如 OpenAI)。
  3. 填写对应的 API Key(如果需要,还可以配置自定义代理地址)。
  4. 点击保存并测试连接。

接入本地模型 (Ollama)

如果你希望完全离线使用,可以接入 Ollama:

  1. 安装并运行 Ollama。
  2. 在 Dify 模型供应商中选择 Ollama
  3. 填写 Ollama 的服务地址(通常为 http://host.docker.internal:11434)。
  4. 输入模型名称(如 llama3, qwen2)。

2.4 关键模型类型解析

在 Dify 中,你会遇到四种核心模型类型,它们各司其职:

模型类型作用推荐模型
推理模型 (System LLM)负责对话、逻辑推理和任务执行。GPT-4o, Claude 3.5 Sonnet, Llama 3
Embedding 模型将文本转换为向量,用于知识库检索。text-embedding-3-small, BGE-Large
Rerank 模型对检索结果进行重排序,大幅提升 RAG 精度。BGE-Reranker, Cohere Rerank
多模态模型处理图片、音频等非文本数据。GPT-4o (Vision), Whisper

下一章预告:我们将动手编排你的第一个对话式 AI 应用,并学习如何通过提示词让它变得更聪明。

© 版权声明

相关文章

暂无笔记

您必须登录才能记录笔记!
立即登录
none
暂无笔记...