04课-DIFY图文知识库如何输出图片内容

视频地址:https://www.youtube.com/watch?v=TdtUzMfub9g 首先,不要寄希望于丢几个 PDF 给嵌入模型,就可以有很好的效果。好的效果,往往需要你理解你真实的需求,高质量的材料整理,理解 RAG 的运行原理。如果你希望使用 DIFY 做出下图类似的图文混排效果,参考本教程。 在 DIFY 的知识库召回过程中,如果希望输...

阅读全文

03课-DIFY流程中workflow与chatflow的区别

Chatflow 和 workflow 最大的区别就在于是否有对话场景。从 DIFY 设计上产生了一些功能性区别。 视频地址:https://www.youtube.com/watch?v=quEA_7LVWA8 起点的区别Chatflow 会对一些对话相关的支持,对话 ID、对话轮数等内容。这些是 workflow 没有的。 LLM 节点记忆的区别因为...

阅读全文

02课-DIFY的模型配置

视频地址:https://www.youtube.com/watch?v=4I2DgPR3qDA 添加模型如果你还不太清楚模型的分类(LLM、Embedding、Rerank、等等),推荐你注册一个硅基流动的账号,因为它支持的模型种类很全面,这样你可以将默认模型全部配置一遍。未来等你有更多的模型使用权限时,你可以按个人喜好,选择合适的模型。 硅基流动提供免...

阅读全文

01课-DIFY的本地化部署与启动

视频地址:https://www.youtube.com/watch?v=6LnHVay289w Docker 环境如果使用 Windows 电脑,可以使用 Docker Desktop 进行本地环境的搭建。如果使用 Mac 电脑,可以使用 OrbStack 搭建 Docker 环境。如果你使用 Linux 或其他环境,想必你已经知道如何安装 Docker...

阅读全文

coffbox开启Gemini和Anthropic代理,chatwise连接方法

今天升级了一下 coffbox One API 服务,开启了 Claude API 和 Gemini API 的代理服务。原始的 OpenAI-compatible 的方式访问照旧,如果使用代理服务,调用 gemini-2.0-flash-exp 的生图功能,可能会有更好的兼容性。对应 chatwise 客户端配置参考如下: 使用 Gemini API 的接...

阅读全文

我是技术小白,如何用好DIFY?

在大语言模型发展的这几年,因为工作原因,接触 DIFY 时间比较长一点点,总结一下自己的一些想法。包括选择什么样的模型,为什么众多应用层的开发工具/产品选择了 DIFY,DIFY 能做什么? 关于模型模型大体可以分为文本模型和多模态模型,我们以 OPENAI 的模型为例,gpt 3.5,gpt 4 这些都是文本模型。O1 是多模态模型。多模态常规意...

阅读全文

Mac上的本地大模型的客户端简单介绍

Mac 上有很多本地大模型客户端,Chatbox、LM studio、Chatwise、Opencat、 Cherry Studio。这里做一些简单的介绍,不算很复杂的评测,只是简单说说不同,你可以随便挑一个你喜欢的用。 Chatbox AI 支持 ollama 和 LM Studio 的本地模型,也支持线上模型,功能丰富,Star 目前有 3 万多,可以作...

阅读全文

使用DIFY的Sandbox解析文件的方法

如果你是的 Dify 使用 Docker 方式启动,而且存储使用默认的 local 模式,Dify 文件上传后,会存储在: 1dify/docker/volumes/app/storage/upload_files 如果我们希望使用 sandbox 上传的文件,这里提供一个比较取巧的方式。 1、使用我提供的 dify-sandbox-py,修改 docke...

阅读全文

记录一下多平台docker镜像构建

单一平台构建普通用户如果构建镜像只是自己使用,直接构建单一镜像即可: 12345678# 构建本地可用的镜像,例如我是m1的mac,构建出来就是arm的镜像docker build -t svcvit/dify-sandbox-py:0.1.0 .# 推送docker push svcvit/dify-sandbox-py:0.1.0# 构建linux/am...

阅读全文

如何不包月,让Cursor使用自己sonnet3.5的API

目前使用 Cursor 的免费额度用完了,但是一个月冲 20 刀又有点肉疼,特别是 windsurf 出来之后,编辑器也各有春秋,如果每个编辑器都冲,感觉更不划算,再加上自己不是全职写代码的程序员,只是偶尔用用,根本用不到那么多请求的量。最合算的,还是用自己的 API 接口,即放心稳定,又可以方便统一支付。于是,研究了一下如何配置 Cursor 的自定义模型...

阅读全文