Replies: 9 comments 2 replies
-
感觉 直接接 dify 易用性好一些 llm 再分发增加了一些复杂度 建议保留Dify条线 不影响自己想用LLM调用Dify的用户 留着Dify是留着简单的无限扩展空间 |
Beta Was this translation helpful? Give feedback.
-
【场景】希望用Dify实现本地化的知识库+聊天助手+小智AI&ESP32结合,实现基于本地知识库的语音对话及基本的IoT功能。 |
Beta Was this translation helpful? Give feedback.
-
感觉多模态的控制可以实现,不过这个有些复杂,应该是未来的发展方向 |
Beta Was this translation helpful? Give feedback.
-
建议保留DIFI、coze做为LLM。1.虽然这几个从接口不支持Toolcalling,但可以从平台层动态扩展更多工具,如天气、时间、长期记忆、RAG等等,这些都是便于从用户的角度扩展可玩性,对用户友好;2.如果降级作为工具链,极大程度限制了这些平台的扩展功能,而写调用效率会更低更耗时 |
Beta Was this translation helpful? Give feedback.
-
在针对ha智能家居控制部分 如果使用OpenAI Conversation,HA方面基本需求都能满足。但是意图识别准确度和延迟是个问题 还是希望通过Function Call 方式,问题主要是开发部分较多,要匹配HA的大部分应用场景,但是可以一步步来 |
Beta Was this translation helpful? Give feedback.
-
DIFY和COZE按理说不应该被降级成工具来用啊,这些都是LLMops,作为中间层,是xiaozhi-server在工作流和知识库方面强有力的补充,前面挡个LLM来做任务拆解和调度,先不说国内哪些模型能胜任这个工作,就从白白增加的耗时上来看也是不划算的 |
Beta Was this translation helpful? Give feedback.
-
整合是要看具体程度。如果是再行开发,我觉得意义不是太大。建议可以区分开,这边就专门做实际应用端的就可以了,因为普通人才是最大的用户群体。整个系统不应该太过复杂。类似于只做用户的总管家,其他的活有专门的人做。针对没人做的或只有国外有的,就单独做一个。说得比较通俗,希望能懂。 |
Beta Was this translation helpful? Give feedback.
-
我得想使用MCP服务驱动外部得技能,DIFY和COZE这个一个私有一个外部,两个侧重板块不一样,还是得保留好一点,私有化得数据安全一点,特别对私有知识库得 |
Beta Was this translation helpful? Give feedback.
-
现在dify/coze都支持将自己搭建的应用暴露一个mcp sse server,
|
Beta Was this translation helpful? Give feedback.
Uh oh!
There was an error while loading. Please reload this page.
-
背景与目标
近期团队在探索如何将Coze、Dify等平台的LLM能力更灵活地整合到小智的对话系统中,目标是实现以下功能:
当前设计方案
意图识别与路由
异步任务流程
多平台协作示例
#八字排盘
→ 调用Dify工作流A。#视频生成
→ 调用Coze工作流B并异步响应。需收集的意见
使用场景:
技术体验:
协作流程:
后续计划
根据反馈优化设计,目标2周内输出详细技术方案。欢迎所有相关同事参与讨论!
讨论回复
示例回复格式
Beta Was this translation helpful? Give feedback.
All reactions