AI群聊时代来临!Poe支持多模型同台对话,交互体验再升级

AI 资讯19小时前更新 dennis
0

Quora旗下AI聚合应用Poe正式推送重大更新,新增跨AI模型群聊功能。用户可在同一聊天窗口中,同时邀请ChatGPT、Claude、Gemini、Llama等主流AI模型加入对话,实现多模型协同响应、观点碰撞及任务协作。这一创新功能打破了AI模型间的“信息壁垒”,为AI交互开辟了“多人协作”的新场景,上线后迅速引发AI爱好者的广泛关注。

核心升级:多模型同台对话,支持分工与辩论

Poe此次推出的跨模型群聊功能,并非简单的多模型堆砌,而是构建了一套完整的“AI协作机制”。用户创建群聊后,可从Poe已接入的50余款AI模型中任意选择参与者,既可以邀请ChatGPT(擅长日常对话)、Claude(长文本处理)、Gemini(多模态生成)等通用大模型,也能加入MidJourney(图像生成)、CodeLlama(代码编写)等垂直领域模型。群聊内,所有模型能实时“看到”完整对话记录,实现信息同步。

功能设计上,Poe提供了“指令分配”和“自由辩论”两种模式。在指令分配模式下,用户可明确指定某一模型完成特定任务,例如让CodeLlama编写一段Python代码,同时让Claude对代码进行注释优化,ChatGPT则将技术内容转化为通俗解释,各模型分工协作,高效完成复杂任务;在自由辩论模式下,用户抛出话题(如“新能源汽车的发展瓶颈”),各模型会基于自身训练数据输出独立观点,形成多角度论证,帮助用户全面分析问题。

“过去用户需要在不同AI模型间反复切换,才能获取多维度信息,现在在一个群聊里就能实现‘集思广益’。”Poe产品负责人亨特·沃尔克表示,前期测试中,跨模型群聊的用户停留时长较单模型对话提升了68%。有测试用户反馈,用该功能筹备市场方案时,邀请Claude梳理行业数据、ChatGPT构建框架、Gemini生成可视化建议,原本需要3小时的工作,1小时就完成了,且内容全面性远超单一模型输出。

细节优化:人性化交互,降低协作门槛

为让多模型群聊更贴近人类社交习惯,Poe在交互细节上做了大量优化。群聊内每个AI模型都有专属头像和个性化昵称,用户可根据需求修改(如将Claude命名为“数据分析师”),直观区分不同角色;当某一模型输出内容过长时,系统会自动生成“核心观点摘要”,方便用户快速抓取重点;支持“@特定模型”功能,用户可直接向目标模型提问,避免对话混乱。

针对多模型协作可能出现的观点冲突,Poe新增了“观点整合”工具。用户点击相关功能按钮后,系统会自动提取各模型的核心论点,去除重复内容,按逻辑顺序梳理成完整报告,并标注每个观点的来源模型。例如在讨论“AI伦理监管”话题时,系统会整合ChatGPT的政策建议、Claude的案例分析、Gemini的技术可行性判断,形成结构化内容。

隐私安全方面,Poe延续了一贯的加密策略,群聊内容仅存储在用户本地设备,且支持“一键清空对话”“设置群聊加密密码”等功能。沃尔克强调:“多模型交互不意味着隐私泄露,我们通过端到端加密技术,确保用户数据不会被各AI模型的提供方获取,保障信息安全。”

场景落地:从个人学习到企业协作的全覆盖

跨模型群聊功能的推出,让Poe的应用场景从个人使用延伸至团队协作,覆盖多个领域。在个人学习场景中,学生可创建“学科辅导群”,邀请擅长数理的Wolfram Alpha、专攻语言的ChatGPT、擅长图表生成的Gemini加入,解决复杂的跨学科问题;在创意创作场景中,设计师可邀请MidJourney生成图像、ChatGPT撰写文案、Claude优化版权说明,实现“图文创作出一体化”。

企业协作场景更能凸显该功能的价值。Poe已针对企业用户推出“团队版群聊”,支持成员共同管理AI群聊,分配任务权限。例如市场团队在策划活动时,团队成员可共同邀请各领域AI模型,有人负责让AI分析竞品数据,有人引导AI设计活动方案,实时同步协作进度。某初创公司的运营总监表示:“用Poe的跨模型群聊开展头脑风暴,不仅节省了对接不同AI工具的时间,还能让团队成员围绕AI输出的观点深入讨论,提升决策效率。”

此外,Poe还开放了“自定义模型接入”接口,企业用户可将自身训练的私有AI模型接入群聊,与公共模型协同工作。例如金融机构可将内部的“风险评估模型”与ChatGPT结合,让公共模型负责客户沟通,私有模型进行数据风控,兼顾服务效率与安全合规。

行业影响:推动AI交互从“单对单”走向“多对一”

Poe的这一创新,标志着AI交互正从“用户与单一AI的单对单模式”,向“用户与多AI协作的多对一模式”转型。在此之前,AI聚合应用(如ChatGPT插件商店、Bing Chat)虽能提供多工具调用功能,但多为“串行调用”(完成一个任务后再调用下一个工具),而非“并行协作”,效率和交互体验均有局限。

行业分析师萨拉·金指出:“不同AI模型各有优势,ChatGPT擅长对话流畅性,Claude强在长文本处理,Gemini的多模态能力突出,跨模型群聊实现了‘优势互补’,让AI服务从‘满足单一需求’升级为‘解决复杂问题’。这可能会成为AI聚合应用的下一代核心竞争力。”

面对Poe的升级,其他AI平台也开始加速布局。有消息称,OpenAI正测试“多GPT模型协作”功能,Google Bard计划接入第三方AI模型,推出类似的群聊交互模式。未来,“多AI协同”可能会成为AI应用的标配功能,推动整个行业从“模型竞争”转向“生态协作”。

不过,该模式仍面临一定挑战。目前部分AI模型因技术限制,在群聊中可能出现“信息滞后”“理解偏差”等问题,且多模型同时运行对设备性能有一定要求。沃尔克表示,Poe将通过优化算法、提升云端算力等方式,持续改善这些问题,并计划未来加入“AI模型能力评级”功能,帮助用户更精准地选择协作对象。

Poe跨模型群聊功能核心信息速览:

  1. 核心功能:支持ChatGPT、Claude、Gemini等50余款AI模型加入同一群聊,实现并行协作;

  2. 交互模式:提供“指令分配”“自由辩论”两种模式,支持@特定模型、观点整合等功能;

  3. 场景覆盖:个人学习、创意创作、企业团队协作等,推出企业专属团队版群聊;

    1. 安全保障:端到端加密,内容本地存储,支持群聊加密、一键清空对话;
  4. 未来规划:优化模型协作效率,推出AI模型能力评级,开放更多私有模型接入权限;

  5. 行业意义:推动AI交互从“单对单”转向“多对一”,引领多AI协作新趋势。

© 版权声明

相关文章