融云开源 MCP Server,让大模型轻松调用 IM 能力

现在开始,在 AI 开发平台或大模型中,开发者可以通过统一的标准协议,更加便捷地调用融云 IM 接口啦。
近期,融云上线 MCP Server,将 IM 能力封装为模型可调用的工具服务,打通了模型与用户、群组之间的智能互动通路。

MCP 是一个标准协议,被类比为 AI 应用中的 USB-C 接口。通过标准化的接口规范,使 AI 大模型能够以统一的方式连接各种外部工具和数据源。
相较此前大模型标准不一的 Function Calling 方式,MCP 的标准化统一带来了更低的开发成本、更高的复用性和更强的灵活性,在跨平台数据整合与协作场景中优势尤为明显。
作为新的统一连接神经,MCP 生态正在不断丰富,它打破了 AI 大模型与外部工具、互联网资源的壁垒,赋予用户在各个支持 MCP 的 AI 产品中自由地访问文件、调用 API、操作工具等能力。
这意味着,AI 将具备更强的动态交互能力,让调用外部工具完成复杂任务的 Agent 更具落地性。通过融云 MCP Server,配合其他支持 MCP 的 AI 工具及平台,开发者可以更便捷地实现大模型内容生成和自动化分发、用户和群组管理等能力,适用智能客服、企业协同、用户运营及广泛的待扩展场景。
适用场景
支持用户在大模型中通过自然语言实现私聊、群聊交互——
快速搭建产品原型,比如开发者在调试 AI 产品时可以直接在大模型中用自然语言测试消息发送、群组创建/解散等能力。
支持直接从大模型端向客户端发送 AI 生成的消息内容,可用于 AI 客服、产品运营等场景。
在企业协同场景,支持由大模型分析并总结指定用户的对话内容;借助大模型的对话理解能力,实现群组成员的智能管理,如:
自动邀请成员加入群组(“@张三 加入项目群” 或 “可以把小李拉进来一起参与”);
自动将成员移出群组(“张三说话不合适,踢出群” 或 “@AI 踢掉李四”);
查询当前群组成员信息(“群里现在有谁?”或“请列出这个群的成员名单”);
批量解散群聊(“解散群组 group-001、group-002 和 group-003”或“批量解散指定的多个群组”)。
快速部署
支持云端托管(SSE)、本地集成(STDIO)两种接入模式。
开发者可以根据情况选择合适的方式配置融云 MCP Server,进而使用私聊、群聊、私聊历史消息、群组管理等工具能力,实现用户社交互动与群组管理功能。
准备工作
在开始集成 MCP Server 之前,请确保:
☑ 已在融云控制台创建应用,并获取有效的 App Key / App Secret。
☑ 若使用托管模式(SSE),请在融云控制台创建 API Key,用于身份验证。
SSE 模式接入
官方托管部署,免运维;模型远程调用访问,多端共享、轻量接入。
接入步骤
☑ 获取 API Key,前往融云控制台申请或查看对应的 API Key。

☑ 配置 MCP Server(以 Cherry Studio 为例)
▪打开 Cherry Studio 的 MCP 服务器设置页
▪点击“添加服务器(从 JSON 导入)”
▪填写以下配置信息:
{
"mcpServers": {
"rongcloud-server-mcp-sse": {
"type": "sse",
"url": "https://ai.rong-api.com/mcp/sse?api_key=your_api_key" }
}
}
如果提示添加失败,可关闭设置页面后手动保存配置即可生效
▪打开 Cherry Studio 的“模型服务设置”页面,选择并启用一个聊天模型,然后在对应位置填写 API 密钥(可在该模型的官网申请)。

▪打开 Cherry Studio 的“聊天”页面,选择所需的聊天模型,并勾选已配置的 MCP。完成后,输入消息即可开始对话。

STDIO 模式接入
本地部署,低延迟响应,支持二次开发与调试。
接入步骤
☑ 安装 UV 工具
# macOS / Linux 安装
curl -LsSf https://astral.sh/uv/install.sh | sh
# Windows 安装
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
# 或使用 pip 安装
pip install uv
(仅 macOS)安装 coreutils
brew install coreutils
配置 MCP Server(以 Cherry Studio 为例)
▪打开 Cherry Studio 的 MCP 服务器设置页
▪点击“添加服务器(从 JSON 导入)”
▪填入以下配置信息:
{
"mcpServers": {
"rongcloud-server-mcp-python": {
"command": "uvx",
"args": ["rongcloud-server-mcp-python"], "env": { "RONGCLOUD_APP_KEY": "your_app_key",
"RONGCLOUD_APP_SECRET": "your_app_secret",
"RONGCLOUD_API_BASE": "https://api.rong-api.com" }
}
}
}
☑ 打开 Cherry Studio 的“模型服务设置”页面,选择并启用一个聊天模型,然后在对应位置填写 API 密钥(可在该模型的官网申请)。

☑ 打开 Cherry Studio 的“聊天”页面,选择所需的聊天模型,并勾选已配置的 MCP。完成后,输入消息即可开始对话。

使用示例
发送消息,如 user1 向 user2 发送 5 条国风风格消息,消息内容自动生成。

消息总结,如总结 user2 和 user1 最近 1 小时的单聊内容与风格,提炼核心话题并优化表述,使其简洁、清晰、适用于会议纪要或沟通记录。

自动生成内容发送到用户终端,如分析《周杰伦〈晴天〉》的歌词结构分析与词意解读,将分析的内容以 user1 身份向 user2 发送。

邀请成员加入群聊
▪创建一个群,群名叫“项目讨论组”,初始成员包括 u1, u2, u3。

▪邀请成员加入到群聊,把 u4 拉进来一起参与, 群 ID 为 group-0001

查询群成员列表,如请列出这个群的成员名单, 群 ID 为 group-0001

解散群组,如解散群组 group-001、group-002 和 group-003

项目仓库地址
开发者文档:
Server MCP 概述 | 融云开发者文档
项目仓库地址:
GitHub:
rongcloud/rongcloud-server-mcp-python
rongcloud/rongcloud-native-mcp-python
Gitee:
rongcloud/rongcloud-server-mcp-python
rongcloud/rongcloud-native-mcp-python