MCP玩家,又新增一员!这次还是全开源开放的!
今天,中国第一开源社区魔搭ModelScope重磅上线「MCP广场」,国内最大MCP中文社区真的来了。
近1500多款热门MCP同时登陆,覆盖了搜索、地图、支付、开发者工具等前沿领域。
值得一的是,支付宝、MiniMax明星MCP服务更是独家首发。
接下来,我们演示下如何在Cline这样的智能体工具中,只需“动动嘴”,就能实现支付宝MCP服务配置。
比如让它创作诗歌,只能免费写一首,之后写诗需要充值,每首扣除0.01元,剩余的钱还可以退回。
写出详细的提示后,Cline就可以自动调用支付宝的MCP服务,创建支付链接、生成支付二维码,查询确认用户支付后再继续生成诗歌。
当然,在移动端,也可以通过支付宝的百宝箱完成同样的操作。
打字、说话都可以完成交互,相当方便。
有了支付宝的MCP服务,大大简化了应用、游戏和各种服务的支付环节,未来,任何人皆可通过AI智能体连上支付宝完成交易、查询、退款,一键打通AI商业化最后一公里。
像支付宝MCP这样的服务,在魔搭上还有近1500种。无需复杂的配置,也不需要代码,只需要非常简单的配置,就可在魔搭的MCP实验场体验。
直接将部署MCP服务的门槛拉到地面
文本模型秒变多模态
一手体验魔搭MCP
除了支付宝MCP首发上线魔搭,MiniMax也将语音(生成/克隆)、图像、视频生成能力封装为统一的MCP工具,让文本模型瞬间晋级为多模态「全能选手」。
通过魔搭提供的免费云端资源部署,我们率先体验了这一MCP服务。
首先,需要在MiniMax开放平台拿到一个API,然后在MCP广场找到MiniMax的MCP服务,填好后就可拿到SSE URL了。
接着我们在魔搭的MCP Playground里,找到配置选项,将拿到的包含SSE URL的JSON文件粘贴下来就搞定了。
配置成功后,就可以在实验场里看到我们刚刚配置好的MiniMax-MCP服务了。
这样我们就能通过MCP服务用上MiniMax模型强大的多模态能力了。
比如,让它念一首诗。无需提示,模型就会自己判断调用合适的MCP工具[MiniMax-MCP]text to audio,完成后就会在下面给出音频链接。
生成过程很快,一次就成功了。整个的朗读效果也很流畅,还有一些感情的起伏。大家可以听一下效果。
除了将诗歌读出来,大模型还可以调用[MiniMax-MCP]服务将李白的这首诗变成一张图像及视频。
开发效率倍增
迈向AI互操作生态未来
MCP全称是「模型上下文协议」(Model Context Protocol),被誉为「AI界的USB-C接口」。
无论是云端模型与本地数据交互,还是多模态模型之间的协同,「一根线」就可连接到不同AI模型、工具、数据,可极大简化开发者的集成工作。
为什么MCP如此重要?
2025年,成为科技圈认定的「智能体元年」,AI智能体的爆发式增长正在重塑各行各业。
MCP的出现,恰如一座桥梁,连接了高性能模型、外部资源与实际应用场景。
在开发过程中,开发者需要调用的工具越多,越能凸显出MCP的价值,比如同样是100个AI智能体和100个外部工具:
传统API:配置次数为100×100=10000
MCP:配置次数为100+100=200
开发者摆脱锁定,拥抱灵活
MCP另一个重大的突破在于,实现了与供应商解耦的开发。
传统的AI搭建中,开发者通常被锁定在某个AI供应商的生态系统,或单一的工具链中。比如,为OpenAI插件编写的代码难以复用至其他平台。
MCP开放标准,彻底打破了这一桎梏。
无论是Claude、Gemini,还是Qwen、DeepSeek等开源大模型,开发者都能无缝调用任何MCP服务器。
这种灵活性让开发者可以自由「混搭」,假设用Claude处理文本任务,同时可以切换到开源模型处理多模态任务,而底层MCP集成保持不变。
也正因此,开发者无需关心底层工具的复杂实现,只需聚焦于创意本身。
对于工具开发者来说,也是一个福音。传统工具依赖GUI/API面向人类用户,而MCP让工具天生具备AI驱动的能力。
举个栗子,Unity MCP服务器的创建者称,MCP可以让Claude与Unity直接交流,全程只用一个提示就能创建整个游戏。
这样不仅加快了测试速度,也预示着一个未来,AI成为软件的「一等用户」,而非事后才考虑的对象。
AI智能体效率,指数级飙升
不仅如此,MCP还赋予了智能体前所未有的能力扩展。
过去,AI智能体需要依赖开发者预设的自定义插件,才能从第三方应用程序中获取某些信息,功能大幅受限。
如今,MCP的出现让AI直接开箱即用处理多种任务,多系统自动化、智能体的应用场景被极大地扩宽。
一个典型的案例是,AI智能体通过MCP服务器,从发送邮件、更新表格,再到创建Jira工单,流畅地完成复杂工作流。
开发者Siddharth Ahuja在连接Blender后感叹道,MCP真正开启了智能自动化的新时代。
再比如,想象一个助手,它能够自主扫描GitHub提交记录,提前发现bug;或是在读取日历时,在截止日期前提醒团队。
MCP的崛起,正在重塑AI智能体生态系统,开启新一代自主、多模态、深度集成的AI体验。
而魔搭MCP广场正成为这一愿景的实验田。
所有人都在拥抱MCP
魔搭上线最大MCP中文社区
2024年11月,这套开源的标准化协议由Anthropic首次推出,如今正成为科技大厂们认可的统一标准。
今年年初,海外平台如Cursor、Windsurf、Cline等率先接入MCP协议。
3月底,奥特曼官宣OpenAI旗下一系列产品将全面支持MCP,包括Agents SDK、ChatGPT桌面端和Responses API。
仅仅几天后, 谷歌也在Gemini API中新增了对MCP的支持。
在国内,阿里云对MCP展开了惊人的生态战略布局。
先是4月9日,阿里云百练上线了业界首个全生命周期MCP服务;10日,无影推出支持MCP协议的云电脑服务AgenBay。
而现在,随着MCP广场的上线,不仅标志着魔搭社区在AI开源生态建设又一次突破,也为全球AI开源者开启了通往智能化未来新大门。
这种「模型 × MCP」的组合,不仅降低了AI应用的开发门槛,还为Agent生态的未来探索提供了无限可能。
5万开源模型,「搭积木」搭出AI的想象力
从5万个模型,到数据集,到工具,到Space空间,再到MCP广场,魔搭社区上的每个功能模块均能以解耦的原子化形式输出、对外开放,开发者不必局限在平台内部,而是可以像搭积木一样自由组合。
除此以外,魔搭上还活跃着许多的多模态模型,同样可以封装成标准的MCP服务对外。
开发者们未来也都可以在魔搭上贡献自己的MCP,魔搭还可以为优质的MCP服务提供托管服务,让开发者在不同环境上直接获取MCP能力,真正发挥出AI开源社区的共创优势。
推出MCP Bench,MCP解锁新型生态关系
随着MCP的爆火,市面上也涌现出了大量的MCP服务,但良莠不齐的质量,让开发者头痛。
比如,该如何分辨哪个是自己需要的,哪个是优质的?
为了一探各种MCP的真正能力,魔搭特地做了一项面向开源社区的MCP Bench工作。
他们设计了一组针对Web Search场景的调用效果对比,由模型连接MCP进行问答,对回答的精度采用模型打分。
实验结果显示,各个MCP服务的效果差异性很大,最高的Bing web search(64%)和最低的DuckDuckGo(10%)相差了54pt。
MCP服务之间的效率差异性更大,最快的bing web search和Brave search仅需要15秒以内,而最慢的Exa search需要231秒。
不过,它们之间的Token消耗量接近,基本都是在150-250tokens之间,说明模型总是会精炼地回答,而不相关于其使用的MCP。
更多的讨论,详见MCP Bench社区的持续迭代:https://github.com/modelscope/MCPBench
虽然当下,MCP协议并非技术上的灵丹妙药,魔搭团队也指出,目前MCP对生产力的显著改观还不够,但MCP依旧是有价值的,它更重要的意义在于,通过标准化接口设计,重构了大模型应用的生态关系。
中心化框架下的角色错配问题被解决,模型厂商、DevOps平台、工具提供者和应用构建者,就达成了解耦合作。
新生产关系所产生的价值重构,也就在眼前了。
MCP
正处于大爆炸前夜
2022年11月,魔搭社区成立之初,就希望通过开源开放的方式,降低AI模型使用门槛。
截至目前,这个中国最大开源AI社区,已经托管超5万+模型,还有多种数据集、创空间等全链路工具,服务全球1300多万开发者。
近1500款MCP服务+MCP Bench评估加持+云端/本地部署灵活性,让开发者能够快速验证创意、迭代应用。以MCP协议为钥匙,AI作为软件「一等用户」的崭新时代正在到来。
想象这样一个未来:你只需告诉AI想要的结果,它便能洞悉需求,流畅调用应用程序,精准到操作每个步骤。
它就如同一个全能助手,甚至是一支超能团队,为开发者打工。
这不是科幻,正是MCP铺就的现实。
而现在,我们正处于大爆炸前夜,这座通往未来的桥梁才刚刚打开。
参考资料:
https://www.modelscope.cn/mcp
(举报)
MCP玩家,又新增一员!这次还是全开源开放的!
今天,中国第一开源社区魔搭ModelScope重磅上线「MCP广场」,国内最大MCP中文社区真的来了。
近1500多款热门MCP同时登陆,覆盖了搜索、地图、支付、开发者工具等前沿领域。
值得一的是,支付宝、MiniMax明星MCP服务更是独家首发。
接下来,我们演示下如何在Cline这样的智能体工具中,只需“动动嘴”,就能实现支付宝MCP服务配置。
比如让它创作诗歌,只能免费写一首,之后写诗需要充值,每首扣除0.01元,剩余的钱还可以退回。
写出详细的提示后,Cline就可以自动调用支付宝的MCP服务,创建支付链接、生成支付二维码,查询确认用户支付后再继续生成诗歌。
当然,在移动端,也可以通过支付宝的百宝箱完成同样的操作。
打字、说话都可以完成交互,相当方便。
有了支付宝的MCP服务,大大简化了应用、游戏和各种服务的支付环节,未来,任何人皆可通过AI智能体连上支付宝完成交易、查询、退款,一键打通AI商业化最后一公里。
像支付宝MCP这样的服务,在魔搭上还有近1500种。无需复杂的配置,也不需要代码,只需要非常简单的配置,就可在魔搭的MCP实验场体验。
直接将部署MCP服务的门槛拉到地面
文本模型秒变多模态
一手体验魔搭MCP
除了支付宝MCP首发上线魔搭,MiniMax也将语音(生成/克隆)、图像、视频生成能力封装为统一的MCP工具,让文本模型瞬间晋级为多模态「全能选手」。
通过魔搭提供的免费云端资源部署,我们率先体验了这一MCP服务。
首先,需要在MiniMax开放平台拿到一个API,然后在MCP广场找到MiniMax的MCP服务,填好后就可拿到SSE URL了。
接着我们在魔搭的MCP Playground里,找到配置选项,将拿到的包含SSE URL的JSON文件粘贴下来就搞定了。
配置成功后,就可以在实验场里看到我们刚刚配置好的MiniMax-MCP服务了。
这样我们就能通过MCP服务用上MiniMax模型强大的多模态能力了。
比如,让它念一首诗。无需提示,模型就会自己判断调用合适的MCP工具[MiniMax-MCP]text to audio,完成后就会在下面给出音频链接。
生成过程很快,一次就成功了。整个的朗读效果也很流畅,还有一些感情的起伏。大家可以听一下效果。
除了将诗歌读出来,大模型还可以调用[MiniMax-MCP]服务将李白的这首诗变成一张图像及视频。
开发效率倍增
迈向AI互操作生态未来
MCP全称是「模型上下文协议」(Model Context Protocol),被誉为「AI界的USB-C接口」。
无论是云端模型与本地数据交互,还是多模态模型之间的协同,「一根线」就可连接到不同AI模型、工具、数据,可极大简化开发者的集成工作。
为什么MCP如此重要?
2025年,成为科技圈认定的「智能体元年」,AI智能体的爆发式增长正在重塑各行各业。
MCP的出现,恰如一座桥梁,连接了高性能模型、外部资源与实际应用场景。
在开发过程中,开发者需要调用的工具越多,越能凸显出MCP的价值,比如同样是100个AI智能体和100个外部工具:
传统API:配置次数为100×100=10000
MCP:配置次数为100+100=200
开发者摆脱锁定,拥抱灵活
MCP另一个重大的突破在于,实现了与供应商解耦的开发。
传统的AI搭建中,开发者通常被锁定在某个AI供应商的生态系统,或单一的工具链中。比如,为OpenAI插件编写的代码难以复用至其他平台。
MCP开放标准,彻底打破了这一桎梏。
无论是Claude、Gemini,还是Qwen、DeepSeek等开源大模型,开发者都能无缝调用任何MCP服务器。
这种灵活性让开发者可以自由「混搭」,假设用Claude处理文本任务,同时可以切换到开源模型处理多模态任务,而底层MCP集成保持不变。
也正因此,开发者无需关心底层工具的复杂实现,只需聚焦于创意本身。
对于工具开发者来说,也是一个福音。传统工具依赖GUI/API面向人类用户,而MCP让工具天生具备AI驱动的能力。
举个栗子,Unity MCP服务器的创建者称,MCP可以让Claude与Unity直接交流,全程只用一个提示就能创建整个游戏。
这样不仅加快了测试速度,也预示着一个未来,AI成为软件的「一等用户」,而非事后才考虑的对象。
AI智能体效率,指数级飙升
不仅如此,MCP还赋予了智能体前所未有的能力扩展。
过去,AI智能体需要依赖开发者预设的自定义插件,才能从第三方应用程序中获取某些信息,功能大幅受限。
如今,MCP的出现让AI直接开箱即用处理多种任务,多系统自动化、智能体的应用场景被极大地扩宽。
一个典型的案例是,AI智能体通过MCP服务器,从发送邮件、更新表格,再到创建Jira工单,流畅地完成复杂工作流。
开发者Siddharth Ahuja在连接Blender后感叹道,MCP真正开启了智能自动化的新时代。
再比如,想象一个助手,它能够自主扫描GitHub提交记录,提前发现bug;或是在读取日历时,在截止日期前提醒团队。
MCP的崛起,正在重塑AI智能体生态系统,开启新一代自主、多模态、深度集成的AI体验。
而魔搭MCP广场正成为这一愿景的实验田。
所有人都在拥抱MCP
魔搭上线最大MCP中文社区
2024年11月,这套开源的标准化协议由Anthropic首次推出,如今正成为科技大厂们认可的统一标准。
今年年初,海外平台如Cursor、Windsurf、Cline等率先接入MCP协议。
3月底,奥特曼官宣OpenAI旗下一系列产品将全面支持MCP,包括Agents SDK、ChatGPT桌面端和Responses API。
仅仅几天后, 谷歌也在Gemini API中新增了对MCP的支持。
在国内,阿里云对MCP展开了惊人的生态战略布局。
先是4月9日,阿里云百练上线了业界首个全生命周期MCP服务;10日,无影推出支持MCP协议的云电脑服务AgenBay。
而现在,随着MCP广场的上线,不仅标志着魔搭社区在AI开源生态建设又一次突破,也为全球AI开源者开启了通往智能化未来新大门。
这种「模型 × MCP」的组合,不仅降低了AI应用的开发门槛,还为Agent生态的未来探索提供了无限可能。
5万开源模型,「搭积木」搭出AI的想象力
从5万个模型,到数据集,到工具,到Space空间,再到MCP广场,魔搭社区上的每个功能模块均能以解耦的原子化形式输出、对外开放,开发者不必局限在平台内部,而是可以像搭积木一样自由组合。
除此以外,魔搭上还活跃着许多的多模态模型,同样可以封装成标准的MCP服务对外。
开发者们未来也都可以在魔搭上贡献自己的MCP,魔搭还可以为优质的MCP服务提供托管服务,让开发者在不同环境上直接获取MCP能力,真正发挥出AI开源社区的共创优势。
推出MCP Bench,MCP解锁新型生态关系
随着MCP的爆火,市面上也涌现出了大量的MCP服务,但良莠不齐的质量,让开发者头痛。
比如,该如何分辨哪个是自己需要的,哪个是优质的?
为了一探各种MCP的真正能力,魔搭特地做了一项面向开源社区的MCP Bench工作。
他们设计了一组针对Web Search场景的调用效果对比,由模型连接MCP进行问答,对回答的精度采用模型打分。
实验结果显示,各个MCP服务的效果差异性很大,最高的Bing web search(64%)和最低的DuckDuckGo(10%)相差了54pt。
MCP服务之间的效率差异性更大,最快的bing web search和Brave search仅需要15秒以内,而最慢的Exa search需要231秒。
不过,它们之间的Token消耗量接近,基本都是在150-250tokens之间,说明模型总是会精炼地回答,而不相关于其使用的MCP。
更多的讨论,详见MCP Bench社区的持续迭代:https://github.com/modelscope/MCPBench
虽然当下,MCP协议并非技术上的灵丹妙药,魔搭团队也指出,目前MCP对生产力的显著改观还不够,但MCP依旧是有价值的,它更重要的意义在于,通过标准化接口设计,重构了大模型应用的生态关系。
中心化框架下的角色错配问题被解决,模型厂商、DevOps平台、工具提供者和应用构建者,就达成了解耦合作。
新生产关系所产生的价值重构,也就在眼前了。
MCP
正处于大爆炸前夜
2022年11月,魔搭社区成立之初,就希望通过开源开放的方式,降低AI模型使用门槛。
截至目前,这个中国最大开源AI社区,已经托管超5万+模型,还有多种数据集、创空间等全链路工具,服务全球1300多万开发者。
近1500款MCP服务+MCP Bench评估加持+云端/本地部署灵活性,让开发者能够快速验证创意、迭代应用。以MCP协议为钥匙,AI作为软件「一等用户」的崭新时代正在到来。
想象这样一个未来:你只需告诉AI想要的结果,它便能洞悉需求,流畅调用应用程序,精准到操作每个步骤。
它就如同一个全能助手,甚至是一支超能团队,为开发者打工。
这不是科幻,正是MCP铺就的现实。
而现在,我们正处于大爆炸前夜,这座通往未来的桥梁才刚刚打开。
参考资料:
https://www.modelscope.cn/mcp
(举报)