11月3日,阿里巴巴在北京摆了个场子,名头挺唬人——首届AI向善研讨会。核心议题是讨论“向善”是不是AI发展的金科玉律,以及怎么让技术进步不跑偏,反而能帮社会解决点实际问题。会上,魔搭社区的开发者徐帆秀了一把操作,用通义千问大模型搞出了一副AI眼镜,专门给视障人士用的。
图示 魔搭社区开发者徐帆在AI向善研讨会分享案例
这位徐帆老哥是魔搭社区的“老炮”了,用魔搭提供的模型Qwen-Omni,攒了个低成本实时环境感知系统。据说花了100多块钱的零件,半年时间捣鼓出了这款“盲人AI眼镜”,能识别盲道、报方向、认红绿灯,还能用语音给佩戴者描述周围的环境。成本控制得不错,但功能性也没落下,算是解决了视障群体出行的一大痛点。这玩意儿还参加了魔搭社区和阿里巴巴公益搞的「小有可为」AI开源公益挑战赛,拿到了社区的技术支持。
当然,魔搭社区里折腾AI公益的开发者不止徐帆一个。比如有个“追星星的AI”项目,专门关注孤独症儿童,用魔搭自研的ModelScope-Agent智能体框架,做了个有声绘本工具,已经服务超过20万人次。厦门理工学院的师生用魔搭社区的Whisper语音识别模型,做了个手语翻译手套,成本不高,效率还挺高。还有中国科学院大学的学生,用魔搭的开源模型Qwen2-VL和一些软件技术,做了个机械臂,用来修复珊瑚礁,算是给海洋生态做了点贡献。甚至有00后开发者关注心理健康,用通义系列模型做了3D心理沙盘,希望能给焦虑人群提供点AI陪伴。
据说,截至2025年10月,魔搭社区已经聚集了超过12万个开源模型、5500多个MCP服务和调试工具,服务了全球超过2000万用户。自2022年11月初成立以来,魔搭社区就打着“模型即服务”(MaaS,Model as a Service)的旗号,为AI开发者提供模型体验、下载、调优、训练、推理、部署等一条龙服务,涵盖了LLM、对话、语音、文生图、图生视频、AI作曲等多个领域,形成了一个比较完整的模型服务闭环生态。包括DeepSeek、腾讯、阶跃星辰、MiniMax、KIMI、上海人工智能实验室等推出的业界头部模型,都选择在魔搭社区率先开源。
