2025 年 6 月 6 日,第七届 “北京智源大会” 在中关村展示中心盛大开幕。作为国内人工智能领域的顶级盛会,本次大会汇聚了全球顶尖的专家学者、企业代表和青年科学家,共同探讨人工智能技术的前沿动态和未来发展路径。在这次大会上,智源研究院重磅发布了 “悟界” 系列大模型,为人工智能从数字世界迈向物理世界提供了全新的技术范式。

智源“悟界”系列大模型:开启人工智能与物理世界交互新纪元!
“悟界” 系列大模型是智源研究院继 “悟道” 系列大模型后又一具有里程碑意义的成果,旨在突破虚实世界边界,构建人工智能与物理世界交互的基石。该系列包括原生多模态世界模型 Emu3、脑科学多模态通用基础模型见微 Brainμ、跨本体具身大小脑协作框架 RoboOS 2.0 与具身大脑 RoboBrain 2.0 以及全原子微观生命模型 OpenComplex2,涵盖了从微观生命体到具身智能体的多个层面。
原生多模态世界模型 Emu3 基于下一个 token 预测范式统一多模态学习,通过新型视觉 tokenizer 将图像 / 视频编码为与文本同构的离散符号序列,构建模态无关的统一表征空间,支持文本、图像、视频的任意组合理解与生成,为跨模态交互提供了强大技术基座。
脑科学多模态通用基础模型见微 Brainμ 基于 Emu3 架构,引入脑信号这一新的模态数据,实现单一模型完成多种神经科学任务的大一统,可同步处理多类编解码任务,兼容多物种动物模型与人类数据,在自动化睡眠分型、感官信号重建与多种脑疾病诊断等任务中性能显著超越现有专有模型,有望成为脑科学的 “AlphaFold” 模型。
跨本体具身大小脑协作框架 RoboOS 2.0 是全球首个基于具身智能 SaaS 平台、支持无服务器一站式轻量化机器人本体部署的开源框架,也是全球首个支持 MCP 的跨本体具身大小脑协作框架。相较于 1.0,其对端到端推理链路进行了系统级优化,整体性能提升达 30%,全链路平均响应时延低至 3ms 以下,端云通信效率提升 27 倍,新增多本体时空记忆场景图共享机制和多粒度任务监控模块,有效提升机器人任务执行的稳定性与成功率。具身大脑 RoboBrain 2.0 是目前全球最强的开源具身大脑大模型,在多项空间推理与任务规划指标上超越主流大模型,进一步扩展了基于多本体 – 环境动态建模的多机协同规划能力,提升了空间推理能力,还新增了闭环反馈以及具身智能的深度思考能力。
全原子微观生命模型 OpenComplex2 实现生物分子研究从静态结构预测到动态构象分布建模的重大突破,可表征生物分子系统的连续演化能量景观,通过融合扩散生成式建模与生物实验数据,在原子分辨率层面捕捉分子相互作用及平衡构象分布,为探索微观构象波动与宏观生物功能的跨尺度关联提供了全新研究视角。
智源研究院一直坚持开源开放的原则,打造的覆盖模型、算法、数据、评测、系统的大模型开源技术体系 FlagOpen 已开源约 200 个模型和 160 个数据集,为人工智能技术普惠与开源社区繁荣做出持续贡献。其中,开源、统一的 AI 系统软件栈 FlagOS 进一步升级,新增统一编译器 FlagTree、统一通信库 FlagCX、自动发版平台工具 FlagRelease 等重要板块,全面覆盖统一生态技术需求;通用向量模型 BGE 系列已发展为门类齐全、体系完备的生态系统;小时级开源轻量长视频理解模型 Video-XL-1 和近期推出的 Video-XL-2 在长视频理解方面取得领先;开源全能视觉生成模型 OmniGen 采用极简架构,通过广泛的指令学习,实现视觉生成能力的高度集成。
大会还设置了智源研究院 AI 科研成果互动体验展台,展示了 “悟界” 系列大模型中的脑科学多模态通用基础模型见微 Brainμ 以及跨本体具身大小脑协作框架 RoboOS 2.0 与具身大脑 RoboBrain 2.0 在不同场景下的应用,包括具身智能展区的机器人技能展示、脑科学多模态通用基础模型展区的实际案例以及数字心脏展区的高速跨尺度心脏药物安全性评价平台等。
智源 “悟界” 系列大模型的发布,不仅展示了智源研究院在人工智能领域的深厚技术积累和创新能力,更为人工智能与物理世界交互提供了全新的解决方案和广阔的发展空间,有望推动人工智能技术在更多领域的应用和落地,开启人工智能发展的新纪元。