智源大会推出“悟界”系列重大模型,推动进入物理AGI新时代的步伐加快
发布时间:2025-06-06 12:21:43 | 责任编辑:吴昊 | 浏览量:30 次
在今日举行的 2025 北京智源大会上,北京智源人工智能研究院正式发布“悟界”系列大模型,全面展示其在物理通用人工智能(AGI)方向的最新研究成果与战略布局。
“悟界”系列意在突破虚实边界、赋能物理世界,涵盖四款前沿模型:多模态世界模型Emu3、脑科学模型见微Brainμ、具身智能大脑RoboBrain 2. 0 以及微观生命模型OpenComplex2,构建了从世界理解、神经建模到具身控制和生命模拟的全链条AI体系。
其中,Emu3为原生多模态生成模型,以自回归方式统一文本、图像、视频理解与生成,无需依赖扩散架构,提供模态无关的统一表示能力。其核心创新在于将多模态数据编码为同构token序列,具备强大的跨模态融合能力。
基于Emu3 架构,见微Brainμ首次实现脑科学信号(如fMRI、EEG、双光子成像)的token化与多模态对齐。该模型完成了超 100 万神经信号单元的预训练,被誉为神经科学领域的“AlphaFold”,具备脑科学基础研究、脑疾病诊疗、脑机接口等广泛潜力。
目前,智源已与北大、清华、复旦、北京生命科学研究所及BrainCo等合作,推动“悟界”模型落地科研与产业,进一步夯实中国在物理AGI路径上的全球竞争力。
2025年6月6日,第七届北京智源大会上,智源研究院正式发布了“悟界”系列大模型,旨在加速迈向物理通用人工智能(AGI)时代。
“悟界”系列大模型的构成
“悟界”系列包含四个核心模型:
-
原生多模态世界模型Emu3:于2024年10月发布,基于自回归架构统一多模态学习,无需扩散模型或复杂组合结构。其创新视觉tokenizer将图像、视频转化为类文本的离散符号,实现模态无关的统一表征,支持任意模态组合的理解与生成,提升跨模态交互能力。
-
脑科学多模态通用基础模型见微Brainμ:基于Emu3底层架构,将fMRI、EEG等脑信号token化,构建跨任务、跨模态、跨个体的统一建模框架。已完成超百万脑信号的预训练,具备与文本、图像互相映射的能力,并在脑机接口场景中展现出应用潜力。
-
具身大脑RoboBrain 2.0:实现多机协同规划、空间智能和任务闭环反馈机制,在任务规划准确率和空间理解上均有提升。
-
全原子微观生命模型OpenComplex 2:支持从蛋白质、DNA等的静态结构预测拓展至动态构象建模,推动AI在微观世界中的应用。
意义与影响
智源研究院院长王仲远表示,“悟界”的“界”寓意突破虚实边界,迈向物理世界的深度理解与交互。通过Emu3对世界的统一表征、Brainμ对脑信号数据的建模、RoboBrain对行动的规划、OpenComplex对微观世界的洞察,智源系统性勾勒出通向物理AGI的路径。此外,智源已与北大、清华、复旦等高校及企业合作,推动“悟界”模型落地科研与产业。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。