中国运营商公开本土十亿参数MoE TeleChat3模型!完全自主研发,历经15万亿tokens训练,具备“推理模式”与全球领先水平齐平
发布时间:2026-01-05 15:38:39 | 责任编辑:吴昊 | 浏览量:9 次
国产大模型再迎重磅突破。中国电信人工智能研究院(TeleAI)近日正式开源星辰语义大模型TeleChat3系列,包含国内首个基于全国产算力训练的千亿参数细粒度MoE模型——TeleChat3-105B-A4.7B-Thinking,以及稠密架构的TeleChat3-36B-Thinking。该系列模型完全依托上海临港国产万卡算力池训练,基础训练数据达15万亿tokens,标志着我国在超大规模AI模型自主可控方面迈出关键一步。
全栈国产化:从芯片到框架全链路适配
TeleChat3系列深度适配华为昇腾生态:
- 支持昇腾Atlas800T A2训练服务器;
- 基于昇思MindSpore框架开发;
- 训练与推理全流程运行于国产AI算力基础设施。
此举不仅验证了国产软硬件栈支撑千亿级大模型的能力,也为行业提供了一条安全、可靠、可替代的技术路径,对保障AI基础设施供应链安全具有战略意义。
创新“Thinking模式”:让AI推理过程可追溯
TeleChat3全系引入Thinking(思考模式)机制——通过在对话模板中加入特定引导符号,模型可自动生成中间推理步骤,显著提升在复杂任务中的逻辑性与准确性。在知识问答、数学推理、内容创作、代码生成、智能体(Agent) 六大核心维度,其性能已比肩国际主流头部模型。
例如,在数学题求解中,模型不再仅输出答案,而是展示“理解题意→拆解步骤→公式应用→验证结果”的完整思维链,大幅提升可信度与可调试性。
开源开放,赋能产业生态
目前,TeleChat3系列模型权重、推理代码及使用示例已同步上线GitHub与魔搭(ModelScope)平台,支持学术研究与商业应用。中国电信表示,将持续推动模型在政务、通信、能源、金融等关键领域的落地,助力“人工智能+”行动深入行业核心。
小编观察:国产大模型进入“全栈自研+能力对标”新阶段
TeleChat3的发布,不仅是一次技术成果展示,更是中国AI产业自主可控战略的实质性落地。当千亿MoE模型能在纯国产算力上高效训练,当“思考模式”逼近国际先进水平,国产大模型正从“可用”走向“好用”乃至“敢用”。
在全球AI竞争日趋“地缘化”的背景下,中国电信以TeleAI为支点,正构建一条安全、开放、高性能的国产AI技术栈。而这条路径的成败,或将决定中国在未来智能时代的话语权。
项目地址:https://github.com/Tele-AI/TeleChat3
这是一篇关于中国电信开源国产千亿MoE大模型TeleChat3!全栈自研,15T tokens训练,支持“思考模式”对标国际顶尖的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
