首页 > 快讯 > 斯坦福学者创立Inception,获5000万美元种子投资,以“扩散式大模型”对抗GPT-5,实现代码生成超1000 token/秒

斯坦福学者创立Inception,获5000万美元种子投资,以“扩散式大模型”对抗GPT-5,实现代码生成超1000 token/秒

发布时间:2025-11-10 11:46:49 | 责任编辑:吴昊 | 浏览量:16 次

当全球AI竞赛仍围绕自回归大模型(如GPT-5、Gemini)激烈缠斗时,一家新锐初创公司正以颠覆性架构悄然突围。由斯坦福大学教授Stefano Ermon领衔的AI公司Inception近日宣布完成5000万美元种子轮融资,由Menlo Ventures领投,微软M12、英伟达NVentures、Snowflake Ventures、Databricks Investment及Mayfield跟投,吴恩达(Andrew Ng)与Andrej Karpathy亦以天使投资人身份加入,阵容堪称豪华。
Inception的核心押注,是将原本用于图像生成的扩散模型(Diffusion Models)全面引入文本与代码领域,挑战当前主流的自回归范式。Ermon指出,GPT、Gemini等模型采用“逐词预测”方式,必须串行处理,限制了速度与效率;而扩散模型通过并行迭代优化整体输出,在处理大规模代码库或长文本时展现出显著优势。
这一理念已落地为产品:公司同步发布其最新模型Mercury,专为软件开发场景设计,目前已集成至ProxyAI、Buildglare、Kilo Code等多款开发者工具。实测显示,Mercury在代码补全、重构与跨文件理解任务中,推理速度突破1000token/秒,远超现有自回归模型。“我们的架构天生为并行而生,”Ermon强调,“它更快、更高效,且对算力成本极度友好。”
为何扩散模型适合代码?
代码不同于自然语言——它结构严谨、依赖全局上下文,且常需跨文件关联。自回归模型在处理此类任务时,易因“逐字生成”而忽略整体逻辑一致性。而扩散模型从“噪声”出发,通过多轮全局调整逼近目标输出,天然适合高结构化数据。此外,其并行计算特性可充分利用GPU/TPU集群,显著降低延迟与能耗,直击当前AI基础设施高成本痛点。
巨头为何押注?
在AI训练与推理成本飙升的背景下,效率成为新战场。微软、英伟达、Databricks等投资方均在构建AI开发栈,亟需高性能、低开销的模型底座。Inception的路径,或为大模型商业化提供一条“省算力、高吞吐”的新出路。
小编认为,Inception的崛起标志着AI架构探索进入深水区——当参数竞赛边际效益递减,底层范式创新将成为破局关键。如果扩散式LLM能在代码、科研、金融等高价值场景持续验证其优势,这场由斯坦福实验室发起的技术革命,或将重塑生成式AI的未来版图。

斯坦福学者创立Inception,获5000万美元种子投资,以“扩散式大模型”对抗GPT-5,实现代码生成超1000 token/秒

这是一篇关于5000万美元种子轮融资!斯坦福教授创立Inception,用“扩散式大模型”挑战GPT-5,代码生成速度超1000 token/秒的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐