初创公司推出240亿参数化学推理模型,前谷歌 CEO 赞助,性能优于多项顶尖模型
发布时间:2025-06-17 17:17:16 | 责任编辑:吴昊 | 浏览量:7 次
在人工智能领域,大模型的研究不断进展,尤其是在推理能力的提升上。最近,由前谷歌 CEO 埃里克・施密特投资的初创公司 FutureHouse,开源了一个名为 ether0的化学任务推理模型,参数规模高达240亿。这一模型在不需要额外领域预训练的情况下,通过后训练技术,展现出强大的化学领域能力,尤其是在数据需求上相比于传统领域专用模型显著减少。
推理模型的应用不仅限于简单的选择题测试,FutureHouse 团队希望通过 ether0改变这种现状,推动科学推理的深入研究。为了构建该模型,研究团队从大量的学术论文中整理了化学实验数据,追踪分子特性如溶解度和气味,并将这些数据转化为可验证的科学问题。
ether0基于 Mistral-Small-24B 架构,利用强化学习进行训练,并处理了640,730个实验数据相关的化学问题,涵盖18类任务,包括合成可行性、血脑屏障渗透性和气味分析等。为了提升模型性能,研究团队引入了推理行为蒸馏和动态课程学习等技术。
在性能评估方面,ether0与多种通用大语言模型(如 Claude、o1)及化学专用模型(如 ChemDFM、TxGemma)进行了对比。结果显示,ether0在开放答案(OA)类别中准确率最高,选择题(MCQ)方面也具备强大的竞争力。其在某些任务上的准确率甚至达到了竞争对手的两倍以上。
此外,ether0在训练成本上也展现出显著的优势,要达到相似的反应预测准确率,传统的非推理型模型需要消耗50倍以上的数据。尽管 ether0在独立基准测试中难以与其他模型及人类表现进行交叉验证,但其能够对未经过训练的分子结构进行有效推理。
总之,ether0不仅能理解自然语言提问,还能通过自然语言进行推理,最终生成分子结构,特别擅长于类药分子的设计。尽管目前仍处于原型阶段,但其已为未来构建通用科学推理模型奠定了坚实的基础。
划重点:
🌟 Ether0是由 FutureHouse 开源的240亿参数化学推理模型。
📈 该模型的准确率在多个任务中超越了 GPT-4.1和 DeepSeek-R1等领先模型。
💰 训练 ether0所需的数据量显著低于传统非推理型模型。
最近,由前谷歌 CEO 埃里克·施密特(Eric Schmidt)投资的初创公司 FutureHouse 发布并开源了一个 240 亿参数的化学任务推理模型——ether0。该模型无需额外领域预训练,仅通过后训练即可具备强大的化学领域能力,且相比传统领域专用模型所需数据量显著减少。
模型特点
-
架构与训练:ether0 基于 Mistral-Small-24B 架构,通过强化学习进行训练,使用了 640,730 个基于实验数据的化学问题,涵盖 18 类(375 项)任务,包括合成可行性、血脑屏障渗透性、人体受体活性和气味分析等。
-
训练方法:研究团队采用“考试学习法”,从学术论文中提取化学实验数据并转化为可验证的化学试题,通过分析错误解决方案与推理链进行初步训练,随后通过专项模型的强化学习和推理链融合,最终形成通用模型。
-
性能表现:在性能评估中,ether0 在所有开放答案(OA)类别中准确率最高,在选择题(MCQ)方面也具备竞争力,几乎在所有任务上都超越了 GPT-4.1 和 DeepSeek-R1 等前沿模型,某些任务的准确率甚至达到竞争对手的两倍以上。
-
成本优势:要达到类似的反应预测准确率,传统非推理型模型需要消耗 50 倍以上的数据。
模型意义
ether0 不仅在化学领域表现出色,还为构建通用科学推理模型奠定了基础。它能够理解自然语言提问,通过自然语言进行推理,并最终生成分子结构,尤其擅长类药分子设计。此外,该模型的训练效率和泛化能力也为其在跨科学领域的应用提供了潜力。
总的来说,ether0 的发布为化学推理模型的研究和应用带来了新的突破,其高效训练和高性能表现使其在科学研究中具有广阔的应用前景。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。