Firefox142悄然发布:并非喧嚣的更新中,本地AI功能已悄悄启程
发布时间:2025-08-19 17:29:08 | 责任编辑:张毅 | 浏览量:5 次
Mozilla 今日正式推送 Firefox142.0版本至稳定发布通道,预计将于周二全面面向用户上线。尽管此次更新未带来大规模功能革新,但其在底层支持与开发者工具方面的调整,或将引发关于浏览器扩展与本地 AI 集成的广泛讨论。
Firefox142属于八月例行主版本更新,重点在于稳定性优化与功能完善。值得关注的改进包括:增强对 Blob 图像的拖放支持、提升书签属性对话框的滚动流畅度,以及多项性能微调,旨在提升整体用户体验。
面向开发者,该版本引入两项关键 Web API:**Prioritized Task Scheduling API**,允许更精细地控制任务执行优先级,优化页面响应能力;以及 **URLPattern API**,提供标准化语法用于匹配和解析 URL,简化路由逻辑实现,提升前端开发效率。
然而,真正引发关注的是 Firefox 对本地大型语言模型(LLM)集成的支持。Firefox142正式启用 **wllama API 扩展支持**,允许开发人员将基于 WebAssembly 的本地 LLM 功能直接嵌入浏览器扩展中。wllama 项目为 Llama.cpp 提供了浏览器端绑定,实现无需依赖云端的私有化 AI 推理,为“本地 AI 浏览器扩展”开辟新路径。
此举虽强化了隐私与离线处理能力,但也可能引发争议——部分用户担忧“AI”标签被滥用,或对扩展权限边界产生疑虑。Mozilla 已在错误跟踪系统中开放“为扩展启用 wllama”条目,供社区监督与反馈。
随着 Firefox 持续探索本地化智能集成,142版本或将成为浏览器迈向“AI 增强型工具”的又一关键节点。
Firefox 142 上线:浏览器扩展首次支持本地 AI 语言模型
Mozilla Firefox 142.0 版本已正式发布(2025 年 8 月 19 日),将于本周二全面推出。此次更新虽然没有显著的用户界面革新,但在扩展性方面取得重大突破:首次允许浏览器扩展直接调用本地大型语言模型(LLM),并支持 wllama API 扩展(wllama 项目为 Llama.cpp 提供 WebAssembly 绑定),使开发者可将本地 LLM 功能集成到扩展中,实现浏览器端 LLM 推理,无需依赖云端服务,提升隐私性和响应速度。
此外,Firefox 142 还改进了 Blob 图像拖放支持 和 书签对话框滚动速度,引入 优先任务调度 API(Prioritized Task Scheduling API) 和 URLPattern API,为开发者提供更多工具,助力构建高效的 Web 应用。
用户可通过 ftp.mozilla.org 下载 Firefox 142.0 安装文件,开发者变更详情可参考 development.mozilla.org。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。