Firefox 142 正式发布:本地 AI 语言模型首次兼容浏览器扩展
发布时间:2025-08-19 12:23:45 | 责任编辑:吴昊 | 浏览量:9 次
Mozilla Firefox142.0版本现已正式发布,并将在周二对外推出。这一版本虽然没有带来太多引人注目的新功能,但在扩展性方面却可能引发广泛讨论。
在这个版本中,Firefox142对 Blob 图像的拖放支持进行了改进,用户在操作时体验更加流畅。此外,书签对话框的滚动速度得到了提升,使得用户在管理书签时更加方便。这些小的改进提升了用户的使用体验。
对于 Web 开发者来说,Firefox142引入了优先任务调度 API(Prioritized Task Scheduling API),使开发者能够更好地控制任务的优先级。同时,新的 URLPattern API 也被纳入其中,允许开发者使用标准化的模式语法来匹配和解析 URL。这些技术更新为开发者提供了更多的工具,帮助他们构建高效的 Web 应用。
值得注意的是,Firefox142首次允许浏览器扩展使用本地大型语言模型(LLM)。这一变化可能会在用户和开发者中引发一定的争议。新版本支持 wllama API 扩展,使开发者能够将本地语言模型的功能直接集成到他们的附加组件中。wllama 项目为 Llama.cpp 提供了 WebAssembly 绑定,允许在浏览器端进行 LLM 推理。这一功能的推出无疑为 Firefox 扩展的可能性打开了新的大门。
对于那些对使用 wllama API 感到困惑的用户,可以通过 Firefox 的错误跟踪器中的 “为扩展启用 wllama” 部分获取更多信息。Firefox142.0的安装文件可以从 ftp.mozilla.org 下载,而有关开发者变更的详细信息则可访问 development.mozilla.org。
此次更新虽然不算惊艳,但对于用户体验和开发者工具的提升,Firefox142仍然是值得关注的重要版本。
版本:https://developer.mozilla.org/en-US/docs/Mozilla/Firefox/Releases/142
划重点:
🌐 Firefox142.0版本正式发布,带来了多项用户体验提升。
🛠️ 新增优先任务调度 API 和 URLPattern API,为开发者提供了更多工具。
🤖 首次支持本地大型语言模型(LLM),扩展可能引发讨论。
Firefox 142 版本已正式发布,其中一项重要更新是首次支持浏览器扩展使用本地 AI 语言模型。
主要亮点:
-
本地 AI 语言模型支持:Firefox 142 支持 wllama API 扩展,使开发者能够将本地大型语言模型(LLM)功能集成到浏览器扩展中。
-
wllama 项目:该项目为 Llama.cpp 提供 WebAssembly 绑定,允许在浏览器端进行 LLM 推理,无需依赖云端服务。
-
隐私优势:本地运行的 AI 模型在设备上处理数据,避免了将数据发送到远程服务器,从而更好地保护用户隐私。
开发者与用户影响:
-
开发者:可以通过 wllama API 在扩展中集成 LLM 功能,扩展 Firefox 的功能边界。
-
用户:可以安装使用本地 AI 模型的扩展,享受更智能的浏览体验,同时确保数据隐私。
获取与使用信息:
-
下载:Firefox 142.0 安装文件可从 ftp.mozilla.org 获取。
-
更多详情:开发者变更信息可参考 development.mozilla.org。
此次更新虽不显著,但为 Firefox 扩展带来了新的可能性,尤其在隐私保护和本地 AI 应用方面具有重要意义。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。