阿里通义千问全新升级:新版兼容苹果MLX架构
发布时间:2025-06-17 09:21:58 | 责任编辑:张毅 | 浏览量:5 次
近日,阿里巴巴正式推出了其通义千问 Qwen3的最新版本,这一新版本特别兼容苹果的 MLX 架构。这一举措被广泛解读为苹果智能助手 Apple Intelligence 进军中国市场的重要前奏。由于中国对 AI 服务的监管要求日益严格,苹果选择与阿里巴巴建立合作关系,以确保其产品符合当地法律法规。
随着 iOS18.6开发者测试版的发布,业界人士认为,这一系统将为 Apple Intelligence 在中国的上线铺平道路。该版本的推出不仅可能提升用户体验,还可能推动 iPhone 的销量增长。尽管苹果尚未正式对外宣布其进入中国市场的具体计划,但从技术准备和系统推进的节奏来看,进军的步伐正在加速。
阿里巴巴的通义千问 Qwen3模型在性能上也有显著提升,尤其是在处理速度和智能交互能力方面,预计将为苹果的智能助手提供更强大的技术支持。此外,双方的合作将为用户带来更加个性化的 AI 服务体验,让消费者在享受智能科技的同时,也能感受到本土化的关怀。
未来,随着这项合作的深入,消费者将可能见证 Apple Intelligence 在中国市场的全面崛起。业内分析师指出,这不仅是苹果开拓新市场的战略布局,也是阿里巴巴在 AI 领域持续创新的重要里程碑。随着技术的不断演进,期待两大巨头携手为用户带来更多惊喜。
阿里巴巴通义千问团队于2025年6月16日宣布推出支持苹果MLX架构的Qwen3模型。此次升级的Qwen3模型全系适配苹果MLX架构,共有32款官方Qwen3 MLX模型一次性全开源。每款模型都提供了4bit、6bit、8bit和BF16四种不同精度的量化版本,用户可以根据硬件资源选择合适的模型精度。例如,低量化(如4bit)适合内存有限的设备(如iPhone),而高精度(如BF16)适合需要更高推理质量的场景(如M2/M3 Ultra)。
MLX是苹果公司开发的高效机器学习框架,专为Apple Silicon(如M1、M2、M3等芯片)设计。Qwen3模型支持MLX架构后,可以充分利用苹果设备的高性能神经引擎(Neural Engine)和统一内存架构(Unified Memory Architecture),在MacBook、iPhone等设备上实现更快的推理速度和更低的能耗。同时,由于MLX框架支持直接从Hugging Face加载模型,简化了模型部署流程,这意味着开发者可以在苹果设备上轻松运行Qwen3模型,无需复杂的环境配置。
此次升级被看作是苹果智能助手Apple Intelligence进入中国市场的重要前奏。苹果需要满足中国对AI服务的监管要求,因此选择与阿里巴巴建立合作关系。尽管苹果尚未正式宣布Apple Intelligence在中国的上线计划,但从技术准备和系统推进的节奏来看,其进入中国市场的步伐正在加速。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。