随着iPhone 15 Pro和iPhone 15 Pro Max的发布,苹果为其旗舰机型配备了8GB RAM,这是为了支持未来的生成式人工智能(AI)功能。然而,据分析师郭明池(Ming-Chi Kuo)称,尽管iPhone 16系列将保留相同的内存配置,但这对于开发设备上的大型语言模型(LLM)仍然不够,这对苹果来说是一个严重的限制。
内存限制与混合AI方案
郭明池在最新的Medium博客中预测了苹果计划在2024年WWDC期间发布的内容。虽然他认为苹果正在开发基于云和设备上的LLM,但他并不认为苹果会在此次活动期间宣布重大的开发进展。郭明池指出,基于云的LLM需要大量时间进行训练,而设备上的LLM开发则受到iPhone 16系列8GB RAM的限制。
我的最新调查显示,苹果正在开发其基于云和设备上的LLM。不过,苹果不太可能在WWDC 2024上宣布大大超出市场预期的开发进度。基于云的LLM需要更多时间进行训练,而设备上的LLM开发目前受到iPhone 16的8GB DRAM的限制。
内存需求与解决方案
智能手机制造商目前无法提供完整的设备LLM解决方案,因为内存需求非常高。据估计,未来标榜20GB RAM的Android智能手机将成为常见现象,因为这些设备将拥有足够的内存来运行设备上的LLM。苹果也在研究如何在闪存上存储大型语言模型,这将使这项技术更容易应用于多种设备。
然而,根据郭明池的预测,苹果在这方面的突破仍需时日。尽管如此,苹果正在优先发展设备上的AI功能,相较于基于云的AI功能,前者能够提供更快的运行速度。这或许解释了为什么iPhone 15 Pro和iPhone 15 Pro Max是兼容这些功能的仅有的两款设备。
目前,用户可以选择退出iOS 18中的生成AI功能,据报道,这些功能将被称为“Apple Intelligence”。这一点在最近的消息中得到了确认。也许随着未来iPhone 17 Pro和iPhone 17 Pro Max传闻配备的12GB RAM的推出,苹果将会拥有更多的自由来为其旗舰产品引入更强大的设备上的AI功能。
iPhone 16系列尽管将继续配备8GB RAM,但这一内存配置在支持先进的生成式AI方面仍显不足。苹果需要继续努力在设备上和云端同时开发LLM解决方案,以在未来推出更具竞争力的AI功能。随着技术的进步和新一代设备的发布,我们期待苹果在这一领域取得更多突破。