苹果正在悄然斥资数百万美元研发人工智能让Siri与ChatGPT一样智能

在有关AppleGPT以及由于个人助理的复杂性而引发的所有Siri戏剧性事件的报道之后,TheInformation透露,库比蒂诺每天花费数百万美元来训练其大语言模型(简称LLM)。

Apple拥有一个由16人组成的小团队,由AI负责人JohnGiannandrea(前Google)领导,多年来一直在培训法学硕士。由于这项技术随着OpenAI的ChatGPT的发展而流行,库比蒂诺可以考虑在内部添加某种形式的聊天机器人作为最终产品。

这个对话式AI团队被命名为FoundationalModel,据报道苹果已经创建了两个新团队来开发语言或图像模型。其中一个团队可能正在开发生成“图像、视频或3D场景”的软件,而另一个团队正在致力于“涉及可以识别和生成图像或视频的多模态AI的长期研究”。

该信息称,其中一名法学硕士“最终可以与使用AppleCare的客户进行互动”。与此同时,Siri团队计划整合这些语言模型,使复杂的快捷方式集成变得更加容易。

这个故事的有趣之处在于,苹果团队的成员相信其最先进的语言模型AjaxGPT(彭博社已经报道过)可能比OpenAI的GPT更好。3.5.尽管另一家公司已经在研究更好的解决方案,但很高兴知道苹果在对话式人工智能领域取得了显着进步。

库比蒂诺面临的障碍是,该公司更喜欢在设备上运行软件,这可以提高隐私性和性能,但如果不基于云,就不可能提供最佳的语言学习模型。

TheInformation报道称:“例如,AjaxGPT已经接受了超过2000亿个参数的训练,正如人工智能术语中所称的那样。(…)参数反映了机器学习模型的规模和复杂性;参数数量越多,复杂度越高,需要更多的存储空间和计算能力。拥有超过2000亿个参数的LLM无法合理地适合iPhone。”

虽然苹果可能会尝试缩小这些大型型号以适应iPhone,但我们可能需要等待更长的时间才能看到其中一些举措落到最终用户手中。

BGR将继续报道Apple的AI工作以及它将如何应对OpenAI的ChatGPT、MicrosoftBing和GoogleBard。