苹果发布8款小型人工智能语言模型与微软的Phi-3竞争
看到数量的优势,苹果在竞争激烈的人工智能市场上采取了战略举措,推出了八款小型人工智能模型。这些紧凑型工具统称为OpenELM,专为在设备上和离线运行而设计,非常适合智能手机。
这些模型发布在开源人工智能社区“拥抱脸”上,有2.7亿、4.5亿、11亿和30亿个参数版本。用户还可以下载苹果的OpenELM,无论是经过预训练的版本还是经过指令调整的版本。
经过预训练的模型提供了一个基础,用户可以在此基础上进行微调和开发。经过指令调整的模型已经被编程为响应指令,使其更适合与最终用户进行对话和交互。
虽然苹果还没有为这些型号提出具体的使用案例,但它们可以应用于运行助手,这些助手可以解析电子邮件和文本,或者根据数据提供智能建议。这与谷歌采取的方法类似,谷歌在其Pixel智能手机系列上部署了Gemini人工智能模型。
这些模型是在公开的数据集上训练的,苹果正在共享CoreNet(用于训练OpenELM的库)的代码和模型的“配方”。换句话说,用户可以查看苹果是如何构建它们的。
在苹果发布之前不久,微软宣布了Phi-3,这是一个能够在本地运行的小型语言模型家族。Phi-3 Mini是一个在3.3万亿代币上训练的38亿参数模型,仍然能够处理128K个上下文代币,与GPT-4相当,在代币容量方面击败了Llama-3和Mistral Large。
Phi-3 Mini是开源和轻量级的,有可能取代苹果的Siri或谷歌的Gemini等传统助手执行某些任务。微软已经在iPhone上测试了Phi-3,并报告了令人满意的结果和快速的代币生成。
虽然苹果尚未将这些新的人工智能语言模型功能集成到其消费类设备中,但有传言称,即将推出的iOS 18更新将包括新的AI功能,这些功能使用设备上的处理来确保用户隐私。
苹果硬件在本地人工智能使用方面具有优势,因为它将设备RAM与GPU视频RAM(或VRAM)相结合。这意味着拥有32GB RAM(PC中的常见配置)的Mac可以像使用GPU VRAM来运行AI模型一样使用该RAM。相比之下,Windows设备被单独的设备RAM和GPU VRAM所束缚。用户通常需要购买功能强大的32GB GPU来增加RAM以运行人工智能模型。
然而,苹果在人工智能开发领域落后于Windows/Linux。大多数人工智能应用程序都围绕着英伟达设计和构建的硬件展开,而苹果为了支持自己的芯片而逐步淘汰了这些硬件。这意味着苹果原生人工智能开发相对较少,因此,在苹果产品上使用人工智能需要翻译层或其他复杂程序。