苹果交出的AI答卷。
又是一年一次的WWDC,北京时间6月11日凌晨,WWDC24主题演讲正式开启。按照惯例,每年的WWDC上,苹果都会带来一众软硬件新品。
WWDC24的特殊之处在于,今年没有发布新款硬件产品(国行版Vision Pro将于月底开售),同时在各大系统例行更新之外,亮出了AI大招――Apple Intelligence(苹果智能)。
(图源:苹果)
苹果的AI大招:安全和隐私
Apple Intelligence可以视作苹果推出的AI产品,它为iPhone、iPad、Mac等一系列硬件产品提供各类AI功能,与iOS、macOS等系统紧密结合。因此,Apple Intelligence不是单独的App或功能,而是一揽子解决方案。
按照苹果官方的说法,Apple Intelligence基于内置的大模型,采用的是时下流行的端云结合模式。
具体来说,在处理一般的涉及AI的任务时,如果本地算力能满足需求,那么直接通过端侧模型来运行生成,解决用户需求。
但是,如果本地算力不够,那么Apple Intelligence就会通过云端服务器来完成AI任务。而苹果在WWDC24上多次强调了用户隐私安全的重要性,如果苹果的云端AI也采用了时下通用的方式,Apple Intelligence的安全优势就会被抹除。
为此,苹果采用了一种极为特别的形式。Apple Intelligence搭建的云端服务器,采用了苹果自家的芯片,并且用Swift语言编程,服务器的代码接受第三方专家的审查。同时,苹果承诺,用户上传的数据不会在服务器上存储,用户的隐私不会被苹果记录和知晓。
(图源:苹果)
当然,如果要用本地算力来承担大部分的AI需求,那么就得需要AI性能出众的芯片。WWDC24上,苹果公布了支持Apple Intelligence端侧运算的芯片要求,iPhone端目前仅支持A17 Pro这一款芯片,也就是说满足要求的只有最新款的苹果手机iPhone 15 Pro和iPhone 15 Pro Max;PC和iPad端支持的最老款芯片为M1,基本覆盖到了苹果所有PC ARM芯片,近几年的苹果Mac产品、iPad Pro/Air倒是基本都能支持。
(图源:苹果)
现在来看,Apple Intelligence更多是跟硬件而非系统版本绑定,老款iPhone受限于芯片性能的拖累,后续即便升级到了最新系统,AI体验肯定是会大打折扣的。
但有一说一,Apple Intelligence采用的端侧为主、云端为辅的模式,以及特殊的云端服务器部署方式,的确很符合苹果一贯的重视隐私安全的人设。而这,很大程度上能削弱部分用户对AI产品隐私泄露方面的担忧,从而成为苹果产品未来的又一竞争优势。
Apple Intelligence的核心优势:体验
其实,仅通过一场WWDC的演讲,我们还是无法深入了解Apple Intelligence背后的技术细节。比如说,外界并不知道Apple Intelligence内置的大模型,是苹果自研的技术成果,还是之前外界所爆料的外部采购品。
但无论怎样,通过苹果官方在WWDC上的详细展示,我们已经能初步了解到Apple Intelligence在苹果设备上能发挥怎样的作用,以及用户日常使用时会获得怎样的体验改善。
按照苹果的说法,Apple Intelligence能够充分理解在设备中的各项数据和信息,包括照片、邮件、信息等等。在此基础上,Apple Intelligence能够感知用户当下的情境中的需求,并提供恰当的帮助。
首先苹果的语言助手Siri变得更强大了,得到Apple Intelligence助力的它,各方面的能力得到大幅增强,并且能打通不同的App。苹果在WWDC上演示了一个功能:用户在填写驾照号码时,直接呼出Siri,它会在照片App中找到之前拍摄的带有驾照号码的照片,自动识别提取出驾照号码,并自动为用户完成填写。
(图源:苹果)
要实现这点,Apple Intelligence需要做到几点:感知出用户当下要填写驾照号码的需求、识别出照片App中的驾照照片、将这几处信息结合判断并满足用户需求。
另外,我们已经很熟悉的文本摘要、文字生成等功能,Apple Intelligence也能实现了。不过它的特殊之处在于,用户不用专门打开一款App或网址,直接在文本编辑界面即可呼出这一功能。比如说,写邮件时编辑框内选中文字即可调用系统级的AI相关功能,生成后的文字会直接填充在编辑框中。
(图源:苹果)
这样一来,用户就省去了在单独的AI工具中复制粘贴、来回倒腾的麻烦,Apple Intelligence所带来的AI功能是无处不在、且融入到了苹果系统的每个角落中的。
WWDC24上苹果还演示了多个比较有意思的AI功能,小雷把它们罗列在这里:
-
Genmoji表情包:通过用户的文字描述自由定制个性化的表情包,比如用朋友的照片生成带有他头像风格的照片。
-
Image Playground:文生图、图生图,具体有动图、插图、草图三种类型。
-
Image Wand:可以将草图转化生成为精品成品图,并且支持图片消除,抹除照片背景。
-
通话录音:iPhone终于支持这一功能,并且可以将通话转为文字。
(图源:苹果)
总体来看,Apple Intelligence带来的AI功能,基本上不算特别新颖,它们的呈现形式和使用场景,对于我们这些见识过各类AI工具的人来说,自然都不是什么新东西。但对于苹果用户来说,Apple Intelligence的部署,意味着他们在使用各类苹果设备时,也能吃上丰富全面的AI大餐。
苹果的AI答卷该给几分?
坦率说,WWDC24上的主题演讲,带给小雷的惊喜并不多。这场发布会前半部分仍然是各大系统按部就班的更新,所谓的新功能基本都乏善可陈,当小雷看到iOS 18上的图标自定义排列、应用锁这类在国产定制系统的古董级功能被大吹特吹时,内心是无比失望的。
WWDC24上的绝对主角当然是Apple Intelligence,毕竟这是苹果交出的首份正式的AI答卷。此前席卷而来的AI浪潮中,苹果看起来像是一个局外人,当安卓品牌们纷纷在AI手机上发力时,苹果已经被甩开一大截。WWDC24主题演讲快结束时,苹果透露了和ChatGPT在AI领域的合作,一定程度上能看出苹果AI基本功的先天不足。
所以,当作为追赶者的苹果发布Apple Intelligence时,我们很难从心底生出一种被震撼的惊喜感。毕竟,文本摘要、图片生成、照片查找、AI智能助理等一系列功能,我们此前都在安卓机或专门的大模型App中见识过。说到底,苹果基于Apple Intelligence实现的各类AI功能,并不具备创新性。
然而,通过WWDC24上演示的内容,小雷还是深刻感受到了Apple Intelligence的体验优势。
苹果以封闭系统起家,并且在过去十余年里将iOS、macOS、iPadOS等各类不同设备的系统融会贯通,保持着软硬件结合优势,对自家系统生态的每个角落拥有着绝对的控制权。
(图源:苹果)
因此,Apple Intelligence可以出现在苹果系统中的每个细节处,和原有的App或功能相融合,用户可以以一种更加无感、更加自然的方式借助AI的能力来提升自己的使用体验。
这方面,安卓品牌更容易感受到一种无力感,推进端侧AI它们需要芯片厂商提供支持,将AI塞进系统它们需要深度定制安卓系统,完成手机AI化后它们无法将PC与之融合。在不同形态设备上为用户提供统一且全面的AI体验,目前可能只有苹果能做到。
不过,在小雷看来,任何AI相关的概念,无论愿景被讲述得多么美好,对用户而言能否落地为实用的功能和体验的切实改善才是最重要的。而苹果交出的Apple Intelligence这份AI答卷,最终能得到几分,还是得看它全面落地、用户实际体验后才能得出结论。
另外,雷科技后续将带来Apple Intelligence的实测内容,感兴趣的小伙伴,敬请关注。
来源:雷科技
原文标题 : WWDC24苹果放出AI大招:用体验优势弥补技术劣势