苹果AI – 青瓜传媒 //www.f-o-p.com 全球数字营销运营推广学习平台! Thu, 04 Jul 2024 01:40:15 +0000 zh-CN hourly 1 https://wordpress.org/?v=5.2.21 https://static.opp2.com/wp-content/uploads/2021/04/favicon-1.ico 苹果AI – 青瓜传媒 //www.f-o-p.com 32 32 苹果AI的国产大模型之争 //www.f-o-p.com/348820.html Thu, 04 Jul 2024 01:40:15 +0000 //www.f-o-p.com/?p=348820

 

苹果终于公布了最新的AI进程。

一个月前,正如此前预期的那样,人工智能是今年 WWDC 发布会的焦点。全程105分钟的主题演讲,就有40多分钟用于介绍苹果的AI成果。

苹果似乎还有意玩了一把“谐音梗”,重新定义AI为“Apple Intelligence”。

但不管怎么说,此次苹果AI的亮相着实是为市场解答了不少疑惑。

此前,就有消息传出,苹果手机或许会因为接入系统的AI大模型不同,而出现国内市场和海外市场区分的两个版本。更有甚者,网上还有人称国内版本为“阉割版”。

真的是这样?答案或许并非如此。

AI基本盘,牢牢把握在苹果手里

Apple Intelligence(苹果智能)简称AI,这样的说法对于苹果而言并非“谐音梗”,而是其对AI功能的理解和设计有着自己的一套逻辑。

在介绍Apple Intelligence时,库克就特别强调他们想要打造的,是超越「人工智能」(Artificial Intelligence)的「个人智能」(Personal Intelligence)。

什么意思?我们从过去苹果的常规设定中可以推断出,苹果AI大概率会和其自身的系统以及系统内的应用、生态高度协同,来充分满足苹果用户的智能需求。比如,对Siri、FaceTime、iMessage、Apple Pay、iCloud等苹果服务深度集成,以提供无缝的跨设备AI体验。

简单来说,苹果AI想要实现的是系统级应用的优势。

从目前的公布的信息我们可以看到一些应用雏形。像AI图像,苹果AI预期的不仅仅只是用提示词来生成图像,更是能基于用户的实际体验和个性化需求来创造与用户个人生活和兴趣紧密相关的图像内容。

类似现在苹果手机内的“照片回忆”功能,苹果试图在为用户提供简要的AI视频剪辑服务,但前提是开放用户的照片库,让苹果系统反复识别照片内容,才能剪辑出不同主题的视频内容。

苹果照片回忆功能

想要达到这样甚至是更好的服务和效果,苹果AI就必然要具备系统级的能力。由此,苹果AI背后的大模型就大概率将采用自研方案。

从苹果公布的大模型技术文档来看,其确实是在自研大模型。据介绍,苹果的设备端将采用一个30亿参数的小模型,负责本地计算和数据处理,同时保证对用户的个人习惯、个人数据进行学习训练,从而提供更贴心、个性化的服务。

而到了云端,苹果尚未公布其自研的云端大模型参数,但据说其性能与GPT-4 Turbo相当。再者,就是对ChatGPT等第三方大模型产品的接入,也是事实,但并非唯一。

据苹果负责软件工程的高级副总裁Craig Federighi表示:苹果计划以后让用户选择自己喜欢的大模型,其中包括谷歌的Gemini等。

此外,苹果还发布了OpenELM,这是一组小尺寸的开源AI模型,专为在设备上运行而设计。这些模型的参数范围从2.7亿到30亿,旨在提高移动设备上的AI任务处理能力。

很显然,苹果已经具备了构建内部闭环的AI系统的能力,AI的基本盘始终牢牢地掌握在苹果手中。像ChatGPT等第三方大模型产品只是一剂调味料罢了。

“阉割版”苹果,子虚乌有

从目前的情势来看,无论是OpenAI的ChatGPT还是百度的文心一言,都不足以影响苹果AI的基础功能。这些第三方大模型产品的定位,对于苹果而言,更像是App Store里的App。

或许源于地区的不同,对App的使用权限有所区别,但这并不能定义苹果的版本功能。就好比我们不能因为无法上“X”(即推特)而说现在的苹果手机是“阉割版”,同样的,第三方大模型产品也是如此。

“X”也好,ChatGPT也罢,如果这些产品无法在国内使用,那本身是产品的问题,而非渠道的“锅”。更何况,苹果自研的大模型从端侧到云端,已经相当全面,提供了一个相对完整的AI体验。

就目前的思路而言,接下来更多影响用户体验的是苹果对端侧小模型的整合与应用。根据苹果提出的优先考虑用户体验的理念,其更强调AI模型的定制化,类似于MoE模型的稀疏激活机制,通过多种小模型的调动和组合,更快去解决用户使用过程中的日常任务。

众所周知,大模型的参数规模更大,所需要的计算资源、存储空间、网络速率也更高,如果硬件条件、网络条件跟不上,很容易就会出现高延迟、丢包等问题,无法带来很好的AI体验。而小模型具有体积小、计算资源需求低、训练效率高等特点,正适合在智能手机等终端上运行。

如今,大模型领域兴起的MoE架构,也正对应苹果对智能手机从端侧到云端部署模型的思路。端则小模型的高效率、高适配是必然的,而大模型不管是苹果自研,还是国内外的第三方厂商介入都只是提供一个进阶的个性化体验,并不影响主体。

当然,经「智能相对论」体验发现,当我们真的去使用大模型产品的时候,国产大模型实际上也没有那么拉胯。相反,源于本土算力、中文语义理解以及与中文互联网的高度融合,国产大模型对于本土用户而言更具优势。

一方面是语言和文化的理解,AI大模型的应用更接近于对话形式。在体验过程中,「智能相对论」发现,用户个人的表达是非常随意的,可以说并不那么规范,因此国产大模型在理解用户语义上有着更明显的优势,从而更准确的回应用户需求。

另一方面是数据资源的获取问题。AI大模型是不断进化,特别是在用户的使用过程中会不断获取新数据来进行训练、学习,最终呈现出一个更理想的状态。在这方面,国产大模型背靠庞大的中文互联网和用户群体,能最大化获取本土数据用于学习和精进,而OpenAI、Google都有所限制,很难接入。

简单来说,关注大模型不能只看其在实验室的表现,更要看其在市场和行业实际场景中的应用空间和发展前景。

因此,苹果AI在国内接入百度文心一言等本土大模型,并不是一件坏事。对于本土用户而言,基于苹果和百度的联合共创,将可以获得更符合本土需求的服务和体验。

或许,我们没必要盯着OpenAI这样一个本来就难以体验到的产品来纠结苹果AI的选择。

写在最后

总的来说,苹果AI的基本盘是自研大模型支撑的,这一点毋庸置疑。

此外,国产大模型的表现在本土应用中也不差,这可以在接下来的时间内拭目以待。

苹果AI的任务不是把OpenAI的ChatGPT引入中国,而是基于自家的系统和生态打造出一个更高效、便捷、强大的AI系统,来为自家的用户提供进阶服务。

因此,相关有关“阉割版”的争议、大模型的争议并没有那么重要。正如苹果所透露的,第三方大模型产品的接入不是唯一,苹果会想办法让用户来选择自己喜欢的大模型。

未来,我们期待苹果的承诺兑现,让用户拥有选择的权利。

 

作者:陈泊丞

来源公众号:智能相对论

]]>
WWDC24苹果放出AI大招 //www.f-o-p.com/346792.html Tue, 11 Jun 2024 03:20:42 +0000 //www.f-o-p.com/?p=346792

 

又是一年一次的WWDC,北京时间6月11日凌晨,WWDC24主题演讲正式开启。按照惯例,每年的WWDC上,苹果都会带来一众软硬件新品。

WWDC24的特殊之处在于,今年没有发布新款硬件产品(国行版Vision Pro将于月底开售),同时在各大系统例行更新之外,亮出了AI大招——Apple Intelligence(苹果智能)。

(图源:苹果)

苹果的AI大招:安全和隐私

Apple Intelligence可以视作苹果推出的AI产品,它为iPhone、iPad、Mac等一系列硬件产品提供各类AI功能,与iOS、macOS等系统紧密结合。因此,Apple Intelligence不是单独的App或功能,而是一揽子解决方案。

按照苹果官方的说法,Apple Intelligence基于内置的大模型,采用的是时下流行的端云结合模式。

具体来说,在处理一般的涉及AI的任务时,如果本地算力能满足需求,那么直接通过端侧模型来运行生成,解决用户需求。

但是,如果本地算力不够,那么Apple Intelligence就会通过云端服务器来完成AI任务。而苹果在WWDC24上多次强调了用户隐私安全的重要性,如果苹果的云端AI也采用了时下通用的方式,Apple Intelligence的安全优势就会被抹除。

为此,苹果采用了一种极为特别的形式。Apple Intelligence搭建的云端服务器,采用了苹果自家的芯片,并且用Swift语言编程,服务器的代码接受第三方专家的审查。同时,苹果承诺,用户上传的数据不会在服务器上存储,用户的隐私不会被苹果记录和知晓。

(图源:苹果)

当然,如果要用本地算力来承担大部分的AI需求,那么就得需要AI性能出众的芯片。WWDC24上,苹果公布了支持Apple Intelligence端侧运算的芯片要求,iPhone端目前仅支持A17 Pro这一款芯片,也就是说满足要求的只有最新款的苹果手机iPhone 15 Pro和iPhone 15 Pro Max;PC和iPad端支持的最老款芯片为M1,基本覆盖到了苹果所有PC ARM芯片,近几年的苹果Mac产品、iPad Pro/Air倒是基本都能支持。

(图源:苹果)

现在来看,Apple Intelligence更多是跟硬件而非系统版本绑定,老款iPhone受限于芯片性能的拖累,后续即便升级到了最新系统,AI体验肯定是会大打折扣的。

但有一说一,Apple Intelligence采用的端侧为主、云端为辅的模式,以及特殊的云端服务器部署方式,的确很符合苹果一贯的重视隐私安全的人设。而这,很大程度上能削弱部分用户对AI产品隐私泄露方面的担忧,从而成为苹果产品未来的又一竞争优势。

Apple Intelligence的核心优势:体验

其实,仅通过一场WWDC的演讲,我们还是无法深入了解Apple Intelligence背后的技术细节。比如说,外界并不知道Apple Intelligence内置的大模型,是苹果自研的技术成果,还是之前外界所爆料的外部采购品。

但无论怎样,通过苹果官方在WWDC上的详细展示,我们已经能初步了解到Apple Intelligence在苹果设备上能发挥怎样的作用,以及用户日常使用时会获得怎样的体验改善。

按照苹果的说法,Apple Intelligence能够充分理解在设备中的各项数据和信息,包括照片、邮件、信息等等。在此基础上,Apple Intelligence能够感知用户当下的情境中的需求,并提供恰当的帮助。

首先苹果的语言助手Siri变得更强大了,得到Apple Intelligence助力的它,各方面的能力得到大幅增强,并且能打通不同的App。苹果在WWDC上演示了一个功能:用户在填写驾照号码时,直接呼出Siri,它会在照片App中找到之前拍摄的带有驾照号码的照片,自动识别提取出驾照号码,并自动为用户完成填写。

(图源:苹果)

要实现这点,Apple Intelligence需要做到几点:感知出用户当下要填写驾照号码的需求、识别出照片App中的驾照照片、将这几处信息结合判断并满足用户需求。

另外,我们已经很熟悉的文本摘要、文字生成等功能,Apple Intelligence也能实现了。不过它的特殊之处在于,用户不用专门打开一款App或网址,直接在文本编辑界面即可呼出这一功能。比如说,写邮件时编辑框内选中文字即可调用系统级的AI相关功能,生成后的文字会直接填充在编辑框中。

(图源:苹果)

这样一来,用户就省去了在单独的AI工具中复制粘贴、来回倒腾的麻烦,Apple Intelligence所带来的AI功能是无处不在、且融入到了苹果系统的每个角落中的。

WWDC24上苹果还演示了多个比较有意思的AI功能,小雷把它们罗列在这里:

Genmoji表情包:通过用户的文字描述自由定制个性化的表情包,比如用朋友的照片生成带有他头像风格的照片。

Image Playground:文生图、图生图,具体有动图、插图、草图三种类型。

Image Wand:可以将草图转化生成为精品成品图,并且支持图片消除,抹除照片背景。

通话录音:iPhone终于支持这一功能,并且可以将通话转为文字。

(图源:苹果)

总体来看,Apple Intelligence带来的AI功能,基本上不算特别新颖,它们的呈现形式和使用场景,对于我们这些见识过各类AI工具的人来说,自然都不是什么新东西。但对于苹果用户来说,Apple Intelligence的部署,意味着他们在使用各类苹果设备时,也能吃上丰富全面的AI大餐。

苹果的AI答卷该给几分?

坦率说,WWDC24上的主题演讲,带给小雷的惊喜并不多。这场发布会前半部分仍然是各大系统按部就班的更新,所谓的新功能基本都乏善可陈,当小雷看到iOS 18上的图标自定义排列、应用锁这类在国产定制系统的古董级功能被大吹特吹时,内心是无比失望的。

WWDC24上的绝对主角当然是Apple Intelligence,毕竟这是苹果交出的首份正式的AI答卷。此前席卷而来的AI浪潮中,苹果看起来像是一个局外人,当安卓品牌们纷纷在AI手机上发力时,苹果已经被甩开一大截。WWDC24主题演讲快结束时,苹果透露了和ChatGPT在AI领域的合作,一定程度上能看出苹果AI基本功的先天不足。

所以,当作为追赶者的苹果发布Apple Intelligence时,我们很难从心底生出一种被震撼的惊喜感。毕竟,文本摘要、图片生成、照片查找、AI智能助理等一系列功能,我们此前都在安卓机或专门的大模型App中见识过。说到底,苹果基于Apple Intelligence实现的各类AI功能,并不具备创新性。

然而,通过WWDC24上演示的内容,小雷还是深刻感受到了Apple Intelligence的体验优势。

苹果以封闭系统起家,并且在过去十余年里将iOS、macOS、iPadOS等各类不同设备的系统融会贯通,保持着软硬件结合优势,对自家系统生态的每个角落拥有着绝对的控制权。

(图源:苹果)

因此,Apple Intelligence可以出现在苹果系统中的每个细节处,和原有的App或功能相融合,用户可以以一种更加无感、更加自然的方式借助AI的能力来提升自己的使用体验。

这方面,安卓品牌更容易感受到一种无力感,推进端侧AI它们需要芯片厂商提供支持,将AI塞进系统它们需要深度定制安卓系统,完成手机AI化后它们无法将PC与之融合。在不同形态设备上为用户提供统一且全面的AI体验,目前可能只有苹果能做到。

不过,在小雷看来,任何AI相关的概念,无论愿景被讲述得多么美好,对用户而言能否落地为实用的功能和体验的切实改善才是最重要的。而苹果交出的Apple Intelligence这份AI答卷,最终能得到几分,还是得看它全面落地、用户实际体验后才能得出结论。

 

作者:雷科技

来源公众号:雷科技(ID:leitech)

]]>
苹果 WWDC24 AI 功能预测解析 //www.f-o-p.com/346332.html Wed, 05 Jun 2024 08:39:03 +0000 //www.f-o-p.com/?p=346332

 

在正文之前,首先感谢本期内容的联合创作者  @SysErr0r ,他搜集了超多的相关资料,并且把他们有逻辑的编排在一起,完成了初稿的撰写。

从 ChatGPT 上线开始,全世界的厂商和媒体都在不停地重复这个词:AI。但同样是头部公司,苹果却直到最近才参与到这次如火如荼的 AI 浪潮当中。

有人说是苹果低调,轻易不显山露水,也有人说这纯属扯淡。苹果最近破天荒地在公开场合主动提到「AI」这两个字,不仅落后,而且急了。苹果在 AI 领域到底是个什么水平?他们都干了些什么?今年的 WWDC,苹果又会有哪些动作呢?

Hello 大家好,欢迎收看这一期的两颗皮蛋,我是初号。这期护城河,我们来聊聊苹果的 AI。

过往的积累

那其实跟很多报道的风向不太一样,苹果对 AI 技术的应用开始得很早,而且一直是很积极和具体的。只不过苹果吧,用词儿比较隔路,它在今年之前,一直用 「机器学习」 来指代整个这一大类的技术。

我问一下啊,就屏幕前各位 AirPods Pro 2 的用户,你现在回忆一下自己上一次戴上耳机以后,去动音量是什么时候?AirPods Pro 2 有一个独占功能叫「个性化音频」,它就是利用机器学习了解你在不同环境下,所需要的音量偏好,然后自动去给你微调。

这个功能,再加上自适应噪声控制,和自动设备切换,基本上等于干掉了耳机上所有需要手动控制的地方。用户只需要做一件事儿,那就是打开盒子,戴上耳机。

用户层面,像 GPT-2 模型驱动的自带输入法的单词预测,iOS 17  手记 App 里的智能建议,watchOS 9 开始自带的睡眠分析 App,这些东西的背后都是机器学习。

还有很多甚至是更加基础和不可见的,比如说很多辅助功能,像 Apple Watch 的手势捏合,就是结合加速度计和心率传感器的数据,在手表本地跑了一个模型。再比如 Sign in with Apple 背后一整套的风控机制。

还有 iOS 和 iPadOS 刚上的那个眼动追踪,就眼动追踪这个能力,换成有些公司,一定都会先拿来做成用户注意力热区检测的 API,然后拿去卖广告。

它真的,我哭死(

就连自然语言处理这方面,苹果也是早在 2020 年就在系统里提供了本地运行的基于词、句向量的计算以及对句子成分和关系进行推理比较的 API。

Vision Pro 更是这样,它的两大基础能力,手势识别和房间建模,都是 AI 模型驱动的。可以说如果没有机器学习,Vision Pro 这个产品几乎不可能存在。

但是 iOS 上最古老的、机器学习驱动的软件功能,可能绝大多数用户手机从买到扔,一次都没打开过。在相册里头,点开下边那个「为你推荐」,这里头那个它自动分类、生成的这些「回忆」视频,就是苹果第一个有据可查的 AI 功能。从 2016 年的 iOS 10 开始就实装了。

其实 iOS 第一个 AI 功能这项殊荣,本来应该是 iPhone 7 Plus 的人像模式,它那个景深分割也用到了机器学习,但是最后因为软件更新的关系,7 Plus 的人像模式一直到 iOS 10.1 才正式推出。可见苹果不光机器学习的应用历史悠久,软件做的慢也是老传统了。

现实的窘境

那按这么说,苹果在 AI 领域不光不落后,甚至还遥遥领先吗?应该这么说,在大模型出来之前,苹果的体验确实算是不错的,只是他的 AI 能力用在了很多功能细节上,来帮助用户减少使用步骤,但是像 Google IO 那种全场 AI 的大活确实少一些,Siri 也是有点躺平的意思。

但是在 22 年底 ChatGPT 出来之后,大语言模型这个词一下就出现在了普通人的视野当中,而这恰恰是苹果技能树偏弱的部分。这个东西的背后是以注意力机制,和巨大参数量的大语言模型为代表的,机器学习领域的一次范式转移。这两个东西结合起来,让 AI 模型具备了以前难以想象的性能和能力。

历代 GPT 参数量对比

新老两代技术对比

一个最明显的例子是在 ChatGPT 之前,不管你说什么都能接住的聊天机器人几乎是不存在的。这一波范式转移,就是让包括苹果在内的所有消费电子公司,都如坐针毡的真正原因:大语言模型的出现让人类的自然语言第一次变成了一种可行的人机交互界面。

就像 iPhone 用触摸屏取代了机械按钮一样,HUMAIN 的 AI Pin 和 Rabbit R1 赌的都是同一件事儿,那就是这一次人机交互界面的变革将再一次颠覆消费电子产品的主流形态。但是很可惜,从发售以后的评测来看,这两家公司的产品,差的都太远了。Rabbit R1 甚至连天气预报这么基础的东西都能顺嘴儿胡编。自定义能力也很差,甚至还不如 Siri。

The Verge Rabbit R1 评测文章

苹果真的落后了吗?

前进半步是先进,前进三步是先烈。从语音交互这个角度讲,母公司当年的 TNT 死得实在是太早了。但是这产生了一个新问题,就是为什么苹果在 AI 领域应用的这么积极,在大模型领域还是慢了半拍呢?

首先肯定不是因为外部的物质条件。人才、算力、训练数据,这些能用钱解决的事儿对字面意义上富可敌国的苹果来说都构不成问题。实际上根据现有的报道,苹果从 18 年到现在,已经从谷歌最少挖走了 36 个 AI 领域相关的技术人才。AI 服务器也准备直接上 M2 Ultra,自给自足。至于大模型的训练,海外媒体估算 GPT-4 的训练成本大概在 6300 万美元左右,而苹果 2023 财年的净利润高达 969.95 亿美元,眼一闭,一睁,五个半小时就全挣回来了…

那既然不是物质条件的原因,这事儿就只能是跟苹果的主观意愿有关了。

一方面苹果是一家极度关注「技术落地」的公司,他追求的是敢为人后、后中争先,纯粹的技术预研风险高、落地周期不可控,这不是他擅长的东西,就你啥时候看见过苹果发布会的发言人挂的 Title 是苹果研究院吗?没有,他压根就没有研究院这个东西。而苹果擅长的是,哪个公司捣鼓出新玩意,他直接买过来就是了,然后把技术工程化,把东西量产出来,他做的更多是工程创新,甚至可以说是工程奇迹。

Vision Pro 的硬件说起来,没有任何东西超越了行业的技术水平和想象力

但这个世界上最重要的技术创新,大部分都是几个科技公司的研究院搞出来的,就比如说大模型的基石 Transformer,他就是谷歌研究院的杰作。可以说真正的脱产,往往才能有真正的创新。这个问题大伙可以去看杨玄感老师的这条视频,讲得老牛*了。

那另一方面,我觉得也是路径问题。大语言模型能力大小某种意义上是跟参数量大小绑定在一起的。巨大的参数量,也让它几乎跟端测运行说再见了。OpenAI 今年 4 月出了一个新的 Batch API,把你的请求放在一个文件里打包上传,可以在 24 小时内返回结果,费用打五折,完全是大型机时代的运行模式。这些跟苹果过去在机器学习领域的产品实践正好是完全相反的。

可以说,苹果在这一轮范式转移的过程中慢了一步,是无可争议的,但这时候一棒子敲死苹果还为时尚早,苹果之所以坚持不做脱产预研,也是因为他认为,技术只是解决问题的一种手段,最终都要落回到实际体验,而好的体验是有很多部分组成的,技术领先固然重要,但是当技术不具备领先性时,对于问题的思考和洞察,其实同样重要。这是苹果构建护城河的重要基石,就像我们以前讲到的,苹果虽然没有发明、也没能力制造 OLED,但是他依托供应商的 OLED 屏构建了全流程的 HDR 生态,依然在很长一段时间做到了体验领先。

而在 AI 领域,苹果依旧有着非常多的积累。

首先是硬件层面的积累,前面我们说了,机器学习近 10 年来始终是苹果产品不可分割的一部分。这里面所有的功能都是硬件驱动的。苹果的 Neural Engine 从 A11 Bionic 开始算力就一路水涨船高,再加上 CoreML,让苹果能够迅速地把 AI 驱动的功能带到每一台条件允许的苹果设备上。

苹果不做中端芯片,只有旗舰芯片,去年的旗舰芯片,还有大去年的旗舰芯片,还有…… 

这样的模式,在这时候就能体现出优势了,向大模型的技术路线迁移时,苹果能够保证覆盖到更多的机型和用户,我估计端测模型往前覆盖 2 代用户应该不成问题。

再就是需求洞察上的积累,大语言模型的产品落地之路走得也并不顺畅。大众预期和产品的真实能力存在巨大落差,它最大和最成功的用途很可能是被营销号和机器人水军用来在互联网上制造内容垃圾,甚至相当比例的真实用户需求也是一样。大家拿它来写都是工作报告、文献摘要、公开致辞…

套话还是那些套话,只不过现在不用现编了。

去年 5 月份,谷歌内部泄露出来一篇文档,你光看标题都能感觉到那种绝望和焦虑:《我们没有护城河,OpenAI 也没有》。本质上,大家还是在找场景,找痛点,而这件事苹果已经做了很多年了。前面提到的很多例子都证明,AI 早就融入进了系统体验的方方面面。所以苹果会怎么用大模型来加强他既有的功能和体验,并且拿出新的需求洞察和解决方案,绝对是今年 WWDC 最大的看点之一。

WWDC 24 AI 预测

那正好我们发这期视频的时候 WWDC 也快开了。最后咱们就结合现在苹果已经公开发表的模型、论文和媒体的公开报道来预测一下 WWDC24,苹果在 AI 方面会有哪些动作。

大的方向我认为是不会变的。苹果过去在机器学习方面的实践和最近相关的爆料仍然都指向一个小型化的、能运行在用户设备端的帮助用户解决实际问题的模型。

首当其冲的就是 Siri。这块如果不出意外的话他肯定是往死了抄 ChatGPT,因为样板实在是做得太好了,听苹果抄别人好像是个挺新鲜的事儿哈。首先他能记住你之前跟他说过所有的内容,问他问题时应该也不仅仅局限于语音或者文字这一种了,并且回答也是经过检索和总结的,而不是直接甩给你一堆搜索结果。

但是苹果做这件事的优势在于,Siri 他能获得的信息维度比 ChatGPT 要大很多,他更容易知道你跟设备当前的状态,你拍过什么照片,你常用哪些 App,以及你有哪些事情要做,这样他就可以给出一些更有语境更有上下文的回答。

甚至是不是能够根据场景,他可以主动的发起对话,我觉得如果做到这个体验,那确实可以 Wow 一下了。不过这里面的难点是,虽然 Siri 现在作为一个智能助理他是不及格的,但是定个闹钟、问个天气,这些他都是没有问题的。

我就有点担心接入大模型之后,他反而会给你搞出点花活,我们已经看过不少大模型一本正经编瞎话的例子了,如何能让他的回答更有创造力,更有理解力,同时执行简单任务的时候保持稳定和准确,这是一件苹果必须要解决的问题。

跟他对话只是交互的手段,重要的是那个执行结果。

其次是对于界面当中内容的理解能力,那去年年底苹果悄悄开源了一个叫「Ferret」也就是雪貂的多模态大语言模型,重点是今年 4 月,他们推出了一个变种 Ferret-UI。这个模型能够理解手机 UI 的界面元素,并且在这篇论文的实例当中,允许用户通过自然语言去操作 App。

同样是 4 月份,他们的另一个大模型 ReALM 则是专门针对自然语言的模糊性做了改进。你跟它说,打这个电话,摁底下那个按钮,它也都能听懂,你指的到底是屏幕上的哪个元素。

这个东西再往前想一步,就是 Rabbit R1 发布会上他们想要做的自动化程序,帮用户点击页面,填写信息,最终达成一句话就可以帮用户打车、订机票酒店的体验。而且这两个模型都不大,雪貂能找到 70 亿和 130 亿的版本,ReALM 更小,最小的版本只有 8000 万参数。明显是奔着在 iPhone 上,甚至是 Apple Watch 和耳机上跑的。

毕竟手表和耳机,也只有旗舰芯片,去年的旗舰芯片,还有…

不管最后这个能力包装进 Siri 还是什么,总之苹果是最有机会打通整套体验的,毕竟前面统一 UI 框架的底子已经打了很多年了,还能顺带大幅度改善无障碍的体验,以后就不是猫踩你手机帮你锁了 SU7 的订单了,还有可能是 Siri 干的。

再来,让真正需要 AI 的场景生效,肯定是苹果的做事方式,苹果估计还是不会整什么大活,而是把 AI 贯彻在一系列的功能细节中。比如文生图或者图生图这种场景,肯定是要结合在 Keynote 生成背景或者个性化生成壁纸这种场景才更有想象力的。再比如内容总结或者摘要,也应该放在 iMessage 或者其他聊天软件中才更合理,直接通过上下文帮你新建日程安排,Siri 在帮你检索一下机票酒店的价格,做个推荐,感觉一下就闭环了。

最后就是面向开发者这一侧,苹果应该会把大模型的能力打包成 API,直接开放给开发者。提升旧能力,提供新玩法,甚至把三方 App 的能力直接整合进 Siri 建议。这方面我会在 WWDC 之后好好看一下后续的开发者课程,如果发现了什么有意思的东西在做成视频分享给大家。

总结

当然啊,我们讲到的可能是最好的情况,即使是苹果估计也很难一口吃成胖子,即便这些体验,下一代系统没有办法全部达成。你从它的研究方向上也能看出来,未来让用户可以通过自然语言简单无缝地指挥 Siri 去操作手机,肯定是苹果在大模型领域的终极目标之一。甚至在他的曾经的产品定义中,苹果汽车都是这么操作的。

但是如果真这样发展下去,苹果也即将要面对一个终极困境,就是 AI 越强,用户对 App 的需求越弱。AI 杀死苹果生态中最重要的一环——App Store,从逻辑上来说是必然会发生的,只是时间长短的问题。

现在的 App 开发者可能慢慢都会变成服务的提供者,由 AI 来调用他们的能力。而因为 App Store 诞生,各个 App 之间建立起的阻隔之墙,是非常有希望被 AI 直接捅破的。原本互联网时代一个网址就可以跳转和分享的体验,是不是能够重新变成日常,这个我们可以把时间拉长到五年或者十年拭目以待。

不过呢,App 可能会消失,但手机仍然是承载 AI 最好的载体,自然语言交互不可能适用于所有场景,内容消费也需要一块高素质的屏幕,与此同时手机拥有的算力、机器视觉以及能够满足需求的续航体验,是其他设备短时间没有办法给你的。

可以说 AI 不会消灭手机,

但没有 AI 的手机,注定消亡。

原文链接:

https://sspai.com/post/89315?utm_source=wechat&utm_medium=social

 

作者:两颗皮蛋

来源公众号:少数派(ID:sspaime)

]]>
苹果靠AI续命? //www.f-o-p.com/342401.html Tue, 16 Apr 2024 05:45:41 +0000 //www.f-o-p.com/?p=342401

 

高傲的苹果,如今也不得不来蹭下AI的风口。

今年一季度,苹果手机销量暴跌9.6%。压力下,PC业务成为苹果的救命稻草。而从国内的华为、联想,到海外的微软、英特尔、AMD,谁都不能对AI PC市场打开的市场空间掉以轻心。

因为放弃造车和iPhone出货量下跌而身陷困境的苹果,如今也走到了要靠AI来撑股价的时刻。

4月15日,数据研究机构IDC发布2024年第一季度全球智能手机出货量报告,苹果出货量从去年同期的5540万台同比暴跌9.6%至5010万台,成为前五大手机厂商中跌幅最大的品牌。

或许是预料到第一季度手机出货量不太乐观,出货量报告发布之前,市场传出了苹果将全面革新Macbook产品线的消息。

据知情人士向媒体透露,为了提振旗下低迷的电脑业务,苹果准备重新改造Mac产品线,通过新一代的M4芯片为旗下PC产品配备AI功能。

该人士透露称,苹果下一代的M4芯片生产已接近尾声。新芯片将至少拥有三个版本,苹果希望用它来升级旗下所有Mac机型,首批搭载M4芯片的Mac电脑也有望在年底前亮相。

该消息一出,北京时间4月12日美股收盘,苹果股价暴涨4.33%,市值一日增加1121亿美元,约合人民币8113亿元,创下了今年来最大涨幅。4月13日,苹果继续上涨了0.86%。4月15日,在苹果手机一季度出货量暴跌的消息影响下,苹果股价下跌了2.19%。

不论如何,AI浪潮都已向低迷已久的PC市场里,添了一把旺柴;拥抱变化的主流PC厂商如今言必称AI,今年来纷纷推出了AI PC新品。不过受制于研发进程,消费者发现许多PC的AI功能还只是停留于本地连接、云端运行的“伪AI PC”。

Canalys分析师叶茂盛对「市界」表示,目前AI PC主要的场景还是围绕在生产力上,例如即时会议摘要、转译、提供更稳定的会议品质、自动生成邮件回复等,消费者可能会意识到有新功能的加入,但不一定理解背后牵涉到端测AI的发展。

据媒体透露,苹果此次大炒的M4芯片,其最大亮点便是多数功能都将在终端设备上完成,并通过本地运行,而非当下主流的“AI PC”,其AI功能要依赖远程云服务器。

在市场的多重利好刺激之下,一场围绕着AI PC的芯片大战也正在打响。

01 苹果也要蹭AI

从2月底被曝出放弃造车,到前不久宣布裁员数百人,苹果最近一直不太平。尤其是iPhone出货量的不断下跌,正在成为库克的新烦恼。几天前,据市场研究机构BCI发布的最新数据显示,2024年第一季度,苹果手机在中国的激活量同比下降了20%至1056.9万,被vivo、荣耀和华为反超。

在手机业务不景气的背景下,PC业务被苹果寄以重望。

就在不久前的苹果年度股东大会上,库克公开表示:“所有由苹果芯片驱动的Mac都是非常强大的人工智能机器。事实上,目前市面上用于人工智能的电脑,没有比Mac更好的。”

就在近期,苹果宣布,将于2024年6月10日至6月14日举行全球开发者大会(WWDC),并且将于6月10日在Apple Park举办特别活动。据媒体透露,苹果准备在WWDC2024上展示一系列AI新功能。

实际上,如今整个美国科技圈,都对AI趋之若鹜。而苹果放弃造车,除了美国充电桩基础设施乏力、特斯拉股价节节下跌之外,最大的原因,就被认为是全力投入AI。而今年的iPhone16系列,市场最关注的也是能否带来颠覆性的AI功能。

然而,iPhone 16系列毕竟要到第三季度才发布,但前两个季度苹果手机的出货量却已岌岌可危。

一名了解手机行业的人士对「市界」表示,苹果“第二季度的出货量可能比第一季度还差”。在此之前,苹果很大程度需要靠PC业务的革新,来展现其在AI领域的技术实力。

尽管各大研究机构的数据还没有完全披露,但在不少业内人士看来,今年第一季度苹果手机的表现堪忧。从中国市场来看,IDC和BCI的数据都反映了iPhone出货量在国内大幅下滑的趋势。

而在全球市场方面,Canalys分析师朱嘉弢对「市界」表示,苹果一季度全球出货量下跌比较明显,中国、北美、欧洲几大市场都在下跌。他预计,今年上半年苹果手机业务的整体表现会比较差。至于第三季度的表现,则主要看iPhone16系列的产品力如何,以及能否在AI领域有所建树。

相比于疲软的手机业务,PC业务正在成为苹果目前为数不多的增长点。Canalys最新数据显示,2024年第一季度,苹果电脑的全球出货量同比增长2.5%,达到536.1万台。就在上个月,苹果上架了新款MacBook Air,该机型升级了最新的M3芯片。

在该机型上,苹果着重宣传了AI应用,表示新款Macbook Air“搭配了先进的AI功能”,可以通过M3芯片内置的神经网络引擎,带来更强的语音转录和视觉理解功能等。

据最新财报显示,苹果2024年第四季度营收1195.8亿美元,其中iPhone营收697亿美元,占比58.28%。Mac营收77.8亿美元,占比仅6.5%。而AI芯片的加持,有望为苹果低迷的Mac产线提振销量,改善产线结构比例。

02 PC厂商言必称AI

如今美国的科技股,可以说是得AI者得天下,只要傍上AI概念,市值就能暴涨。

而苹果如今频频提及自身的AI能力,一定程度上也是在对市场低头。毕竟从今年年初到这次股价上涨之前,苹果股价从最高199.37美元下跌至最低167.11美元,市值蒸发接近4000亿美元。

不过苹果在AI领域的提前布局,算是为其积累了一定的优势。据报道,M4芯片系列将主要分为三个梯队:入门级的Donan、更高阶的Brava和旗舰芯片Hidra。消息称,苹果计划重点宣传新芯片在AI运算方面的能力,以及它们将如何与即将发布的macOS新版本相结合。

一名了解苹果的人士对「市界」表示,其实苹果在AI领域的技术一直都在第一梯队,只不过以前一直不太愿意称之为“AI”,而是更具体地称为“机器学习”、“神经网络”等。但是如今狂热的市场只认“AI”二字,苹果也不得不改口。

而具体到Mac产品线,该人士表示,苹果M系列自研芯片的统一内存架构(UMA),其实就拥有很强的AI能力,该架构让Mac笔记本的CPU、GPU和其他处理器共享一块物理内存。比如内存可以当成显存来用,这在需要大量计算资源的AI任务时,能拥有更高的性能和效率。这也是此前库克敢于说出“Mac是市面上最好的人工智能机器”的原因。

叶茂盛也对「市界」表示,AI PC相比于传统PC,最显著的提升在于内存的增加,AI带来的算力需求及资料生成将使现有8GB起步的规格不再足够。而在上述人士看来,苹果的统一内存架构在这方面具有一定优势。

实际上,在AI浪潮驱动下,低迷已久的PC市场正在重新恢复增长。

今年第一季度,多家电脑厂商都宣布推出AI PC产品。据Canalys数据显示,今年第一季度全球PC市场出货量增长3.2%,Canalys预计今年全球PC市场将实现3%的增长。

不少分析机构认为,2023年是PC历史上出货糟糕的一年。据Canalys数据显示,2023年全球PC出货总量为2.47亿台,同比下降了13%。而AI PC有望将PC市场拉出泥潭。德邦证券称,2024年更多AI PC产品上市,将从而开启AI PC元年,从供给端拉动用户新一轮换机。

今年年初以来,几乎所有的电脑厂商,在发布新产品的时候,言必称AI。

Canalys在最新的预测中表示,2024 年全球AI PC 出货量将达到 4800 万台,占个人电脑(PC) 总出货量的 18%,预计到2025年,AI PC出货量将超过1亿台,占总出货量的40%。另一家数据机构IDC也预测,2024年全球PC出货量将达到2.65亿台,同比增长2%,核心驱动因素是即将到来的AI PC。

叶茂盛对「市界」表示,已经观察到部分个人电脑厂商扩增感测器以提供更好的及时应对能力,这包含各种应用的自动调节,如音效、背景模糊功能、自动屏蔽、自动开启脸部辨识登入等。

几乎所有PC厂商,都不想错过这一波来之不易的红利。联想、华为等厂商在最新的产品中,都将AI功能“突出显示”。

联想集团在2023年10月推出了“AI for All”战略,率先宣布向AI战略全面转型,并且推出了多款搭载AI功能的产品和具有本地知识库的个人大模型AI Twin。此外,联想还宣布,将于4月18日的联想创新科技大会上发布“真正的AI PC”,其中包括ThinkPad,YOGA,小新等多款全新AI引擎PC。

积极的战略转型已经为联想带来了收益——今年第一季度联想全球出货量增长了7.8%。

正在PC领域快速崛起的华为,也正将AI作为重要卖点。4月11日,华为发布全新MateBook X Pro,首次应用了华为盘古大模型,并且拥有全新的AI概要功能,可快速、准确地从文字、音频、视频内容中提取关键信息。

2023年,在中国PC市场下跌17%的背景下,华为的PC出货量增长了11%,在前五大厂商中唯一录得正增长。

而作为苹果的竞争对手,微软的市值在今年年初超过了苹果。除了Open AI天降神力之外,微软也受益于AI PC的风潮,其云计算业务持续增长、Windows11最新推出的AI助手Copilot也广受市场好评。在叶茂盛看来,Copilot键的增加,预期将会逐步改变PC行业人机交互的模式。

03 卷PC前,先卷芯片

AI PC的浪潮,不仅直接带动了下游终端厂商的出货量增长,也促使上游芯片厂商将AI能力作为核心的迭代方向。去年年底推出的英特尔酷睿Ultra芯片,核心创新点便是在芯片中增加了全新的神经计算单元(NPU)。

叶茂盛对「市界」表示,上游芯片厂商已经预见到了AI趋势带来的影响。NPU在神经网络运算中可以以较低的功耗以及较适配的方式完成运算,并能帮助内置CPU、GPU更好地发挥完整效能。

英特尔表示,NPU这一新颖的技术组件专为AI计算设计,能够更高效地处理AI相关的任务,如图像处理、语音识别以及机器学习。及时的技术升级为英特尔带来了源源不断的生意。今年以来,各大厂商推出的“AI PC”产品,基本都搭载了英特尔酷睿Ultra系列处理器。

另一家芯片厂商AMD也同样将AI作为宣传点。今年3月,AMD董事会主席及CEO苏姿丰现身北京AMD AI PC创新峰会。苏姿丰表示,去年AMD推出的锐龙7040系列芯片,是第一个集成NPU的x86处理器,后续AMD又推出了8040系列,目前市场上已经有数百万台锐龙AI PC出货。

不过,在厂商和芯片上狂卷的背景下,目前市场主流的AI PC距离真正颠覆式提升PC的体验,还有很长的路要走。

首先,目前已经发布的 AI PC 产品,它们所搭载的AI能力和PC硬件多数仍是分离的。例如,英特尔和微软最近联手炒作“AI PC”, 宣称其产品配备了混合架构芯片、Copilot和对应的物理按键。不过,行业认为Windows 11版本的“PC+Copilot”依赖的仍然是微软的云端算力,与硬件关系不大。

要实现PC充分地智能化与AI化,本地AI计算能力才是决定体验的核心——受制于网络延迟、稳定性,以及主流付费模式,云端AI的体验还无法与终端AI的便捷性相比。

例如,近期外媒透露在微软的下一代Windows里,Copilot的许多关键功能将直接运行在本地NPU上。在AI驱动下,Copilot可以帮助系统增强搜索能力,启动项目或工作流,在文档和信息内部完成更多上下文理解等生成式 AI 能力。

同时,据透露微软还在开发一项新的时间线功能,允许Copilot 记下应用、网站浏览等活动记录,并且能够随时回溯,通过 Copilot 增强的搜索能力,快速找到过去某个时刻在 Windows 上的活动。

这些新增功能,无疑将真正打开AI PC的想象空间。与此同时,在巨头之间围绕AI PC的芯片大战,也已先期打响。

据英特尔高管对媒体表示,微软对于下一代AI PC内NPU的最低计算要求是40 TOPS(每秒万亿次运算)。而目前市场上在售的AI PC产品,都远远不能达到这个算力量级。而前述英特尔最新发布的酷睿Ultra芯片,在“CPU+GPU+NPU”共同参与运算之下,AI 算力可达到34 TOPS——但如果仅考虑NPU,算力则只有10 TOPS。而AMD最新发布的锐龙8040系列,NPU算力只有16 TOPS。

接下来,市场的目光也聚集到了苹果身上。虽然最新的M4芯片能具备多大强度的计算量级,还是个未知数。但苹果强大的软件生态,由此延伸出的AI“整合”能力,已经值得市场期待。这或许也是M4芯片研发进程刚被爆料,苹果股价便应声上涨的核心原因。

 

作者:让商业更具价值

来源公众号:市界(ID:ishijie2018)

]]>
苹果式 AI 哲学 //www.f-o-p.com/316809.html Mon, 12 Jun 2023 03:47:29 +0000 //www.f-o-p.com/?p=316809

 

Fast Reading

  • Vision Pro还达不到iPhone的级别,但已是XR领域的新物种。
  • 苹果可能是布局AI最早、技术积累最多、应用范围最广的公司之一。
  • 先有领先的技术储备,再打造极致的产品,最终重新定义品类和行业——这是苹果一贯的打法。

01 头显元年还没来

苹果史上最贵的产品Vision Pro,发售首年的销量目标被砍掉95%。

6月8日,据韩国媒体Pulse News报道,苹果公司已将Vision Pro的今年的销售目标下调至15万台。彭博社早前消息显示,苹果最初对Vision Pro首年的销量目标是300万台。

这款似乎不被市场看好的新产品,拥有一次很典型的苹果式亮相。

后发制人,不是行业“首发”,却凭借更强的技术和产品能力,配合独特的交互设计、完备的生态体系,重新定义产品甚至行业。iPod、iPhone、Apple Watch、Mac,莫不如是。

在我看来,Vision Pro不是更好的Meta Quest或PICO,而是基于空间交互的全新计算平台,XR领域的新物种。原因如下:

Vision Pro是一个完全独立的计算平台,硬件由M2和R1芯片驱动,软件有Vision OS,虽然看起来不太像电脑,但它的性能足以吊打市面上绝大多数电脑。

在核心硬件和技术领域拥有绝对碾压的优势,在头显设备最核心的几个环节——图像采集、图像显示、空间感知,以及各种硬件堆料方面,都是遥遥领先。

没有配备手柄,完全依赖眼动追踪、语音、手势等全新的极简交互方式。

依托苹果生态的内容优势,包括数以万计的应用和AppleTV+等。

同时兼具了AR(Augmented Reality,增强现实)、VR(Virtual Reality,虚拟现实)和MR(Mixed Reality,混合现实)的功能和形态,是截至目前XR(Extended Reality,扩展现实)领域的集大成者。

以上任意一点,Vision Pro都比同行表现出色,加在一起,说一句“新物种”不过分。

但今天的Vision Pro,未必能成为当初的iPhone。

即便强如苹果,充分利用在产品、技术和生态上的绝对优势,在逼近现有技术极限的基础上打造出来的新物种,也没能解决这种头戴式设备最核心的问题——使用场景。

在已经有iPhone、iPad和Mac的情况下,为什么我们还需要一个独立的空间计算设备?

影音娱乐自然是首要场景,空间的延展确实能够带来完全不同的体验,演示视频里过半篇幅都是在介绍看电影的效果如何炸裂。苹果还邀请了迪士尼CEO鲍勃·伊格尔(Bob Iger)为发布会站台,全世界最大的内容平台之一配合Vision Pro的沉浸式体验,想想都让人觉得兴奋。

不过,苹果只是想要造一台“空间版PlayStation”吗?当然不是!

苹果给出了一些很模糊的演示,比如在医疗领域可以用Vision Pro更好地看到器官的构造,比如学习。但只是一闪而过,完全没有“言之凿凿”,反而更像是人为创造的“伪需求”,就像苹果一直硬拗iPad Pro是生产力工具一样。

受限且单一的使用场景,加上3499美元起步的售价,注定了Vision Pro还不足以开启头戴式计算设备的元年——它只是少数人的玩具。

相比之下,我更看好的是,随着技术持续进步,这套空间计算能力可以跳出Vision Pro的产品形态限制,应用在更多设备和更广阔的领域。而作为当下载体的Vision Pro本身,反而不那么重要了。

02 苹果保守了吗?

一些声音认为,苹果在这一轮AI竞赛上已然落后。Vision Pro发布后,甚至有人发出批评:苹果点错了科技树,当大家都在玩AI时,库克却搞起了头盔,和整个科技界的浪潮背道而驰。

苹果在AIGC上保守了吗?

恰恰相反。苹果可能是这个星球上在AI领域布局最早、技术积累最多、产品应用范围最广的公司之一。

库克曾在接受采访时明确表示,他也在使用AI聊天机器人,并对其感到兴奋。他还透露,苹果正在密切关注这项技术,并有一些独特的应用场景。

事实上,苹果在很多年就开始了在AI领域的探索,甚至早于大部分人的想象。

2011年发布的iPhone 4S上,已经搭载了当时令人惊艳的智能助手Siri,背后的核心驱动技术就是“NLP(自然语言处理)”,也就是今天ChatGPT等生成式人工智能的基础技术之一 —— 让机器理解人们说话的意图。

周鸿祎在一次采访中称:NLP是人工智能皇冠上的明珠,谁参玩透了对语言的理解,谁就真正理解了这个世界,成为未来其它人工智能任务的底座。

随后十数年间,苹果以iPhone为核心载体,不断迭代在AI领域的硬件和软件能力。

在刚刚过去的WWDC 2023上,我们能够看到苹果在“机器学习”这件事上挑战的全新高度。硬件领域,苹果已逐渐转移到M系列芯片,M2 Ultra芯片可以负担大规模机器学习的性能需求,在某些场景和需求下甚至可以部分替代独立图形处理器。软件领域,新一代iOS、iPad OS、MacOS、WatchOS甚至Vision OS,都大规模地应用机器学习来提升用户体验。

比如,库克花了不少篇幅介绍的iOS 17输入法改进,就是利用了Transformer语言模型,精准学习用户的输入习惯,预测输入内容,大幅提升输入正确性。类似的案例还有很多。

总之,苹果WWDC 2023一句都没有提人工智能,但处处都是人工智能。

为什么外界会认为苹果在这波AI浪潮中显得非常保守和落后?原因可能是:

苹果是一家消费电子产品公司,虽然在产品背后大规模应用了机器学习相关的技术,但并没有专⻔发布一款以AI为核心的产品作为载体。

苹果的路径是:用领先的技术储备,打造出极致优雅的产品,重新定义品类和行业。而纵观AI技术领域,能够落地到消费电子上的产品形态还没有完全明确。

苹果不喜欢用“人工智能”的说法,而是倾向于使用“机器学习”这样更贴近技术、更中立的表达方式。

苹果一贯在交互体验和用户隐私方面有近乎变态的要求,现有AI产品还达不到。

综上,苹果在AIGC上不仅没有保守,反而有足够⻓期的投入和足够深度的技术积累,以及足够广泛的应用。不仅如此,苹果在AI潜在的落地领域也或多或少地有一些成熟产品了。

微软有Microsoft 365 Copilot,苹果有iWork三件套;特斯拉有FSD,苹果在自动驾驶领域也积累了很多年。

03 等待终极载体

苹果在AI领域的布局,我归纳为“处处不提AI,但处处落子AI”。在XR领域,或者说苹果所谓的“空间计算”领域,同样如此。

早在3D Touch时代,苹果就已探索在手机上实现更多维度交互的可能性。再后来,Face ID、激光雷达摄像头等看上去“平平无奇”的功能,被很多人吐槽根本用不到。但到今天,它们全部成为Vision Pro的基石。

这很苹果。

信息技术产业的发展,本质是不断提升信息生产、消费和传递的效率。从更宏观的视角看,已经可以看到两个比较明显的命题:一是信息获取效率的极致,二是数字世界的边界。

在第一个命题上,苹果用iPhone牢牢占据了移动计算的平台。Vision Pro则是苹果在第二个命题上,给出的答案雏形。这两个命题不是各自独立发展,而是相互交融,螺旋前进。

随着移动互联网式微,智能手机发展进入相对平稳时期,能带来创新性体验的产品越来越少,连外观都鲜有变化。各大巨头都在寻求新的计算平台,“空间计算”就是苹果开辟的全新战场。

但不得不说,这依然是一场库克时代的苹果式的豪赌。

过去,苹果每一次抓住重塑行业的新机会,几乎都是由乔布斯主导的,他以敏锐的洞察力和天才般的产品感觉,创造了一个又一个神话。今天的苹果似乎缺少灵魂人物,它还能复现乔布斯时代的“现实扭曲力”吗?没人知道。

但今天的苹果也早已脱胎换骨:数万亿美元的市值,数千亿美元的现金储备,以及多年的技术积累和远超乔布斯时代的资源投入。事实上,Vision Pro的诞生,正是在技术上不计代价投入的产物。

对苹果而言,任何产品层面的竞争,背后都是生态的竞争。用户买的不是iPhone,而是承载苹果软件和内容服务的载体。苹果推出Vision Pro,同样是出于长期生态竞争的考虑。

短期来看,苹果推出Vision Pro是要吸引更多的开发者,为苹果开辟全新战场储备足够多的应用和服务,并不断进行技术验证和迭代,搭建一整套基于空间计算的生态框架。

因此,Vision Pro更本质的意义在于,通过Vision Pro这样的产品,不断拓展数字世界的边界,进一步将物理世界和数字世界做更好的融合,带来全新的交互体验。这才是苹果真正要做的——积累空间计算平台相关的技术和生态。

听上去是不是很熟悉?这和iPhone、iPad的思路是完全一样的,是一套得到过充分验证的打法。

长期来看,空间计算平台的核心技术,包括但不限于空间信息采集、空间信息呈现、空间感知能力,以及基于各种传感器的空间交互能力,很像自动驾驶需要的核心能力。

苹果一直讳莫如深的“苹果汽车”,或许才是空间计算落地的真正载体。

别忘了,苹果从来都是一家消费电子产品公司,所有的技术积累,最后都会变成产品提供给用户。未来10年,还有什么比汽车更性感的消费电子产品吗?

市场有风险,投资需谨慎。本文不构成投资建议,不作为实际操作建议,交易风险自担。

 

作者:王镜宇

来源公众号:雪豹财经社(ID:xuebaocaijingshe)

]]>