10.16 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”

对于大部分国内的普通消费者而言,“谷歌手机”可能是个略显陌生的产品。但对于那些极客玩家、海外手机用户,以及所有的手机厂商而言,由谷歌亲自主导设计的一系列Android“亲儿子”产品,却可谓是每代都不能小觑。

一方面来说,这是因为“谷歌手机”从来都搭载最新版的Android系统,且由谷歌直接提供软件维护,能在长达三年左右的时间里始终提供最先进的Android原生功能体验,十分适合作为开发用机。而更为重要的是,自从谷歌终结与特定手机品牌的合作关系,改为完全自主原创设计“谷歌手机”以后,其在外观风格、硬件配置、功能侧重等多方面就常常“不走寻常路”,甚至经常干出逆整个行业潮流而动的事来。


 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”


是谷歌不懂消费者的心吗?身为全球最大互联网公司的谷歌,理应比其他所有的手机厂商都明白什么是“流行趋势”。但即便如此,谷歌还是选择了无视行业风潮,这或许反而可以被视作是Android“老大哥”对于整个行业的一种不满甚至是警告。比如说就在昨天晚间发布的最新型“谷歌手机”Pixel 4上,我们就看到了其对于智能手机外观、拍照,以及AI方面的诸多反思和表态。

“丑陋”的外观,挑战着全面屏的业界地位

2018年,面对当时席卷业界的“全面屏”风潮,即便是谷歌也不得不作出应对。他们先是修改了Android系统的原生代码兼容更多的全面屏类型,后来又推出了采用两种不同全面屏设计的Pixel 3系列机型,以方便开发者进行适配。


 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”


Pixel 3和Pixel 3XL

的确,作为整个Android生态的领导者,谷歌有责任帮助手机厂商开发新产品,但这似乎并不意味着他们就认同“全面屏”作为智能手机设计的唯一解。至少在最新的Pixel 4系列上,我们就能看出谷歌对于全面屏进行了一定的反思。


 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”


Pixel 4

Pixel 4采用了怎样的外观设计?乍看之下,它简直就是对当前“极致屏占比”风潮的一种叛逆。Pixel 4全系都采用了普通的无刘海造型,特别是配上一个相当大的“额头”和相对窄的“下巴”之后,整个手机正面视觉上呈现出一种略微怪异的“头重脚轻”感觉。说它比当前任何一个主流手机品牌的全面屏旗舰都要更加丑陋,可能不会有人否定。


 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”


那么,为什么谷歌要这么做呢?当然不是因为谷歌的设计师们不懂得审美,而是因为Pixel 4在宽大的“额头”里塞入了包括Soli雷达芯片、索尼最新的IMX520 800万前置摄像头、红外面部识别组件、立体声扬声器在内的“满满当当”的配置。其中,Soli雷达作为谷歌自研的手机“隔空交互”核心组件,能够实现亚毫米级别的精确手势识别;红外结构光组件本身在面部识别准确度、防止(照片)欺骗方面的优势自然不是传统摄像头可比;更不要说高品质的大尺寸前置自拍镜头和扬声器本身都是全面屏时代被许多品牌舍弃的设计。

可是,消费者真的不需要它们吗?或者说得更直白一点,手机行业真的应该舍弃更好的自拍效果、舍弃更好的外放音质、舍弃更安全的生物识别、舍弃更个性化的造型和功能设计,仅仅只为了迁就一个“屏占比”?或许,这就是谷歌Pixel 4想要通过那独特而有些丑陋的外观设计,提醒我们的第一件事。

AI+低像素双摄,比几千万的多摄更强?

2016年谷歌推出了初代Pixel机型,正如它的名称所示的那样,其从一开始就选择了拍照作为其功能的重点研发方向。但是和大部分主流品牌选择以公众“看得到”的摄像头数量和传感器像素来宣称拍照设计“有诚意和配置高”不同,谷歌的产品从一开始就走了一条不同的道路,而且是令大部分厂商都相当尴尬的一条道路。


 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”


Pixel 2时代,单摄旗舰压倒了一众多摄对手

谷歌做了什么?很简单,从初代Pixel 1一直到前代的Pixel 3,谷歌一直采用“单摄+强大的AI算法”来实现高画质、准确的白平衡以及出色的夜景成像效果。并先后靠着此种单摄设计在DXO的评价体系中击败了传统手机品牌的双摄、三摄、四摄旗舰。

到了最新的Pixel 4上,谷歌终于采用了主摄+长焦的双摄设计。但在具体的CMOS选择上,Pixel 4依然拒绝使用超高像素型号,转而采用了“老旧的”IMX363 1200万全像素双核对焦CMOS。


 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”


为什么谷歌不使用超多摄设计?小米创始人雷军早在2017年的互联网大会上就说出了原因。他当时感叹到,谷歌Pixel 2只需要用一个摄像头就能拍出完美的虚化效果,背后就是强大的AI性能在支撑。事实上,谷歌不仅用AI在单颗摄像头上实现了虚化效果,他们还用AI来计算准确的白平衡、用AI来“算”出高清的变焦照片、用AI来强化手机的暗光成像能力、用AI来拍出传统需要超广角镜头才能做到的广角全景照片。

说实在的,如果对智能手机的成像原理略有了解,就应该明白谷歌这种“重AI、轻硬件”的设计,在手机上其实是完全正确的。一方面来说,智能手机本身简陋(请原谅我使用这个词,但事实如此)的光学镜头,注定了它们其实根本就不可能真正满足数千万级别像素所需的物理解析力;其次,在本身所有的智能手机都严重依赖算法对像素、对画面的后期“修复”和调整的前提下,实际上所有的超高像素CMOS都根本不可能100%发挥出性能,不如选用相对低的像素等级,换来更快的算法处理速度以及更实用的照片文件大小。


 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”


况且,谷歌所使用的IMX363 CMOS虽然并非最新型号,但它的2PD(双核对焦)结构注定了其在全焦段上的对焦速度都要远胜过现在的4000万、4800万和6400万CMOS们。对于任何一个相机来说,能够快速、准确的对焦才是画面清晰的最先决条件,很显然,虽然成像算法严重依赖AI加速甚至是独立AI处理器,但谷歌并没有因此忘记相机最本源的一些东西。

人工智能很有用,但不能以用户隐私为饵食

是的,我们多次提到了谷歌对于AI的重视。事实上谷歌对于AI技术在手机上的运用,要比绝大多数手机品牌都早得多。早在2017年秋季,谷歌Pixel 2手机就已经内置了由这家互联网巨头自主研发的Pixel Visual Core AI处理器,这比麒麟970的“独立NPU”、比骁龙855的“向量加速器”都要更早。或者可以说,谷歌才是第一个在智能手机上配备独立AI单元的Android手机品牌,没有之一。

从Pixel 2到Pixel 3,“Pixel Visual Core”这个脱胎于大名鼎鼎的“阿尔法go”的移动AI处理器经历了一次技术改进,而到了最新的Pixel 4上,它则进一步换代增强,变成了能负担更多功能的“Pixel Neural Core”AI芯片。


 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”


Pixel Neural Core能做什么?简单来说,它首先还是承担起了绝大部分拍照优化相关的数据处理工作,从无损变焦到能提前显示处理后效果的“Live HDR+”,从基于机器学习的全局白平衡新算法到支持自动对齐像素的“星空摄影”模式,这一次在Pixel 4上都是由这颗谷歌自研的AI处理器支撑。但除此之外,相比前两代仅仅只能用在拍照上,这一次的Pixel Neural Core还增加了对语音的处理能力。


 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”


录音转文字+自动翻译,无需联网

比如说,在Pixel 4的出厂自带软件里,这一次就增加了一个名为语音备忘录的新APP,它能够做到实时录音+翻译+自动转换为文字记录的功能,对于商务人士来说相当实用。但最厉害的是,所有的这些处理都是在Pixel Neural Core处理器里本地化完成的,不会有任何数据被上传到任何云端服务器上,即便手机处于飞行模式,AI翻译和语音转文字功能也完全可用。同时,如果用户希望,他们可以随时删除Pixel 4上所有的本地AI处理数据,进一步避免自身隐私外泄。

众所周知,在大部分的消费级设备上,与语音相关的AI应用背后其实都是云计算和大数据在起着作用。这意味着你对AI助手说出的所有话语都会被上传到云端,会被分析、获取其中的内容,然后再由云端服务器发回答案给手机/智能音箱或是智能电视。云计算的好处在于它不需要终端设备本身具备很强的AI性能,因此可以降低成本和售价。但它的坏处就在于,我们实际上并不知道AI助手到底什么时候在“偷听”,也不知道我们所有的话语是不是化作了大数据的“饵食”,或是其中的隐私内容被不恰当地存储在了我们看不到、摸不着的“云”上。


 谷歌Pixel 4:拳打“全面屏”,脚踢“手机AI”


正因为如此,当谷歌强调Pixel 4的AI边缘计算(本地非云端处理)能力时,他们当然是有在炫耀自家的AI处理器性能。但更重要的是,这实际上是谷歌对于当前“手机AI”的一种表态。即在他们看来,AI并不应该在用户不知情的情况下,以用户的个人数据作为“养分”。因此,尽管边缘计算意味着更高的成本、更高的技术需求,但它的确比“云AI”更尊重用户本身。正如消费者有权要求网站“不跟踪”、有权要求搜索引擎“遗忘”自己一样,面对越来越广泛存在的大数据和AI需求,谷歌认为消费者也应当有权拒绝被收集信息,同时还能继续享受AI服务。而Pixel 4,正是这种思想在现代智能手机上的一个鲜明体现。


分享到:


相關文章: