我们之前聊过人工智能对手机摄影的影响,但没预料到,AI“普及”之快,令人惊讶。AI是个热门大锅,啥都能装,AI这个AI那个,到了2018年,大陆手机厂商开始给手机摄像头帖AI标签了,AI智慧拍照、 AI 人像、AI美颜、AI摄影大湿、AI梦境虚化、AI场景纷纷登场了。
这其中的部分AI 叉叉我们已经体验过,说实话,不怎么样。它们大部分都是新品装旧酒,基于场景识别调用不同的拍摄参数,基本上是按套路办事,这些工作模式在相机上很早就有,但相机厂商不管这些叫AI。
AI是个好东西,但我们理解的AI不是AI叉叉这样。AI应该是一个极为重要的辅助功能,而不应该喧宾夺主擅作主张。有的所谓AI,蓝天白云草地的场景,一会儿识别成蓝天、一会识别成绿地,然后调用不同的色彩参数,这种AI让人觉得结果不可控,是来添乱的。操控是摄影的乐趣之一,不应该被干扰和打乱,AI应该在悄无声息的起作用,我们认为AI可以在几个方面有所体现。所以,我们再聊聊手机摄像头的AI。
学习和适应用户的拍摄习惯
每个人都有自己的拍摄习惯,例如构图,假设我们喜欢将被摄物体放置于画面的1/3处,而手机通常的默认对焦区域会是中央,如果上手就构图,而不去调整焦点,就会出现对焦到最远处。AI应该记住用户的惯用设置,结合对动体、对用户意图的猜测,去改变焦点的默认位置,而不是中央点优先,或者简单的人脸优先[很多人脸识别算法会在杂草丛中识别出人脸,导致对焦失误]。特色场景下的测光习惯也是可以AI一下的,例如,我们拍佛像时习惯稍欠一点的曝光,AI应该记住,到类似场景时,调出我们喜欢的设置。这些动作不会干扰用户使用,或者干扰用户对结果的判断。
基于神经网络学习的进行深程度的场景识别
在我们体验的某款手机里的AI叉叉时,发现该AI功能只要遇到大片绿色就会识别“绿叶”,遇到放射状的物体可能就识别为“烟花”,错误的识别必将导致调用错误的参数池。
蜜蜂
基于神经网络学习的算法,已经可以实现不同程度的读图。例如上图,可以解读成
花卉
花卉和蜜蜂
蜜蜂在花朵旁边飞翔
蜜蜂在珍珠梅旁边飞翔
蜜蜂在白色的珍珠梅旁边飞翔
蜜蜂在正在开放的白色珍珠梅旁边飞翔
阳光下,蜜蜂在正在开放的白色珍珠梅旁边飞翔
阳光下的珍珠梅花丛,蜜蜂在正在开放的白色珍珠梅旁边飞翔
阳光下的珍珠梅花丛,蜜蜂在正在开放的白色珍珠梅右侧飞翔,微距场景
……
而现有大部分手机遇到这种场景只会识别到“花卉”这一层的程度。这种程度的读图,即便是读取正确,对于调用策略其实意义有限。有些手机自称能够识别数百个典型场景,但对于混合类型的场景依然识别乏力,例如上图,是判断为“花卉”还是“昆虫”呢?是“晴天”还是“阴天”呢?是不是该启动HDR?
通过基于神经网络学习的算法提升画质
老照片的修复[图片来自网络]
关于使用神经网络学习的算法来对图像进行降噪的研究,已经有10多年的历史,而这些算法也日渐成熟,引入到手机已经不再遥远。新的降噪算法会建立信号模型,然后“修复”,就像照片修复师那样工作,它的重点是“修复”和重建,修复破损的地方,或者重建细节。而传统的非盲降噪算法,是根据噪声采样去抹除噪声,传统算法的关键动作是“抹除”。手机可以共享庞大的学习库,使用自学习算法来提升画质是可行的。
新型的降噪算法并非全部,基于神经网络学习,还发展出了抗锯齿、色彩校正等等一系列有关于图像处理的算法。谁优先掌握了这些算法,谁就优先拿到了通向未来的钥匙。这些都可以用于手机的机内处理当中。现在手机处理器的热点不只是高性能,配备AI处理单元已成为非常时髦的事情,而这些处理单元在会在图像处理时起到大作用。
基于云提升交互
关于这个想法,我们在至少三年前就提出来过。很多人拍照,并不是不热爱,而是不知道如何下手。基于地理信息、气象信息、大数据,我们认为可以改善友好度,提升用户体验,例如走到某景点,会提示该景点的相近时间、天气条件下的优秀摄影作品,以供参考。再例如,在特定的时间点或者气候条件下,进行技巧提示。给菜鸟用户提供指导,而老鸟可以将作品有偿的提供到厂商的公共云。
以人为本
暂且不说市面上的AI有多少是真正意义上的AI,但现在已经出现了某些“AI”自我定位模糊的情况。AI是辅助,辅助,辅助,AI要做的是去迎合用户的意图,而不是去取代用户的意图。大部分手机用户,并不太懂得拍照,所以特别适合强行AI一下?给他们用重口的参数,误导他们鲜艳到甚至溢出就是好?我们认为这是不尊重。奔放的加料导致用户预期落空的的AI都是人工智障。这其中涉及到人与机器的关系,机器即便更聪明,但人始终是人,不要无形剥夺人的乐趣权利,激发使用者乐趣才是正确之选。
[Doc]key=手机摄像头技术讲解[/Doc]
领取专属 10元无门槛券
私享最新 技术干货