您现在的位置: 首页 > 网站导航收录 > 百科知识百科知识
手机搞一亿像素,100倍数码变焦,这些有什么意义?
像素,手机,华为手机搞一亿像素,100倍数码变焦,这些有什么意义?
发布时间:2020-12-06加入收藏来源:互联网点击:
手机搞一亿像素,100倍数码变焦,这些有什么意义?
回答于 2019-09-11 08:43:50
回答于 2019-09-11 08:43:50
感谢邀请,我是科技奇点,擅长回答各种数码、科技问题,感兴趣的朋友可以关注我。
当乔布斯用iPhone重新定义了智能机的时候,手机就不再仅仅只是局限于一个通讯工具了。
一开始,我们让它变得更轻薄,拿在手上像一件艺术品。后来,我们赋予了它独立的音频芯片,让它成为声乐大师;再后来,移动支付飞速发展,与衣食住行密切相关;现在,华为+徕卡,引领超感知的影像世界。
可以说,不同的生活阶段,我们对手机产生的需求是不同的。华为P系列押宝极致的影像体验,获取高端旗舰的入场券,同时也将整个手机市场的摄像水平带入一个更高的门槛。这是一亿像素和100倍数码变焦的前提。
1,手机为什么要朝着一亿像素和100倍数码变焦发展?
很多数码相机爱好者都知道的一个常识,如果想要拍出高质量的照片,CMOS则需要尽可能的捕捉更多的光线。但是如何提高CMOS对光线的捕捉能力呢,答案就是增加CMOS尺寸的大小。
感光元件越大,单一像素的面积也相应越大,可捕捉的光子越多,感光性能越好,信噪比提高,能够带来更细腻的画质。
这就好比你眯着眼看外面的风景(小底)和你睁大眼睛(大底)看外面的风景,哪个看的更清楚,哪个看的更多?
一亿像素虽然不是真正意义上的“一亿像素”,但是按照四合一重拍技术分解,单像素也可以达到1.6微米,直出可以达到2700万像素。相比苹果的1200万,或者OPPO的4800万,实际上单位像素1.6微米实际直出1200万,还是要强悍多了。
手机传感器的感光区域是由一个个密密麻麻的像素点组成的,按照2700万来说,实际上就是2700万个像素点,像素点越密集,拍出的图像越清晰。同时也意味着,能够看到更多的细节,带来更强的画质解析力。
因此,大底+高像素对画质的提升是不言而喻的,一定是未来的方向,在未来很长时间内,提高像素依然是手机提升画质的最直接有效的路径。
至于100倍的变焦,这个不是通过光学变焦实现,而是通过数码变焦。在变焦成像质量上,光学变焦>混合变焦>数码变焦。目前光学变焦都无法确保手机拍出无损的照片,何况数码变焦。
100倍数码变焦下拍出的图片质量肯定是非常一般的。所以,就目前这样的一个配置仅停留在能看得远的应用上,不比一亿像素对画质的帮助,噱头更大。
但是并不是说现在发展100倍数码变焦没有意义。要知道我们手机拍照和相机不一样,相机单靠硬件输出能力。而手机是,硬件+算法=好照片。随着后续手机算法的进化,尤其是在AI技术加持下,没准数码变焦也同样可以通过软件算法的补充而实现较好的画质。
2,一亿像素和100倍数码变焦,能够给我们的生活带来哪些有用的帮助。
一亿像素带来的照片更细腻,即使放大数倍,还是能够看到非常丰富的细节,能够拍摄出电影级别的视频,媲美单反的照片,并且拉近现实与虚拟世界的界限。
而100倍的数码变焦,扩大了我们的视野,好比你以前只能拍以你为中心范围10米之内有趣的事情,现在扩大到1000米,那你拍到有意思事情的概率将会大大增加,你的朋友圈也将会更有逼格。同时多倍的数码变焦还能通过调整自己的位置,就能实时构图,所见即所得,极大的方便了拍摄条件。
最后对于一些出差党,如果用100倍的数码变焦,在很远的距离下,就能看到远处的各种信息,提前做好应对,不用辛苦的跑来跑去是不是很方便?
别着急走,码字不易,点个赞支持一下呗。
回答于 2019-09-11 08:43:50
在尚可网上的683个问题,只写接地气的科技内容,欢迎关注。
所有厂商在相机上的努力,无非是希望尽量提升手机画质,能够在拍照上得到较好的效果。
当然,最终目标肯定是吸引消费者来购买,多赚点钱。管他黑猫白猫,能够赚钱的才是好猫。
影响手机拍照的因素
我们总在说手机拍照,那么问题来了,那些因素决定了手机在拍照方面的优劣程度呢?
首先是传感器模组,作为相机最重要的部件,CMOS传感器就等于过去傻瓜相机的胶卷。镜头将光线投射到传感器上,再输出成为电子信号,通过芯片和处理器编码再解码,最终得到屏幕上显示的图片。
现在CMOS方面的技术,有两个方向:一个是华为向索尼定制的RYYB传感器,将过去RGB的像素变为RYYB排列,可以得到更多的颜色效果;一个是小米和三星联合首发的1亿像素传感器,可以获得更高像素的照片。
其次是镜头模组,手机镜头由于采用的都是塑料材质,所以在光学性能上要远低于相机使用的玻璃镜片,主要是因为手机模组需要尽可能考虑减少成本。但是塑料材质带来的问题就是透光性和散射问题。
主打拍照功能的华为,在早期邀请徕卡相机的原因,就是需要徕卡来帮助设计相机的镜头模组,增加透光性,减少散射带来的鬼影问题。苹果则是采用多镜片模组的方案,单个镜片打磨薄,增加透光减少色散,使用更多的镜片来调整光路,取得了不错的效果。
至于现在使用的“潜望式镜头”,主要是因为镜头模组的焦段只要超过了80mm以上,厚度就无法以正常的姿态放在手机内部,除非把手机做到很厚。因此只能够倒置在手机内部才能够放下更长焦段的镜头。
最后是关于相机的算法,这一点考验的不是相机模组,而是处理器性能以及算法团队的实力。
全球在算法上领先的有两个厂商,一个是谷歌,一个是苹果。谷歌的pixel手机就不多说了,早就被外界评为使用三流硬件配置,拍出一流水准照片的“测试机”,嗯,谷歌的设备,目前多数主要还是做给安卓的开发人员用于测试使用的。
这里主要说一说苹果,至今,iPhone X系列的机型还在使用1200W像素的传感器,比起安卓阵营动不动4800W,1个亿要保守太多。但是iPhone在拍照方面其实并没有被拉开太多,如果看DXO排行榜单,iPhone 11 Pro Max排在第9位,但是它前面的几位全部都是要么1亿像素,要么4800W像素,要么潜望式镜头,硬件堆得非常高。
下一篇:返回列表
相关链接 |
||
网友回复(共有 0 条回复) |