对于你这种人,确实不值得再费口舌争论什么了,反正对的在你那儿也是错的,错的反而是对的,全世界就只有你嘴里说出来的东西才是正确的,别人给出的任何论据,你都可以用一句“你不懂”就彻底驳倒,果然是够牛的,我是指你的RP很牛,辩论能力更NB。至于其他人愿意信你,那就信吧,就当是在围观小丑了。
至于你所谓的HDMI 1.3支持16bit的问题,HDMI.org官方白皮书上很清楚写明了: Default pixel encoding: RGB 4:4:4, 8 bits/component,哪儿来的16bit?
你请教的此人说法没有任何问题。问题在于你把YUV采样跟实际分辨率挂上钩,认为用4:2:0就等于分辨率缩减了,事实真是如此么?难道你认为其中的0就代表不对色度采样了?
至于你所谓的HDMI 1.3就支持16bit,我只想说你居然傻傻连Color Depth和采样精度都分不清,还来煞有其事给大家普及电视选购知识,不觉得脸红么?
更可笑的是就这样的水平,居然还有脸说别人是RP有问题,果然是猩猩物种。
看来把你的各种谬论指出来,严重激怒了你幼小脆弱的心灵。是24Hz 16Bit 25/30Hz 16Bit 48Hz 10Bit+Hi FRC to 12Bit or not 50/60Hz 8Bit+Hi FRC to 10Bit or not,硬件18Bit LUT这样的参数我也会Ctrl+C再Ctrl+V发出来给大家看,izhidao是什么意思么?这就代表是10bit或者18bit了?你知道LUT是用来做什么的么?面板10bit跟LUT 18bit的bit有什么区别?
哦,对了,你怎么没提你那套YUV的理论了?是找不到话可以说还是找不到可以复制的东西?你连最最最基础的视频知识都不知道,用各种风马牛不相及的理论来支撑你的错误言论,最后还跑到知乎上用一大堆自带赞的马甲阴阳怪气酸一把,我真为你感到悲哀,呵呵。
通篇文章几乎每一句都是槽点。
所谓等离子电视的效果,需要10bit甚至12bit的LCD才能接近。稍微有点常识的人都知道,绝大部分显示设备都是8bit或者10bit Dither的,在电视机几乎没有配备DP接口的产品的情况下,真正的10bit设备跟大熊猫差不多稀有。因为HDMI 2.0标准之前,HDMI都是没办法输入10bit信号的,所以就算是10bit面板,也只能用Dither方式实现。这样一来,无论是LCD还是PDP,视频输入源就已经成瓶颈了,何来PDP的8bit要比LCD的10bit更好这一说法呢?
况且对于很多无节操厂商以及什么都不懂的脑残粉来说,喜欢混淆概念。看过我写的校色文章的人应该都有印象,LUT也可以用bit来衡量精度。而电视机一般都是用的软件LUT(吃饱了撑的才会在电视机上用可编程的硬件LUT),很轻易可以做到超过14bit。这样一来,在各种PDP粉嘴里,PDP就变成了至少都是10bit甚至14bit了。
PDP画质是否比LCD好,我这里不下结论,只存疑。但就算PDP的终极画质比LCD好(现有产品范畴),那也不是因为那篇文章作者所说的各种奇葩理论。
对于YUV来说,量化精度跟分辨率有什么关系呢?答案是:有个丁丁毛的关系。信号量化的是每一个像素点!!!也就是说采样率最高的4:4:4的含义是对每一个像素点分别作亮度Y和色度UV的采样,而4:2:2则是全采样和仅亮度采样交替出现。
换句话说,不管是4K分辨率还是2K分辨率还是SD分辨率,色彩只跟采样压缩方式有关,跟分辨率不沾边。而按照这位兄台的说法,4:2:2到了2K分辨率上面就变成4:4:4了,原来还有这等黄粱美梦可以做啊?更不可思议的是,这哥们儿还异想天开得出结论,由于4K分辨率的亮度采样更多,所以画质比2K更好!!!!意思就是说按他的理论,4K的4:2:2采样率的色彩反而比4:4:4的2K分辨率色彩好!!!采样率更高,色彩更差,在这种一个逻辑里面就没任何理论是正确的情况下,他居然还敢脸不红心不跳地继续扯,我的敬仰之情犹如滔滔江水连绵不绝啊有木有!!!
更奇葩的是各位居然也懒得自己查证一下这些说法,别人说什么就信什么,自己也没一点点质疑精神,甘愿被这种乱七八糟的胡扯言论忽悠么?
要不是有朋友把这篇文章链接发给我,要我辨辨真伪,估计这又会是一篇被广泛传播的谬论集了。
关注数量超出限制,
请先删除部分内容再尝试