对madVR有一事不明,提请大家讨论
dwing吧
全部回复
仅看楼主
level 1
色度采样(chroma)为什么单独分出来一个放大方法(upscaling)?
按照YUV的定义不是精确的对应4或2个亮度采样么
任何花哨的放大算法都破坏了本来值,应该就直接复制4或2份才对啊
2015年08月12日 02点08分 1
level 12
放大不会损失信息 临近法和多项式法的放大均可逆 只不过逆转难度不同 临近法直接取中心像素就可以恢复 逆转多项式法需要解多元高次方程组 在数学上比较繁琐
2015年08月12日 15点08分 4
level 1
我认为单独放大chroma不一定能取得好效果
考虑以下情况:
如果原图UV就是四个都一样的,420采样后用复杂算法再放大,四个UV值的分布就不一样了,虽然平均值一样
这不就反而破坏了原图了吗
如果要确定复杂算法确实有效果,可以对比用临近点采样算法与其他复杂算法重建后的UV分布分别与原图UV分布的方差
复杂算法的偏差值需要小于临近点采样若干个百分比
实际情况会如何?我觉得复杂算法不会有效
从信息论的角度考虑,420采样后UV已经丢失了3/4的信息,单单处理UV任何算法对于恢复信息都是无助的
复杂算法恢复的有可能更正确,也有可能更错误,统计来看与临近点采样是一样的
我认为参考Y值的分布来重建UV分布才有一定意义
2015年08月12日 17点08分 6
level 12
然而事情不是你认为怎么样就是怎么样 chroma不是你认为不想放大就可以不放大 参考亮度 说的简单 怎么参考? 而且亮度和色差不是具有确定相关性的东西 亮度有时不能作为色差处理的预测来源
2015年08月12日 17点08分 7
你能给点论据吗,难道你认为怎样就怎样?谁说chroma不放大,不放大怎么显示?我是说统计来看复杂放大不一定好。亮度参考可以用分布比例,大偏差值等等方法多了,总比没有参考会更有用一些。
2015年08月12日 18点08分
回复 八辈子没吃饱饭 :定义"复杂放大" 什么是复杂放大? 多项式法叫复杂放大? 如果你不想查阅相关资料 只要结论 结论就是 从来没有播放器用临近法放大色差或者参考亮度放大色差自然是有道理的 开发播放器的人又不傻
2015年08月12日 18点08分
@Feisty2 你用过madVR吗?里面一堆超高复杂度的算法你问我什么叫复杂放大?还有能别张口就扯蛋吗?从古至今除了madVR外从来没有chroma不按定义直接复制而是用复杂算法去放大的,网上自己搜搜yuv转rgb代码,你给我找出放大算法来
2015年08月12日 18点08分
@Feisty2 directshow sdk里面有个Render Filter源码,就是windows自带的呈现器的filter,你自己看有没有chroma放大 我做directshow开发工作也很多年了,不懂就不要信口雌黄了
2015年08月12日 18点08分
level 12
2015年08月12日 19点08分 8
level 12
2015年08月12日 19点08分 9
level 12
2015年08月12日 19点08分 10
level 12
2015年08月12日 19点08分 11
level 12
看完了再来理论 你要的论据都在里面
2015年08月12日 19点08分 12
level 12
还有 带下采样的yuv格式的标准定义从来没有说过多个亮度要用同一个色差数值(复制) 亮度和色差密切相关的一个属性是色差的步列属性 mpeg1/mpeg2/dv等都是不同的下采样排列方法 但是没有哪里提到过 多个亮度数值应该用同一个色差
2015年08月12日 19点08分 13
level 12
https://en.wikipedia.org/wiki/Chroma_subsampling 只说明了人眼对颜色的区分相对不敏感所以可以降低色差分辨率 从来没说降低了以后多个亮度要共用一个色差
2015年08月12日 19点08分 14
level 1
你贴一堆图像放大算法想说明什么?
搞清楚别人在讨论什么先
你自己也说了是标准定义,还需要多说什么么?
如果Y1Y2Y3Y4不用U1V1难道用U2V2?
2015年08月12日 19点08分 15
你不要把像素的内存排布和显示结果混为一谈 实时上显示的结果都是先把uv通过某种算法 高级也好 低级也好 拉伸至和y一样的分辨率再一起matrix 成rgb 显示出来 原来的uv数据不对应任何亮度信息 只有拉伸至和亮度一样 才能对应
2015年08月12日 20点08分
回复 八辈子没吃饱饭 :所有? 比如? Yuv转rgb的核心是矩阵运算 因为任何yuv 无论是否下采样都要进行矩阵运算变成rgb 带下采样的yuv还存在一个resample 过程 但这不是必要的 444采样的yuv不需要resample 所以主次很明显 主要是矩阵运算 某些yuv
2015年08月12日 20点08分
回复 八辈子没吃饱饭 :某些yuv需要附加resample 先转444 这种附加步骤 简单的演示程序用最最基本的box filter(复制)带过可以理解 不代表实际可用的程序能这么简单的暴力处理
2015年08月12日 20点08分
level 12
为什么不用亮度来预测色差? 你说madvr那么 madvr里有一个NEDI就是用亮度作为EDI算法的vector计算的预测来源 然后把来自亮度的vector应用到色差上 你自己可以调到这个选项上 然而事实是 这种结果出来还没有不用亮度的单纯的nnedi好
2015年08月12日 19点08分 16
也许只是NEDI算法不适合用亮度预测,这并不能说明使用亮度就比不使用一定差
2015年08月12日 20点08分
回复 八辈子没吃饱饭 :因为信息的冗余性 可能亮度与色差存在一点的冗余 利用这种相关性 把亮度混一点到色差里提高色差质量在某种意义上说 可以 然后等你去实现这个东西就发现问题重重 这种相关性存在但是不确定 很难利用一种固定的算法把具有 模糊相关性的两组数据联系到一起
2015年08月12日 20点08分
回复 八辈子没吃饱饭 :然后最后折腾来折腾去发现这个相关性差不多利用不了 强行使用造成预测结果不精确产生的失真比不利用这个相关性的常规算法可怕多了
2015年08月12日 20点08分
level 12
难道不是统计下插值更接近原值还是复制更接近原值么。
2015年08月17日 00点08分 17
1