主题:对“原色”的认知——为何人眼的动态范围比相机大得多? [主题管理员:stevenkoh]
正序浏览
主题图片汇总
主题内检索
泡菜
泡网分: 2.961
主题: 41
帖子: 3382
注册: 2013年1月
转载:为什么人眼的动态范围 (Dynamic Range) 比相机大得多?

色彩管理中,经常有对“原色”的误解。我曾在《原厂软件解RAW颜色准的探究》和《如何得到完美原片?》做过一些解释。最近又看到一篇科普,转载一下。让我们更能理解“原色”不是一种被拍摄事物反光的物理现象,而是人类视觉观测的一种主观感觉。只不过,我们人类的色彩感觉,由CIE牵头做了人类的统一共识,这种“共识”通过数学模型和物理计量的方法固定下来。所以这个物理计量”锚定的不是被拍摄物体本身物理、化学、光谱特性,而是人眼的共识的生物视觉特性

我们牢记这个色彩管理的基石理念,可以从数学和物理的角度,来辨析选择各类“色彩空间”的实际意义,即“我们得到了什么,我们失去了什么”。该文是一位神经科学答主和心理学答主所撰写,这正是“人类感觉”的专业领域范畴。

原链地址:https://www.zhihu.com/question/21492596/answer/117666373

登录后可直接显示原图


所以,影像爱好者的疑问就是,所谓“原色”之“原”,到底是什么?像下面的马蹄图,所谓“原色”会不会出现在马蹄图外面?超越马蹄图的有何“意义”?为何我们不定义一个完整覆盖马蹄图的三角形色彩空间,这样能覆盖所有人眼共识岂不更好?这在数学上毫无问题,在操作上可以自定义色彩空间(参考自定义RGB.icc制作链接:https://forum.xitek.com/thread-1936762-pid-85134602.html)。
既然民间专家那么有数学和PhotoShop色彩管理经验,也有足够的能力。那么为何民间色彩专家不去制作一款能覆盖人眼马蹄图的“自定义色彩空间”?来处理RAW文件,这样就不会存在丢失色彩的任何可能性,也不存遗憾了。这样,民间专家岂不是要比制作 ProPhoto RGB 的柯达公司,制作DaVinci Wide Gamut的达芬奇公司更专业了?stevenkoh 编辑于 2022-09-13 14:35
相关标签: 柯达
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
浏览:1726 回帖:21
第 1 页 / 共 1 页
游客没有回帖权限
泡菜
泡网分: 0.22
主题: 13
帖子: 118
注册: 2018年9月
stevenkoh 发表于 2023-04-15 10:27
继续给大家看一个“原色”的例子,也就是RAW没有所谓“原色”。资料链接:
手机摄影的原图:https://weibo.com/5476485501/MBPONnl3l (注意第四张,在游艇的看报老太)
作者放出的对比:https://weibo.co...

照片RAW格式原始底片数据是呈现无色的,赋予色彩配置文件才有颜色了。手机的jpg文件是加工后的有色彩配置的文件。各大相机厂商直出jpg都有自己的氛围预设。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
河南省
泡菜
泡网分: 2.961
主题: 41
帖子: 3382
注册: 2013年1月
继续给大家看一个“原色”的例子,也就是RAW没有所谓“原色”。资料链接:

手机摄影的原图:https://weibo.com/5476485501/MBPONnl3l (注意第四张,在游艇的看报老太)
作者放出的对比:https://weibo.com/5476485501/MBYbmBi7T (哈苏 X2D 和手机的对比)

我们没必要看聚焦是否清晰,这个是当时拍摄的手抖问题。手机的计算摄影对此作了优化,能多堆栈曝光、向右曝光等等自动对其组合。也就是说,手机摄影用户一般不操作最底层的曝光参数,由手机自动处理。

我们要看的是同一个摄影场景下,不同直出的颜色取向。所以,原色的问题是一个大概的范围。如果用户拍摄RAW,那么就以用户自己调出的氛围为准。这就是作者所言,哈苏相机相机强大的像素宽容度和后期空间。如果是手机摄影,那么就是手机厂家根据大量市场调研或者和徕卡这类商业数据的挖掘,来满足用户期望的“氛围喜好”。而摄影场景本身的,并不是决定因素。

所以,RAW的原色不存在,因为那个是物理参数。“原色”是人类的感觉。同一个摄影实际场景存在不同的解析结果。这是不唯一的。


stevenkoh 编辑于 2023-04-15 10:37
登录后可直接显示原图
登录后可直接显示原图
登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
老坛泡菜
泡网分: 46.966
主题: 0
帖子: 8986
注册: 2002年10月
stevenkoh 发表于 2023-02-25 13:30
你的说法更好,但其实大家说的是同一件事情。我其实在前面第6贴就说了两个例子:其中第一个巫师老师的例子就是“HDR效果”(软HDR),一个是HDR标准(也就是硬HDR)。这两个词汇是我现编的,主要是为了说明问题,精确名词定义。否则无法讲。
比如最新的苹...
HDR或者明度的局部调整,和色彩科学或者色彩空间有啥关系?你把两个不存在因果关系的东西扯到一起,是想说啥?

-- 难道对天空做一个渐变滤镜,还要考虑用啥色彩空间不成?
logical 编辑于 2023-02-25 19:37
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
泡菜
泡网分: 2.961
主题: 41
帖子: 3382
注册: 2013年1月
树下的石头 发表于 2023-02-25 09:20
关于“人眼感受”与“HDR合成”的关系这一点有不同看法。
人眼视觉感受到的“视觉画面”确实是合成的,但它不是“HDR合成”而是“接片合成”。人眼的清晰视角非常窄,所以一般会不自觉地微动眼球“接片合成”为较大视角的“图像”。
但人眼的合成过程中是不包含...

你的说法更好,但其实大家说的是同一件事情。我其实在前面第6贴就说了两个例子:其中第一个巫师老师的例子就是“HDR效果”(软HDR),一个是HDR标准(也就是硬HDR)。这两个词汇是我现编的,主要是为了说明问题,精确名词定义。否则无法讲。

比如最新的苹果手机支持10bit HDR视频,这个拍摄的视频文件就是符合HDR标准的视频,我称之为“硬HDR”。而同时苹果相机拍摄的HDR效果照片,哪怕是10bit heic保存的,因为是Display P3的10bit,虽然看似HDR效果,但实际不是HDR标准的照片。所以苹果的HDR照片虽然10bit,是“软HDR”。而索尼/佳能拍摄的10bit heif照片则是HDR标准格式,是“硬HDR照片”。但是大家用普通的转换软件转成JPG去看,实际是在SDR标准下去看硬HDR照片,而没有HDR效果。感觉索尼/佳能没有苹果HDR效果好,这个其实是错误的。

而谈及HDR则必然涉及“拼合”的概念。我想说的是,大家还是搞不清 RAW、log、HDR、SDR的区别。其实不存在HDR这类东西,HDR/SDR都是现实范围的一种。硬件HDR其实仅仅用来发光的屏幕、影院上,硬HDR记录、保存、编辑、显示 HDR效果 更容易,但兼容性不好。而SDR显示HDR效果需要后期人工修饰,但通用型更好。对于用户,他们其实不关心HDR具体细节,他们只需要HDR效果

但HDR效果怎算好?这取决于摄影师的定义。下图哪种更好?HDR到何种程度?其实不是一个科学问题,参考《HDR效果的副作用》。

我们如果在纸质的照片展现HDR效果?这个莫奈在一百多年前,就已经展现给大家了。所以HDR并不是一个新事物,色彩科学无法评判好坏优劣,直出的并不是相机厂家不会处理HDR,而是一个最稳妥安全的选择。华为的夜景模式不就是被说成“不真实”嘛!但同样的苹果夜景模式就是“真实”了。果真如此吗?两者的色彩科学都是一样的。

如果要在纸张上展现HDR细节,细节到什么程度,曝光到什么程序,后期到什么程序,是需要摄影师自己调的。好坏优劣由摄影师定义。色彩科学只能告诉大家,下面如果要HDR天空云层的细节,那么下面远山的细节就会少一些。而如果要远山的细节,那么天空就要少一些。如果都要,可能大家觉得会“失真”。那么既要天空细节、又要远山细节、还要不失真。这只能靠摄影师自己的后期选择。色彩科学是保护摄影师的创作成果,哪怕是SDR、sRGB,或者色域更窄的纸质品输出,都能保护摄影师的创作成果,和sRGB没有关系。

stevenkoh 编辑于 2023-02-25 13:38
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
泡菜
泡网分: 7.192
主题: 9
帖子: 4583
注册: 2018年12月
stevenkoh 发表于 2023-02-20 15:29
可能措辞表达的问题,这里讲的“人眼”真实的意思应该是“人类视觉”。这个问题的核心并不在于“色度”,而是人眼看的“照片”并不是一个快照(Snap),而是一个由眼球转动、瞳孔实时变化的一个拼合过程。也就是前面一个网友说的“人眼是个摄像机”。
所谓HDR,...

关于“人眼感受”与“HDR合成”的关系这一点有不同看法。

人眼视觉感受到的“视觉画面”确实是合成的,但它不是“HDR合成”而是“接片合成”。人眼的清晰视角非常窄,所以一般会不自觉地微动眼球“接片合成”为较大视角的“图像”(在需要观看更大视角范围的内容时还会主动转动眼球以获取更大的清晰视角范围,但这时会对画面内容整体效果的感受造成损失,所以一般画画时都会经常站远用小视角来观察整体效果)

但人眼的合成过程中是不包含“HDR合成”的,人眼对光线亮度的适应是需要一个过程的,并且人眼对亮度的适应主要取决于人眼的环境光亮度而不是清晰视角范围内的内容亮度,因此并不会在转动眼球时随清晰视角画面内容明暗而快速改变瞳孔大小。

人眼在最适宜亮度下的亮度层次分辨能力大约有10档,只比传统SDR显示器高了两档,而在环境光较亮或较暗时其亮度分辨能力还会降低,因此在后面的对比图中左面的“原图”才是更接近人眼视觉的效果(由于SDR图像动态范围略低、并且一般出图时都会为了画面效果而增加中间调对比度压缩高光区和阴影区,因此“原图”也不完全符合人眼视觉)

“HDR合成”的目的并不是“符合人眼视觉”,它是一种“画面特效”,是为了产生与人眼视觉中的正常画面迥异的效果,它只适用于风景照、并且是内容亮度反差极大的情况下、最好是明显缺少中间调的取景内容,其它情况下使用“HDR特效”都只会产生一种非常怪异的画面氛围。
树下的石头 编辑于 2023-02-25 09:32
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
河北省
泡菜
泡网分: 2.961
主题: 41
帖子: 3382
注册: 2013年1月
老顽童 发表于 2023-02-19 22:53
“两套感光细胞”的说法很容易使人误会。对于人眼的视觉生理,人们研究的很透彻了。一般的说法是“人眼的感光细胞有两种,一种是锥状细胞,一种是杆状细胞”。锥状细胞分辨率高,有色感,但灵敏度低。杆状细胞分辨率低,没有色觉,但灵敏度高。人眼视网膜的中心部分是黄...

可能措辞表达的问题,这里讲的“人眼”真实的意思应该是“人类视觉”。这个问题的核心并不在于“色度”,而是人眼看的“照片”并不是一个快照(Snap),而是一个由眼球转动、瞳孔实时变化的一个拼合过程。也就是前面一个网友说的“人眼是个摄像机”。

所谓HDR,其实就是把人眼对摄影场景中不同区域的变化合成的一种模拟合成的方法。也就是说,照片其实是一个人眼合成的“感觉”,并不是一个物理的snap过程。这才是计算摄影能优化的地方。实际上,谷歌计算摄影最早的就是用来处理多重曝光的。
人要闭眼一段时间,然后突然睁开眨一下眼睛马上闭上,这时候脑海看到的才是和相机类似的“RAW照片”。而人真正以为的摄影场景的照片,那是像摄像机一样,由眼睛上下左右扫描以后,用不同的瞳孔大小在窄小的黄斑区内,用大脑组合出的一副“照片”。像下面


天空和前景眼球瞳孔就不一样。看了天空的瞳孔看前景就是左侧,而看了前景的瞳孔看天空其实是丢失细节的,只不过这时候我们不注意而已,潜意识以为天空也存在大量细节。我们实际的照片,是snap能否更好的符合人脑缝合处理的结果。这就是计算摄影或摄影师后期处理。

我的原意是说,这个原色和色彩空间是没有直接关系的。并不是我们选择更大的色彩空间就能获取照片更多的信息。“原色”其实不是仅仅色彩,而是影像。如果是黑白照片,只要符合的这个人眼的光影关系,哪怕没有颜色也是“原色”。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
泡菜
泡网分: 27.871
主题: 1
帖子: 7499
注册: 2008年12月
老顽童 发表于 2023-02-19 22:53
“两套感光细胞”的说法很容易使人误会。对于人眼的视觉生理,人们研究的很透彻了。一般的说法是“人眼的感光细胞有两种,一种是锥状细胞,一种是杆状细胞”。锥状细胞分辨率高,有色感,但灵敏度低。杆状细胞分辨率低,没有色觉,但灵敏度高。人眼视网膜的中心部分是黄...

这是更为准确、科学的描述。。。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
江苏省
版主
泡网分: 156.067
主题: 146
帖子: 46497
注册: 2000年6月
内容贡献勋章 优质内容勋章
chncwk 发表于 2023-02-19 22:21
人眼有两套感光细胞,各司其职,在人脑中的成像已经是复合处理后的结果。
https://www_sohu_com/a/612476278_121124540
“两套感光细胞”的说法很容易使人误会。对于人眼的视觉生理,人们研究的很透彻了。一般的说法是“人眼的感光细胞有两种,一种是锥状细胞,一种是杆状细胞”。锥状细胞分辨率高,有色感,但灵敏度低。杆状细胞分辨率低,没有色觉,但灵敏度高。人眼视网膜的中心部分是黄斑区,里面只有锥状细胞,是人眼分辨率最高的区域。周围既有锥状细胞、也有杆状细胞。越靠边缘,锥状细胞越少。所以人眼在强光下分辨率很高、有色感。在弱光下分辨率很低,而且没有色感。

平常如果留心一点,很容易发现人眼的这些特征。相关资料也很多,不是新发现的东西。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
陕西省
泡菜
泡网分: 27.871
主题: 1
帖子: 7499
注册: 2008年12月
chncwk 发表于 2023-02-19 22:21
人眼有两套感光细胞,各司其职,在人脑中的成像已经是复合处理后的结果。
https://www·sohu·com/a/612476278_121124540

确实,人类在不同照度条件下,使用不同视觉细胞。
在明亮照明水平情况下(比如白天),人类使用视锥细胞观看世界,此时我们能看到五彩缤纷的世界
在低照明水平情况下(比如夜间),使用视杆细胞是暗视觉器官,对弱光反应灵敏,但不能感受颜色。所以夜间看到的景物都没有色彩。

但是,问题在于,人类并不能同时使用这两套视觉系统。
所以说,我们从暗处进入亮处或者字亮处进入暗处时,都需要一个较长的时间来调节瞳孔,甚至还需要换用视觉细胞才能正常观看
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
江苏省
泡菜
泡网分: 22.67
主题: 145
帖子: 6504
注册: 2008年9月
老顽童 发表于 2023-02-19 22:11
你的这个分析很有说服力。如果动态范围很大,即便是亮度变化需要调整,也不会立即不能适应。

人眼有两套感光细胞,各司其职,在人脑中的成像已经是复合处理后的结果。
https://www_sohu_com/a/612476278_121124540
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广西
版主
泡网分: 156.067
主题: 146
帖子: 46497
注册: 2000年6月
内容贡献勋章 优质内容勋章
tianman 发表于 2023-02-19 21:11
正是如此。
人眼的动态范围很小的另一个例证就是:
我们从暗处进入亮处或者字亮处进入暗处时,都需要一个较长的时间来调节瞳孔,甚至还需要换用视觉细胞才能正常观看。
如果真的动态范围大得多(能够同时接受明暗环境)的话,岂不是就不需要这个适应过程了?
你的这个分析很有说服力。如果动态范围很大,即便是亮度变化需要调整,也不会立即不能适应。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
陕西省
泡菜
泡网分: 27.871
主题: 1
帖子: 7499
注册: 2008年12月
老顽童 发表于 2023-02-19 16:10
实践中感觉人眼的动态范围相当小。在户外看房屋的窗户,只能看到一个黑洞,里面的东西完全看不见。只有趴在窗户上、不受外面明亮景物干扰时,才能看到屋内东西。总之不能同时同时看到明亮的和较暗的东西。

正是如此。
人眼的动态范围很小的另一个例证就是:
我们从暗处进入亮处或者字亮处进入暗处时,都需要一个较长的时间来调节瞳孔,甚至还需要换用视觉细胞才能正常观看。
如果真的动态范围大得多(能够同时接受明暗环境)的话,岂不是就不需要这个适应过程了?
tianman 编辑于 2023-02-19 21:15
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
江苏省
泡菜
泡网分: 26.891
主题: 34
帖子: 3542
注册: 2009年7月
人眼是个摄像机
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
四川省
版主
泡网分: 156.067
主题: 146
帖子: 46497
注册: 2000年6月
内容贡献勋章 优质内容勋章
实践中感觉人眼的动态范围相当小。在户外看房屋的窗户,只能看到一个黑洞,里面的东西完全看不见。只有趴在窗户上、不受外面明亮景物干扰时,才能看到屋内东西。总之不能同时同时看到明亮的和较暗的东西。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
陕西省
泡菜
泡网分: 2.961
主题: 41
帖子: 3382
注册: 2013年1月
砖家在这个贴《HEIF后期工作流》提到 HDR 在静态影像的关系。其实HDR的这个说法是不严谨的,视频和影像的区别在于后期。视频的标准,无论是HDR的各个版本,还是iMAX的各个规范。其目的是通过加强屏幕亮度来达到更高的对比度的关系。因为视频都是在一个发光介质上输出的,哪怕是电影的巨幅屏幕,因为电影屏幕本质是白布,没有影像实体。屏幕的影像实体来源于投影的发光,而纸质印刷品不一样。所以,显示器、电视机、电子相册的定位是不同的。专业级显示器,尽管指标最高,但专业级显示器本身并不是最终的显示设备,最终的显示设备可能是纸张印刷品。也就是专业级显示器本身不是重点,其是为印刷品、为了最终的电视机服务的


左图小编面对的是专业级显示器操作、左侧是“监视器”(视频编辑一般用上屏卡连接),上面的就是电视,左侧的是印刷纸制品。也就是说,HDR不一定是为了右侧纸质品服务的,而是为了最上面的电视而服务的。而HEIF文件,就是一个展现HDR的文件载体。

那么纸质品能够展现HDR吗?毫无疑问是可以的!巫师老师就叫大家后期,后期没有sRGB后期、广色域后期、sdr后期、HDR后期,HDR只是曝光的一部分而已。电子屏幕通过更强的光源、色域、对比度,更了大家更好的展现方式,但精髓仍是纸质品。这无可替代。那么纸质品就不能展现HDR了?不可能,莫奈100年就能处理HDR了,今天我们怎么不能?只不过需要摄影师自己处理。

你处理的结果,就是展现“原色”,而原色一定能在下面巫师老师的相册中展现。而且我个人以为,右侧的纸质品更适合比起左上图的电视,更能展现,就像莫奈的油画更能展现一样。

说了那么多务虚,那么我举个两个例子谈谈实际。

我们看巫师老师十年前的贴《巫师作品——RAW的处理》,

一张是佳能相机直出解析的RAW显示(点击放大)左侧直出,右侧巫师老师手工处理的HDR效果。


这种照片如果点击放大,可以看出是人工HDR效果好,但如果是小图,可以看出直出效果好。而且大图你离得远一些观看,会发现还是直出的层次更好。而如果印刷成册的大幅面近距离观看,那么人工的效果更好;但如果是成册的小照片叠加,直出的效果好。所以,具体还是取决用户本身的需求。相机无法知道用户的最终需求,相机直出是一个安全的大概率好结果,但不是一个最优结果。

再看下图连个,一个是相机直出的JPG(sdr),一个是由10bit HEIF转换的JPG(HDR-->SDR)。乍眼一看,heif文件转的JPG文件云彩细节更丰富。但仔细看,相机直出sdr版本展现地面的远山和跑道细节更丰富,而且亮度感觉更符合现场实际。所以,这里最好的效果就是AI只能蒙版切开天空和地面,分别用不同的爆光和亮度曲线微调,使得既有直出SDR的地面,又有直出HDR的天空。这需要摄影师的手工后期操作,才能在纸质品上展示。

而HDR的屏幕是实际的提升整个屏幕的亮度,使得在HDR观察环境下,地面中部光线暗部的实际亮度不减少(和直出SDR一样),而高光提亮增加高光云彩层次。这两个不同的应用场景,对“原色”的展现平台不同。所以,“专业级显示器”服务对象不同。

登录后可直接显示原图

登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
泡菜
泡网分: 1.478
主题: 7
帖子: 103
注册: 2005年12月
兴致勃勃的进来,一脸懵逼的出去
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
天津
泡菜
泡网分: 2.961
主题: 41
帖子: 3382
注册: 2013年1月
谈“色彩管理”的时候就发现:RAW、色彩管理、广色域使用,这三者密不可分。很多色彩管理的分歧,追根寻缘就到了RAW。

所以:RAW没有色彩空间,包含了丰富的寓意,是数字影像的理论基石。这是一个基于数学的科学结论,并非艺术。当然默背牢记这个理论对于摄影爱好者来说,能放心大胆的把相机“色彩空间”只固定在 sRGB上。因为如果要用广色域出片,应该使用RAW。

但RAW对于普通用户来说,的确有些“反直觉”的认知。即便是“巫师后期”,对RAW也有一个逐渐的认知过程,不过人家是数字信号处理的理科博士,认知这些实在一碟,这也是巫师讲PS通透的主要原因。数学、物理的童子功加持。

我们看巫师老师十年前的贴《巫师作品——RAW的处理》,就可以看看所谓“原色”是相机原色,还是“摄影师”的原色。RAW没有色彩空间,其实包含两层意思:1.RAW里面的RGB滤色片的数据,不是物理对应CIE XYZ颜色,是人为指定的;2.RAW对应CIE XYZ,无法划入一个固定的界内。我们只能知道RAW数据对应在 CIE XYZ可视马蹄图内,但具体哪个“有限边界”,数学上是未知的。也就是,我们要回答一个问题,帖子中的两张图片,源于 Canon EOS 5D Mark II 的RAW。

一张是佳能相机直出解析的RAW显示(点击放大)
一张是巫师老师处理后的RAW显示(点击放大)
哪一张才是“原色”呢?其实还是进巫师老师的贴《巫师作品——RAW的处理》,可以获取答案。

而我们打印出片,觉得色彩不准、或者“色彩很准”,这里面的“色准”的参照系是什么?这看似简单,其实挺复杂的。上面第一张,如果出片的话,我们一般不会说“打印色不准”,而是说佳能出片不好。而第二张,打印出片的说“色彩不准”的话,那一定是“打印供应商”墨水偷工减料了,输出方色彩不准。但可能这个打印方处理两张照片是一模一样的。为何客户会有两种反映?

我们,我们真正的颜色其实是“客户心里”的颜色,但满足客户的要求是一个科学和艺术的综合问题。而“色彩管理”就是问题里面的纯科学部分,首先我们就是要确定“用户的需求”。这个“确定”不是从RAW开始的,因为RAW没有颜色。

巫师老师的这本相册,一定价值不菲。而颜色一定是从一张是巫师老师处理后的图,也是这张作为“色彩管理”链路的开始的,因为RAW没有颜色
登录后可直接显示原图

登录后可直接显示原图
stevenkoh 编辑于 2022-09-27 13:21
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
泡菜
泡网分: 0.469
主题: 55
帖子: 395
注册: 2019年5月
东盟博览会期间南宁属地网站加强管理,9.17-9.20无人工值守时段[0:00-7:00]将暂停发帖功能
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
江苏省
泡菜
泡网分: 2.961
主题: 41
帖子: 3382
注册: 2013年1月
继续接上篇,展开一下对于“色彩空间”的描述和认知。

因为“色彩管理”究其根源,是生物视觉,所以我们的“闲话色彩管理”,是以视觉生物原理开始。尽管这个原理还是在人类的摸索探索中。色彩的一切原理,目前都是基于CIE的共识,一切的秘密都在下面这张图(点击放大)里。
图1:CIE色彩实验结果。这是人眼对三原色的响应实验测得的数据。

我们把这张图的“三个分量”做一些数学处理,用三个不同的平面来承载每一个分量,就是下图(点击放大)。
三个平面我们用三维坐标,就能获取“人眼的所有颜色”。注意,这个所谓“所有颜色”是CIE认定的,不是一个客观物理,而是一个“人类共识”。这个三维体的大概数学描述就是下面视频。



这个三维空间,就是所有“色彩管理”的小宇宙,我们所有的“颜色”就是这个三维宇宙中的一个点。所幸这是三维的,要是四维的我们就无法“可视化”描述了,因为大部分人只有二维思维。有些民科动不动就祭出一个马蹄图,但不知道这里面的原理。这个三维的边界值是通过图1结果定义的,而CIE会员都同意的,我们无脑相信就是了。所以CIE就是我们的色彩管理的大boss。

但是三维化太麻烦了,就像学习地理需要地球仪,但是携带地球仪太麻烦了,不如地图方便。所以有了这个图,我们通常看到的CIE 1931马蹄图,但实际上是上面三维的数学空间的一个数学变形描述。
我们可以发现,在这套CIE XYZ体系内,是没有“亮度”这个概念的。这是因为,人眼有分辨颜色的视锥细胞和感知亮度的视杆细胞。CIE的这个测试实验,无法屏蔽人的“视锥细胞”或“视杆细胞”。所以,颜色其实是“色度”(视锥细胞)和“亮度”(视杆细胞)的共同作用机理。那么怎么区别亮度和色度的感觉呢?其实我也不知道,让CIE的大佬们去斗法吧,我们码农还是一样——无脑信任CIE。亮度的算法,有亨氏Lab、CIE Lab、还有JPG和视频常用的YCbCr转换,有很多种....,这留给苦逼码农去折腾吧。

我们只需要知道,CIE Lab是从 CIE XYZ就是那个三维的马蹄图的一个数学转换工具。我们可以认为 CIE XYZ = CIE LAB,在色彩空间的转换中,Adobe公司的色彩引擎是通过CIE LAB来转换处理的,因为CIE LAB = CIE XYZ,所以色彩空间的转换机理还是基于 CIE XYZ,也就是 图1的CIE色彩实验。这就是一切的基础(基于人眼)

那么什么是所谓“色彩空间”或“色域”呢?以及何为“标准可视色彩空间”?

由于CIE XYZ本质上是一个人眼视觉的实验结果,是一个描述性的实验结果数学模型,在实际的使用中只能起到一个“同色鉴别”的中介桥梁作用。在实际应用数学计算中,我们只知道这在数学上是连续的,但却是不规则的(因为是实验记录结果),所以实际应用数学计算中几乎无法编码使用。在实际用使用,我们需要一个简便的可定义可操作的规则范围。而在这个CIE  XYZ 基础上,我们可以定义一些“范围”,这就是色彩空间。大家可以这么理解:CIE XYZ 是宇宙、是地球。而色彩空间是一个“国家、国度”。虽然经纬度(CIE XYZ)能精确定位,但我们平时定位更方便的是使用“邮政编码”。经纬度就是 CIE XYZ,而邮政编码就是各个“色彩空间”里的数值。

所以,当大家提起色彩空间的时候,sRGB、AdobeRGB、Display P3....这都是平辈的,就像每一个国家。而 CIE XYZ很多也把这个叫做“色彩空间”,但其实这个叫法不严谨。因为“色彩管理”中很多术语定义非常模糊混淆,我们只需要了解,CIE XYZ其实不叫色彩空间,他是包容一切色彩空间的坐标系。

对于影像或视频用户,我们只需要知道 RGB类型色彩空间。比如 sRGB、AdobeRGB、ProPhoto RGB、Display P3等等。这些基于RGB的色彩空间是一个包含四个顶点 RGB的实体,四个顶点的意思是 RGBW(红绿蓝白)。有了这个色彩空间,我们平时说的RGB数值都能映射到 CIE XYZ空间了。我们平时说的 RGB 数值,其实对应的是相对应的 RGB色彩空间 数值。如果没有指定,一般都默认是 sRGB。如果网页设计是说克莱因蓝是RGB值为(0,47,167),一般这说的是sRGB色彩空间下的(0,47,167)对应的 CIE XYZ值。所以,我们说的“同一个颜色”的真正意义是 CIE XYZ相同。

“可视色彩空间”和“非可视色彩空间”

“可视”的意思是,RGBW四个顶点都在 CIE XYZ 不规则曲线内,也就是人眼实验的XYZ曲线范围内,CIE人眼色彩共识内。前面提到,由于应用的关系我们需要在CIE范围内定义。但CIE  XYZ 不规则曲线 内的还有很多无法纳入规则划分的色彩空间内。这什么意思呢?打个比方,就是地球上还有很多领土没有覆盖一个国家。存在一些有 GPS经纬度,但没有纳入省、市、县、乡、镇的邮政编码。那怎么办呢?从上面三维视频可以知道,我们可以把 RGBW四个点延长,这样就更能覆盖更多的区域了,甚至可以移到CIE  XYZ 不规则曲线之外,从二维图上可以看出,投影超过了马蹄图。比如下面的柯达制定的ProPhoto RGB
再比如达芬奇制定的广色域和阿莱的广色域标准。
以上这些超过马蹄图范围的,都是“非可视色彩空间”。那么这些“非可视色彩空间”的存在的意义是什么呢?无他,就是为了增大覆盖 CIE XYZ不规则范围的体积或面积。那么有什么缺陷呢?缺陷就是,我们无法制造出认可一款覆盖的显示器。换言之,我们无法设计、制造出一台 ProPhoto RGB显示器、一台ARRI wide gamut 显示器、一台Davinci wide gamut 显示器,无论是HDR显示器还是影院的屏幕。这对处理RAW来说是有些问题的。

我们假设存在两种角色:A.后期操作工 和 B.导演,苦逼码农属于A.后期操作工。码农不需要看屏幕,他们处理AI、各种曲线计算。码农是乙方,只管整活。而导演说,你给我看一下调图,你拉对比度,“我说停你就停”。事实上,我们无法在ProPhoto RGB显示器、一台ARRI wide gamut 显示器、一台Davinci wide gamut 显示器上,做到这一点。导演只能在“可视色彩空间”显示器上做到这一点。那么我们如何记录“导师说停”呢?这个例子是说,当用户选择“非可视色彩空间ProPhoto RGB、ARRI wide gamut、Davinci wide gamut”的时候,理论上绝对不可能精准地看全部可显示色彩,只能精确的看到部分可显示的色彩。也就是,颜色判定不能眼见确认,只能盲操。

这对码农来说无所谓,码农是个色盲也没关系。码农是操作ISP的“后期操作工”,不在乎眼见的颜色确认。码农不在乎自己的眼睛,他们只关注算法。所以,ProPhoto RGB这种非眼见的色彩空间缺点是无所谓的。

第二,“非可视色彩空间”降低了编码效率。打个比方,我们在CIE XYZ这个地球仪上划定到太空上去了,也就是我们把卫星月球也划到“国家”范畴了。我们的邮政编码只能从6位增加到12位,但是其中很多地方是不可能去的,但是也占着编码空间。这就带来“色阶”的利用效率问题。
前面我们提到,色彩空间本质是CIE  XYZ 不规则曲线与色彩空间的规则定义、规则划分之间的矛盾,是“不规则”vs“规则”。为了纳入更多的“不规则”CIE XYZ区域,色彩空间的编码需要更长,这对于计算来说是呈现指数增长的,增加了算力、移动设备的能耗、ISP芯片的开发难度等等一系列的问题。当然,这个问题在今天16位位宽,迈向32bit的台式机来说问题不大,但的确存在一些问题。

综上所述,如果您追求色准,那么应该追求一个“标准可视色彩空间”。今天很多人一方面追求校色色准,一方面又用“ProPhoto RGB”这种非可显色彩空间,这本身就是矛盾的。使用“ProPhoto RGB”更需要用户有色彩管理一些知识,因为是盲操作(用户校准了显示器也没用,因为用不上),而如果用户缺乏正确的色彩管理知识,盲目听信一些误导,那么色准就更没准了。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
回复主题: 对“原色”的认知——为何人眼的动态范围比相机大得多?
功能受限
游客无回复权限,请登录后再试