是时候为“RED”申一波冤了,揭秘RED工作流程中的那些误区
2017-12-22 17:13
原文来源于杰夫史密斯(纽约知名摄影机技术专家和培训老师)的博客,翻译:沉沦
从第一台RED ONE交付以来,RED摄影机已经十年了。最近RED数字电影公司刚刚庆祝了10周年纪念日。尽管RED的出现让很多电影人感到兴奋,但是一路走来,RED配套的硬件和行业支持已经发生了很多变化。而关于RED摄影机拍摄影视作品的质疑声也从来没有断过。
今天我们就来聊聊RED摄影机和拍摄过程中产生的一些常见误区,并给它们“正正名”。
误区 1: RED拍出来的是RAW格式,必须把RAW转码,素材才能使用。我们没有这个预算。
这是那些不断缩减预算和拍摄周期的制片人才有的老旧观点。
的确,RAW文件需要转码之后才能在后期剪辑中更加流畅的回放。但这是因为当前的播放媒介对于视频的要求仍然停留在比较传统的视频编码器,比如DNx、ProRes 或 XDCAM50解码器(该解码器仍广泛适用于新闻和体育直播中)。这并不是RED的问题,所有具有RAW功能录制的摄影机都会面临这样的问题。 而且不只只是RAW,带有其他编码格式的摄影机在进行后期编辑的时候也需要转码成传统编码格式才能进行更广泛的传播。甚至于我们在移动端(诸如手机)观看的H.264的流媒体文件同样也适用于这一规则。
所以,如果不是受限于某个特定工作室、制作公司或是甲方明确的后期要求,在视频最终发布前一直保持RAW格式肯定是非常有利的。这样做的好处在于整个的编辑过程中可以避免视频画质受损,并且能够进行最大限度的调色和特效合成。但这一点对于那些接触到最新DSMC 2系列摄影机的人来讲是没有意义的。因为从两年前开始,RED DSMC 2系列的摄影机就已经可以同时录制REDCODE RAW和Pro Res(或者DNxHD/HR)双格式。
误区 2: RED摄影机只能用RAW格式进行拍摄,并且RAW格式文件太大,必须得买售价高昂、大容量的储存卡才能用来储存视频文件。
上边我们谈到,除了RED的R3D RAW格式之外,RED DSMC 2系列摄影机还可以同时用ProRes 或者Avid DNx进行记录。所以,只能录制RAW是不成立的。并且令人惊讶的是,传统编码的压缩文件往往要比 R3D RAW无压缩的版本数据量更大。下面的截图显示了R3D文件和相同帧范围的Pro Res文件大小对比(后者由R3D文件转码创建)。
原素材为15秒,R3D RAW大小为1.3GB (6K REDCODE 8:1 23.98 fps),而由它转码产生的4K QuickTime ProRes4444相比R3D的数据量大了近20%。
误区 3: R3D素材需要一台售价昂贵、配置超高的电脑才可以剪得动。想要在笔记本电脑上剪辑RED视频文件?做梦!
新一代的Mac、PC笔记本电脑与5年前相比已经不太一样了。就当前来说,它们的性能已经足够和台式机相媲美。并且外置显卡和显卡扩展坞的出现,更是让笔记本电脑可以随时加装性能更加强大的显卡,在便携的同时提供更加优秀的图形处理能力。以Pr为例,在剪辑过程中通过调整Premiere的预览和回放设置(Adobe Premiere Pro称为De-Bayer和Mercury Engine回放),通常情况下都可以在实时预览和图像质量之间找到合适的平衡点,并且在画面暂停时自动将画质调整到最佳。达芬奇和Fina Cut Pro X等软件中也提供了类似的功能。
对于PC端来说,这就更不是什么问题了。PC硬件已经达到了前所未有的高度,花1000到1500美金就可以轻松组装出一台性能远远超于“垃圾桶”( 2013款Mac Pro因其造型被网友戏称为“垃圾桶”)的后期工作站。
备注:
De-Bayer (解拜耳):拜耳是指拜耳阵列,详见误区4的相关描述。由于在每个感光元件中,元件只能“感受”到单个的R或G或B的数值,而不是RGB三色的综合色值。所以摄影机会对这些值进行计算并合并成一个我们俗称的“像素点”色值,(比如8位色中的255,0,0或#FF0000)而这个过程就是解拜耳。
Mercury Engine Playback(水银回放引擎):简称MPE,Adobe Premiere从CS5开始引入的MPE可以将性能提升到一个新的层面,借助于该项技术,我们在使用不同格式的素材时,回放将会更加的迅速,同时也有很多特效支持GPU,从而可以实时预览。)
误区 4: 8K视频?太可笑了。谁会需要这么高的像素点?这只不过是为了炫耀
表面上听起来,这句话挺有道理的:实际上谁能用到这么高的像素?更关键的是,又有多少设备能够支持这么高分辨率的视频播放?(毕竟目前8K显示器凤毛麟角)
在回答上述问题之前得先搞清楚单CMOS摄影机是如何显示颜色的。几乎所有CMOS的颜色都是由放置在感光单元底层网格上的一组彩色滤镜产生的,通常被称为“拜耳模式”(以柯达色彩科学家布莱斯.拜耳命名)。它显色的原理是:光线通过感光元件,光谱中的红色、绿色、蓝色被单个的感光单元过滤接收。由于每个感光单元只能显示一个光原色,所以感光元件将相邻的感光单元中的光原色信息进行合并才可以得到一个RGB的像素值。再由这一个个的像素值产生一个低误差的全彩(4:4:4)数值(以75%的传感器空间分辨率为代价)。
许多第一代和第二代的数字摄影机 (如佳能 C100、C300 和索尼 FS700) 都是以这种方式来生成高质量、高分辨率的图像。当然,也可以用其他巧妙的方式来进行插值,从而降低分辨率。但是从具有全分辨率的主滤镜阵列(又名 \"1:1\")的单芯片感光器上来说,捕捉非抽样的颜色是不太可能的。如果你认为我们正在进入一个4K会成为大部分视频默认设置的时代,那么RED的8K像素感光器就会变得很有用了。
误区 5:\"除了摄影机以外, 没有别的机器可以写入R3D文件。如何能在不离开RAW范围的情况下进行剪辑, 并在其他编码 (如 ProRes) 中进行压缩?
无论RED CINEX-Pro还是达芬奇都能够直接导入R3D文件并剪辑,不需要重新转码压缩。而且RED公司的RAW文件使用的是基于小波编制解码器的帧内编码,这意味着在素材中前后帧之间不存在压缩以来的关系。此外,上面的两种软件售价都很低,甚至是免费。
从第一台RED ONE交付以来,RED摄影机已经十年了。最近RED数字电影公司刚刚庆祝了10周年纪念日。尽管RED的出现让很多电影人感到兴奋,但是一路走来,RED配套的硬件和行业支持已经发生了很多变化。而关于RED摄影机拍摄影视作品的质疑声也从来没有断过。
今天我们就来聊聊RED摄影机和拍摄过程中产生的一些常见误区,并给它们“正正名”。
误区 1: RED拍出来的是RAW格式,必须把RAW转码,素材才能使用。我们没有这个预算。
这是那些不断缩减预算和拍摄周期的制片人才有的老旧观点。
的确,RAW文件需要转码之后才能在后期剪辑中更加流畅的回放。但这是因为当前的播放媒介对于视频的要求仍然停留在比较传统的视频编码器,比如DNx、ProRes 或 XDCAM50解码器(该解码器仍广泛适用于新闻和体育直播中)。这并不是RED的问题,所有具有RAW功能录制的摄影机都会面临这样的问题。 而且不只只是RAW,带有其他编码格式的摄影机在进行后期编辑的时候也需要转码成传统编码格式才能进行更广泛的传播。甚至于我们在移动端(诸如手机)观看的H.264的流媒体文件同样也适用于这一规则。
所以,如果不是受限于某个特定工作室、制作公司或是甲方明确的后期要求,在视频最终发布前一直保持RAW格式肯定是非常有利的。这样做的好处在于整个的编辑过程中可以避免视频画质受损,并且能够进行最大限度的调色和特效合成。但这一点对于那些接触到最新DSMC 2系列摄影机的人来讲是没有意义的。因为从两年前开始,RED DSMC 2系列的摄影机就已经可以同时录制REDCODE RAW和Pro Res(或者DNxHD/HR)双格式。
误区 2: RED摄影机只能用RAW格式进行拍摄,并且RAW格式文件太大,必须得买售价高昂、大容量的储存卡才能用来储存视频文件。
上边我们谈到,除了RED的R3D RAW格式之外,RED DSMC 2系列摄影机还可以同时用ProRes 或者Avid DNx进行记录。所以,只能录制RAW是不成立的。并且令人惊讶的是,传统编码的压缩文件往往要比 R3D RAW无压缩的版本数据量更大。下面的截图显示了R3D文件和相同帧范围的Pro Res文件大小对比(后者由R3D文件转码创建)。
原素材为15秒,R3D RAW大小为1.3GB (6K REDCODE 8:1 23.98 fps),而由它转码产生的4K QuickTime ProRes4444相比R3D的数据量大了近20%。
误区 3: R3D素材需要一台售价昂贵、配置超高的电脑才可以剪得动。想要在笔记本电脑上剪辑RED视频文件?做梦!
新一代的Mac、PC笔记本电脑与5年前相比已经不太一样了。就当前来说,它们的性能已经足够和台式机相媲美。并且外置显卡和显卡扩展坞的出现,更是让笔记本电脑可以随时加装性能更加强大的显卡,在便携的同时提供更加优秀的图形处理能力。以Pr为例,在剪辑过程中通过调整Premiere的预览和回放设置(Adobe Premiere Pro称为De-Bayer和Mercury Engine回放),通常情况下都可以在实时预览和图像质量之间找到合适的平衡点,并且在画面暂停时自动将画质调整到最佳。达芬奇和Fina Cut Pro X等软件中也提供了类似的功能。
对于PC端来说,这就更不是什么问题了。PC硬件已经达到了前所未有的高度,花1000到1500美金就可以轻松组装出一台性能远远超于“垃圾桶”( 2013款Mac Pro因其造型被网友戏称为“垃圾桶”)的后期工作站。
备注:
De-Bayer (解拜耳):拜耳是指拜耳阵列,详见误区4的相关描述。由于在每个感光元件中,元件只能“感受”到单个的R或G或B的数值,而不是RGB三色的综合色值。所以摄影机会对这些值进行计算并合并成一个我们俗称的“像素点”色值,(比如8位色中的255,0,0或#FF0000)而这个过程就是解拜耳。
Mercury Engine Playback(水银回放引擎):简称MPE,Adobe Premiere从CS5开始引入的MPE可以将性能提升到一个新的层面,借助于该项技术,我们在使用不同格式的素材时,回放将会更加的迅速,同时也有很多特效支持GPU,从而可以实时预览。)
误区 4: 8K视频?太可笑了。谁会需要这么高的像素点?这只不过是为了炫耀
表面上听起来,这句话挺有道理的:实际上谁能用到这么高的像素?更关键的是,又有多少设备能够支持这么高分辨率的视频播放?(毕竟目前8K显示器凤毛麟角)
在回答上述问题之前得先搞清楚单CMOS摄影机是如何显示颜色的。几乎所有CMOS的颜色都是由放置在感光单元底层网格上的一组彩色滤镜产生的,通常被称为“拜耳模式”(以柯达色彩科学家布莱斯.拜耳命名)。它显色的原理是:光线通过感光元件,光谱中的红色、绿色、蓝色被单个的感光单元过滤接收。由于每个感光单元只能显示一个光原色,所以感光元件将相邻的感光单元中的光原色信息进行合并才可以得到一个RGB的像素值。再由这一个个的像素值产生一个低误差的全彩(4:4:4)数值(以75%的传感器空间分辨率为代价)。
许多第一代和第二代的数字摄影机 (如佳能 C100、C300 和索尼 FS700) 都是以这种方式来生成高质量、高分辨率的图像。当然,也可以用其他巧妙的方式来进行插值,从而降低分辨率。但是从具有全分辨率的主滤镜阵列(又名 \"1:1\")的单芯片感光器上来说,捕捉非抽样的颜色是不太可能的。如果你认为我们正在进入一个4K会成为大部分视频默认设置的时代,那么RED的8K像素感光器就会变得很有用了。
误区 5:\"除了摄影机以外, 没有别的机器可以写入R3D文件。如何能在不离开RAW范围的情况下进行剪辑, 并在其他编码 (如 ProRes) 中进行压缩?
无论RED CINEX-Pro还是达芬奇都能够直接导入R3D文件并剪辑,不需要重新转码压缩。而且RED公司的RAW文件使用的是基于小波编制解码器的帧内编码,这意味着在素材中前后帧之间不存在压缩以来的关系。此外,上面的两种软件售价都很低,甚至是免费。
本文为作者 留白 分享,影视工业网鼓励从业者分享原创内容,影视工业网不会对原创文章作任何编辑!如作者有特别标注,请按作者说明转载,如无说明,则转载此文章须经得作者同意,并请附上出处(影视工业网)及本页链接。原文链接 https://cinehello.com/stream/97686