4KテレビのHDRはデジタル写真界隈のHDRとはちょっと違う

 最近のテレビの新製品では4K解像度に対応し、HDRにも対応した4K HDRが訴求ワードのように使われているように感じます。テレビだけではなくゲーム機のPS4 Proも4K HDRに対応したりと、ちょっといい映像機器なら4K HDRに対応するのがトレンドのように感じられます。

 4Kは解像度が3840x2160px、すなわちFull HDと呼んでいた1920x1080pxに対して縦横それぞれ2倍細かくなり、縦横合わせて4倍の画素数になりましたよ。という比較的シンプルな話です。

 一方のHDRはHigh Dynamic Rangeの略で、ダイナミックレンジが広いですよ。という話です。

 写真絡みでHDRについて見聞きしたことがある人は概ね以下のような理解なのではないでしょうか。

  • デジタルカメラの撮影モードにあるやつ
  • iPhoneの標準カメラアプリでON/OFF切替できるやつ
  • アプリで凝った設定すれば工場とかロボットとかがかっこよくなるやつ
  • 露出を変えて撮影した画像を合成して、暗いところも明るいところも黒潰れ白飛びを抑えて記録できるやつ

f:id:kachine:20170105170728j:plain
HDR画像の例(普通に撮ると鉄骨が白飛びするか建物が黒潰れする)

 テレビのHDRも同じような物だと思っていると、ちょっと混乱することになるかもしれません(私は混乱しました)。

 というのも、4K HDRに対応した機器のデモ映像などを見ても、HDRを用いたデジタル写真(以下、HDR画像と記載)とは明らかに違います。HDR画像は目で見た光景とは異なり、不自然な(被写体によってはそれがカッコいい)写りをしているものが多いのに対し、4K HDRの映像ではそのような不自然さはありません。

 同じHDRという語が使われていますが、何が違うのでしょうか。
 

テレビのHDR

 昨今のテレビ新製品が対応しているHDRはHDR10という規格のものが多いようで*1、平たく言ってしまえば、各色を10bit(30bit/pixel)で表現する規格です。

 一方、PCやデジタルカメラを始め広く使われている静止画フォーマットのJPEGなどでは、各色8bit(24bit/pixel)で表現しています。
 また、動画ではH.264コーデックが現在では主流ですが、主にYUV420(12bit/pixel)フォーマットとなっていることが多いようです。静止画と同じ24bit/pixelとなるYUV444もありますが、制作現場はともかくコンシュマー向けではそれほど利用されていません(YUV444のmp4はWindows標準では再生できません)。なお、地デジ放送もYUV420のようです。

 すなわち色表現のビット数が増えるため、従来よりダイナミックレンジがHighだからHDRだと言ってるわけです。

(蛇足)

 テレビ周りではアナログ放送時代から電波の周波数帯域がUHFだとかVHFだとか聞いたことがあると思いますが、Ultra High Frequency、Very High Frequencyの略で、元々HF(High Frequency)と呼んでいた帯域より高い周波数を使う際に、適当に付けたような形容詞が使われています。
 4Kのことを主に海外市場ではUHDと略していたりしますが、Ultra High Definitionのことです。既存のFHD(Full High Definition)やHD(High Definition)よりすごいよってことを表しているのでしょうけれど、ここでも適当な形容詞を付ける文化は生き続けているようですね(個人的には好きではないネーミングですが)。

 なので、将来的にHDR10を上回る色深度のHDRを訴求する際には、VHDRとかUHDRとか言い出す可能性が有るかもしれません。
 

HDR画像

 前述の通り、JPEGでは各色8bitしか表現できません(全く普及していないJPEG 2000やJPEG XRのような特殊なフォーマットを使えば8bit以上の表現は可能です)。その範囲内でダイナミックレンジを広げることは不可能です。このため、写真界隈で言われるHDRは、純粋な意味でダイナミックレンジを広げる技術ではありません。8bit以上の情報量を圧縮して8bitに落とし込む技術、とでも表現すればいいでしょうか。その圧縮機能をトーンコンプレッサー(Tone Compressor)と呼んだりもしますが、ギターなどのエフェクターや録音機材のコンプレッサーと同様に、そのパラメータを変えることで出力は大きく変化します。この結果、HDR画像独特の雰囲気が生まれます。

 ところで、デジタル一眼や高級コンパクトと言われるようなカメラではJPEGではなく、RAWフォーマットで画像を記録することができます。使われているイメージセンサーによって(すなわちカメラによって)異なりますが、12bitや14bitの情報量があります。すなわち、テレビのHDRと同じような意味で、RAW画像はHDR画像と表現することもできるでしょう。
 (ただし、Foveon等の特殊なイメージセンサーを除き、大多数のカメラはBayer型フィルタによってカラー画像を生成します。RAW画像中の各ピクセルは12bitや14bitの情報量があっても、各ピクセルはRGBいずれかの色情報しか無いのです。隣接する画素の情報を利用しデモザイキング処理を行った後、各ピクセルはRGB全ての色情報を持ちます。それは単純に12x3=36bitまたは14x3=42bitの色情報を持っていると言えるでしょうか。デジタルカメラで撮影した画像をピクセル等倍で見た際の不自然さが気になる人にとっては、単純に36bitや42bitの色情報と言うのは妥当ではないという判断になると思います。ただ、それはBayer型フィルタのイメージセンサで撮影した画像のデモザイキングを行った場合の情報量をどう考えるかという話なので、HDRの話とは本質的に逸れるため割愛。)
 

まとめ

 以上の話を整理すると、以下のようにまとめられるでしょう。

テレビのHDR
従来より暗いところから明るいところまで、黒潰れや白飛びを抑えて表示できる技術
HDR画像
暗部も明部も情報をなるべく失わないように、従来のダイナミックレンジ範囲内に圧縮して表現する技術

 同じHDRというキーワードですが、圧縮(トーンコンプレッション)の有無が大きく違うわけです。

 もちろんテレビがHDR対応していても、映像ソースがHDR対応していないと本質的には意味がありません。
 冒頭で上げたPS4 ProなどGPUで創り出すCG映像であれば、ハードウェアがHDRに対応すれば理屈的にはソフトウェア的な対応でHDR化が可能です。
 一方、実写映像では収録機材が(トーンコンプレッションではない)HDRに対応しなければなりません。私が知る限り2017年初頭の民生機ではHDR10対応機は現時点では存在しません。Panasonic GH5が今年中旬のアップデートでHDR収録に対応するという話もあるようですが、HDR10ではなくHLG(Hybrid Log Gamma)方式のようです。
 故に、個人で(トーンコンプレッションではない)HDR映像を撮影・再生する環境を整えるのは現時点ではかなり困難でしょう。今後、対応機材は順次増えるのでしょうけれど、HDR10とHLGとどちらの方式なのか注意が必要でしょうね。
 



以上。

PlayStation 4 Pro ジェット・ブラック 1TB (CUH-7000BB01)

PlayStation 4 Pro ジェット・ブラック 1TB (CUH-7000BB01)

*1:HLGという規格もある