Отвечал на коммент, где совершенно однозначно вместо битов должен быть диапазон яркости:> у тебя в мониторе битов недостаточно для показа HDR "как есть"?
> столько эффективных битов нет, хоть тресни.
Без понимания этой ошибки получится разыгрывание притчи о слепых мудрецах и слоне: "о, для HDR нужны более насыщенные цвета", "нет, для HDR нужны биты", "вообще-то HDR - это новые кодеки, никто не распространяет H.264 с HDR", "вы знаете, 8-битные панели не производят с такой яркостью", "нет, я знаю, я делал HDR-фото в 2002, смотрел на ЭЛТ", "дети, я использовал мультиэкспозицию в 1970-х", "деды, HDR не может быть хуже sRGB" и так далее.
И разыгрывание этой притчи уже начинается, если не сказать "да, там была ошибка, а биты второстепенны", но зато сказать "де факто обязательны". Ведь новые кодеки и широкий охват тоже в HDR-видео "де факто обязательны", но просто так сложилось, не они превращают SDR в HDR (биты этого тоже не делают), они *второстепенны*.
> Кому и зачем уперлось рассматривать лестницы и зазубрены между уровнями еще более отчетливо?!
Бандинга можно избежать и без высокой разрядности. Проводя аналогию со звуком - там вон производят качественный однобитный звук (DSD).
Нам просто повезло, что в нашей вселенной не стали злоупотреблять аналогичными приёмами в фото и видео. В альтернативной вселенной могли переложить дизеринг (FRC для 8=>10 бит) с монитора на видеокарту, а HDR-видео могли хранить в 8 битах с флагом "требуется дебандинг перед выводом". К сути HDR это всё отношения не имеет.
Так-то и в нашей вселенной есть штуки вроде Auto HDR, а любитель может создавать 8-битные HDR-ролики под плееры с дебандингом. Нестандартно? Да. Совсем не фактический стандарт? Да. Но! К сути HDR это всё отношения тоже не имеет.
> Я как бы догадываюсь что нелинейная интерпретация битов возможна
Што?