Pull to refresh

Comments 418

Если брать многие "нонейм" телевизоры, собираемые в нашей стране типа Декспы, Ролсены, Ирбисы, Хундаи и прочие по сути из одинаковых комплектующих, только с разными шильдиками и корпусом, то практически никто не умеет показывать компьютерное изображение также четко, как это делает монитор. Простое статичное изображение рабочего стола с иконками и названиями. И не важно что плотность пикселей как бы достаточна и они не различимы вблизи. Либо буквы и грани переходов будут слегка размытыми, либо появляются какие-то ореолы вокруг белого шрифта. Для того, кто всегда смотрел на смартфон и тут решил взять ПК оно может показаться "так наверное и должно быть", но для того кто постоянно смотрит в монитор сразу возникает ощущение "какое-то оно не такое все".

Возможно брендовые телевизоры верхнего эшелона и выдают неотличимую от монитора картинку. Но много людей берет телевизоры просто по цене. "Смотри вон 4К и такой большой и всего за 25 тысяч" Подключают его к ПК чтобы поглядеть фильмы на большом экране и видя рабочий стол понимают что "Да, телевизор это не монитор".

либо появляются какие-то ореолы вокруг белого шрифта

это случаем не несоответствие настроек субпиксельного сглаживания физическому расположению цветных элементов пикселя?

У многих дешёвых телевизоров аналог PenTile - зелёных субпикселей столько, сколько нужно, а красных и синих меньше.

Я пробовал, для эксперимента, сидеть за таким. Сглаживание ClearType по умолчанию выглядит вырвиглазно, но можно настроить до уровня "терпимо". Для тех, кто чувствителен к шрифтам, такое строго не рекомендуется.

Ещё есть цветовая субдискретизация, которая любит включаться сама по себе и портит малину, и в стандартных настройках её нет - она обычно закопана в настройках драйвера видеокарты. Просто картинка становится какая-то не такая, и пользователь не понимает, что, как и почему.

Ещё есть цветовая субдискретизация… Просто картинка становится какая-то не такая, и пользователь не понимает, что, как и почему.
По поводу цветовой субдискретизации я чуть ниже ответил, как это можно проверить, и как можно попробовать исправить
https://habr.com/ru/post/682140/#comment_24622464
В принципе расположение субпикселей BGR вместо «стандартного» RGB можно исправить настройкой сглаживания шрифтов в последних версиях Windows (или просто отключить сглаживание в любых версиях Windows).
Хуже, если матрица телевизора RGBW — это уже никак неизлечимо.
(или просто отключить сглаживание в любых версиях Windows).
Хуже, если матрица телевизора RGBW — это уже никак неизлечимо.

так отключение субпиксельного сглаживания должно помочь и с rgbw. или вообще сглаживание можно оторвать, при достаточном разрешении и без него хорошо

так отключение субпиксельного сглаживания должно помочь и с rgbw
Увы, нет (ну, или во всяком случае не на всех типах RGBW матриц).
Дело в том, что в строке половинное цветовое разрешение — четные пиксели RGB, а нечетные W
А в следующей строке наоборот — честные пиксели W, а нечетные RGB.
Т.е из двух соседних пикселей только один цветной, и при этом втрое шире соседнего белого.
Так что в лучшем случае мы получим половинное разрешение, а в худшем еше и нервные (“рваные“, “узловатые“) вертикальные линии.
image

Стоит упомянуть, что RGBW матрицы бывают разные. У меня, например, RGBW, включено сглаживание, а шрифты нормальные. Почему? Потому что пиксели полноценные. Красный, зелёный, синий, белый в каждом пикселе.

А есть другой, более распространённый вид RGBW матриц - в них число субпикселей разное. И вот на них всё плохо. Точно также, где матрицы RGB, но тоже - красных и синих меньше.

Таким образом, для шрифтов самое главное - полноценные пиксели, состоящие, как минимум из 1 зелёного, 1 красного и 1 синего субпикселя.

Стоит упомянуть, что RGBW матрицы бывают разные.
Так я же сказал: “… во всяком случае не на всех типах RGBW матриц....“
Хотя сам вживую телевизоров с
Красный, зелёный, синий, белый в каждом пикселе
пока не встречал.
Во всяком случае при покупке телевизора с RGBW матрицей ИМХО обязательно надо выяснять, какая у него субпиксельная структура, особенно если предполагается использование телевизора в качестве монитора, «чтобы потом не было мучительно больно»©
₽$ Что за модель телевизора, если не секрет?
Или если можно макрофото субпиксельной сетки (качество не так важно, просто чтобы была различима субпиксельная структура)

LG OLED C1, на всех трёх пиксели нормальные (т.е. нет разницы от экземпляра к экземпляру)

Примеры

LG OLED C1
Спасибо, действительно пора привыкать к тому, что на смену LCD приходят OLED (AMODED) дисплеи. Вот тут есть наглядные иллюстрации работы субпикселей и макрофото экрана

image

image image

Спасибо ещё раз!

Вы путает это с RGBW с WRGB. Это разные вещи, OLED имеет в каждом пикселе 4 субпикселя.

Ореолы — это артефакты от повышения резкости. Надо просто выключить эту опцию
Либо буквы и грани переходов будут слегка размытыми,
Это бывает, если телевизор отображает не пиксель-в-пиксель. Хотя казалось бы разрешение на видеовходе совпадает с нативным разрешением его экрана, но…
Иногда это можно «вылечить» настройкой, причём не всегда самоочевидной — например нужно переименовать видеовход телевизора, к которому подключён компьютер (да, просто присвоить ему «правильное» название), и проблема решается.
Хотя к сожалению это решение далеко не универсальное.
либо появляются какие-то ореолы вокруг белого шрифта
Это бывает, если телевизор работает не в полном цветовом разрешении 4:4:4, а в 4:2:2 (а то и в 4:2:0).
Почему он так делает — вопрос другой, у меня была статья на habr на эту тему

Кстати, этот тест выявляет и проблемы с отображением пиксель-в-пиксель (см первую часть ответа), но к сожалению очень чувствителен и к масштаб у отображения (требует строго 100% по всему тракту от gif-ки до экрана).
В общем, если вы на этой картинке хорошо видна надпись 4:4:4 и практически неразличима 4:2:2, то значит всё настроено правильно — отображение пиксель-в-пиксель с полным цветовым разрешением.
Если наоборот, видно 4:2:2 и почти неразличимо 4:4:4 (или видны обе-две надписи), то либо какие-то проблемы с отображением пиксель-в-пиксель, либо не полное цветовое разрешение, либо просто масштаб отображения картинки не строго 100%
image

Про масштаб надо было сверху написать, а то блин топовый ноутбук 13 дюймов, 4K, OLED, плотность пикселей за глаза, шрифты почти голографического качества - а реально видно 4:2:2 при 100% масштабе.
В общем кроме масштаба страницы ещё есть масштабирование дисплея и вот если его тоже убрать то тогда уже 4:4:4 становится конкретно видно как надо (правда пользоваться неудобно когда всё настолько мелкое).

Про масштаб надо было сверху написать
Про 100% масштаб я и сверху написал (сразу за ссылкой на статью), и снизу (прямо над gif-кой), и в самой статье в нескольких местах, и в её обсуждении (в шапке темы, и нескольких ответах).
Безусловно, необходимость выставления 100% масштаба — самое слабое место моего теста, но я ненастоящий сварщик IT-шник, а просто «продвинутый юзверь», поэтому не смог сделать тест независимым от настроек масштаба компьютера/браузера/вьювера.
Хотя это наверняка можно сделать, и в обсуждении статьи этот вопрос поднимался, но потом также и угасал.
А для меня это увы, нерешаемая задача...
кроме масштаба страницы ещё есть масштабирование дисплея и вот если его тоже убрать то тогда уже 4:4:4
Угу, об этом у меня написано (в сообщении сразу под ссылкой на статью, и в самой статье).
Это одна из причин, по которой я так и не смог сделать «масштабонезависимый» тест, и решил ограничиться gif-кой и устными предупреждениями про необходимость строго 100% масштаба по всему тракту от gif-ки до экрана.
Хотя это конечно неидеальное решение (юзверь сам должен разбираться с масштабами во всех возможных местах), но увы, лучше я не смог сделать…

Про масштаб надо было сверху написать

Тут я тоже ненастоящий сварщик IT-шник. Просто согласно фокусировке внимания людей (для себя так объяснил) - я сперва увидел картинку (на которой 4:2:2 видно значительно лучше чем 4:4:4), следующая точка фокусировки попала на строку с выделение жирным текстом про то что если вы видите это то у вас проблема. И всё это краем глаза на подсознательном уровне, сразу после прокрутки экрана к следующим комментариям. Следующим действием пошло уже разбирательство что с экраном не так, вплоть до определения производителя моей матрицы и процента брака подобных девайсов. А потом уже прочитал строку ниже что надо масштаб выставить 100%.
В общем просто интересный баг восприятия комментария вышел :)
А тест очень наглядный, правда ещё момент заметил что при подключении 2 монитора по VGA кабелю если провод расположить рядом с сетевым шнуром то видно 4:2:2 если отодвинуть то только 4:4:4, настройки монитора и компьютера при этом не меняются. Забавно :)

заметил что при подключении 2 монитора по VGA кабелю если провод расположить рядом с сетевым шнуром то видно 4:2:2 если отодвинуть то только 4:4:4, настройки монитора и компьютера при этом не меняются.
Тест очень чувствительный ко всему «постороннему», например если сильно сбита настройка Gamma, или переборщили с резкостью, а в вашем случае какие-то наводки на аналоговый сигнал.
Это уже выяснилось после того, как я его сделал, и написал статью.
Так что по сути это получился не совсем тест цветового разрешения 4:4:4 vs 4:2:2, а комплексный тест всего видеотракта:
— Если вы вместо (или помимо) 4:4:4 видите 4:2:2, то у вас или неполное цветовое разрешение, или отображение не пиксель-в-виксель, или какие-то отклонения в настройке изображения, или проблемы с видеоинтерфейсом, или просто не соблюдены условия теста (т.е масштаб на каком-то из этапов по всей цепочке от gif-ки до экрана не 100%)
— Если же вам все же удалось добиться того, что вы видите 4:4:4 и практически не видите 4:2:2, то у вас полное цветовое разрешение, и отображение пиксель-в-виксель, и вообще с видеотрактом все более менее в порядке.
Т.е тест может давать ложно-отрицательный результат, но ложно-положительный результат практически полностью исключён. Там простая математика, см.обуждлении статьи.

₽$ Теоретически может быть положительный результат теста при половинном разрешении, и отображении пиксель-в-2x2пикселя, но мониторов, умеющих так делать почти нет (см FullHD vs 4k и integer scaling: всегда ли 2 x 2 = 4?), так что и в этом случае результат теста был бы не ложно-положительным (вряд ли можно не заметить, что монитор работает с половинным разрешением), а положительным для выявления таких мониторов.

У меня после частичного апгрейда моего 12-летнего стационарника до более-менее свежего, пропал выход DVI-A, которым он подключался к "монитору со встроенным TV-тюнером", подключил по D-SUB (какой кабель был в загашнике, из имеющихся интерфейсов и там и там), и изображение "поплыло". Пришлось срочно идти за HDMI - помогло. А так, и подрагивания были, и "мыло" и вообще, смотреть невозможно. Так что "стандартный VGA-кабель" уже пора считать изжившим себя.

А уж как лучше видно в RGB!

Вот кстати странно читать про гонки за субпиксельной четкостью и отображением пиксель-в-пиксель, когда у меня последним монитором, за которым можно было нормально работать без масштабирования, был 17 люймовый ЭЛТ.

Сейчас сижу без масштабирования за FullHD 27" + FullHD 22", и мне вполне комфортно. Дома 19" старичок, тоже FullHD, и тоже более-менее комфортно. Возможно, Вы выбрали расстояние некомфортное?

Здравствуйте. Очень интересная гифка у вас получилась. Еще давно заметил, что OBS-studio портит цвета при записи.... И у меня не получилось настроить OBS, чтобы эта картинка на записи воспроизводилась правильно. Может быть подскажите, как нужно настроить OBS???

Увы, нет — с OBS-studio дел не имел, боюсь запутать(ся).

Проблема в проигрываетеле, только mpv правильно управляет цветом на все 3 уровням.

Если Вы используете формат записи со сжатием, то "магия" картинки (выравнивание элементов "надписей" строго по границам пикселей) будет беспощадно разрушена сжимающими алгоритмами. Или писать в несжимаемый формат (но это большой объём, и нужны совместимые проигрыватели). Так что лучше просто - сохраните gif как файл.

сони бравия при переключении режима в «игра» превращает телевизор в монитор — пиксели отображаются как на мониторе, ровненько и без размытия. Во всех остальных режимах лучше не смотреть.
Думаю зависит от улучшалок по умолчанию и хитрости производителя. Пробовал какой-то дешевый тв — ощущение что там фуллхд только на этикетке, а в реальности даунскейл до какого-то нестандартного разрешения матрицы.

Еще на старых телевизорах была темная сетка между светящимися пикселями, очень даже заметная

Потому и нужно высокое разрешение, при нем расстояния между пикселями значительно меньше. Это в огород тем, кто «4к в телевизоре не нужно, потому что нет контента 4к». Контента может и мало, а смотреть на телек с такой черной сеткой — неприятно

Вообще, сетка на 4к может быть толще, чем на древнем тв, где сетки вообще нет

И как так получилось, что на 1080 я ее вижу, а на 4к — никогда?

Маркетологи поработали - донесли пожелания клиентов до инженеров, надо полагать

Значит она не толще, чем на 1080

Это называется кристаллический эффект, ни в одном нормальном телевизоре этого нет.

Кристаллический эффект, это что-то на дешманских мониторах из 90х?
На самом деле кристаллический эффект aka “искрение“ — «это другое»©
Вот тут ИМХО хорошее описание 😲
Я его могу видеть (для этого слегка покачать головой глядя на экран с обычным изображением, ощущение примерно как при взгляде вдаль в жару через марево), и не могу не замечать, потому что от него действительно устают глаза (в отличие от той же межпиксельной сетки или крупного пикселя).
К счастью работать за такими мониторами мне не приходилось (тьфу^3), своих таких тоже не было (тьфу^3), но вот видеть доводилось (в т.ч у коллег на работе).
Многие его не видят, а замечают по красным «рачьим» глазам, глядя в зеркало после работы за таким монитором.
Проявляется на некоторых матовых мониторах как раз с мелким (!!!) пикселем (к счастью не на всех). Т.е по ТТХ монитор вроде бы хороший, пиксельная сетка и пиксели не видны, но…
От чего это ещё это зависит, и почему проявляется не на всех мелкопиксельных матовых мониторах я не могу объяснить (впрочем, может я не на всех его вижу, а он там есть).
Насколько часто проявляется (и проявляется ли) кристаллический эффект на современных мониторах тоже не могу сказать.
До черта лысого видел матовых мониторов, нигде подобной дичи не встречал
Попробуйте немного покачать или покрутить головой, не меняя направление взгляда (на какой нибудь объект с мелкими, но хорошо различимыми деталями, или даже просто на текст). При этом возникает ощущение, что смотришь через марево над железной дорогой в жаркий день, или через какую-то невидимую сетку перед экраном, или просто через грязное стекло (экран при этом чистый, естественно).
Правда потом может возникнуть вопрос, «как это развидеть»
ЕМНИП я подобное встречал лет 10-15 назад на мониторах (если не ошибаюсь) Dell или HP от графических рабочих станций (к счастью не на своём — у меня был CRT монитор Mitsubishi DiamondTron, который мне удалось отстоять). Позже тоже видел, но точно уже не вспомню где, и на чем.
Проявляется ли кристаллический эффект на современных мониторах не могу сказать — с начала пандемии я намного меньше имею возможности их смотреть.
Да как я только не вертелся перед мониторами, за все эти годы
Правда я полиграфист и мониторы всегда были — соответствующие
мониторы всегда были — соответствующие
Может в этом «собака и порылась»?
Хотя на графстанциях тоже было что-то крутое по тем временам. Я тогда ЕМНИП первый раз столкнулся с мелкопиксельными LCD, и… начал ещё крепче держаться за свой старый-добрый CRT DiamondTron.
₽$ А в полиграфии разве не глянцевые мониторы?

У меня недавно стало проявляться что-то. Сначала на амоледе смартфона, потом стал это видеть и на NEC 2090UXi, на котором уж текст-то точно должен отображаться идеально (раньше так было). Сейчас стало проявляться и на экране планшета (Huawei Mediapad M5). Не самые плохие экраны во всех случаях.

Возможно, что-то со здоровьем (в обоих смыслах) =) Видится все это боковым зрением, при попытке сфокусироваться исчезает. На NEC предстает как мелкая пиксельная сетка при просмотре текста на белом фоне (как сейчас). Причем это точно не связана с разницей обработки одного сигнала разными глазами, потому что при раздваивании и просмотре изображений каждым глазом сохраняются все присущие этому способу эффекты, связанные, как я понимаю, с индивидуальными особеностями глаз. У меня, например, яркость левой картинки ниже, чем правой, потому что я правша, и по некоторым другим критериям. То есть для меня активный глаз в обычном состоянии - правый, но это можно поменять, хотя и не просто. Тогда меняется и яркость, и четкость, и многое другое.

Такое ощущение, что мозг словил некий паттерн восприятия и теперь раз за разом пытается его воспроизвести, когда не уверен в том, что видит. А не уверен он в том случае, когда изображение обрабатывается в фоновом режиме.

Отключите ClearType, он не подходит для OLED.

И вот мы смотрим на дисплей с «достаточными глазу 60 Гц», по которому движется кура-гриль. Мозг хочет сопроводить куру-гриль взглядом, и ожидает, что мир вокруг будет вертеться, а в центре будет неподвижная чёткая кура-гриль. Но, вместо этого, на сетчатке глаза будет размытое, дёрганое и попердоленое пятнышко.

что такое попердоленое не знаю, опустим.
что на 60 Гц будет дёргаться больше, чем на 120 — понятно.
а почему размытое? разве время переключения пикселя как-то связано с частотой обновления?

Вы правы, технически эти параметры не связаны. Но, как правило, в то, что имеет максимальную частоту обновления 60 Гц, ставится довольно медленная матрица

Но размытость то тут всё равно не при чём. Да еслиб размытость не на видеокарте можно было делать... столько нагрузки можно было бы снять с видеокарты! Как раз те % которые дают разницу между какой-нить 3070 и 3090!

Имелось ввиду не размытие в движении, а полупрозрачное совмещение двух кадров. Вероятно, правильнее было бы употребить термин "смазанное".

К слову, Half-Life 2 я заметил очень интересный эффект - игра старая, поэтому 120 Гц видеокарта выдаёт без проблем. В игре нет эффекта размытия в движении, но я его увидел: если например, раскрутить карусельку в начале игры, то она будет выглядеть смазанной, если же при этом начать следить за ней взглядом, то размытие пропадает, как в жизни. То есть, при высокой частоте кадров размытие в движении появляется само собой, причем это уже не имитация - если следить глазами, оно пропадает.

Ну да, крутящиеся вещи некорректно отображаются. Только чтобы правильно увидеть как вращается колесо потребуется даже больше 450 кадров)

Ну, технически, можно доработать шейдер размытия в движении, чтобы там были не просто вектора, как сейчас, а, например, трёхточечные кривые. Тогда оно сможет делать криволинейное размытие движения и колесо будет выглядеть сносно.

Нюанс в том, что если попытаться глазами проследить за таким размытым колесом, то оно останется размытым. А на высокой герцовке оно станет чётким, как это и происходит в жизни.

Так-то там вообще нет шейдера размытия в движении самой карусельки.

Потратиться на шейдер, это, условно, потратить на карусельку средств, как на пол игры) А на следующий крутящийся элемент скорее всего придётся писать новый шейдер.

Там нет шейдера размытия, я имел ввиду, что такой шейдер можно сделать. И я имел ввиду сделать универсальный шейдер на всю игру. То есть, сейчас в играх размытие делается шейдером, который на вход принимает картинку и информацию о векторах движения. Моя мысль заключается в том, чтобы эти векторы движения заменить на трёхточечные кривые, каждому пикселю соответствует своя. И размывать вдоль таких кривых.

Это сделать довольно несложно, просто это практически никогда не будет заметно, а вычислительных ресурсов будет потреблять значительно больше.

Мозг все равно распознает в дерганой картинке движение, но для этого ему приходится ее размыть. Длина размытия как раз соотвествует пройденному растоянию между соседними кадрами. Поэтому чем больше частота обновления (естественно частота кадров не должна оставать) - тем четче движущийся по экрану объект. Есть лайфхак: если отключать картинку между кадрами - размытие уменьшается пропорционально времени которое экран провел показывая черноту. Так работают ЭЛТ и технологии стробинга. Про это есть целый сайт, крайне рекомендуется к ознакомлению перед покупкой нового экрана.

Вставка черного кадра привносит жуткое мерцание и картинка становится темнее.

Важно отметить, что вставка чёрного кадра - это не то же самое, что происходит в ЭЛТ и плазмах. Там развёртка, как если бы строки изображения мерцали не одновременно, а последовательно, и происходило бы это очень быстро + вспыхивание происходит почти мгновенно, а затухание плавно.

Поскольку мерцает экран не весь, а по одной строчке, суммарные колебания светового потока гораздо ниже, из-за скорости мерцание не так заметно и т.п. - это очень сильно отличается от просто мигающего экрана с ШИМ или вставкой чёрного кадра.

У меня есть плазма с развёрткой 2000 Гц - это не то же самое, что 2000 к/с, конечно же, но на ней объекты остаются абсолютно чёткими и не размытыми, даже если двигать их быстро.

Кот, кстати, больше всего обращает внимания на движущиеся объекты на плазме - насколько я знаю, у них скорость зрения больше, чем у нас, поэтому все артефакты, связанные с низкой кадровой частотой, по логике, они должны видеть лучше.

Вставка чёрного кадра увеличивает плавность, насколько я знаю, потому, что мозг автоматически удаляет эти моменты и сам заполняет соседними кадрами уже в памяти. Т.е. это как-бы тоже "уплавнялка", только реализованная в мозге, а чёрный кадр - способ её заставить работать.

В моих C1 вставку чёрного кадра можно не только включать/выключать, но и регулировать степень мерцания - слабо, средне, максимально, автоматически.

Так какие конкретно модели телевизоров автор рекомендует?

Телевизоры это до сих пор компромиссы, если брать oled, условно под 5 плойку и под фильмы, то выходит, что есть только lg c1 / g1, ну возможно bravia наконец подтянулись, но и цены на них слишком высокие, вот и весь выбор. Есть конечно самсунг со своим qled, но что-то совсем не то.

С мониторами кстати тоже далеко не всё хорошо, либо фильмы и работа, либо игры. + огромнейший пласт мусора, как в прочем и с телевизорами.

В итоге хочешь купить телевизор, начинаешь изучать, начинаешь плакать от всего этого несовершенства или цен, которые впрочем тоже не гарантируют, что это не очередной мусор)

Зато qled не выгорит, это просто неплохой ЖК экран с кучей маркетинга. Надо тестить, не уверен что эти динамические подстветки хороши для работы с ПК

Олед выгорит тогда, когда он уже морально устареет, ечли грубо говоря нужен телевизор на 3-5 лет, о выгорании можно не парится, тесты ртингс это наглядно демонстрируют

Ну и к тому же, дел уже выпустил первый qdoled монитор с гарантией на выгорание 3 года, так что лет тронулся

Буква Q в начале как-бы намекает на не совсем обычный ЖК экран :)

У него светодиоды тоже дохнут. У меня монитор QLED и LG C9. Qled больше не пользуюсь.

C2 и G2 уже)))

Ну и самсунг выпустили кдолед, из телевизор шдр для фильмов это сейчас топ1

Самсунг s95b или Сони a95k

Про мониторы глупость полнейшая, как раз самые хорошие мониторы сейчас универсальные, и фильмы с работой и игры.

Например у того же эйсера иодели 2к 240гц имеют очень хорошие характеристики, не только для игр, но и для работы с графикой и цветом, есть конечно моники еще лучше, но там сразу цена х2-3

Про с2/g2 не знал, нужно будет посмотреть.

По поводу моников: покажите примеры 4/5к моников, от 120Hz с нормальных охватом, поддержкой dolbi hdr? Про олед не пишу тут.

s95b интересный, но тоже не без недостатков видимо

лучше s95b нет ничего, просто как факт... все от него просто текут слюнями

разве что g2 может с ним потягаться, но и то... насыщенность цветов хуже и типичные косяки wrgb

по моникам 4/5к честно без понятия, я их даже не рассматривал к покупке, нет карт которые могут тянуть игры в таких разрешениях, даже 3080 слабовата, даже для 2к... какие там 4/5к, поэтому даже для 2к-240 хочу менять на 4080
ну и не нужны людям которые работают с цветом профессионально 120гц, не те задачи, работа с цветом и игры все же абсолютно разные задачи

поэтому 2к-240 сейчас самое то, можно и матрицу быструю получить, а 2к нормально для большинства людей, и охват цветовой очень хороший - 99% аргб, долбивижн шдр вообще на мониторах не нужен, да и на телевизорах тоже, слишком много шуму ради 0,5% разницы которую нужно под лупой искать, мониторы с шдр 1000 стоят столько, что нафиг они нужны, лучше телевизор хороший купить, дешевле выйдет ))))

4k@120 показывают не требовательные игры, шутеры, даже ps5 вроде с динамическими 4к в каких-то шутерах/гонках показывает 120.

Ну и, условно на 32 дюймах, уже мало 2к, хочется 4, да и в любом случае вы будите видеть не только игры, но и интерфейс в 4к)

32 для монитора много, приятель купил такой, фигня фигней, уже неудобно, либо его ставить надо дальше, но тогда и угловой размер будет как у обычного 27", так и смысл тогда в нем какой непонятно.

Динамическое 4к на консолях это как 1080 на пк, знаю я эти консоли, на словах все круто, а на деле ничего не тянут. Не знаю в чем там 120 при 4к, разве что в тетрисе. Ну и к тому же, после 240, 120 уже очень мало, я уже даже к 240 привык и хочется еще больше, но это соревновательные шутеры или тот же дум, в сингловых играх 3080 не может даже 100 стабильно выдать в 2к разве что костыль длсс спасает), какие там 4к... Вот и получается что 2к еще надолго будет лучшим выбором. Ну и матрицы 2к банально лучше и дешевле в разы, глянул сейчас ради интереса 4к моники в тестах, нет ничего даже близкого, либо сильно хуже, либо сильно дороже, за такую стоимость уж лучше тогда взять оверпрайснутый 2к с hdr 1000 :) можно и широкоформатный

А s95b офигенный телек, купил бы с удовольствием и цена приятная, 1600 долларов за 55" и 2200 за 65", хотя была акции и вроде за 1800 отдавали, а это дешево для такого телевизора. Но это все там.... В нормальных странах, у нас почти 3000 за серый 55", а это уже проще 77 с2 взять, пусть и тоже серый

Вот и пришли к выводу, что 4к моников нету)) Либо цена и то с оговорками, либо печаль в виде ттх)

Раньше мне было нужно либо два 27 монитора, либо один 32, но сейчас всё же вообще отказался от монитора: ноут и телик с консолью для отдыха. Вот как раз для хорошего отдыха придётся рассмотреть последние lg и этот самсунг :)

А по поводу 4к в консолях, то безусловно проблемы там будут, но даже в таком случае есть возможность смотреть 4к контент + использовать 120 Hz для меньшего разрешения. Всё же как ни крути 4к уже хочется иметь и это просто приятно

Как это нет 4к? Есть и больше
В одной конторе работал на делл 32", там точно больше 4к. Сейчас аймакпро 32" — тоже больше 4к. Или он 27?..

Перечитайте комментарии, желательно от начала ветки, поймёте в чём суть :)

Ой нет… Слишком много их ))
Это да
Вроде тема не срачная — но устроили черти что ))
На работе аймакпро 32" — это отличный размер, даже не всегда нужен второй монитор

32" аймаков не бывает, у вас 5K 27" на iMac Pro.

Да, в одном каменте я исправился, в другом нет )

Погуглите bfgd monitor, будете, возможно, приятно удивлены.

Например, ASUS ROG Swift PG65UQ - 64", 4k, 144Hz. И да, монитора много не бывает.

65" это телевизор, никакого отношения к мониторам он уже не имеет, а асус, 450 000 за ВА телевизор?

спасибо, не нужно даже бесплатно... проще уж тогда купить 77" oled телевизор, а на сдачу 34" изогнутый монитор с тем же шдр 1000...

А после какой диагонали монитор превращается в телевизор? Я как-то в магазине смотрел на 58" изогнутый самсунг, 21:9, это еще монитор или уже телевизор?

77" олед телек умеет 144 Гц?

А после какой диагонали монитор превращается в телевизор?

Монитор — устройство оперативной визуальной связи пользователя с управляющим устройством и отображением данных, передаваемых с клавиатуры, мыши или центрального процессора. Принципиальное отличие от телевизора заключается в отсутствии встроенного тюнера, предназначенного для приёма высокочастотных сигналов эфирного (наземного) телевещания и декодера сигналов изображения

Извините, внесу 5 копеек- уже не принципиальное. Больше смотрит в смарт по тому же интернету. Тюнер - во многом пережиток, стоит по умолчанию . Раньше еще была такая тема- вешали монитор плюс внешний ТВ-тюнер, никакого различия, кроме того что нет пульта ДУ. Надо править wiki или что там.

Не важно, тюнер там, или смарт, или что-то еще — это автономная вещь в себе, которая настроена на прием чего либо широковещательного прямо из коробки. Воткнул в розетку и смотри.

У монитора этого нет, он из коробки и воткнутый в розетку — покажет только меню настроек изображения
Видимо, «чтобы было» ))
Принципиальное отличие от телевизора заключается в отсутствии встроенного тюнера, предназначенного для приёма высокочастотных сигналов эфирного (наземного) телевещания и декодера сигналов изображения
Не важно, тюнер там, или смарт, или что-то еще — это автономная вещь в себе, которая настроена на прием чего либо широковещательного прямо из коробки. Воткнул в розетку и смотри.
На самом деле тут «все чудесатее и чудесатее»©
Существуют / были / планируются:



Какой шильдик будем клеить?
Пофик, как производитель называет. Есть из коробки смотреть широковещание, значит тв
Нет — значит монитор

Я уже упоминал, что до сих пор являюсь "счастливым обладателем монитора со встроенным TV-тюнером" - поверьте, это совсем не "телевизор с компьютерными разъёмами" - это типичный для своего времени (2007 год, однако) мультимедийный монитор, имеющий помимо достаточно прогрессивных по тем временам DVI, D-Sub и HDMI, ещё антенный вход на внутренний ТВ-тюнер, к слову, отвратительнейшего качества тюнер, ну и типичные для мониторов (тех лет) настройки центрирования (и, вроде, даже компенсации геометрии) изображения, чего в телевизорах (уже?) практически не встречалось. И да, у этого же монитора в линейке был брат-близнец с суффиксом "mm" вместо "tv", без тюнера.

77" телек умеет 120

120-144 одна фигня, все равно после моника на 240 это очень мало, даже 240 уже мало и хочется 360

Изогнутые моники фигня, особенно такие широкие имеют в играх слишкои большое искажение с боков. Ну либо ставишь маленький угол обзора в игре, но тогда по вертикали обзор будет через щель...

32" 16*9 еще куда не шло, да и то фигня изза размера пикселя, 27 золотая середина, все что больше уже проще телек купить.

Ну, как владелец 40" 4k 16:9 пожалуй, соглашусь, что разрешение низковато, но я в основном брал его под игры, а смотрю сериалы и в таким использовании он хорош. Асус был как пример что большие мониторо-телевизоры есть, которые идут с упором на мониторную картинку. Их много разных, есть и 55" OLED от Alienware со 120 Гц, вопрос лишь цены. Но да, хочется 8k, если честно, на таких диагоналях.

Вроде? Как бы это её ключевая фишка. Как и Xbox.

Это очень динамическая фишка) В основном на консолях все новые ааа игры это 60фпс в 1080-4к, а там, где есть 120 это скорее всего не требовательные игры и, опять же, скорее всего далеко не 4к, но бывают исключения. + тонны старых игр в 30 фпс, что очень печально на самом деле

А s95b заинтересовал/заинтриговал прямо)

99 Adobe RGB это очень маленький озват, вы издеваетесь? Тем более это в площади, это уже никого не волнует, всем объем (HDR) подавай.

Это все понятно, но OLED в качестве монитора - гонка со временем за выгорание. И в этой гонке Вы победителем не выйдите. Если у оледа пиксель включен, то его часики уже тикают. Он уже деградирует. Причем, чем выше яркость, тем быстрее. По этой же причине у панелей LG белый на весь экран не белый, а серый. Они агрессивно сбрасывают яркость, чем больше белого на экране. Причем, панель физически может выдать белый как белый, но она "кончится" очень быстро.
Эх, стоил бы Sony HX310 раз этак в 10 меньше...

Это да. С другой стороны такая же проблема была у плазмы, вроде, причем такие экраны морально устарели раньше, чем выгорели. Да и у классических кинескопов тоже же было выгорание, вроде.
У ЖК-панелей свои проблемы, они хоть и не выгорают, но сгорает подсветка, которую менять довольно дорого. У мониторов о таком не слышал, но у телевизоров частое явление почему-то.
А вообще по практике могу сказать - у меня два года смартфон с OLED, пользуюсь очень интенсивно (буквально из рук не выпускаю) и пока никаких признаков выгорания.
Не отрицаю выгорания OLED, такая проблема есть, просто это не говорит о том, что другие виды дисплеев вечные.

Тут речь именно о сценарии использования. В качестве телевизора - ок, ибо статичных изображений мало (логотипы и т.п.) и панель деградирует более-менее равномерно, отчего и не заметно. Но в роли монитора это уже другое дело. Тут наоборот, сплошь статичный контент. IDE, браузер, панели системы и прочее. Разве что использование ПК ограничено игрушками и просмотром видео.

Кстати, интересное наблюдение - телевизоры с лампами CCFL работают больше 10 лет и там проблема с подсветкой чаще в высыхании электролитов в блоке питания, что чинится быстро и недорого. А вот телевизоры с LED подсветкой иной раз не живут больше 2-3 лет и там действительно менять светодиоды очень дорого и неудобно, поскольку нужно разбирать всю матрицу, перепаивать светодиоды и собирать все обратно, боясь сломать очередной огромный хрупкий лист. Почему то производители не хотят сделать свои телевизоры хоть как то более ремонтопригодными, сделать чтобы хотя бы светодиоды менялись не изнутри корыта с матрицей, а снаружи, без разборки всей матрицы, что вообще не представляет никакой технической сложности. Налицо действительно какой то заговор производителей)

А ведь помню времена, когда LED-подсветка в телевизоре называлась преимуществом и такие модели стоили чуть дороже. Вообще возможно там не заговор, а банально так дешевле сделать. А ремонт уже проблема пользователя.
Меня больше удивляет, что о массовом выходе из строя мониторов через два-три года я не слышал, хотя там тоже LED-подсветка.

Ничем не дешевле, как мне кажется. Наштамповать дырок и расположить светодиоды снаружи, а не внутри - не представляет вообще какой-либо проблемы. Тем более что светодиод с рассеивателем торчит по высоте намного больше толщины металлического листа, на равномерности распределении светового потока это никак бы не сказалось.

У мониторов намного меньшая площадь и нет постоянной работы на высокой яркости, поскольку пользователь сидит в непосредственной близости. И там вместо нескольких мощных светодиодов с рассеивателями используют матрицу огромного числа мелких светодиодиков. Это дороже, но обеспечивает бОльшую равномерность засветки, что более актуально для монитора, чем для телевизора. Большое число мелких диодов очевидно работают в более щадящем тепловом режиме, чем один мощный. Непонятно, почему так не делают в телевизорах. Может, есть проблема с изготовлением и монтажом такой большой печатной платы.

Зависит от телевизора, у некоторых как раз через ~4-5 лет лампы делали ВСЁ и привет колхозный тюнинг на LED подсветку, то время как некоторые телевизоры с LED подсветкой уже 10+ лет работают.

Скорее всего, всё, как обычно, в цене вопроса: раньше подобные телевизоры были дороже и можно было позволить конструкцию сделать лучше, вплоть до того чтобы банально не перегревались элементы от длительной работы, а когда телевизор дешевый, то экономия идёт вообще на всём.

Светодиоды работают на максималке.

Обычно мастера, что перебирают подсветку, дополнительно уменьшают ток светодиодов.

Правда, цветовые характеристики улетают в мусорку.

На максималке - только если его гонять на максимальной яркости

Не факт, может быть просто ШИМ. У меня были Benq XL2411 (которые с 3D Vision) - у них, если яркость выставить меньше 100%, включается хардкорный ШИМ с перепадами от 0% до 100%.

Хотя, по факту, это всё равно снижает нагрузку - светодиоды всё равно меньше греются.

Хотя, по факту, это всё равно снижает нагрузку - светодиоды всё равно меньше греются.

Да, я именно это и имел в виду.

У меня опыт около десятка матриц.
И во всех (кроме одной, там сгорела лампа) СД умерли по перегреву, у некоторых СД люминофор так растрескался, что осыпался.
На номинале, температура линеек была в районе 80-90 градусов (телевизоры ЛГ, Самсунг).
Учитывая, что я ковырял бюджетные серии, со стеклостолитовыми линейками, температура на СД уходила за сотню, и даже удивительно, что линзы не плавились.

Возможно, это специфика именно телевизоров. У меня были два ноута Asus, купленные в начале 10-х годов - M50Vn (ламповая подсветка) и K52f (диодная). Через 8 лет использования у первого подсветка заметно потускнела и стала неравномерной, у второго никаких видимых изменений не было.

Я списал свою плазму именно по выгоранию, а не по моральному устареванию.

Ну фиг знает. В 2019м взял LG C65. С локдауна использую в качестве монитора. Соответственно, 8 часов в день на работу, потом ещё часов 5 телевизором. Т.е. тысяч 20 я нажёг уже точно. Остаточных изображений не видно. Общая яркость если и упала, то не сильно заметно. С другой стороны, работа — это в основном окно терминала с чёрным фоном и зелёными буквами на минимальной яркости.

Открою страшную тайну.... Все телевизоруы, даже жк сбрасывают яркость на всем экране... Даже хваленый кулед самсунг может иметь пиковую яркость 2000, а на весь экран будет 500 например и да, выгорание это уже как мем, в реальной жизни его нет

Есть монитор от делл, qdoled 34" гарантия на выгорание 3 года, в следующем году количество олед мониторов будет только рости, жк как не крути убогая и тупиковая технология, купил себе монитор на новой матрице 240гц, и все равно вижу гостинг... Про отсутствие черного я вообще молчу

Существуют референсные ЖК мониторы для производства HDR контента - они умеют в большую яркость по всей площади, и в хороший чёрный цвет - это достигается, насколько я знаю, локальным затемнением подсветки и двумя слоями ЖК кристаллов. Но это, понятное дело, не массовый продукт.

ну это понятно, но это все где то там... а мы где то тут))) а референсные мониторы еще и маленькие, то есть как телевизор они точно не пойдут. qdoled уже довольно яркие, так это всего лишь 1ая версия, будут улучшать, а тут еще и новую химия обещают для синего оледа, так что 2-3, ну может 5 лет и я думаю олед\кдолед просто уничтожит жк, у жк как не крути слишком много минусов

После калибровки LG вполне референс ща 30k $.

Это можно отключить у LG.

2-й год владею ноутбуком с OLED как рабочим, с экраном все отлично, яркость почти всегда (кроме ночи) где-то 75-80% (дальше ну уж слишком ярко само по себе).

AMOLED в LG уже морально устарел перед новым QD-LED. А там и настоящий QLED появится, без подсветки.

С телевизорами 4к и 120Гц все понятно.

У меня вопрос другой. А что вы на них собираетесь смотреть ? Где взять контент такого качества ? Ну игры - ладно а кино ?

Вот у меня была серия властелина колец. Качество ФХД, 10 бит на канал, 60Гц. Весила эта прелесть 86гигов. То есть на 1 блю рей диск не влезет! Но выглядит конечно шикарно и 10 бит реально видно в сравнении с 8 бит.

Теперь если мы возьмем тоже самое в 4к и сохраним кол-во информации на пиксель (то есть, не апскиленное фуфло), то это будет весить 86*4 = 344 гига!

На каком носителе или по какому интернету вы это собираетесь передавать ? А если оно будет 120Гц ? продавать фильмы на жестком диске ? Пологаю что для кинотеатров так и делают.

Или всю круть этих телевизоров можно посмотреть только на 5 минутной демке от производителя ?

Ну, во-первых, я тут ставлю акцент именно на использование ТВ как монитора - там контентом выступает, собственно, рабочий стол.

Во-вторых, что касается контента - это длинная отдельная тема, если в кратце, самое главное - при просмотре видео уже можно пользоваться уплавнялками, та задержка, которую они добавят, никак не повлияет. Автоматом всё, что 30 Гц, станет 120 Гц (хотя иногда это может нарушить художественный замысел). Плюс, есть разные кодеки и разный битрейт - например, H265 сжимает гораздо лучше. В онлайн сервисах битрейт обычно гораздо ниже, чем в блю-рей качестве, и достаточно иметь интернет-соединение в 150-200 Мбит/с.

В целом, история повторяется, как с FullHD - когда он появился, фильмы 20-40 Гб тоже казались чем-то немыслимым, у людей ещё было "2 рубля за мегабайт" и 5 Мбит/с. А потом постепенно пошло. Так и тут - повсеместное распространение (мобильного) интернета 500 МБит/с, новые кодеки, в которых фильм будет весить не 344 Гб а 100 Гб, нейросетевой апксейл (который в телевизоры, к слову, уже ставят), который умеет додумывать и дорисовывать детали, станет работать ещё лучше, накопители будут измеряться десятками терабайт, и т.п.

Сейчас я вижу что накопители наоборот отмирают. Блю рей, по сути, остался как нишевой сегмент для ценителей. А то что онлайн стрим оно маленькое и ужатое по самые помидоры чтоб не тормозило из-за плохого трафика там о качестве вобще речи нет можно смело смотреть на аналоговом телевизоре.

Получается что сейчас качественный телек - только ради игр. Апскилы и уплавнялки - это полное фуфло извините за мой французский, информации к контенту они не добавят.

Фильмов на жестких дисках в продаже я пока не видел даже для богачей - ценителей. Блю рей приводы есть у единиц.

Что будем смотреть на этих супер телеках? Пока появятся новые носители или супер пупер интернет, эти все телеки давно сдохнут по естественным причинам.

Всё это можно было точно так же сказать про FullHD в 2007 году.

По накопителям - если (вряд ли, конечно) появится лазерный диск за 400 рублей ёмкостью 100-200 Тб, то запросто могут вернуться. Но наиболее вероятно повсеместное распространение быстрого интернета. Онлайн сервисы, на мой взгляд, постепенно качество будут поднимать:

  • Даже пережатое видео в 10 бит лучше выглядит, чем 8 бит при том же битрейте

  • Кодеки появляются новые, и жмут лучше. Уже H266 делают.

  • Интернет становится быстрее

  • Нейросети всё лучше и лучше подавляют артефакты сжатия

Я говорил не про обычный апскейл, а про нейросетевой - он как раз добавляет информацию - сам её выдумывает. Другое дело, что на текущем этапе эта технология работает весьма посредственно, но не-реалтайм сети для апскейла уже сейчас демонстрируют впечатляющие результаты. В играх, кстати, уже повсеместно используют DSR - это оказывается быстрее, чем рендерить в полном разрешении.

На мой взгляд, важен ещё один нюанс - то, что сейчас называют "метавселенными", будет требовать очень быстрого интернет соединения и высокой эффективности сжатия контента, и, тем самым, упрощать жизнь для тяжелого видео.

В 2007 с носителями все было в порядке. Сейчас - наоборот.

Цикл жизни телевизора сейчас никакой. Подсветка дохнет через 2 года а олед - выгорает. Пока появится метавселенная и новые технологии передачи данных, нынешние телеки давно умрут, надо будет покупать новые, возможно, совсем другие и вовсе не телеки.

Так что нынешние разрешения и герцы это пока только для геймеров ИМХО.

Успокойтесь, я уже сдесь :)

И дело тут в том, что качественный контент даже для ФХД проектора найти не так просто...

Пока мейнстрим это 2х слойные блюрей. Но никакими 4к там и близко не пахнет...

Тут ниже верно пишут. В онлайне до 20 гиг в блюрей до 50 и пока это предел. Описанный мной выше фильм на 86 гиг это 2 2х слойных блюрей диска. Это исключение из правил.

Я правильно понимаю, что проблема, на которую Вы указывается, заключается в сложности достать качественный 4K контент?

Да какие там нафиг 4к ???

Даже ФХД качественный контент достать не так просто. Вы попробуйте! И чтоб это было не формально ФХД (шоу танцующих квадратиков или мыло), а реально качественный контент.

Если не квадратики, то рябь кинопленки. Те самые "шикарные 70мм" как говорил один известный режиссер чтоб было видно...

Rarbg забиваете "x265 DV" весь контент класный.

Так ведь вы телефон меняете каждый год, до того как он выгорет? В чем разница. Никто же не покупает LCD смартфоны.

Телефоны бывают и по 10тр, и ими даже можно пользоваться. А на ТВ за 10-20тр без слёз не глянешь, нормальные от 100тр. И это действительно нерациональное использование природных ресурсов, каждые несколько лет выбрасывать огромный ТВ на помойку. Опыт наших предков был более практичен и экологичен, когда вещь служила десятилетиями и передавалась детям и внукам.

К слову, Funai 93 года до сих пор показывает как новый. Эпоха качества, когда ещё не совали в каждый утюг преднамеренное устаревание.

Телефон за 10k не будет иметь даже VoLTE, я уж не говорю про 5G нашей частоты. Себестоимость этого тв за 100k где-то 5 тыс. Все остальное идет на R&D Mediatek, LG и др.
"Funai 93 года до сих пор показывает как новый"

У меня ТВ это монитор с HDR. Так что лол. И вообще он цифру хоть поддерживает? Нет. А аналог уже нигде почти нет, разве что у Ростелекома да акадо.

Нормально эта технология работает.

1)я смотрю как апскейлят нейросети и результат мне нравится. Надо только подождать пока это дойдёт до реалтайма в телевизоре.
2)уплавлялки это необходимость в современном кино. Когда сидишь в метре перед 49" экраном, а на нём крутят 24гц кино, то при движени всего фона это выглядит как набор фотографий, а не как плавное движение.

А зачем сидеть в метре перед 49" экраном (или зачем 49" экран, если сидишь в метре)? Правило 3-4 диагоналей вроде никто не отменял.

Мб потому что смысл не только в диагонали, но и в разрешении?

Так большие разрешения имеют смысл при больших диагоналях, а если сидеть в метре - FullHD хватит за глаза.

Ну я тут третий день рассказываю, что сижу в 80 см от монитора и отлично вижу пиксели и артефакты субпиксельного сглаживания на QHD 27". FHD, для меня, уже совсем отстой

Так в оригинальном комменте речь шла про кино, там субпиксельного сглаживания нет.

Тут уже столько веток с комментариями — что за всеми не уследить, что с чего начиналось ))

затем что 49" экран в метре от меня обеспечивает идеальный угловой размер экрана. В играх большой обзор, в фильмах возможность рассмотреть и происходящее на заднем плане.
Я хз кто придумал этот бред про 3-4 диагонали экрана. Вероятно корни идут откуда-то из древности. Например от малого разрешения экрана, когда если сидеть слишком близко пиксели становились размером с кулак. Но даже на 42" fhd я садился в полутора метрах. но это да, уже компромис между крупными пикселями и большим экраном.

А зачем сидеть в метре перед 49" экраном (или зачем 49" экран, если сидишь в метре)? Правило 3-4 диагоналей вроде никто не отменял.
Отменено, когда появилось высокое разрешение.
Иначе зачем оно нужно, если не видно разницы:

Так это уже придется глазами по экрану бегать, целиком не охватить взглядом. Я от 49" сижу в 3 метрах и мне все равно хочется отодвинуться подальше (но уже некуда).

Так это уже придется глазами по экрану бегать, целиком не охватить взглядом.
Угу, это создает «эффект присутствия», когда изображение выходит за пределы центрального зрения, практически на границы периферийного (а в идеале и за них).
При этом мы наблюдаем за событиями не «через окно», а находясь внутри
Я от 49" сижу в 3 метрах
ну, можно и от 14" сидеть в 3 метрах. Хозяин — барин.
и мне все равно хочется отодвинуться подальше
Если смотрите телевизионную картинку с лицом на полэкрана, или старые телефильмы, адаптированные под низкое разрешение, в основном с крупными планами.
Но если смотреть кинофильм (пусть даже и старый, но снятый под киноэкран), и тем более современные версии, где даже при диалогах не бывает морд лица во весь экран, а события происходят по всему кадру, скорее возникает желание поближе придвинутся.
Ну и опять-таки — «эффект присутствия», не ограниченный рамками.
₽$ Вдогонку к предыдущему сообщению (уже не могу добавить)
Кстати, о кинотеатрах — Планировка кинозала «Нептун»:

Cамые комфортные места как раз на расстоянии порядка диагонали.

У людей может быть проблемы со зрением.

2) происходит из-за слишком быстрого отклика OLED.

2)Я этот эффект когда-то видел на плазме, а сейчас вижу на ЖК. OLED у меня нет. А происходит это из-за слишком большого углового смещения объектов за 1 кадр.

Потому что все blu-ray на kinozal выкладавают, а еще потому что Dolby Vision профиль 5 лучше.

О чем вы? Какие 150-200? Это даже больше битрейта бд 4к...в онлайне там обычно 20мб максимум)

Да и объективно, нет контента 4к, точнее есть, но крайне мало. 90% фильмов апскейл с 1080, ну иногда с 2к. Даже фильмы мервел, у которой бабла немерено это апскейл. Их достатояно записывать в 1080шдр и все, но модно же 4к... Вот и растягивают

Есть конечно исключения из правил. Например терминатор 2 в 4к намноно лучше 1080, но таких примеров мало, чаще всего получаешь тоже самое мыло, но с шдр, а иногда 4к даже хуже оригинала. Пример матрица... Где в 4к убрали художественный замысел, убрав зеленый фильтр, ну е мое....

18.25 Mbit/s видео Netflix это средний битрейт, без аудио. На самом деле там до 25 Mbit, что можно увидеть в mpv, например.

Нет много кино делают в 6K DI.

А если оно будет 120Гц

Проблема чисто теоретическая, таких фильмов не снимают пока.

Gemini man был в кинотеатрах сша в 120.000 кадрах.

10 бит на канал? Это, вероятно, из той же оперы как и усилитель ЗЧ с полосой до 200 кГц. Круто, понтово, но вряд ли ухо услышит выше 10-15 кГц. Помнится на курсах по телевидению нам говорили, что разрешение глаза по яркости не превышает 7 бит, т. е. более 128 градаций он различить чисто физически не в состоянии. По цветности разрешение глаза еще хуже примерно в 4-5 раз.

Вы сможете различить и 12 бит на канал, правда, дисплеев таких пока нет. Обратите внимание, что речь идёт о диапазоне интенсивности света и цвета, которую способен воспринять человек, и диапазон этот весьма и весьма высок.

По аналогии с изображением, это будет не увеличение разрешения одной и той же картинки, а увеличение разрешения и угла обзора (панорамности). Если мы увеличиваем угол обзора, то увеличивается количество объектов, попадающих в кадр, и для сохранения уровня деталлизации нам нужно повысить разрешение.

Так и тут. Первые 8 бит расходуются на обычный диапазон яркости от 0 до 100%, а дополнительные два - от 100% до 1000%. И глаз это видит.

Под каналом вы подразумеваете отдельные каналы R, G и B? Если так, то еще раз повторюсь: разрешение глаза по яркости не превышает 7 бит, эти исследования проведены давным давно еще на заре телевидения. Подавать на глаз бОльший диапазон - нет смысла. Вы только будете перенапрягать адаптационную систему глаза к разной яркости. Глаз будет пытаться рассмотреть темные элементы, расширяя зрачок и офигевать от ярких вспышек, рефлекторно сужая зрачок. Больше информации чем содержится в 7 битах или 128 градациях вы передать все равно не сможете, как бы вы не старались. Остальное все маркетинг. По цвету разрешение еще хуже.

Тут суть в том, что обычно используются sRGB - это перевод RGB в рабочие цвета монитора, передаётся на моник как RGB(ну, по крайней мере картой). А так то есть много различных RGB типов.

Что подразумевается под разрешением глаза?

Вы не учли, что у глаза подстройка яркости осуществляется не только изменением зрачка, но и подстройкой чувствительности палочек и колбочек. Только, в отличие от камер, у глаза чувствительность регулируется отдельно для каждого "пикселя". И, даже если 7 бит достаточно (интересно было бы почитать подробнее), то при разной экспозиции эти 7 бит будут распределяться по разным физическим диапазонам.

Условно говоря, вот у нас рядом два "пикселя" сетчатки. У одного чувствительность настроилась на диапазон 0 - 100 кд/м², а у соседнего - на 0 - 10000 кд/м². С каждого из них, грубо говоря, в мозг идет информация не только об этих 7 битах, но и об уровне чувствительности, который выставлен у конкретного "пикселя". И мозг 7 бит будет умножать на коэффициент чувствительности, восстанавливая исходную картинку в сознании с большим диапазоном яркости.

Телевизор не знает, какой пиксель на его матрице с какой палочкой или колбочкой глаза совпадёт при просмотре. Поэтому, ему приходится рулить всем диапазоном сразу - от 0 до 10000 кд/м² (правда, сейчас обычно до 2000). А для хранения диапазона от 0 до 10000 кд/м² без резких скачков как раз нужно больше 8 бит, даже с учётом нелинейности глаза (поэтому в HDR гамма не обычная, а гибридная).

Я подозреваю, что исследования про 7 бит как раз учитывают именно разрешение по интенсивности без учёта возможностей автоподстройки чувствительности отдельных палочек и колбочек.

Проблемы с перегрузкой у глаза начинаются с яркости в 100 000 кд/м², что пока очень далеко от возможностей современных экранов.

Попробуйте взглянуть на настоящий HDR на хороших современных экранах. Вы увидите разницу невооружённым взглядом.

что у глаза подстройка яркости осуществляется не только изменением зрачка, но и подстройкой чувствительности палочек и колбочек

Первый раз слышу о таком чуде. Не поделитесь ссылочкой, где вы прочитали об этом?

(интересно было бы почитать подробнее)

Любой учебник по телевидению, рекомендую Джаконию, стр. 35-36

 то при разной экспозиции эти 7 бит будут распределяться по разным физическим диапазонам

Именно так и происходит. Но количество передаваемой зрительной информации, выраженной в градациях яркости - тем не менее не меняется - как были 7 бит, так и остаются.

два "пикселя" сетчатки. У одного чувствительность настроилась на диапазон 0 - 100 кд/м², а у соседнего - на 0 - 10000 кд/м².

Еще раз, впервые слышу о таких чудесах. Такое невозможно даже теоретически. Это как заявить что у человека одна часть кожи распознает температуру от -20 до +60 С, а другая от -20 до +6000 С. Соответственно, все ваши дальнейшие рассуждения на основании этого крайне сомнительного утверждения также сомнительны.

А ещё ходят слухи, что рецепторы глаза умеют ползать.

Любой учебник по телевидению, рекомендую Джаконию, стр. 35-36

Спасибо.

Ок, зафиксируем: мой тезис о том, что человек видит 10 бит и 12 бит, основывается на утверждении, что разные рецепторы на сетчатке глаза могут быть настроены на разную чувствительность в один момент времени, и эта дополнительная информация об их настройке чувствительности тоже попадает в мозг. По этой же причине яркие объекты "отпечатываются" на сетчатке и "висят" на изображении ещё некоторое время после того, как само воздействие пропадёт.

Если вкратце - интенсивное воздействие света на рецептор расщепляет в нём то вещество, которое, собственно, ответственно за чувствительность, поэтому чувствительность конкретно этого рецептора постепенно снижается. Если воздействие света убрать - вещество постепенно восстанавливается. Этот фотохимический процесс происходит в каждом рецепторе независимо. В гугле можно найти много всего (раз, два, три, например).

Адаптация фоторецепторов - это не привилегия глаза. Так делают почти все рецепторы в нашем организме.

 Это как заявить что у человека одна часть кожи распознает температуру от -20 до +60 С, а другая от -20 до +6000 С. Соответственно, все ваши дальнейшие рассуждения на основании этого крайне сомнительного утверждения также сомнительны.

Данная аналогия неверна, потому что восприятие температуры у человека

а) почти линейно

б) лежит в весьма узком диапазоне - условно говоря, от -60 до 60 С

Яркость же воспринимается человеком не линейно, а по логарифмической шкале, и воспринимается в очень большом диапазоне - от почти 0 кд/м² (ходят споры о способности человека различать отдельные фотоны, но лягушки так умеют - доказано) до 1000 000 000 кд/м² (!), но, справедливости ради, всё, что ярче 100 тысяч кд/м² вызывает боль. Кд/м², в данном случае, не совсем правильная единица измерения, но представим, что речь о мониторе на расстоянии 2 метра.

Кожа тоже может иметь разную чувствительность. Есть классический эксперимент: берете стакан горячей воды, стакан холодной воды и стакан с обычной водой. Палец одной руки окунаете в стакан горячей воды, палец другой руки окунаете в стакан холодной воды и держите так 1 минуту. Затем одновременно окунаете пальцы в стакан с нейтральной водой. Одному пальцу будет холодно, второму тепло. Потому что у рецепторов сместился диапазон измерений - они адаптировались.

Боюсь, вы путаете разные вещи. Действительно, у глаза есть много механизмов адаптации к разной освещенности - изменение диаметра зрачка, перемещение черного пигмента в слоях сетчатки, снижение чувствительности. Но все эти механизмы - медленные, особенно фотохимические (десятки секунд, минуты). Эти механизмы не предназначены для "оперативной" и быстрой реакции и получения из этой реакции информации. Это защитные механизмы, необходимые для удержания светового потока в пределах динамического диапазона датчика, сам этот диапазон при этом не меняется (те же 92 градации).

И в приведенных вами ссылках указана лишь общеизвестная информация по адаптации глаза, которая сомнений не вызывает. Я просил привести мне статьи или исследования, где указывается что подобные механизмы позволяют расширить динамический диапазон восприятия .

Приведя эти статьи вы противоречите сами себе, ведь вы утверждали:

У одного чувствительность настроилась на диапазон 0 - 100 кд/м², а у соседнего - на 0 - 10000 кд/м²

Вы говорили, что чувствительность настраивается мозгом, а в статьях пишут что все таки - светом. И как тогда может одна палочка настроиться так, а другая иначе, если общая освещенность у них у всех одинакова и определяется текущим раскрывом зрачка и текущим фотохимическим состоянием.

мой тезис о том, что человек видит 10 бит и 12 бит, основывается на утверждении, что разные рецепторы на сетчатке глаза могут быть настроены на разную чувствительность в один момент времени, и эта дополнительная информация об их настройке чувствительности тоже попадает в мозг. 

И все таки, вы этот тезис сами придумали или где то прочитали? Все еще хочу увидеть ссылку на эту статью.

Яркость же воспринимается человеком не линейно, а по логарифмической шкале, и воспринимается в очень большом диапазоне - от почти 0 кд/м² (ходят споры о способности человека различать отдельные фотоны, но лягушки так умеют - доказано) до 1000 000 000 кд/м² (!), но, справедливости ради, всё, что ярче 100 тысяч кд/м² вызывает боль. Кд/м², в данном случае, не совсем правильная единица измерения, но представим, что речь о мониторе на расстоянии 2 метра.

Вы намеренно или нет, но подменяете понятия чувствительности палочки и всего глаза целиком. Надеюсь, что вы все же не пытаетесь ввести в заблуждение читателей, а добросовестно заблуждаетесь. Да, диапазон чувствительности глаза огромен, но это именно глаза - со всеми элементами защиты и регулировки светового потока. Одновременно смотреть на солнце и различать отдельные фотоны глаз НЕ МОЖЕТ! Если вам трудно это понять, то предлагаю аналогию с фотоаппаратом и его диафрагмой. У фотопленки есть определенный диапазон чувствительности (допустим, те самые 7 бит как у глаза). С помощью диафрагмы (зрачка) мы изменяем интенсивность светового потока так, чтобы все яркостные точки картинки, и самая слабая и самая сильная - уложились в этот диапазон. От положения самой диафрагмы - мы НЕ СМОЖЕМ извлечь никакой новой информации из изображения, кроме ее общей освещенности, которую мы и так получаем от самого изображения на фотопленке. Если у фотопленки чувствительность от 0 до 127, то НИКАКИМИ другими способами мы не сможем ее сделать от 0 до 256 или до 512, хоть ты тресни.

Вы говорили, что чувствительность настраивается мозгом, а в статьях пишут что все таки - светом. И как тогда может одна палочка настроиться так, а другая иначе, если общая освещенность у них у всех одинакова и определяется текущим раскрывом зрачка и текущим фотохимическим состоянием.

Надеюсь, Вы ненамеренно исказили смысл моих слов. Я писал о том, что

разные рецепторы на сетчатке глаза могут быть настроены на разную чувствительность в один момент времени, и эта дополнительная информация об их настройке чувствительности тоже попадает в мозг

Здесь нет ничего о том, что их настраивает мозг. Они подстраиваются сами, мозг просто получает информацию об этом. Более того, освещенность у них неодинаковая, потому что на них попадает разное количество света от разных частей проецируемой через хрусталик картинки.

Одновременно смотреть на солнце и различать отдельные фотоны глаз НЕ МОЖЕТ! 

Вы сами выдвинули это утверждение, и сами же его опровергли. Я не говорил о том, что глаз одновременно может видеть солнце и видеть отдельные фотоны.

Если вам трудно это понять, то предлагаю аналогию с фотоаппаратом и его диафрагмой. У фотопленки есть определенный диапазон чувствительности (допустим, те самые 7 бит как у глаза). С помощью диафрагмы (зрачка) мы изменяем интенсивность светового потока так, чтобы все яркостные точки картинки, и самая слабая и самая сильная - уложились в этот диапазон. От положения самой диафрагмы - мы НЕ СМОЖЕМ извлечь никакой новой информации из изображения, кроме ее общей освещенности, которую мы и так получаем от самого изображения на фотопленке. Если у фотопленки чувствительность от 0 до 127, то НИКАКИМИ другими способами мы не сможем ее сделать от 0 до 256 или до 512, хоть ты тресни.

На всякий случай повторюсь

мой тезис о том, что человек видит 10 бит и 12 бит, основывается на утверждении, что разные рецепторы на сетчатке глаза могут быть настроены на разную чувствительность в один момент времени, и эта дополнительная информация об их настройке чувствительности тоже попадает в мозг.

То есть, если бы глаз имел одинаковую по всей сетчатке чувствительность, то тогда бы Ваша аналогия с камерой была бы верна.

Попробуйте в солнечный день посмотреть на автомобиль, половина которого находится в тени, а вторая на солнце. Вы одновременно сможете разглядеть обе половины. Однако, часть, находящаяся на солнце, может быть в 10 и более раз ярче той, которая находится в тени. Эту яркость можно измерить специальными приборами, это вполне известный факт.

Если бы, как Вы утверждаете, наш глаз имел столь узкий диапазон чувствительности, мы бы либо могли видеть то, что в тени, а остальное было бы засвечено, либо видели бы только то, что на солнце, а остальное бы представлялось нам, как темнота. Так происходит у обычных камер, но не у глаза.

Вы можете самостоятельно измерить прибором яркость разных объектов на улице в солнечный день, и убедиться, что Ваш глаз увидит их одновременно, и при этом их яркость будет отличаться на порядок.

Но, поскольку это не так, и глаз может регулировать чувствительность отдельных рецепторов, Ваша аналогия не является верной.

и эта дополнительная информация об их настройке чувствительности тоже попадает в мозг.

Нет, не попадает. Это чисто химическая адаптация — там есть обратная связь по количеству импульсов и в темноте увеличивается синтез фоточувствительных пигментов, а на свету — уменьшается, и они через некоторое время распадаются. Мозг это не контролирует.

Проблема в том, что в мозге и так происходит большая часть удаления шумов, псторойка фузии, считывание разницы между звука по кости и от левого правого ухо для расчета источника звука, и адаптация на цвет и свет.

И апскейл тоже, если у вас плохое зрение.

А в чем проблема-то? Это никак не противоречит моим словам.
могут быть настроены на разную чувствительность

Так все таки, кто их настраивает? И каким образом эта информация попадает в мозг? От глаза второго нерва в мозг не идет. Как они могут подстраиваться сами? В той же статье говорится, что они только могут войти в насыщение (ослепление) и для выхода из насыщения необходимо до нескольких минут времени.
Если бы, как Вы утверждаете, наш глаз имел столь узкий диапазон чувствительности, мы бы либо могли видеть то, что в тени, а остальное было бы засвечено, либо видели бы только то, что на солнце, а остальное бы представлялось нам, как темнота.

Я говорил про чувствительность по яркости. Но колбочки имеют намного меньшую чувствительность и когда палочки, допустим, входят в насыщение, колбочки продолжают работать. Именно поэтому ночью вы различаете только свет, но не цвет. Поэтому в вашем примере темная сторона различается палочками, я яркая — колбочками. Но, во первых, колбочек намного меньше, поэтому и различимая детализация будет меньше, а во вторых, в темной части вы также не различите больше 3-4 градаций из-за насыщения, остальную недостающую информацию мозг дофантазирует. Поэтому говорить о полноценном восприятии также не имеет смысла.
И опять вы путаете глаз и сетчатку. Глаз не может регулировать чувствительность рецепторов, это невозможно, таких механизмов нет.

Динамическая чувствительность человеческого глаза - около 24 стопов, динамическая же < 12 стопов, и с возрастом и потерей зрения сильно уменьшается. Поэтому некоторым людям 10 кратный перепад яркости в пределах четкого угла зрения уже может мешать ясно видеть детали.

Вот ей богу, у вас столько отсебятины написано в материале, надерганной по верхам, не имеющей ничего общего с реальностью. Не понимаю, если вы в этом не разбираетесь, зачем лезите ещё кого-то учить разбираться в современных технологиях вывода изображения? Только маркетологам помогаете дальше свой хлеб есть.

Если у фотопленки чувствительность от 0 до 127, то НИКАКИМИ другими способами мы не сможем ее сделать от 0 до 256 или до 512, хоть ты тресни.

Простите, но Вы заблуждаетесь. При этом пишете с абсолютно необоснованным, на мой взгляд, апломбом.
Если у нас рецепторы имеют линейную чувствительность от 0 до 127 (для человеческого глаза это не так, но сначала рассмотрим техническую модель с такими параметрами), то есть несколько механизмов увеличение чувствительности.

Первый — посредством нескольких экспозиций с разным уровнем светового потока (он регулируется длительностью экспозиции, фильтрами, шириной диафрагмы). То есть если вы сделаете четыре снимка, на каждом из которых диапазон будет 0...127, но с разным уровнем светового потока, то у вас получится диапазон 0...127 + 128...255 + 256...383 + 384...511 = 0...511.

Второй — учет различий между сенсорами. Хоть каждый из сенсоров и различает 128 градаций, но эти градации у них не одинаковы. Скажем, один сенсор имеет 128 градаций с шагом 1 0...127, второй также с шагом 1 0,25...127,25, третий также с шагом 1 0,5...127,5 и аналогично четвёртый 0,75...127,75. Совместно они дадут интервал 0...127,75 с шагом 0,25. Приводя к единичному шагу, получим 0...511 с шагом 1. К этому можно добавить возможность делать несколько снимков с разным смещением образа изображения на сенсорах.

Теперь возвращаемся от технических систем к человеческому зрению.

Я на всякий случай перепроверил учебник «Телевидение» под редакцией В. Е. Джаконии. Там, конечно, нет таких безапелляционных заявлений, будто зрительная система человека принципиально не способна различить более 128 градаций серого. Там, напротив, написано достаточно обтекаемо.

Она, разумеется, способна. Это проявляется в первую очередь в динамике — при фейдинге нескольких немного отличающихся оттенков разница на реальных дисплеях заметна. Усугубляется это тем, что градации у человеческого глаза сильно нелинейны, и они не совпадают с градациями, которые дают восьмибитные видеосистемы.

Про яркие точки, вызывающие сужение зрачка, локальное расходование пурпура и даже болевые ощущения Вам уже сказали. Это всё эффекты, которые зрительная система человека воспринимает, и которые обычные восьмибитные дисплеи вызывать не способны.

Ситуация усугубляется также тем, что в современном мире дискретизаций множество. Например, если вы смотрите на видео, где показывают экран монитора, то у вас дискретность исходного монитора накладывается на дискретность сенсора камеры и на дискретность конечного монитора. И это может давать не то что различимые глазом, а даже и очень сильно бросающиеся в глаза артефакты.

Больше информации чем содержится в 7 битах или 128 градациях вы передать все равно не сможете, как бы вы не старались. Остальное все маркетинг.

Так что это Ваше заявление — это просто Ваша недостаточная компетентность. Вы слышали звон на лекции, но не осознали границ применимости этого звона. Я бы не стал так резко писать, разумеется, если бы Вы не писали с таким апломбом.
Если у нас рецепторы имеют линейную чувствительность от 0 до 127 (для человеческого глаза это не так,

Почему вы все путаете глаз (оптическая система в сборе) и сетчатку (отдельные рецепторы)? И мешаете чевствительность глаза (как сложной системы с кучей механизмов по регулировке светового потока и чувствительности) с чувствительностью палочки (как одного рецептора)? Да еще делаете это абсолютно необоснованным апломбом.
Все ваши примеры некорректны и к увеличению чувствительности никакого отношения не имеют.
1. Да, так можно сделать, но в реальности это костыль. Каждые отдельные снимки так и останутся с разрешением 0...127. Вы получаете на их основе больше оптической информации не за счет качества, а за счет количества. Чтобы их свести в один необходима дополнительная обработка этих снимков с весьма сложными алгоритмами. Глаз, разумеется, так не делает и не может делать. В каждый конкретный момент он считывает только одну картинку. Оперативно управлять диафрагмой (зрачком) он не может, это медленный механический процесс, остальные способы еще медленнее, так как они фотохимические.
2. Ну, это уже ваши фантазии
3. Учебник вы читали невнимательно, хотя я указал конкретные страницы. В учебнике заявляетя о 92 градациях. Соответственно, диапазон 0...127 или 7 бит его с лихвой перекрывает. Ничего обтекаемого там нет, там формулы и цифры. Прочтите учебник еще раз.
4.
Усугубляется это тем, что градации у человеческого глаза сильно нелинейны, и они не совпадают с градациями, которые дают восьмибитные видеосистемы.

Вы опять путаете теплое с мягким. Какое отношение какие то там 8битные системы имеют к человеческому зрению? Кто делал эти системы? С чего вы взяли что их 8 бит по градациям соответствуют «8 бит» градациям глаза? Возможно, их 8 бит укладываются в 3-4 «бита» глазных, или наоборот? Почему вы так лихо ставите знаки равенства между двумя совершенно разными системами и еще умудряетесь делать из этого какие то выводы и поучать?
Это всё эффекты, которые зрительная система человека воспринимает, и которые обычные восьмибитные дисплеи вызывать не способны.

Не только 8битные, но и любые другие. Это все медленные механические и фотохимические реакции. Монитор вообще не должен на них влиять. Если монитор будет заставлять зрачок ежесекундно дергаться, вынуждать химические процессы идти туда-сюда, не нужно иметь 7 пядей во лбу чтобы понять, что это нифига не полезно для зрения.
Ваша компетенция тоже вызывает большие вопросы, можете не обольщаться насчет этого. Кроме необоснованных «маркетинговых» сентенций, никаких доводов от вас я не услышал.
Почему вы все путаете глаз (оптическая система в сборе) и сетчатку (отдельные рецепторы)?

Это Вы путаете. Я чётко разграничиваю отдельные рецепторы и зрительную систему человека. Перечитайте мой комментарий, пожалуйста, и убедитесь в этом.

Все ваши примеры некорректны и к увеличению чувствительности никакого отношения не имеют.

Разумеется, имеют. Эти методы активно применяются для того, чтобы улучшать качество изображения в технических системах.

Да, так можно сделать, но в реальности это костыль. Каждые отдельные снимки так и останутся с разрешением 0...127. Вы получаете на их основе больше оптической информации не за счет качества, а за счет количества. Чтобы их свести в один необходима дополнительная обработка этих снимков с весьма сложными алгоритмами.

Вообще-то там было про технические системы, я об этом чётко написал. Но и в отношении человека у меня для Вас есть хорошая новость: зрительная система человека — это не только глаз, но и мозг, который как раз обрабатывает получаемую от рецепторов информацию весьма сложными алгоритмами. Зрительная кора — одна из самых сложных структур мозга.

2. Ну, это уже ваши фантазии

А, ну да, конечно, если Вы не в курсе, значит, фантазии, конечно. На этом я заканчиваю обсуждение. Допишу этот комментарий, и всё.

3. Учебник вы читали невнимательно, хотя я указал конкретные страницы. В учебнике заявляетя о 92 градациях. Соответственно, диапазон 0...127 или 7 бит его с лихвой перекрывает. Ничего обтекаемого там нет, там формулы и цифры. Прочтите учебник еще раз.

Не считайте себя самым умным, а окружающих — дебилами.
Разумеется, я видел это число 92, и прочитал, как оно получено.

Я даже процитирую фразу из учебника: «Полагая, что максимальный контраст, ограничиваемый глазом, Lmax/Lmin = 100, a sigma = 0,05, получаем, что максимальное число градаций, которое глаз будет различать при данных условиях, A ~= 92».

Вы не поняли, что параметры 100 и 0,05 — достаточно условные (хотя, казалось бы, то, что они такие круглые должно было Вам на это намекнуть), и даже слова «при данных условиях», к сожалению, не помогли Вам это понять.

В учебнике нет того максимализма, который демонстрируете Вы.

Так что это Вам нужно читать учебник.

Вы опять путаете теплое с мягким. Какое отношение какие то там 8битные системы имеют к человеческому зрению? Кто делал эти системы?

Это вы опять не поняли написанного, а туда же — с апломбом писать про путаницу. Ничего я не путаю. Под восьмибитными системами подразумеваются те, у которых на компоненты R, G и B выделено по восемь бит — те, которых, как Вы ошибочно утверждаете, якобы хватит всем, а больше — это якобы только маркетинг.

С чего вы взяли что их 8 бит по градациям соответствуют «8 бит» градациям глаза? Возможно, их 8 бит укладываются в 3-4 «бита» глазных, или наоборот?

Ну так это Вы «взяли», а не я. Вы же заявили, что 10-битный и тем более 12-битный HDR нинужон, что это один только сплошной маркетинг.
Но если восемь бит градаций современных мониторов — это «не те» восемь бит градаций глаза, то может двенадцать бит «не тех» градаций таки нужная вещь, которая помогает мониторам удовлетворять «тем» градациям? Подумайте об этом, пожалуйста.

Не только 8битные, но и любые другие. Это все медленные механические и фотохимические реакции. Монитор вообще не должен на них влиять.

С чего бы это монитор не должен на это влиять, если ставится задача приблизиться к реальности? А если задача приблизиться к реальности не ставится, то и шестнадцати градаций (четырёх бит) достаточно для большинства практических задач.

По поводу здоровья — животные эволюционировали в условиях реальности, в которой динамический диапазон колебаний освещённости весьма велик. Но в любом случае, Вы как-то незаметно переходите от принципиальной невозможности к заботе о здоровье, несмотря на принципиальную возможность.

никаких доводов от вас я не услышал

Это Ваша проблема, что Вы не слышите то, что не соответствует Вашей точке зрения. Не вижу смысла с Вами дискутировать — выхлоп этой дискуссии в любом случае будет близким к нулю. Лучше постараюсь статейку набросать про предельные возможности зрительной системы человека. Не знаю, правда, когда руки дойдут.
Полагая, что максимальный контраст, ограничиваемый глазом, Lmax/Lmin = 100, a sigma = 0,05, получаем, что максимальное число градаций, которое глаз будет различать при данных условиях, A ~= 92
Да, меня это тоже позабавило. Притянули за уши непонятно откуда взятые числа, без всяких объяснений, причем, такое впечатление, что из какой-то очень древней методички

Такое впечатление, что авторы пытаются подогнать человеческое зрение под несовершенство техники
Да нет, к учебнику-то у меня вопросов как раз почти нет, кроме того, что он написан так, что невнимательные люди могут его неправильно понять (ну и местами, мне кажется, они несколько упрощают, но это и понятно — всё же речь об инженерном вопросе систем, рассчитанных на массового потребителя).

По поводу той же сигмы там же на предыдущей странице написано:
«В рабочем диапазоне изменения яркости фона (яркости адаптации) Lф в первом приближении можно считать, что (deltaL/Lф)пор = sigma = 0,02...0,005 = const.»
Используемое при получении A = 92 значение sigma 0,05 далеко от концов диапазона, про который они осторожно пишут «в первом приближении». А ведь ещё и размер деталей имеет значение, на что авторы также указывают.

Если, к примеру, взять sigma = 0,005 (с конца диапазона «в первом приближении»), то получится A ~= 921, что влезет уже только в 10 бит, почти совсем без запаса.
Да, я именно про эти числа. Впечатление — будто из справочника Потолковского

Для удобства давайте приведём всю выдержку текста про контраст

Страницы 40-43 включительно

У вас даже мысли не возникло, что это опечатка? Когда указывают диапазон чисел, то слева обычно пишут меньшее число, а справа - большее. И это не говоря уже о том, что число 0,005 противоречит смыслу далее излагаемого текста. И более того, правильное число 0,05 приведено далее в расчете.

На данных страницах этот диапазон берётся как исходная точка рассуждений (причем, с оговоркой "при первом приближении"), принимается как данность, и на этой данности уже строятся остальные рассуждения. С этими рассуждениями всё более-менее понятно.

Мне же интересно было бы узнать само обоснование тезиса про дипазон 0,02...0,05. Я хотел бы где-нибудь прочитать, на основании каких рассуждений, расчётов и исследований был выведен данный диапазон. Это действительно прояснило бы многие вопросы.

У вас даже мысли не возникло, что это опечатка? Когда указывают диапазон чисел, то слева обычно пишут меньшее число, а справа - большее. И это не говоря уже о том, что число 0,005 противоречит смыслу далее излагаемого текста. И более того, правильное число 0,05 приведено далее в расчете.

Я не заметил, что там есть опечатки, спасибо, что обратили внимание.

Есть и быстрые эффекты, но они в мозге, это называется адаптация.

Фотопленка имеет разрешение 16 K. Там хоть 7 бит не проблема.

Чего у пленки где? :)
У нее нет пикселей. У зерна нет градаций по яркости

Есть. Называется атомы.

Альтернативная физика на Хабре? Опять?..
Но вопросов больше нет, это да

Предположу, что, возможно имеется ввиду, что у плёнки изображение тоже квантуется - не по пикселям, а по зёрнам, и при некоторых допущениях это можно считать эквивалентом разрешения.

А по градации - по идее, плёнка работает на фотохимии, и молекулы зерна могут либо прореагировать, либо не прореагировать, промежуточных состояний быть не может, поэтому, как-бы, уровень градации квантуется - сколько молекул на поверхности зерна прореагировало, а сколько - нет. Только уровней этих примерно столько, сколько молекул на поверхности зерна, поэтому таким квантованием можно пренебречь, кроме случаев проектирования плёночных камер для микродронов.

Это мои предположения, я не претендую на экспертизу.

Не надо предполагать, надо просто почитать как работает фотохимия.

Неравномерный засвет нескольких молекул происходит при экспонировании. При проявлении — каждое зерно дореагирует целиком, все сразу, без градаций

Очень интересно, не подскажите качественные источники, где можно про это почитать?

Неравномерный засвет нескольких молекул происходит при экспонировании. При проявлении — каждое зерно дореагирует целиком, все сразу, без градаций

Тогда это больше напоминает дизеринг, а не градацию в прямом понимании.

Уровни градации сюда, наверное, можно за уши притянуть, но это количество уровней будет не постоянно, а зависеть от площади участка, который мы рассматриваем - чем он больше, тем больше в нём зерен, тем больше вариантов градаций.

Ээээ… Да везде про это написано. Ну вот, просто навскидку: smekni.com/a/312108/osnovy-fotografii-fotokhimicheskie-reaktsii

И разрешения тоже нет, потому что нет пикселей. А зерна — еще и разного размера в пределах одной эмульсии

Ещё как есть))

Почему, например, считается что слайд критичен к пересветам, а негатив к теням? Потому что на самой плёнке это будут прозрачные участки с вымытой фотоэмульсией. И сколько света (при печати, сканировании или проекции) не давай на эти участки - информации в них ноль. А вот наиболее плотные участки эмульсии в процессе проявки можно как раз "пробить".

P.S. "Зерно" - это что-то из сельского хозяйства? В фотохимии это просто слэнг для обозначения частиц серебра или пигмента.

А при чём тут пересветы и тени, когда речь о разрешении и градациях?
ни при чом

Зерно — фактически, является общепринятым термином, а не жаргоном

Ну для начала мы про градации (разрешение - отдельная тема). Если их нет в тенях или светах - это та самая "битность". Ну т.е. наличие или отсутствие информации.

Зерно - это термин, обозначающий прежде всего что? Фактуру "пленочного изображения". Всё. А химия фотоэмульсионного слоя описывается в несколько иных терминах.

Ну что это за "зерно дореагирует", "у зерна нет градаций по яркости"?..

И зачем эта казуистика на счет градаций, когда абсолютно очевидно, что в теме идет обсуждение не тупо «есть цвет, нет цвета»? Просто в качестве попытки придраться к словам?

Ну так — придраться не вышло.
Ибо в контексте обсуждения — у пленки нет градаций. Там, как попытались сформулировать «на айтишном» в каментах — дизеринг зерном непостоянного размера

Зерно — это буквально: «зерно». Плотное и аморфное образование галогенида серебра или самого серебра. Самый подходящий и потому — общепринятый термин

Мне так реально надо разжовывать каждое слово? Я могу, даже с формулами, ибо за плечами изучение нескольких видов химии в мед универе — но нафига мне это делать? Тут айтишный ресурс, ни разу не химический и я не буду пытаться общаться с пользователями, как препод на лабе. Терминологии д76 ру более чем достаточно и для профессиональных фотолаборантов, мутящих свои составы, и для здешних айтишников

Так что, плиз, не надо этой викпедийной гуглоэрудиции

Ибо в контексте обсуждения — у пленки нет градаций.

Ну во-первых, у плёнки есть "градации". Не верите? Снимите на плёнку любую "серую шкалу"))

Во-вторых, в слайде, например, конечное изображение формирует отнюдь не коллоидное серебро, а специальные пигменты.

В-третьих, вы, видимо, как раз-таки очень плохо себе представляете "внутренности плёнки". Толщина фотоэмульсионного слоя довольно значительна - т.е. ваше зерно там расположено не только в плоскости плёнки, но и по "ярусам", да ещё довольно хаотично. А не как вы тут пытаетесь представить формирование плёночного изображения в виде растровой черно-белой печати))

Ну и последнее. Вам корона не жмёт? А то тут уже не осталось пользователей, которые не в курсе вашей биографии. Ну давайте тогда уж и я представлюсь: бывший оператор Noritsu 3201, по совместительству дизайнер-верстальщик в полиграфии, со "стажем" съёмки на плёночные фотоматериалы более 15 лет.

И я сильно сомневаюсь что даже на фотоаптеке термин "зерно" используется не только для описания масштабов фактуры плёночного изображения, а ещё и для описания процессов формирования изображения.

Кстати, а какие вы там формулы хотели представить? Даташиты и ХК для каких-то фотоматериалов?

Как я и думал — ни слова по сути, какие-то нелепые фантазии на мой счет и прочие детские обидки

Адью
Учебник по телевидению, в обсуждении физиологии зрения??
Мягко говоря — очень спорно))
Да что вы говорите?! Вот это вывод))) Да все телевидение только и работает благодаря особенностям человеческого зрения. Это основа. И не только телевидение, а все вообще визуальные устройства.
Если там написано, что глаз различает 7 бит по яркости и цвету — это чушь. Абсолютная
Просто офигительный уровень аргументации) браво! Вы превзошли самого себя!
Я ниже написал все аргументы, не надо истерить, плиз

Если так, то еще раз повторюсь: разрешение глаза по яркости не превышает 7 бит, эти исследования проведены давным давно еще на заре телевидения.

Не надо пожалуйста транслировать вот этот, откровенно ошибочный тезис. Я не знаю что там были за "исследования" (особенно на "заре телевидения" - тогда уже были в курсе такой единицы измерения как "бит"?). Я лично, ещё лет 15 назад, спорил на эту тему на фотографических форумах, пока наконец не сделал простейший эксперимент и не предложил его пройти всем сомневающимся (причём даже тут писал об этом когда-то).

Сделайте картинку с фоном, ну условно rgb(0, 128, 0), а на ней надпись цветом rgb(0, 127, 0) - если вы не можете прочитать надпись, то либо у вас очевидные нелады с монитором, либо какая-то разновидность дальтонизма.

Не надо пожалуйста транслировать вот этот, откровенно ошибочный тезис

Выходит, по вашему, учебники пишут дураки, а вы один умный? Я вас огорчу, но это не так. Ссылку на учебник и на конкретные страницы я дал. Там есть формулы и физическое и физиологическое обоснование. Если вы не согласны с этим, то предлагайте обоснованные аргументы. «Это все чушь, потому что тогда не знали про бит» — это не аргумент.
Сделайте картинку с фоном, ну условно rgb(0, 128, 0), а на ней надпись цветом rgb(0, 127, 0)

Ваш пример не уместен. Я говорил ( и в учебнике написано) про разрешающую способность ПО ЯРКОСТИ, а не по цвету.

Ну т.е. моя аргументация вас не устраивает, а ваша "учебники пишут дураки, а вы один умный" - весомый довод?

Я не знаю в каких именно учебниках что-то там пишут. Но вполне допускаю что там могут быть ошибочные данные. Потому что опираюсь именно на эмпирические знания. Куда ещё "более обосновано"? Я говорю что вижу (и большинство видит), а вы "нет, вы не можете видеть, потому что в учебнике обратное написано"... У меня просто нет слов!

Дальше. Во-первых что такое "разрешающая способность по яркости"? Мы тут вроде не про мегапиксели, а про градации оттенков.

Ну и как бы с rgb(127, 127, 127) и rgb(128, 128, 128) всё будет ещё более наглядно.

Не верите? Ну проверьте свои глаза и монитор:

P.S. Я кажется догадываюсь откуда "растут ноги" вашего заблуждения. Там в учебнике может быть где-то было опущено уточнение "при одномоментном сравнении"?))

Потому что в противном случае в дело вступает память. А без помощи референсных цветов (в поле зрения) наша память может искажать цвета довольно ощутимо (особенно насыщенные). На этом принципе собственно и работает перцептивный метод конвертации цветовых пространств, зрительная адаптация к разной цветовой температуре источника и т.п.

Если же непосредственно сравнивать два цвета - то человеческое зрение обладает колоссальной точностью. По памяти из "книги рекордов Гинесса '93" - человеческий глаз способен различать около 100млн. цветовых оттенков, в то время как самые совершенные спектрофотометры не более 40млн.

Сейчас приборы наверняка стали точнее, но извините меня - 100 миллионов в 6 раз больше 16млн. (8бит).

Надпись видна отчётливо

Более того, даже на превью видно, не открывая картинку отдельно
На обоих рабочих мониторах — надпись тоже хорошо видна
Но вполне допускаю что там могут быть ошибочные данные. Потому что опираюсь именно на эмпирические знания.

Папуасы, например, опираясь на эмпирические данные, утверждают, что молния, к примеру — это результат деятельности громовержца зевса. Люди, которые читают учебники, знают что это не так, и что молния — это электричество. Надеюсь, вы осознаете что отрицание научного знания и полагание только на опыт опрокидывает вашу аргументацию на уровень папуасов. По хорошему, вам следовало бы придумать объяснение, почему (по вашему мнению), теория расходится с практикой вместо того чтобы голословно обвинять учебники и меня в некомпетенции.
Во-первых что такое «разрешающая способность по яркости»?

Как вы должны знать из уроков биологии, сетчатка глаза состоит из палочек и колбочек. Палочки чувтвительны к свету, а колбочки — к цвету. Палочек намного больше и они более чувствительны, этим активно пользуются как в телевидении, так и обработке изображений вообще. В телевидении полоса частот для передачи цветовой информации делается в 4 раза уже, при этом глаз не видит никакой разницы. В цифровой обработке яркостной компоненте выделяют бОльшее битовое поле, чем цветностным. Это позволяет экономить ресурсы, пользуясь особенностями человеческого зрения. И да, у глаза нет «пикселей» в вашем понимании, поэтому речь идет как ииво всей ветке обсуждения о разрешающей способности по УРОВНЮ яркости.
Ну проверьте свои глаза и монитор:

Я сейчас сижу со смартфона и надпись неразличима. Может быть, это наоборот, говорит о хорошем качестве моего экрана? Может быть, ваш монитор наоборот неисправен и излишне выделяет границы переходов, как это происходит после вч фильтрации? Вы это не можете знать достоверно.
Там в учебнике может быть где-то

Ну так почитайте учебник, найдите это «где то». Название и даже конкретные страницы я привел. Может, по ходу чтения узнаете что-то новое для себя.
различать около 100млн. цветовых оттенков

И опять, который раз. В ветке речь идет о ЯРКОСТИ, а не о ЦВЕТНОСТИ. Ну при чем тут оттенки? Вы даже не понимаете в полной мере какой вопрос сейчас мы обсуждаем.
Я сейчас сижу со смартфона и надпись неразличима. Может быть, это наоборот, говорит о хорошем качестве моего экрана?


Надоел пустой спор, сел за стол
На обоих моих мониторах, один более-менее полиграфический, хоть и не Яйцо — nec pa271w. Второй — какая-то дешевка офисная, вспомогательный 19", на нем даже вга разьем есть.

На обоих мониторах видна надпись, очень хорошо. Что я ее разглядел на смарте — я уже говорил
Еще раз повторяю, на моем смарте надпись неразличима и не читабельна на любых уровнях яркости.

на моем смарте надпись неразличима и не читабельна на любых уровнях яркости.

и это значит, что здесь все врут, а вы единственный светоч знаний на белом коне

2 монитора, марку полупроф я назвал, марка офисного значения не имеет. Два смартфона, айфон 8+ и s20fe — я везде различил эту надпись, без малейшего труда

Более того, не поленился растянуть градиент 0-255 на 10к пикселей и потыкался пипеткой, где-то на 230 монитор сдает и все сливается, старенький он уже, до этого от 0 до 220 (примерно) — каждая градация различима

И да, зрение у меня идеальное. Повезло :)
А я умею летать как железный человек. Не верите? Ваши проблемы. А еще у меня кое что 30 см.
Ну да, началось. Про единственного светоча, имеющего единственно правильные глаза и не допускающего, что у кого-то они лучше — уже ниже кто-то написал

За сим — адью

кстати, дайте ссылку на свой учебник. А то я тут погуглил, пишут, что различаемый range of light intensity - более 10 пунктов по логарифмической шкале. Что по сравнению с постулируемыми 7 битами даже не смешно

есичо - ссылке: раз два три

Вы, как обычно, путаете глаз и его чувствительные элементы — палочки.
Про учебник — ищите в ветке, я давал и название и номера страниц.
Какое удивительное неуважение к окружающим. Вас просят ссылку, а Вы отсылаете искать какие-то Ваши сообщения, в которых Вы и название-то учебника не давали, а только имя редактора и тематику.

Что ж, дам ссылку за Вас — число 92, к которому Вы привязались, написано на 41-й странице.
Папуасы, например, опираясь на эмпирические данные, утверждают, что молния, к примеру — это результат деятельности громовержца зевса. Люди, которые читают учебники, знают что это не так, и что молния — это электричество. Надеюсь, вы осознаете что отрицание научного знания и полагание только на опыт опрокидывает вашу аргументацию на уровень папуасов.

гхм, наоборот, вы хотите подменить критерий Поппера верой в научность подобной вере в зевса у ваших воображаемых папуасов.


И опять, который раз. В ветке речь идет о ЯРКОСТИ, а не о ЦВЕТНОСТИ

с этим вы уже сели в лужу, когда заявили, что rgb(0, 128, 0) отличается от rgb(0, 127, 0) цветностью, а не яркостью

с этим вы уже сели в лужу, когда заявили, что rgb(0, 128, 0) отличается от rgb(0, 127, 0) цветностью, а не яркостью

Это вы сейчас сели в лужу. У цвета нет ЯРКОСТИ, у цвета есть СВЕТЛОТА, и она РАЗНАЯ у разных цветов. Например, чувствительность глаза к синему цвету почти в 2 раза больше чем к зеленому и красному. Поэтому rgb(0, 128, 0), rgb(128, 0, 0), rgb(0, 0, 128) по СВЕТЛОТЕ совершенно разные и на их относительное изменение глаз также реагирует по-разному.

У меня тоже очень плохо видно на amoled плашете, надо присматриваться.

На моем 10 бит экране не видно разницы между 0, 1, 2, 3, ... 1023. Но это в SDR.

Занятно. Вообще не вижу ни надписи, ни хоть какой-то неравномерности на сером квадрате. Монитор DELL S2721DGFA, калиброванный однажды зимой.

P.S. - убавил яркость с 75% до 50% - стало можно прочитать.

Некропостите?))

Калибровка (и тем более модель монитора) тут не особо принципиальна - важно чтобы гамма соответствовала. И условия просмотра.

Из анамнеза, во-первых, следует что у вас задрана яркость. Это плохо - это серьёзная нагрузка на глаза. Лампы подсветки быстрее деградируют и т.п. Из плюсов - высокая яркость позволяет немного расширить цветовой охват.

Теперь пара советов:

  1. Когда в следующий раз будете калибровать - настройте яркость, контрастность и освещение в комнате под комфортный для себя уровень. Вообще советуют (вот тут могу соврать - это для ЭЛТ рекомендации были) контрастность в максимум, а яркость в ноль и на референсной картинке повышать яркость ровно до того момента, когда вот эти градации начнут быть хоть немного различимы - выше поднимать уже нет смысла.

    Т.е. создайте те условия просмотра, которые вы будете постоянно использовать.

    1а. Если условия отличаются (день - вечер, просмотр кино - работа с цветом) - делайте несколько профилей под каждые условия просмотра. А потом просто меняйте это профили под соответствующие условия. Я вот сделал профили под разную цветовую температуру и яркость (хотя и использую только один).

  2. Поставьте себе обои на рабочий стол от RealColor - позволяют сразу детектить какие-то проблемы с гаммой (профиль отвалился, яркость кто-то выкрутил и т.п.) - я такие уже 15 лет использую. И не отвлекают, и одновременно функциональны))

    2а. На Винду обои встают криво (любые). Винда отжирает гигабайты памяти под папки с "мусором", но тут клоунам инженерам из Майкрософт зачем-то приспичило заняться "оптимизацией килобайт" - референсная картинка должна быть в несжатом формате (в нашем случае png) - тут нужна попиксельная точность. Ну а Винда обои в любом формате сама (без спроса) конвертит в пережатый jpeg и на рабочий стол суёт именно пожматую картинку... Решаемо, но надо погуглить и пошаманить немного.

P.S. За статью по цветопередаче что ли сесть... Прям запрос как будто на эту тему есть))

И по цвету и по яркости, человеческое зрение различает больше 7 или 8 бит

Странный спор, пойду выше по ветке почитаю
Кто вам это сказал? В учебнике пишут что нет.
Я профессиональный ретушер/цветокорректор, стаж больше 20 лет, проходил тесты на цветокоррекцию с ошибками меньше, чем допускается для профессии, а там отличия но яркости и цвету на уровне «едва различимо». Люди без опыта вообще видят все бумажки одним цветом и яркостью

Я надпись увидел на смартфоне — мгновенно

Если сделать градиент по яркости 0-255 и растянуть на весь монитор, я вижу каждую градацию, если монитор вообще способен их отобразить. А я только за такими и работал: профессиональные мониторы для полиграфистов и фотографов, не жалкие неки или йямы, а лоси и яйца

Кстати, потому 256 цветов и яркости откровенно не хватает для передачи всех оттенков. Потому старой режим мониторов с 256 цветами благополучно почил.

Выкиньте этот учебник по телевидению, там ересь.
Если что — я учился в мед универе, так что физиологию зрения тоже понимаю лучше, чем средний обыватель.
Да мне плевать, кто вы, чем занимаетесь и какой у вас опыт. Я доверяю фактам и теории, а не авторитетам. Я как то общался с сантехником со стажем 20 лет, который уверял меня что через пластиковые трубы в воду, находящуюся под давлением в 10 атмосфер из воздуха под давлением 1 атм проникает кислород и поэтому у меня в доме течет ржавая вода. Как видно, опыт никак не кореллирует с уровнем компетенции. Если человек — дурак, то и через 20 лет он останется дураком, если не будет читать умные книжки.
я вижу каждую градацию, если монитор вообще способен их отобразить

Очень интересное заявление. Т.е., монитор, возможно, их и не отображает, но вы все равно их видите? Не кажется ли вам, что когда человек начинает видеть то, чего нет — это повод обратиться к соответствующим специалистам?
потому 256 цветов и яркости откровенно не хватает

И опять та же песня. Почему вы все путаете и мешаете в кучу яркость и цветность? И да, вы бы еще для примера 16 цветов CGA вспомнили.
Выкиньте этот учебник по телевидению,

Ну надо же) поколения инженеров учились по нему, а тут пришел vconst и говорит что все не так. Ну напишите тогда свой учебник, чего уж там. Судя по вашим «регалиям», которые вы озвучили, вам это будет — раз плюнуть.
Очень интересное заявление. Т.е., монитор, возможно, их и не отображает
Вы скатились на какой-то примитивный троллинг. Передергивание и вырывание из контекста 60го уровня, истерите и плюетесь ядом, как не пристало взрослому человеку.

А потом оказывается, что про 7 бит вы не в учебнике прочитали, а на каких-то курсах
Да вот чья бы корова мычала. Вы за собой следите лучше.
Если сделать градиент по яркости 0-255 и растянуть на весь монитор, я вижу каждую градацию, если монитор вообще способен их отобразить. А я только за такими и работал: профессиональные мониторы для полиграфистов и фотографов, не жалкие неки или йямы, а лоси и яйца
Т.е., монитор, возможно, их и не отображает, но вы все равно их видите? Не кажется ли вам, что когда человек начинает видеть то, чего нет — это повод обратиться к соответствующим специалистам?

Я где-то опускался до таких передергов?
Нет :)

Вы не увидели надпись серую на сером, а я увидел. Может проблема не в мониторе — а в глазах?
Опускались и не раз. Информацию из уважаемого учебника называли чушью без какой — либо аргументации. Вы, по сути, плюнули в душу всем инженерам.
Может проблема не в мониторе — а в глазах?

Если вы видете то, чего нет, может проблема все таки в вас? Допускаю, что это, так сказать, профдеформация.
Потом оказалось, что это информация с каких-то курсов, ага

У меня очень хорошее зрение
Монитор 27", 2560*1440, в полуметре от глаз — вижу отдельные пиксели, лестницу на границах и артефакты сглаживания

Но, автор картинки — вроде не профессиональный цветокорректор :)
Что вы прицепились к этому слову — курс? Вы разве не знаете, что в высшем образовании цикл определенных дисцеплин называется курсом? Например, курс матанализа, курс начертательной геометрии. Или вы знаете только одно значение слова «курсы»? Вот видите, сегодняшний день прожили не зря — выучили новое значение слова!
Вообще-то, когда говорят о курсе в высшем образовании, используют единственное число. Собственно, как Вы в этом сообщении, на которое я отвечаю, и сделали.

А ранее, рассказывая про себя, использовали множественное число — «на курсах», которое означает отдельный вид образования, обычно дополнительного, но почти никогда — высшего.

Так что, боюсь, и русскому языку лучше учиться не окружающим, а Вам…

Ладно, чего-то я завёлся. Всё, заканчиваю обсуждение с Вами, не буду раздражать окружающих :)

доверяю фактам и теории, а не авторитетам.

Вам уже двое поделись личным опытом. Это факты. Вы фактам не доверяете. Слепо повторять какой-то частный случай, наверняка выдернутый из контекста - это догматизм. Научный подход - перепроверять. Постоянно. Вы сами-то пробовали перепроверить? Ведь для этого коллайдер строить не нужно.

Ну и в копилку знаний - прочитайте как мозг обрабатывает сиккативы. Обычно делают акцент на пространственном разрешении зрения при этом, но и цветовое/яркостное почти наверняка улучшается относительно изначального "сенсора".

Да хоть десять, еще раз говорю — мне плевать. Это не факты, а чьи то мнения. Факты — объективная реальность, которая объясняется теорией. Если вы не можете объяснить эти факты, вам незачем было тратить время и траффик на написание бессмысленных слов.

тред: хм, мы различаем отдельные оттенки 256-битного градиента

zatim:

мне плевать. Это не факты, а чьи то мнения

Почему вы все путаете и мешаете в кучу яркость и цветность?

так и вы тоже. Когда предложили тест (0, 128, 0) -> (0, 127, 0) - это было про яркость или про цветность?))

ну и так, к слову про древние учебники, тут буквально пару дней назад нашли ошибку в 100-летней теории о форме цветового пространства, и даже пейпер выпустили

да, надо было конечно со ссылкой. Исправлюсь)

Именно. Впрочем и до этого все знали, что 2° и 10° обзерверы полная дрянь.

это было про яркость или про цветность?

Это было про цветность. У цвета нет ЯРКОСТИ, у цвета есть СВЕТЛОТА, и она РАЗНАЯ у разных цветов. Например, чувствительность глаза к синему цвету почти в 2 раза больше чем к зеленому и красному. Поэтому rgb(0, 128, 0), rgb(128, 0, 0), rgb(0, 0, 128) по СВЕТЛОТЕ совершенно разные и на их относительное изменение глаз также реагирует по-разному.

Вы путаете SDR и HDR. В SDR 10 бит уже не видна разица, не видны градации от белого к черному. На 8 бит дисплее не видны, если переход идет не от белого к черному, а через другие цвета по нормальному алгоритму, по правильному цветовому пространству, типо IPT или Oklub.

Но мы видим больше градаций в яркости, а не в цветности.

А как это исследовали? На чем воспроизводить это можно было достоверно в те годы?

Только на неделе открыли, что вся эта наука было неправильная, так как риманова геометрия не точно описывает, как работают наши глаза. Ну и конечно, давно известно, что 2° observer это полная фигня, как и 10°, впрочем.

Dolby Pulsar 12 бит на канал. Ну и разумеется 12 битов контент не требует 12 бит дисплея, так как дисплей тмеет меньший охват, чим файл

10 бит на канал — это не чтобы все 1024 градации яркости видеть сразу, а чтобы цветовые градиенты были плавными, а не ступенчатыми. У монитора, в отличие от глаза, нет автоподстройки под динамический диапазон.
Откройте на 10-битном мониторе любую тестовую картинку с градиентом в 256 и 1024 градации, сразу увидите разницу.


условно, вот так

image

Если говорить просто, то существует два вида 10-битности.

Есть 10-битность профессиональных мониторов, которая, условно говоря, при том же цветовом охвате даёт большую точность - поэтому градиенты гладкие. Крутые мониторы с козырьком для работы с фотографиями - это оно. Разумеется, цветовой охват там может быть и шире, и яркость выше, но в приоритете - отсутствие бандинга, то есть ситуации, когда градиенты разваливаются на ярко выраженные полоски.

А есть 10-битность для HDR - здесь точность примерно такая же, а сам диапазон увеличен.

Расширение числа градаций и расширение диапазона интенсивности - два несвязанных параметра
Расширение числа градаций и расширение диапазона интенсивности - два несвязанных параметра

Когда на мониторе с разрешением 1920х1080 выставляют режим 1280х 768 тоже получается что попало и размыленно. Может, это с этим связано? Проблемы с интерполяцией одних уровней в другие? Я то имею в виду аналоговые уровни и градации.

Нет, речь не про интерполяцию, а про количество уровней в динамическом диапазоне монитора. Когда их 256 на канал — разница между соседними уровнями четко видна. Когда 1024 — видна уже меньше (но все равно различима).


Интерполяция цвета в мониторах тоже бывает, но динамическая — пиксель переключается между двумя соседними уровнями, чтобы в результате получился средний между ними. На дешевых мониторах так делают 8-битный цвет (называется 6-bit + FRC), выглядит как "шум" на определенных оттенках. На менее дешевых встречается такой "интерполированный" 10-битный цвет (8-bit + FRC)

Можно и за 8 бит убрать ступеньки. Небольшая магия дизеринга. Ясное дело смотреть в оригинальном разрешении (таким образом, чтоб пиксель изображения соответствовал пикселю монитора).

Дизеринг плохо сжимается (двже нп jpeg xl), поэтому его всегда добавляют на экране.

Помнится на курсах по телевидению
Так уже на курсах, а не в учебнике?

Я спорил с одним человеком, который утверждал, что дистиллированная вода опасна, ему это тоже на курсах сказали. После того, как услышал про курсы — спорить перестал.

а что не так? она действительно опасна, не помню какая смертельная доза, но вроде бы всего несколько литров


P. S.

)))

утверждал, что дистиллированная вода опасна
Ну дык:
Дигидрогена монооксид ☠️
Дигидрогена монооксид
Недавно исследователи открыли факт загрязнения наших водопроводных систем опасным химикатом. Этот химикат бесцветный, безвкусный и не имеет запаха. Он убивает бесчисленное множество людей каждый год. Правительство не предприняло никаких попыток регулирования этого опасного заражения. Данный химикат называется «дигидрогена монооксид» (Dihydrogen monoxide).
Химикат используется для следующих целей:
В производстве как растворитель и хладагент
В ядерных реакторах
В производстве пенопласта
В огнетушителях
В химических и биологических лабораториях
В производстве пестицидов
В искусственных пищевых добавках
Химикат является основной составляющей кислотных дождей
Способствует эрозии почвы
Ускоряет коррозию и вредит большинству электроприборов
Длительный контакт с химикатом в его твёрдой форме приводит к серьёзным повреждениям кожи человека
Контакт с газообразной формой химиката приводит к сильным ожогам
Вдыхание даже небольшого количества химиката грозит смертельным исходом
Химикат обнаружен в злокачественных опухолях, нарывах, язвах и прочих болезненных изменениях тела
Химикат развивает зависимость; жертвам при воздержании от потребления химиката грозит смерть в течение 168 часов
Ни один известный очиститель не способен полностью очистить воду от этого химиката
Несмотря на эти опасности, химикат активно и безнаказанно используется в индустрии. Многие корпорации ежедневно получают тонны химиката через специально проложенные подземные трубопроводы. Люди, работающие с химикатом, как правило, не получают спецодежды и инструктажа. Отработанный химикат тоннами выливается в реки и моря.
Мы призываем население проявить сознательность и протестовать против дальнейшего использования этого опасного химиката…
Ужос-ужос☠️💀😮
sarcasm/

Она опасна, если убрать все соли, да. В обычных условиях это не так легко добится.

Впрочем, наоборот тоже правда, попробуйте выжрать 1.25 Боржоми.

И тут в чат врывается Балинг, полсотни каментов за два часа, как на работе :)

Какие соли «надо убрать»? Чего в этом сложного? Что страшного в полторашке Боржоми, которую я легко выпиваю за раз?

Еще раз. Опасность дистиллированной воды для организма — миф

https://www.livestrong.com/article/372479-what-are-the-dangers-of-drinking-distilled-water/

Мы получаем много солей из воды. Это не значит, что вы прям умрете из-за этого, но эффекты будут веселые.

1.5 литра Боржоми уже приводит к ожогу внутренних органов. Странно, то вы того не заметили.

www.livestrong.com/article/372479-what-are-the-dangers-of-drinking-distilled-water

Мы получаем много солей из воды. Это не значит, что вы прям умрете из-за этого, но эффекты будут веселые.

1.5 литра Боржоми уже приводит к ожогу внутренних органов. Странно, то вы того не заметили.

Ответить
Это просто праздник какой-то (с)
приводит к ожогу внутренних органов.
Можно промыть гомогенной смесью 0.5 моля гидроксида пентагидродикарбония с 2-мя молями монооксида дигидрогена
/irony

10 бит на SDR? Может быть. 10 бит на HDR это вообще ни о чем.

Обычное кодированное 4к HDR видео порядка 10 мбит/с. Самое большое, что мне встречалось на торрентах — 50 мбит/с. Передать 50 мбит/с в 2022-м году не представляет проблемы по-моему. Даже в нашей деревне. При том, что технологии кодирования улучшаются вместе с доступной мощностью декодеров (телевизоров). То есть в будущем можно будет жать ещё больше.

50 это очень мало. Там и 200 может быть. Кстати, это же средний битрейт, то что вы видете в mediainfo.

1)4к кино есть. 120гц для игр и винды.
2)120гц косвенно может помочь и фильмам т.к. 24->120 это 1 к 5, а 24->60 корректно не преобразуется.
3)там не на 4 нужно умножать, а чуть меньше. Чем больше разрешение, тем меньше бит на пиксель пишет камера и тем лучше работают алгоритмы сжатия. В случае же частоты кадров эффект ещё более заметен.
4)у меня интернет 300мбит за 400р/мес, т.е. за ночь(8 часов) я могу скачать 1тб инфы. Так что для меня лично фильм в 1тб это многовато(надо место на файлопомойке разгрести) но в пределах разумного

Максимум, который я видел это 200 ГБ, утекший мастер фильма my little pony :)

Весила эта прелесть 86гигов. То есть на 1 блю рей диск не влезет!

На BD100 влезает. Именно на BD100 оно и издавалось.

Этой экзотики я сам никогда не видел. Теоретически есть 4х слойные блюрей, но на практике 2х слойные. Сложно представить сколько стоит 4х слойный.

BD-100 трёхслойные. И да, дома я храню (UHD)BD фильмы на NAS в образах или папках.

Аналогично, храню на жестких дисках или BD. Но 3х слойный - это уже реально экзотика. На большом экране сразу заметны все артефакты. Кто там говорил про разницу 8 и 10 бит на канал ? А вы сами посмотрите... Не только не на стремном телике...

Spider-man No way home как раз такой.

Да не важно, есть контент или нет. На матрицах низкого разрешения выше заметили в каментах черную сетку между пикселями, а на 4к ее нет.

У вас никогда не будет 86*4, потому что во-первых, у вас не bmp, - картинка, а во-вторых, процент независимой информации при повышении разрешения, уменьшается. Можно, банально, хранить fhd-картинку и к ней - разницу цветов между пикселями в пределах одного fhd-"пикселя". И эта разница будет очень хорошо сжиматься.

Нет никаких 60 Hz у властилина колец. Весь youtube 60 fps, в том числе hdr контент. 120 кадров планируются, на x2 уже можно смотреть. Все камерв снимают в 120 кадров сейчас.

Видеть больше 60 кадров в секунду - это как кататься на велосипеде. Если в детстве не научился, то потом будет уже сложно :)

В детстве у мена был ЭЛТ монитор, на 200Гц.

Зато, единожды научившись, обратно не выучишься

Главное потом на этом не заморачиваться (я не об умении ездить на велосипеде, а о способности различать дефекты изображения).
Вот я попал в эту ловушку. Поработав за 144-герцовым монитором, уже некомфортно работать за 60-герцовым. Создаётся впечатление, что компьютер тормозит. Хотя ПК остался прежним. Это раздражает.

Я выбирая монитор начитался "мнений", что 240гц маркетинг, мол 144 это топ (при условии что есть тесты с про игроками в КС на 144/240, и даже у них не всегда вырастает время реакции и точность) но взял в итоге все же 240, и... 144-240 разницу видно сразу, и дело даже не во времени отклика, а банально в меньшем дерганье картинки, после 240, 144 уже выглядит сильно хуже, 60 это просто ужас. Но это игры, в обычной работе хоть 240 и приятнее 60, но работать это не само деле не мешает, хотя не спорю, на 240 даже работать приятнее.

Он и тормозит. Аппаратный курсор в windows та еще неоптимизированная фигня.

Поставьте 24 кадра, например.

И кстати, чем больше Hz, тем меньше основной компонент input lag-а.

Примерно 5 лет назад я сходил в жърный шоурум мониторов, поиграл 10 минут за самым крутым на тот момент (27" 1440р 144гц GSYNC) - выложил за него килобакс и уже 5 лет кайфую. Так что - тут надо только попробовать.

Собираюсь заменить телевизор. После чтения статьи и обзора на tomsguide становился на OLED65С1.

А выбора то нету, кроме как с1, в этом и печаль, есть конечно g1, который есть смысл рассмотреть и sony bravia, но цена там будет сильно выше

Главный вопрос: существуют ли тупые телевизоры 55”+ в 2022 году? Ну чтобы не было ведра внутри, всех этих оболочек, прочих смартов? В идеале выкинуть еще и ТВ-тюнер. Пусть телевизор будет ретранслятором картинки с HDMI.

Существуют профессиональные панели, но они будут отставать от обычных по технологиям, и их будет гораздо сложнее достать

Можно поступить проще: взять потребительские телевизоры и перевыключать всё, что не нужно. Я так и сделал - у меня даже до сих пор не вбит пароль на WiFi.

А можно пример такой профессиональной панели?

Мне реально любопытно, вы действительно будете себе брать проф олед за миллион примерно?

Просто чтобы избавиться от смарт)?

на LG можно просто не принять лицензионное соглашение и весь смарт отключится.

А, при необходимости, можно будет принять его позже и включить смарт?

Ретранслятором? HDR управляется цветом на стороне дисплея по стандарту.

Немного про ШИМ. Его используют по причине банальной энергоэффективности, а не потому что со светодиодами есть какие то проблемы. Подсветка - это существенная часть в энергопотреблении телевизора и если регулировать ток линейными способами, то придется где то рассеивать офигенную мощность в 50-100 Вт на регулирующем элементе. Если же использовать ШИМ с фильтрами - потребуются эти фильтры на эту большую мощность и, кстати, немалой стоимости. Если просто регулировать напряжение источника - необходима обратная связь как минимум по току, а лучше еще и по освещенности, потому что закон регулировки очень сильно нелинеен. Так, вероятно, и делают в телевизорах без мерцания, но это все сильно сложнее, дороже и менее эффективно чем простая ШИМ.

Кстати, димминг - это изменение яркости чего то любыми способами, то, что описано далее под этим термином это т. н. DC dimming.

"просто регулировать напряжение источника" — это и есть ШИМ с фильтрами, источник-то импульсный

Если же использовать ШИМ с фильтрами - потребуются эти фильтры на эту большую мощность и, кстати, немалой стоимости.

Импульный преобразователь: простенькая микросхема, катушка индуктивности, диод, полевой транзистор, конденсатор. Стоит всё копейки. Нет никакой необходимости рассеивать тепло для DC димминга.

Все рассуждения о частоте разбиваются о частоты (микро)саккад и критической частоты светового восприятия(с намёком на частоту). На деле, тренировки могут дать показатели значимо лучше нормы, но только в отдельных случаях, типа шутеров.

Ещё смешано время отклика и частота. С высокой частотой обычно лучше, чем с низкой, только вот время отклика напрямую не зависит. При периоде в 10 мс, отклик до изменения в матрице может быть и 30мс(и без использования памяти), а потом ещё и время смены яркости пикселя. А в таком случае увеличивать частоту до периода в 1мс толку нет. В общем, для игр самое главное - отклик в режиме монитора, а потом уже частота.

Ну и ещё по поводу синхронизации. VSync и GSync и т.д. - вообще всё попутано. На покадровое обновление и покадровый показ(не знаю как называется) не требуется перечисленных технологий, достаточно драйвера поставить, часто хватит даже стандартных Windows драйверов. VSync на компе не тормозит видеокарту, а наоборот - даёт ей время для простоя, уменьшая частоту кадров до синхронизации с монитором(без - может рендерить хоть каждую мс, загружая карту на 100%), но присутствуют некоторые неровности, к примеру если период синхронизации 10 мс, а кадр отрисовался за 11, то "показан" будет не через 10, а через 20. Ну и вообще, на сколько знаю V ограничивает частоту и "держит" кадр, никак не согласуясь с непосредственным обновлением монитора(телевизора). А G может обновлять картинку по запросу(получению), но глубоко не вникал, вероятно и там есть особенности.

Вот где частота нужна, так это в 3D, шлемах. Повышение частоты может быть заметно просто по снижению усталости от пользования.

OLED ТВ в качестве монитора прекрасен, но есть пара неприятных особенностей: небольшие мгновенные смещения изображения вызывают возмущение у мозга вплоть до морской болезни, на серых градиентах заметна разница яркости пикселей.

У меня была мысль отключить эти смещения и сделать их программно средствами компьютера (в драйвере, например), или телевизора, и, самое главное - сделать их плавными и медленными. Но через две недели я просто перестал их замечать. Поэтому, скорее всего, они просто не такие страшные, как на первый взгляд кажется с непривычки.

Что касается градиентов - да, подтверждаю, эта проблема есть. Теоретически, кстати, телевизор может их сгладить благодаря четырём субпикселям, но практически это не реализовано.

непонятно, "небольшие мгновенные смещения изображения" — это что? вы его специально зачем-то смещаете или оно само?

Это одна из систем защиты телевизора от выгорания - периодически (раз в минут 30) изображение смещается на несколько пикселей. На большом экране сдвиг на 1 мм можно заметить только в случае, если в момент сдвига глаза смотрели на мелкий текст.

Эта функция отключаема, но, как показала практика, через пару недель перестаешь это замечать.

Что характерно, для монитора такое смещение бесполезно, т.к. сплошные элементы на рабочем столе имеют размер заметно больше 1мм, поэтому большая часть картинки так и продолжит светиться однообразно.

Смещение отключается, если отключить защиту от логотипов.

Большая статья, в меру подробная, много полезной информации для желающих узнать "много деталей".
Однако, всё в итоге и по факту упирается в стоимость разработки+производства и желание производителя получать "больше прибыли при меньших затратах", вот и всё.

Занимаюсь фотографией много лет (руки помнят ещё "заправить плёнку в фотобачок на ощупь" (для многих это "написано вроде как по русски, но о чём - непонятно"). Про современных клиентов распространяться по определённым причинам не буду.
Работаю как репортажками ("единичками" от Canon), так и FF третьепятаками. Есть какое то количество "красивых бумаг" (грамот/дипломов) с международных фотоконкурсов.
Это всё не для "похвастать", а для понимания что "в теме и понимании что к чему".

Так вот - какое то время, ещё до "плоских" работал на CRT LaCie с трубкой от Mitsubishi. Затем просто на хороших IPS мониторах от DELL В итоге повезло заполучить по выгодной цене NEC P272PW. Естественно все мониторы были откалиброваны аппаратно (никаких "на глазок").

Попутно, основной работой была "телевизионка" со всеми её проф.решениями. Включая опыт работы с продукцией ведущих ТВ каналов/компаний европейских и скандинавских стран (географически это м.б. и "одно", но по профильной теме, заметно разное).

Поэтому "извините, но имею реальный опыт" :)
Действительно качественную картинку, сделать сложно. Это и аппаратура, это и инженеры которые её используют/настраивают. И безусловно творческие коллективы которые креативят содержимое.
Каждый этап требует больших знаний и опыта от всех участников процесса.

И вот наступает "зона интересов" потребителя....
Что имеем в активах ?
Системы распространения/распределения сигнала (эфир, кабель).
Дикий "зоопарк" совершенно разных по свойствам моделей ТВ. Плюс назовём их корректно "личных предпочтений" по настройкам базовых свойств картинки (условные "яркость/контрастность") со стороны пользователей.

И в итоге, почти всегда (за редким исключением), происходит наглядная демонстрация "не выиграл а проиграл" из одного анекдота.

То что задумывалось режиссёрами, и при удачном стечении множества обстоятельств было реализовано при съёмках и монтаже материала. Относительно достоверно может быть передано по тем или иным каналам распространения (если повезёт). Далее наступает время аппаратуры самого пользователя, и тут уже "кто во что горазд"...

На всякий случай вернусь к своим железкам.
Довольно часто, просто ради интереса и "всё познаётся в сравнении", скидываю результат обработки той или иной своей фотосъёмки на USB флешку, и открываю её на "гражданском" 4К TV с довольно неплохой матрицей.
И вот, многие снимки с "попиксельно знакомой" картинкой, становятся "куда всё пропало ?!!!", после работы с ними в пространстве aRGB (на реально проф.мониторе), и открытии на не самом заурядном ТВ.
И ТВ и монитор находятся в одном помещении (уточняю "на упреждение" для попыток "разные условия просмотра")

Таких примеров могу рассказать "вагон и маленькую тележку", но видимо пока что не буду :)

Хотя...
Ещё один пример всё же "озвучу":
Подарили CRT ТВ от Philips, точную модель не помню, но старожилы её точно знают - выпускалась в "красном дереве", в конце 80х стоила около 7000 Руб. (стоимость Жигулей), можно было доукомплектовать тумбой в таком же дизайне за 2000 Руб.
Понятно что ~768х576 :)

В общем привёз этот "рояль" домой, подключил к спутниковому приёмнику (DVB-S) по полноценному SCART (RGB), и при этом сохранил вывод с приёмника по HDMI на современную для тех времён панель от Samsung с 720р
Листаю ТВ каналы немецких итальянских каналов (они разные по "почерку" оборудования и работы спецов)
Древний CRT телевизор (правда топовый для своего времени), даёт в разы лучшую картинку по цветопередаче и детализации (за счёт точного отображения цвета и яркости/контраста в деталях). Современный ТВ успешно сливает ему по всем фронтам...

Периодически заходят домашние, и что жена, что дети, не сговариваясь крутят головой - сравнивая одну и ту же картинку, и ВСЕ спрашивают:
- а почему наш ТВ (плоская панель) так плохо показывает ?

P.S.
С некоторых гражданских ТВ спутников, сейчас доступны 4К UHD каналы, которые иногда вещают ещё и в HDR формате.
Так вот - history repeating... :)

То что много лет "выжимали по максимуму" из аналога (по сравнению с ещё начинающей поднимать голову "цифрой"), затем повторялось и с скандинавской D2-MAC, у которой картинка была просто ух какая живая (в умелых руках скандинавских ТВ инженеров).
Затем начиналась эпоха "сравнений" обычной цифры и HD, и HD (1920х1080) не всегда выигрывало у грамотно созданной/настроенной/переданной 720х540.

Сейчас примерно тоже самое, идёт на 4К UHD HDR vs "правильное" FHD

И увы - какое бы навороченное оборудование не предоставляло те или иные возможности, в итоге, всё решают человеки, с их редким профессионализмом :)


В целом я согласен с Вами: данные технологии - это всего лишь инструмент. Это необходимое, но недостаточное условие для получения качественной картинки. Популяризация технологии всегда увеличивает процент непрофессионального использования этой технологии - отсюда растут ноги различных трижды перекодированных FullHD с битрейтом 2 Мбит/с и дешёвых ТВ с псевдо-4К и неравномерной подсветкой. Однако, профессионалам технология развязывает руки, благодаря чему они могут создавтаь всё более и более качественные вещи.

Насколько я понимаю, CRT на тот момент была на пике технологического развития, перед забвением. CRT тех времён, на мой взгляд, правильнее сравнивать не с "обычными современными ТВ", а с топовой плазмой, и, в случае современных реалий, с топовыми OLED и MicroLED телевизорами. "CRT по цене жигулей" - это, на мой взгляд, почти одноклассник современного "110-дюймового MicroLED". То есть ошибочно сравнивать High-End продукт с продуктом другого класса, даже если один из прошлого, а второй из будущего.

Отмечу, ролик про ШИМ я отрендерил в разрешении 1920х1080, но загрузил на YouTube в апскейле до 3840х2160 как раз из-за низкого битрейта. Если на экране FullHD сравнить видео YouTube в разрешениях 1080p и 4K, разница будет весьма заметна. Так что я прекрасно Вас понимаю :)

У меня у самого есть одна из самых последних плазм Panasonic - картинка на ней тоже кое-чем лучше, чем у OLED. Потому что технология была на пике развития.

YouTube в своё время (не знаю как сейчас), довольно сильно "вмешивался" со своим перекодированием... Мне больше нравился Vimeo, тамошние спецы уделяли качеству картинки бОльшее внимание.
(сейчас если надо что-то посмотреть, то научился "включать загрубление", и на качество картинки почти не обращаю внимание)

Кстати, один мой знакомый "электронщик", в своё время подхалтуривал с небольшой конторой, которая возила б/у ТВ от скандинавов. (сотрудничал на уровне ремонта/регулировки etc/)

Так вот, у локальной Nokia (Luxor/Salora на рынке скандинавии), ТВ были с каким то своим (?) люминофором. Сейчас за давностью лет деталей не вспомню, но картинка у них была явно другой, и это не зависело от "пользовательских" регулировок/настроек телевизора.

P.S.
А ТВ по цене жигулей (Филипс) - он был хорош не только картинкой. Перед включением дома я его открыл для "посмотреть куда там вставляется киноплёнка" :) (хотел пропылесосить, но он оказался чистым). И в итоге просто любовался качеством разработки и сборки - настолько внутренности не были похожи на "масссектор", на тему аппаратуры для аэро.космич. применение - да (но без крайностей).
Но... это всё время/материалы/расходы=UP себестоимость...

P.P.S.
Не смог найти "на скорую руку" статью одного профильного специалиста по впечатлениям от посещения Ленфильма, пока что нашлась только его фотогаллерея для этой статьи:
https://www.flickr.com/photos/56925353@N04/albums/72157719789678040

Технари и наблюдательные увидят много знакомого/понятного, но на заметно другом уровне :)

P.S.А ТВ по цене жигулей (Филипс) - он был хорош не только картинкой. Перед включением дома я его открыл для "посмотреть куда там вставляется киноплёнка" :) (хотел пропылесосить, но он оказался чистым). И в итоге просто любовался качеством разработки и сборки - настолько внутренности не были похожи на "масссектор", на тему аппаратуры для аэро.космич. применение - да (но без крайностей).Но... это всё время/материалы/расходы=UP себестоимость...

С таким подходом сейчас тоже делают технику. Судя по описанию, смахивает на референсный монитор. То есть сравнивать это надо с чем-то таким.

P.P.S.Не смог найти "на скорую руку" статью одного профильного специалиста по впечатлениям от посещения Ленфильма, пока что нашлась только его фотогаллерея для этой статьи:https://www.flickr.com/photos/56925353@N04/albums/72157719789678040

Определённо, это не массовый сегмент :)

Воот. Я долго просидел на мониторе ЦРТ ипонском иияма пока прошло очень много поколений ЛЦД мониторов. Он был здоровым, неподъемным, внутри все в железном экране. И питался от 110в Ну а что поделать ? Хотя я не занимался профессиональным фото, но все равно все видно. Потом когда появились адекватные профессиональные графические мониторы на С-ИПС матрице, пересел на таковые от НЕК. Ну а телеки в магазине - они просто полный отстой в основной своей массе. Использовать как монитор даже и не думаю.

Всё верно :)
По многим направлениям "потребительской электроники" (и не только) более правильным решением, будет выждать прохождение первой, второй волны массового производства. Если технологии обкатают и они реально приживутся (и избавятся от детских болезней), то можно будет выбирать и "для себя любимого".

Если нет, то зачем дарить деньги за "просто новое" (но криво работающее) производителю ?

Сколько уже технологий/аппаратуры так или иначе стало музейной темой ? Вот тот-то и оно...
И речь не идёт о тех вещах, который "выстрелили" и массово использовались населением продолжительное время.

И вот, многие снимки с "попиксельно знакомой" картинкой, становятся "куда всё пропало ?!!!", после работы с ними в пространстве aRGB (на реально проф.мониторе), и открытии на не самом заурядном ТВ.

Точно сохраняешь jpg в sRGB для просмотра на ТВ?

Ну и вывод какой ? Надо заниматься монтажом фото и видео на домашних консьюмерских девайсах, на которых потом и будут просматривать контент.

около 90 ppi (пикселей на дюйм) - размер пикселя здесь где-то 0,28 мм. Это предельный размер пикселя для комфортной работы - меньше можно, больше плохо.

Я сижу в метре от экрана и для меня 90 это идеал.
109 уже явно мелко.
У VRR есть ещё 1 плюс.
можно показывать контент кадр в кадр при произвольной частоте кадров фильма.

Поэтому, если вокруг есть что-нибудь яркое, окно или лампочки, важно взять дисплей поярче, чтобы он, если понадобится, смог своей яркостью «перекричать» вот эти внешние источники света.

А вот тут вы неправы в общем случае. Представьте себе что у вас есть экран с яркостью 300уе. Вы ставите поверх него стекло, пропускающее половину света. В результате его яркость снижается до 150уе. У вас яркость подсветки упала вдвое, но свет от внешних источников чтобы попасть вам в глаз от экрана должен пройти это стекло дваджы, т.е. остабится в 4 раза, в результате контрасность при внешней засветке упадёт.

Да и с глянцем всё не так плохо. Матовый экран весь засвечивается прямыми солнечными лучами, а глянцевый можно повернуть так, чтобы солнечный зайчик в глаза не попадал.

Из HDR торчат уши маркетологов: на ТВ, которые неспособны показать HDR, но умеют читать видео в этом формате, тоже пишут HDR

Они не только читают видео, но и корректно его воспроизводят, пусть и с ограничением по яркости. HDR это ещё и расширенный цветовой охват, я считаю данную фичу полезной даже при низкой яркости.

Вы ставите поверх него стекло, пропускающее половину света. В результате его яркость снижается до 150уе. У вас яркость подсветки упала вдвое, но свет от внешних источников чтобы попасть вам в глаз от экрана должен пройти это стекло дваджы, т.е. остабится в 4 раза, в результате контрасность при внешней засветке упадёт.

Свет просто отразится от этого верхнего стекла :)

Вы считаете, что свет от затемнённого стекла отражается сильнее, чем от прозрачного? Может конечно и сильнее, но незначительно. Посмотрите на солнечные очки, далеко не все они зеркальные.

я считаю, что утверждение "свет от внешних источников чтобы попасть вам в глаз от экрана должен пройти это стекло дваджы" — неверное. от стекла (неважно, затемненного или нет) свет отражается намного лучше, чем от матового экрана.

1)матовость экрана не влияет на количество отражённого света. Влияет только на его направление.
Если в зеркальном экране мы видим отражение, то в матовом то-же самое изображение, только катастрофически размытое.
2)матовый экран не стеклянный? Я не говорю что нужно затемнять именно стеклянное покрытие. Под стеклом я подразумевал прозрачный материал, закрывающий матрицу экрана.

в любом случае отражать свет начнет самый верхний слой покрытия, и никакого ослабления отраженного света за счет его прохода через стекло дважды не случится. чтобы этого избежать — нужен материал с коэффициентом преломления, близким к единице.


1)матовость экрана не влияет на количество отражённого света. Влияет только на его направление.

ну тут два момента. во-первых, влияет материал — глянцевые экраны стеклянные, а матовые — пластиковые, насколько я понимаю. они вполне могут больше света поглощать и меньше отражать. во-вторых, матовое покрытие именно за счет рассеивания отражает меньше света прямо в глаза.

влияет материал — глянцевые экраны стеклянные, а матовые — пластиковые, насколько я понимаю
Глянец и э… мат бывает разный —
Matte, Low Haze, Semi-Glossy, Almost-Glossy, Glossy…
image
(Картинка отсюда)
И материал тоже бывает разный — например у Samsung LT T32E310EX пластиковый глянцевый (точнее, “Almost-Glossy“) экран.
матовое покрытие именно за счет рассеивания отражает меньше света прямо в глаза
Угу, например вот моё описание постройки освещения рабочего места при замене монитора с матовым покрытием на глянцевый
Освещённость рабочего места, backlight, яркость экрана vs усталость глаз
… Однако при замене в 2017 году 27" монитора BENQ 2700HD на новый 31,5" монитор / телевизор Samsung LT T32E310EX с зеркалом глянцевым экраном при таком расположении этой лампы направление пучка света оказалось неподходящим: из-за её света руки субъекта, сидящего за монитором (т.е. меня) стали отражаться в «зеркальном» экране монитора, поэтому отражатель пришлось развернуть так, чтобы основной световой поток шёл назад, на стену, и при этом поскольку экран намного более чёрный, то лампу удалось сместить немного вперёд, на пару сантиметров ближе плоскости экрана (при этом угол все равно крутой, так что бликов это еще не вызывает, зато хорошо освещена зона прямо перед монитором). Ну, а для освещения клавиатуры и остального рабочего места пришлось разместить ещё одну лампу практически над головой (немного правее и чуть сзади)...
Но в результате все же удалось добиться того, что на глянцевом (точнее, Almost-Glossy) экране нет ни бликов, ни отражений
image

в любом случае отражать свет начнет самый верхний слой покрытия

Самый верхний слой "стекла" отражает только при малых углах падения света

ну тут два момента. во-первых, влияет материал — глянцевые экраны стеклянные, а матовые — пластиковые

У меня дома и монитор и телевизор с глянцевыми экранами и на обоих экраны явно не стеклянные.

во-вторых, матовое покрытие именно за счет рассеивания отражает меньше света прямо в глаза.

Там стоит нейросеть, которая определяет где находятся глаза и меньше туда отражает свет?

Самый верхний слой "стекла" отражает только при малых углах падения света

а внутренние слои при каких углах отражают? там что, по-вашему, зеркало стоит?


Там стоит нейросеть, которая определяет где находятся глаза и меньше туда отражает свет?

забыл добавить "в худшем случае"

Там стоит не зеркало, а матрица. Она непрозрачная и не абсолютно чёрная. Значит она отражает при любых углах.

Ну если рассматривать худший случай, то да.
Но худшего случая можно избежать просто чуть повернув экран.
А в среднем, с учётом исключения худшего случая, получается глянец в глаз отражает меньше, чем матовый.

Ой ну хватит уже выдумывать

Антибликовые покрытия многослойные, со сложным устройством, композитные, стекла и пластика там разного намешано, включая всякие просветляющие пленки как на обьективах и тд тп. Все они работают очень хорошо, если это не откровенный дешманский нонейм. Их давно уже научились делать как глянцевые, так и матовые.

Я по должности своей — 20+ лет в полиграфии, видел их все

Эти покрытия влияют только на отражения от стекла, но не влияют на отражение того, что под стеклом. Я не прав?
Ну как хорошо они работают. со смартфонами за 10-15к примерно есть проблема чтения под солнцем(особенно я страдал используя телефон как навигатор на мотоцикле). Вот сейчас у меня redmi note 8t, это же не откровенный дешманский нонейм?

Эти покрытия влияют только на отражения от стекла, но не влияют на отражение того, что под стеклом
Чего чего??

Свет отражается не только от границы стекло\воздух, но и под стеклом экрана.

Всё может оказаться гораздо хитрее, если влезть в волновую интерпретацию света. Я не знаю, как там с антибликовыми покрытиями, но, например, высветление объективов камер основано на наложении волн видимого света с учётом фазы. Не говоря уже о том, что существует поляризация.

Так что, вполне возможно, что объяснение на уровне "отражает/не отражает" по отношению к антибликовым покрытиям исчерпывающим быть не может, и там какие-то более сложные вещи происходят.

объяснение на уровне «отражает/не отражает» по отношению к антибликовым покрытиям исчерпывающим быть не может, и там какие-то более сложные вещи происходят
Именно так. Просветляющие покрытия работают не очевидным образом для тех, кто мыслит чисто геометрически и макро-категориями. Антиблик мониторов работает схожим образом.

я думал антибликовое покрытие=просветляющее покрытие=наложение волн с учётом фазы. Про высветление объективов в данном контексте не слыша(если только вы не про просветлённые линзы)

Купил монитор с частотой 240Hz. Ожидал увидеть невероятную плавность, в той же CS:GO, видеокарта 240 фпс выдавала. Но при повороте мышки я не увидел никакой плавности, с включеным G-sync, с выключенным, с какими-то оптимизациями монитора, без них...

То же самое в фильмах. Конечно, если фильм записан в 29 фпс, а на экране панорамный поворот, то изображение будет совершенно не плавное, а скачками, где были ключевые кадры.

Печалька.

а монитор точно включил эти 240 Гц?

Насколько мне известно, размытие при повороте камеры в играх зависит больше от скорости перехода пиксела в черный-белый-черный, нежели от герцовки. На мониторах встречается фича перегруза (overvoltage) пикселов, в результате которого они быстрее переходят в нужное состояние (но тому есть цена - перелетают свою цветовую остановку; от небольшого контурного следа (незаметно) до перелета на кислотные цвета вместо привычных глазу). На стабильных 144 ФПС особо не чувствуется и даёт некоторое преимущество.

А какая видеокарта?

Допустим, интеловская встройка HD630 выдаст кучу FPS в какой-нибудь древней игрушке, а выход на мамке HDMI 1.4, поэтому будет 120 Гц, хотя монитор-то готов и больше.

Купил монитор с частотой 240Hz. Ожидал увидеть невероятную плавность, в той же CS:GO, видеокарта 240 фпс выдавала. Но при повороте мышки я не увидел никакой плавности, с включеным G-sync, с выключенным, с какими-то оптимизациями монитора, без них...

Очень странно. Аналогичная ситуация: купил 240 Гц моник на замену старому 60-герцовому. И вот максимальный эффект от него чувствуется именно в ксго - стал выбивать в 2 раза больше фрагов просто так, на ровном месте. Покупкой доволен, как слон.

Не почувствовали увеличения плавности по сравнению с какой герцовкой?

Напишу здесь все ответы, потому что могу отвечать только раз в сутки.

До этого было 60 герц. Есть монитор 60 герц с TN матрицей и ЭЛТ.

@dartraiden Видеокарта Nvidia GeForce 1063. На минималках 240 фпс держит. Подключено по DP, на HDMI не включается 240Hz и G-sync.

К тому же процессор Ryzen 1600 AF 3.6GHz 6c/12t.

@V1RuS Кажется, включил, в настройках монитора, в настройках драйвера, с разными синхронизациями и без них. Но когда G-sync включен, это же явно с синхронизацией.

я в шутеры не особо играю. Я наибольшую разницу замечаю при движении экрана в стратегиях. Если мы говорим именно про плавность, а не ощущение быстрого отклика.

Тоже последние пару месяцев планирую переход на 3-х мониторный рабочий стол. Тоже все это изучал про харакетристики, но интересен еще и вопрос расположения мониторов.

Мониторы заказал, планирую расставить так:
27" 2К спереди перед собой,
под ним сенсорный 15,6" FHD (наклон 45град - будет выглядеть как открытый ноутбук перед монитором)
сбоку 22" FHD вертикально.

3 в ряд кажется нереально головой крутить по ним. думал про 4К 40"+ но кажется на большом прямом будет неудобно по-краям смотреть.

Не думали поставить механику? :)

все равно голову надо крутить +-90 град а то и больше :)

3 в ряд кажется нереально головой крутить по ним
Головой вбок крутить проще, чем вверх-вниз (естественно, при переключении между разными задачами, а не при чтении одной длииииииииинноооой строки), поэтому с ростом диагоналей меняются пропорции дисплеев от «квадратных» 5:4 и 4:3 к широкоэкранным 16:10 и 16:9, а теперь и к 21:9 даже 32:9 (“гнутым“, естественно).
При этом с ростом диагонали дисплея и соответствующим изменением его пропорций, высота экрана меняется мало, зато растёт его рабочая ширина.
думал про 4К 40"+ но кажется на большом прямом будет неудобно по-краям смотреть.
На таком большом дисплее с пропорциями 16:9 неудобным ИМХО скорее окажутся его верхняя и нижняя части, а по ширине можно и побольше окон растащить.
У меня сейчас 32" монитор 16:9, высота уже на пределе, а в ширину хотелось бы и побольше для вспомогательных окон.
Но если шире, то ИМХО нужно обязательно «гнутый», а то даже сейчас помимо поворота головы приходится и немного смещаться, чтобы в крайние части взгляд не под косым углом получался.
Ну а сбоку иногда планшет или ноутбук размещаю (под углом, естественно)
image

₽$ Всё это ИМХО, и ни в коем случае не совет, а просто «информация к размышлению»

когда изучал тему видел много конфигов когда мониторы размещают один над другим.
ну и хочется попробовать с сенсорным монитром, его все равно надо ближе к себе и ниже.
но пока не попробуешь не поймешь наверняка удобно ли оно. плюс от задач конечно зависит.
32-34" очень много мониторов вытянутых. не смотрели?

32-34" очень много мониторов вытянутых. не смотрели?
Смотрел, но пока так ни чего и не присмотрел.
Но надо иметь в виду, что 34" 21:9 имеет такую же высоту экрана, как у 27" 16:9
См например https://butov.org/screen/
Кот просто шикарный!
Котэ не моё, цельнотянутое с просторов инета. Судя по EXIF снимок сделан «Зеркалкой» на 10мм Fisheye в 2007 году, наверное тогда я его где-то и прихватизировал.
Вот тут я его уже выкладывал (под спойлером)
Правда исходный снимок с пропорциями 3:2, поэтому я его слегка дофотошопил слева.
₽$ Раньше по несколько раз в год обои менял, а этот Котэ уже больше 15 лет на меня с экрана смотрит. Может я уже совсем старый и костный, а может действительно «Кот просто шикарный»©
₽₽$
Котэ 🐱
image

Не так давно с удивлением узнал, что существуют мониторы под 2000 кд/м. В связи в этим вопрос: если выбираешь HDR-монитор 4К, 144 Гц, 27 дюймов, и смотришь на 1000 кд/м модель, имеет ли смысл смотреть на 1400, 1600, 2000 кд/м, или нет?

Что я знаю -- это то, что нормальный HDR это 1000 кд/м, ниже не считается полноценным. Но я ничего не знаю о том, что выше, есть ли существенная разница между теми уровнями яркости, что выше 1000?

Восприятие яркости логарифмическое - переход от 300 кд/м на 1000 кд/м ощущается намного сильнее, чем с 1000 кд/м на 2000 кд/м. В любом случае, лучше, как Вы и сказали - именно смотреть, т.е. вживую сравнить 1000 кд/м и 2000 кд/м, и решить нужно оно Вам или нет.

PS. 5000 кд/м тоже уже существуют, только 27" пока не делают.

2000 будет лучше, но переплачивать в разы смысла нет, ибо большинство фильмов все равно мастерятся в 1000. нет понятия нормальный шдр, меньше 1000 это тоже шдр, стандарт предусматривает вообще 10000, тогда что, ваш 1000 тоже мусор? )))

для шдр лучше рассматривать олед, жк не обладает хорошей контрастностью, плюс есть еще один важный нюанс, который маркетологи вам не расскажут, на яркости 2000 нет цвета, то есть такая яркость бесполезна, ну разве что просто белым светить. ждем выхода микролед, там и яркость будет выше, и цвет при этом будет

Намного важнее 0.0001 нита черного, а яркость 1700 нит на OLED в смартах и 1500 в QD-OLED.

Почему-то никто не сказал, что высокое разрешение нужно для высокой четкости, банально. На мониторе меньше 4к я вижу отдельные пиксели на расстоянии около полуметра, а на 4-5к не вижу, что лично мне очень приятно

Кому как. Мне, например, вполне нравится и кажется четким, когда я отдельные пиксели вижу (точнее, когда две линии толщиной 1 пиксель с одним пикселем между ними не сливаются), а когда сливаются - то наоборот. Это, разумеется, когда шрифты умеют этой пиксельной сеткой пользоваться (в идеале - когда они тоже пиксельные). а не пытаются всякие чрезмерно умные алгоритмы использовать.

Ну вот на разрешениях 4-5к не нужны никакие сглаживания, пиксельные шрифты и подобное — все буквы идеально четкие, ни малейшей заметной лесенки из пикселей по краям, никаких артефактов по- и суб-пиксельного сглаживания, резкие границы между обьектами — идеально ровные
Почему-то никто не сказал, что высокое разрешение нужно для высокой четкости, банально. На мониторе меньше 4к я вижу отдельные пиксели на расстоянии около полуметра, а на 4-5к не вижу,
ИМХО важнее не то, вижу ли я отдельные пиксели, а то, что мои глаза от этого не устают, поэтому (процитирую сам себя)
Простой способ получения ”Flicker-Off”: «отключение» ШИМ мерцания подсветки LCD мониторов и телевизоров
… по поводу видимой пиксельной решетки FullHD процитирую себя с другого форума
...Samsung LT T32E310EX… С рабочего расстояния порядка 55-65см (вытянутой руки) пиксель 0.36 вижу, но «не замечаю»*...
*Eсли приглядываться, то на 32" экране QHD я тоже могу разглядеть пиксельную решетку (впрочем, ее я тоже естественно не замечаю)…


что лично мне очень приятно
А вот тут соглашусь, и поэтому (ещё раз процитирую себя из ещё одной статьи)
FullHD vs 4k и integer scaling: всегда ли 2 x 2 = 4?
Вместо 4k монитора приобрести QHD монитор, который сможет работать с имеющимся компьютером
Это наверное был бы оптимальный сценарий в данной ситуации, если исходить только из рациональности решения.
Но вот эмоционально… А что если все-таки хочется именно 4k монитор. Все-таки такие приобретения должны приносить и эмоциональное удовлетворение…
… Но если приглядываться, то на 32" экране QHD монитора я тоже могу разглядеть пиксельную решетку
например, в этом тесте
(Картинка кликабельная, смотреть строго при 100% масштабе)
image
(впрочем, ее я тоже «вижу, но не замечаю»).
Но при приобретении нового монитора мне хотелось бы качественного изменения, чтобы и не видеть, и не замечать…
Но повторяю, это очень индивидуально, и то, что нравится/не-нравится мне (ну, или кому-то еще) совершенно необязательно должно нравиться/не-нравится всем..
ШИМ меня не парит, мои мониторы проходят карандашный тест, а смарт, на низкой яркости — нет, но смотреть в него могу часами.

Открыл картинку на домашнем мониторе: 27" 2560*1440 (тот самый всратый QHD на 27, на 32" я вообще блеванул бы от картинки такого разрешения), расстояние до монитора 80 см. Вижу эти лестницы совершенно отчетливо, не просто «вижу, но не замечаю» — а могу, буквально, пересчитать эти ступеньки, не вглядываясь. Если я начинаю вглядываться, то с тех же 50-80 см я вижу черную сетку между пикселями на белом фоне.

А на imac pro 27" 5k — я пикселей не вижу, вообще.
Потому мне плевать на шим, а пиксели — бесят.

Говорю же — я различаю отдельные артефакты виндового субпиксельного сглаживания шрифтов на мониторах с разрешением 100 ппи. У меня не дальнозоркость, не близорукость, просто хорошее зрение, например, на фонтане «Колос» на ВНДХ я различаю отдельные кусочки смальты, без лупы читаю выходные данные на зарядках к смартфонам (кегль примерно 2 пункта) и тд тп.
мои мониторы проходят карандашный тест, а смарт, на низкой яркости — нет, но смотреть в него могу часами… мне плевать на шим, а пиксели — бесят.
Так я о том и говорю, что главный критерий — устают/неустают глаза, а второй по значимости — нравится/ненравится (aka бесит/небесит)
могу, буквально, пересчитать эти ступеньки, не вглядываясь.
Ну, лесенки там регулярные (на то и тест), так что при желании их можно пересчитать. Вот зачем — вопрос…
Если я начинаю вглядываться, то с тех же 50-80 см я вижу черную сетку между пикселями на белом фоне.
Если вглядываться, то я тоже могу различить пиксельную сетку (особенно на IPS — там она обычно чуть жирнее из-за особенностей “проводки"). Ну разве что не с 80, а с 40-50 сантиметров. Другой вопрос — зачем это делать, при этом ведь напрягаются и устают глаза.
Я всю жизнь работая за компьютером (начинал с VGA в прямом смысле этого слова), в т.ч в CAD (ANVIL, ProEngineer, AutoCAD и его клоны) всегда старался подбирать масштаб работы на экране так, чтобы не приходилось вглядываться (благо Zoon это позволяет оперативно менять).
То же и в офисных приложениях, и в браузерах — использовать тот масштаб, при котором можно читать, не напрягаясь. Ну и настройки Windows естественно тоже.
Да, при этом на экране помещается несколько меньше информации, чем при более мелком масштабе, но зато глаза не устают.
У меня не дальнозоркость, не близорукость, просто хорошее зрение
Мне через 3 месяца будет 60 лет, так что зрение уже конечно не такое хорошее, но ни близорукости, ни дальнозоркости нет (тьфу^3), так что хожу без очков.
Это при том, что около 40 лет работаю за компьютером, в том числе в CAD приложениях (в начале работы CAD сочетал с работой на кульмане).
ИМХО во многом потому, что всегда старался чтобы было хорошее освещение (рабочего стола или того же кульмане), а при работе за компьютером рабочий масштаб был таким, чтобы не уставали глаза (тьфу^3).
без лупы читаю выходные данные на зарядках к смартфонам
Хм… Самому стало интересно, попробовал:
— На стоковой зарядке Samsung SM-J730F на солнце или под настолько лампой могу прочитать надписи на русском языке. Английские надписи и цифро-буквенную абракадабру уже не читаю.
— На стоковой 33w зарядке Xiaomi Redmi Note 11 (там шрифт мельче) уже ничего не читаю.
В общем, зрение у меня явно хуже вашего.
Но мне уже почти 60 (тьфу^3)
₽$ Самое главное — я ведь с вами не спорю, и во многом с вами согласен.
ИМХО главное, чтобы не уставали глаза, и чтобы изображение “не бесило“©
— Если юзверь не может “не замечать“ лесенок, пиксельную сетку и субпиксельное сглаживание шрифтов, то это повод перейти на монитор с более высоким разрешением.
— Если юзверь может от этого абстрагироваться, но его напрягают например артефакты масштабирования Windows на мониторах с мелким пикселем, то можно оставаться на мониторе с более низким разрешением (или подбирать монитор с ещё более мелким пикселем, чтобы эти артефакты ушли за пределы видимости).
Ну а «серебряной пули» для всех не существует
₽₽$ Всё это ИМХО, естественно…
Все упирается в глаза. Одним достаточно обычных мониторов, другим надо более высокое разрешение — если коротко
Одним достаточно обычных мониторов, другим надо более высокое разрешение — если коротко
OK, пусть будет так.
Хотя это ИМХО слишком коротко — в моем случае при выборе FHD vs QHD vs 4K по органолептическим свойствам мне лучше подходит 4K, но с ним у меня технические ограничения, о чем я сказал чуть выше в #comment_24626524 и в статье
FullHD vs 4k и integer scaling: всегда ли 2 x 2 = 4?
При этом сейчас QHD для меня подходит хуже, чем FHD (см. ту же статью).
Поэтому я пока продолжаю сидеть на FHD, и пристально присматриваюсь к 4K.
Но если очень упрощать, то я готов согласиться с вашей формулировкой, ведь в данный момент мне “по техническим причинам“ достаточно FHD ;-)
Технические ограничения — это невозможность купить на авито за 10к, максимум 15к, видюху к монитору 4к?
Нет. Вы не прочитали статью.
₽$ OK, разговор зашёл в тупик, считайте, что вы меня «убедили»
В этой статья с провокативным названием рассмотрим возможность подключения 4k монитора к относительно старому компьютеру без поддержки (или с неполной поддержкой) такого разрешения
900 серия не умеет хдми2, а 1060 стоит на авито 10к, остальное в статье — как прикрутить старое к новому

И я вообще не вижу никакой связи с моим комментарием, что некоторым людям нужна высокая четкость 4к. Невозможность докинуть 10к при покупке нового монитора — это редкая частность по сравнению с хорошим зрением.

Я то могу работать на чем-то ниже 4к, но попробовав сахар — морковка уже не кажется такой сладкой. Вот и все, что я имел в виду. Старые компы тут ни при чем
В начале статьи я слишком «перестелил соломки», опасаясь падения как раз подобных комментариев.
Но наиболее интересное её обсуждение получилось у игроков, обладателей доволно мощных современных компьютеров с поддержкой 4K.
Дело в том, что многие современные игры подлагивают при 4K разрешении даже на таких компьютерах, а запуск игры в “половинном“ FHD разрешении вызывает артефакты из-за масштабирования, которое они видят (и замечают).
Так что с потенциальной аудиторией своей статьи я слегка промазал.
Что касается меня, то к монитору у меня подключено несколько системных блоков, один из них на Windows XP, на котором я иногда работаю. Модернизировать его нет смысла, а работать на 4K мониторе при FHD разрешении напряжно для глаз.
Можно ли отказаться от него? Над этим я тоже думаю, хотя есть программы, которыми я пользуюсь, которые на Win10 идут скажем так «не очень хорошо» (или вообще не идут).
Можно ли отказаться от этих программ? Над этим я тоже думаю.
Ну вот собственно и все…

Не задумывались о виртуальной машине?

Позвольте спросить, какой у Вас коэффициент масштабирования интерфейса?

Не знаю, это макос, там все по другому. Приеду на работу — сделаю скрин

В MacOS, насколько я знаю, масштаб отрабатывает практически идеально. В Windows любой масштаб, отличный от 100%, приводит к весьма неприятным артефактам во многих приложениях - мылу, линейной интерполяции, съехавшему тексту и т.д. Только новые программы масштабируются хорошо. Поэтому пользователи Windows осторожнее относятся к масштабированию интерфейса.

Ничего особого в макос нет, на монике с низким разрешением я точно также различаю артефакты субпиксельного сглаживания, как и на винде.

Вот мои рабочие мониторы:
image

На родном 5к — все идеально, без лупы ничего не разглядеть. На вспомогательном, с плотностью около 100 ппи — все печально, как и на домашнем qhd

С устаревшими мониками жить можно, но после 4к на них без слез не взглянешь
Ничего особого в макос нет

В плане масштабирования разнообразных приложений на разных фреймворках — таки есть. Windows и Linux (как X11, так и Wayland) с этим справляются объективно хуже.
И совсем больно становится, если есть несколько мониторов с разным DPI и коэффициентами масштабирования, и надо окна таскать между ними.


на монике с низким разрешением я точно также различаю артефакты субпиксельного сглаживания

Субпиксельное сглаживание в macOS полностью отключено уже много лет, начиная с Mojave.
Вдобавок, Apple серьёзно затюнила рендеринг шрифтов под "Retina-дисплеи", и именно поэтому на экранах с низким DPI текст стал выглядеть прям очень плохо.

Ну я уже много лет в режиме «дома винда, на работе мак».
Если разрешение дисплея обычное — то разницы между виндой и макосью я не замечал. Пиксели, они и в африке пиксели. Рендеринг разный, может субпиксельное отключено — но выглядит все примерно одинаково, я прямо сейчас вижу лохматые края на здоровенном панорамном вьюсонике, который воткнут в аймак вторым дисплеем. Артефакты примерно такие же, как сегодня утром видел на домашнем компе.

А к 5к монитору претензий вообще никаких
масштаб, отличный от 100%, приводит к весьма неприятным артефактам во многих приложениях — мылу, линейной интерполяции, съехавшему тексту и т.д.
Бывают и более экзотические артефакты.
Например я с таким сталкивался.
Хотя это скорее не артефакт, а глюк, его ЕМНИП быстро устранили, но осадочек остался…

Кстати, всегда интересно было - существуют ли какие-нибудь программные средства, чтобы я мог, например, на экране 4К выставить разрешение 1080p, и при этом картинка бы растягивалась методом ближайшего соседа, а не интерполяцией? Я предполагаю, что это должен быть какой-то драйвер виртуального монитора, или что-то в этом духе.

Вряд ли
Потому что ни 1920*2, ни 1080*2 — не кратны ни одному из разрешений 4к

upd
А нет, сейчас стали выпускать ровно fhd*2. Может и сработает.

Кстати, «по ближайшему соседу» — это тоже вид интерполяции
существуют ли какие-нибудь программные средства, чтобы я мог, например, на экране 4К выставить разрешение 1080p, и при этом картинка бы растягивалась методом ближайшего соседа, а не интерполяцией?
Некоторые 4K мониторы умеют integer scaling при сигнале FHD.
Пока мне известно 2 таких монитора:
  1. Eve Spectrum, упоминавшийся в обсуждении статьи
    FullHD vs 4k и integer scaling: всегда ли 2 x 2 = 4? и
  2. NEC EA271U, упоминавшийся на форуме IXBT
(если появилось что-то еще, то мне об этом неизвестно)
По поводу программных методов integer scaling лучше посмотреть в статье Марата Таналина aka MTonly
Целочисленное масштабирование без размытия (integer scaling)
Или спросить его самого — я его ник упомянул, по идее он это должен увидеть :-)

В видеокартах NVidia это называется Integer Scaling в разделе Adjust Desktop Size and Position. Скорее всего, AMD карточки так же умеют.
И однажды в каком-то мониторе встречал такую функцию.


Но при этом приходится отключать субпиксельное сглаживание шрифтов и, в сочетании с уменьшенным разрешением, текст выглядит даже хуже, чем мог бы на 1080p мониторе.

Погуглил, спасибо. Видимо, эта штука доступна только при использовании реального физического монитора. Хотя странно, по идее это довольно простой алгоритм.

Должно быть так

А у меня так

Целочисленное масштабирование (integer scaling) у nVidia реализовано только для GPU начиная с архитектуры Turing (2019), т.е. серий RTX 2000 и GTX 1600. Вероятно, у вас видеокарта одного из предыдущих поколений.

Не исключено, что вы столкнулись с одним из множества аппаратных ограничений реализации nVidia. В частности, в архитектуре Turing она несовместима с HDR (расширенным динамическим диапазоном), и до сих пор нет определённости, устранены ли ограничения в новой архитектуре Ampere (1, 2).

Скорее всего, ограничения никуда не делись, учитывая, с каким трудом и в каких обстоятельствах nVidia реализовала целочисленное масштабирование (минимум 5 лет отмалчивались и отвечали малоинформативными отговорками, потом в марте 2019 года заявили, что реализация невозможна, но уже осенью, когда Intel анонсировала поддержку этой функции, реализовали функцию, чтобы, очевидно, просто опередить Intel).

На вашем скриншоте заметил «Дисплеи Surr…». Видимо, это режим «Surround», с которым целочисленное масштабирование в реализации nVidia несовместимо наряду с HDR и проч.

Не исключено, что вы столкнулись с одним из множества аппаратных ограничений реализации nVidia.

Так точно, я там прямо бинго собрал из функций, которые блокируют использование этого масштабирования :/

Видимо, единственный выход - написать собственный драйвер виртуального монитора

Можете уточнить, какие конкретно функции помимо Surround вы имеете в виду? Спасибо.

И да, драйвер виртуального монитора был бы универсальным решением для полноэкранного масштабирования (и потенциально постобработки), независимым от конкретной видеокарты. Хотя вряд ли кто-то возьмётся за это теперь, когда все три производителя видеокарт уже в том или ином виде поддерживают целочисленное масштабирование. В вашем случае переход на видеокарту AMD (где совершенно точно нет специфичных для nVidia проблем, хотя есть свои — например, изображение не центрируется по вертикали) почти наверняка решил бы вопрос.

Можете уточнить, какие конкретно функции помимо Surround вы имеете в виду? Спасибо.

  • Собственно, режим Surround

  • Пользовательское разрешение

  • HDR

  • В играх частенько включаю DSR (хотя я не уверен, оно ли это, или это делается средствами самой игры)

  • В играх использую Image Sharpering

Кстати, я что-то не понимаю, почему Nvidia утверждает, что

несовместимость с HDR и пользова­тельскими разрешениями — непреодолимое фундаментальное ограничение программируемого фильтра, использованного для реализации целочисленного масштабирования, и это невозможно исправить как минимум для видео­карт nVidia поколения Turing. Представители nVidia говорят, что целочисленное масштабирование невозможно задействовать параллельно с так называемым Scan Out Compositor, используемым, например, для реализации DSR и пользовательских разрешений.

Звучит как-то странновато, мягко говоря. Особенно, когда такое пишет корпорация вроде Nvidia.

Само по себе целочисленное масштабирование, имхо, довольно примитивный алгоритм. Более правдоподобной кажется проблема в поддержке стабильной работы на зоопарке драйверов, видеокарт и мониторов, и во всех возможных комбинациях с другими функциями. И, поскольку эту функцию мало кто использует с HDR и, тем более Surround, поддерживать её просто невыгодно, потому что это сложно. Но не невозможно же.

В вашем случае переход на видеокарту AMD (где совершенно точно нет специфичных для nVidia проблем, хотя есть свои — например, изображение не центрируется по вертикали) почти наверняка решил бы вопрос.

Я опасаюсь, что могут возникнуть проблемы в других аспектах, например, комбинации HDR и Eyefinity. У меня была пляска с бубном, когда при включении Surround отваливался HDR, а при включении HDR включался ограниченный диапазон (16 - 235 который), после чего телевизоры начинали отображать некорректные оттенки и уже не возвращались в нормальную работу.

Само по себе целочисленное масштабирование, имхо, довольно примитивный алгоритм.
Чисто технически ИМХО это можно было бы организовать тупым простым дублированием строк, а в строке дублирование пикселей.
Т.е буквально на уровне буфера:
Исходный сигнал FHD:
Строка1: 1-2-3-4…
Строка2: 1-2-3-4…

Выходной сигнал 4K:
Строка1: 1-1-2-2-3-3-4-4…
Строка2: (повтор пред.строки)
Строка3: 1-1-2-2-3-3-3-4…
Строка4: (повтор пред.строки)

Т.е вроде проще некуда, и буквально до выходных каскадов видеокарта может «не знать», что она работает не с FHD, а 4k монитором. Как это может помешать HDR, Surround, Eyefinity ets?!
₽$ Правда я не настоящий сварщик IT-шник, и возможно слишком механистически представляю «тонкую душевную организацию» работы видеокарты, поэтому заранее прошу прощения.

Кстати, я что-то не понимаю, почему Nvidia утверждает, что

«несовместимость с HDR и пользова­тельскими разрешениями — непреодолимое фундаментальное ограничение программируемого фильтра [...]»

Звучит как-то странновато, мягко говоря.

Разумеется, невозможно это только в рамках того наиболее ленивого способа реализации целочисленного масштабирования с использованием программируемого фильтра, который (способ) выбрала команда разработчиков драйвера nVidia.

Много лет пользователи просили nVidia о другом — универсальной реализации для всех видеокарт (например, GTX 650 Ti Boost 2013-го года) nVidia с использованием существующей функциональности масштабирования текстур, доступной в OpenGL и DirectX испокон веков. Но представители nVidia (Manuel Guzman, Sora) заявляли, что такая реализация потребовала бы чуть ли не индивидуальной реализации для каждой архитектуры, а также «ломалась» бы в Windows 10 при каждой смене модели драйверов, которая (смена), как утверждали в nVidia, происходит довольно часто (видимо, при «мажорных» обновлениях Windows 10).

В играх частенько включаю DSR (хотя я не уверен, оно ли это, или это делается средствами самой игры)

Скорее всего, в играх вы пользуетесь Resolution Scaling. Это другое. DSR включается только через панель управления nVidia и просто добавляет более высокие, чем физическое разрешения экрана, разрешения в список доступных для выбора разрешений.

Кстати, могли бы вы проверить (временно отключив остальные несовместимые функции), возможно ли использование целочисленного масштабирования конкретно в сочетании с HDR? При этом хорошо бы иметь какие-то критерии явного определения, что HDR не только включён формально, но и реально работает (например, индикатор HDR в меню монитора), не выключаясь «по-тихому» при активном целочисленном масштабировании. Спасибо.

проверил, работает, включил целочисленное, уменьшил в 2 раза разрешение, шдр включается в мониторе, фильмы запускаются

@Flest, спасибо. Можете ли уточнить конкретную модель вашей видеокарты? И для уверенности хорошо бы переключиться на разрешение в несколько раз ниже физического, чтобы было очевидно, что каждый логический пиксел действительно квадратный, а не размытый — иначе возможна ситуация, что HDR работает, но по-тихому отключается целочисленное масштабирование.

карта 3080, разрешение ниже поставить никак, у меня 2560*1440, самое маленькое для целочисленного 1280*720, в фильмах не знаю, там понять сложно, но система и весь интерфейс целочисленно масштабируется, если включить обычное масштабирование, тогда уже появляется мыло

Спасибо. Обычно минимальное разрешение, доступное через список всех видеорежимов — 640×480 (на вашем мониторе получится масштаб 3,0 с пикселами 3×3). В обычном списке — 800×600. Не обязательно подбирать логическое разрешение, на которое физическое разрешение экрана делится нацело по обеим осям: при целочисленном масштабировании пространство, соответствующее дробной части чистого соотношения физического и логического разрешений, просто заполняется чёрным, как при центрировании без масштабирования. В вашем случае 800×600, возможно, для проверки даже предпочтительно — если наверху и внизу будут чёрные полосы, занимающие примерно по 8% высоты экрана (600×2 = 1200; 1200/1440 ≈ 83,333%), значит целочисленное масштабирование работает.

Драйверы видеокарт всех трёх производителей (AMD, nVidia, Intel) начиная с конца 2019 года поддерживают целочисленное масштабирование (integer scaling у AMD и nVidia, или retro scaling в случае Intel) для современных видеокарт. Наиболее широкая поддержка видеокарт — у AMD — начиная с архитектуры GCN 2.0 (2013).

Из компьютерных мониторов встроенное целочисленное масштабирование есть пока только у одного-единственного — Eve/Dough Spectrum (4K). В современных телевизорах Sony есть режим «Graphics», в котором нет размытия при масштабировании, хотя при нецелочисленных масштабах возникают искажения.

Если видеокарта не поддерживает, можно масштабировать окна отдельных программ, например, с помощью IntegerScaler (Windows 7+, freeware).

У вас в 60 уже хрусталик похерен, т.е. пресбиопия. Его только менять. Химеей еще не научились, те капли просто сужают зрачок.

Например, в этом тесте
(Картинка кликабельная, смотреть строго при 100% масштабе)
На 5к мониторе, в чисто черно-белых углах, если немного приблизиться к монитору и старательно вглядываться — наклонные линии выглядят будто немного не ровные по толщине. В серых углах они кажутся идеально прямыми.

Лестницы глазом практически неразличимы с нормального расстояния, детали слишком мелкие, чтобы можно было их разглядеть. Но если упереться в монитор носом — то можно рассмотреть эти лестницы из отдельных пикселей

5к монитор показал себя наилучшим образом
На 5к мониторе… Лестницы глазом практически неразличимы с нормального расстояния,
Так с этим я и не спорю. Я и на 4K мониторе лестницы не вижу (мы с вами уде выяснили, что у вас зрение лучше).
А на QHD вижу (но “не замечаю").
И на FHD естественно тоже вижу (и тоже могу «не замечать»).
Поэтому для меня замена FHD на QHD получается без “WOW-эффекта“ — ну да, получше, но все равно не идеально.
Зато на FHD я могу оставить 100% масштаб, а QHD в моем случае потребует применения маосштабирования, причём артефакты масштабирования заметнее, чем на 4K мониторе (вы это и сами отмечали).
Поэтому для меня QHD получается ни то ни сё — по сравнению с FHD нет wow-эффекта, о при этом есть заметные проблемы масштабирования.
Ну а 4K/5K это отдельный разговор, который мы с вами уже не раз обговорили (и в этой части я ведь вам и не возражал).

Это никак не зависит от dpi. Это называется кристаллический эффект. На 77' OLED LG пиксели не видны, врочем там честы 4 сабпикселя.

Искренне не понимаю, почему остаётся важной характеристика "Угол обзора". После того, как углы стали приемлемыми, кажется, что про неё нужно забыть, не? Никто ведь не будет смотреть Аватара, сидя под углом 160 градусов к телевизору

Для телека это еще имеет какой-то смысл, когда компанией на всем диване смотрят, а для монитора? Давно не актуально

Для достаточно больших экранов имеет смысл.
Даже при просмотре с одной точки зрения может проявляться градиент яркости/контрастности от центра к краям, я такое наблюдал на посредственных мониторах, которые выдавали на работе.

Ну, это совсем дешманский монитор должен быть

Да нет, даже в целом неплохие IPS-матрицы от этого страдают.
На своём Dell U2720Q я это тоже наблюдаю, хоть и в меньшей степени.

Это наверное игровые, я с такси мало имел дела

Это как раз чисто офисный, с упором на хорошую цветопередачу. rtings про него пишет "IPS panel with good viewing angles", однако падение контрастности и искажение белого к краям я отчётливо вижу при просмотре с 70-80 см.

У меня работа связана с цветом и большие мониторы видел несколько другого качества. С офисными и игровыми больших диагоналей у меня почти нет опыта. Может у них меняется цвет в пределах поворота головы от центра к краям

Это как раз понятно, что на мониторах для профессиональной работы с цветом с такими искажениями борятся :)
Но подавляющее большинство покупаемых мониторов всё-таки из другой лиги, и на них углы обзора — всё ещё актуальный и важный параметр.

Немного позанудствую про тетрахроматию и невероятные, непередаваемые, восхитительные оттенки цвета, которые такие люди могут видеть.

Википедия: Отдельные люди обладают мутацией, в результате которой появляется ещё один, четвёртый тип колбочек. Такие люди являются тетрахроматами, и согласно оценкам, такой особенностью обладают около 12 % женщин. Однако у большинства из них четвёртый тип колбочек ничем не отличается от одного из существующих, и их цветовое восприятие идентично восприятию большинства людей.

Но у некоторых-таки отличается. Но и тут есть подвох.

Снова википедия: Согласно исследованиям британского учёного Тома Симонайта (Tom Simonite), люди, которым трудно различать красные и зелёные цвета, могут различать множество других оттенков. В частности, оттенков цвета хаки, которые кажутся одинаковыми людям с нормальным зрением.

Логично было бы предположить, что люди с тетрахроматией хуже отличают общие оттенки цветов - просто из-за того что плотность сенсоров каждого вида ниже на единицу площади.

Проблема заключается в том, что большинство имееют этот 4 рецептор в довольно бесполезной области, очень редко 4 рецептор действительно расположен независимо от других, что позволяет лучше видеть ультрафиолет, например, и все эти оттенки.

Зарегистрировался только ради этой статьи. Всеобъемлющая информация про телевизоры, которыми после 2010 года не интересовался вовсе. Простым и понятным языком объясняет сложные вещи. С примерами, цифрами и объяснением разницы.

Если когда-нибудь понадобится телевизор, я знаю по чьей статье я буду его выбирать.

Побуду кэпом: если в два раза увеличить диагональ телевизора, то его площадь увеличится в четыре раза.

Думаю это утверждение справедливо лишь для квадратного экрана

Это утверждение (площадь пропорциональна квадрату линейного размера) справедливо для любых двух гомотетичных фигур на плоскости.

Гомотетия

ЗЫ поправка: для любых "обычных" фигур на плоскости. Будет ли всегда выполняться для фигур с фрактальной границей - не уверен.

Да, был не прав, не только для квадрата, как частного случая, правильней было написать: справедливо при соблюдении пропорций. В общем я имел ввиду, что само по себе утверждение о том, что при «изменении диагонали» - это не всегда так, чего автор это не уточнил. Мониторы бывают разных пропорций.

"Как увидеть 120гц". Нуу... БЕРЁШЬ И СМОТРИШЬ НА ДВИЖУЩЕЕСЯ ИЗОБРАЖЕНИЕ. И видишь. Шизофренический заголовок...

И видишь

Или не видишь (не можешь отличить от изображения 60Гц)

Прежде всего спасибо за столь обстоятельный труд.

К неожиданному финалу статьи про специальные крепления, я просто обязан оставить тут эту ссылку на видос, где геймер сделал из комнаты кокпит космического корабля

https://youtu.be/EfetLhpOvJw

И было бы неплохо в какой-нибудь из статей описание нескольких тс технологических пресетов, на что из сотни параметров дисплея обращать внимание и их диапазоны, подбирая его по параметрам для конкретного применения как то: игры, фильмы, работа с текстом, работа с цветами.

"можно помахать перед ним карандашой или руком"

)))))

Статья — хороший кандидат на следующий конкурс Технотекст, я считаю.
Пара дополнений из личного опыта:

Ещё хуже, если дисплей глянцевый – там вообще отражение будет, как в зеркале.
Или другой нежелательный вариант: дисплей матовый, а рамка вокруг него глянцевая, как, например, у моего «умного» телевизора-монитора Samsung.
Результат тот же: как ни садись, а свет настольной лампы или потолочной люстры отражается от рамки. И прямой наводкой попадает прям в глаз )

Ещё можно открыть камеру на телефоне и поиграть с временем экспозиции (если есть про-режим съемки).
Только перед этим в настройках камеры нужно отключить подавление фликера 50/60 Гц.
Что может быть проще, чем сделать матовую рамку?

достаточно яркости экрана в 200300 кд/м²

Сколько сколько?! А фоновое освещение при этом сколько люменов?

Интересно, возможно ли такое ?
На 4к ТВ с большой диагональю, чтобы увеличить fps и уменьшить размер кадра, и не крутить головой, сидя рядом, выводить игру в окне 1920x1080 по центру снизу монитора (как какое-нибудь окно браузера), не разворачивая не весь экран. И чтобы при этом работала синхронизация G-Sync.

Запустить игру в окне без рамок + на рабочий стол чёрный фон. Но я не уверен насчёт g‑sync. Впрочем, 1920×1080 по современным меркам довольно маленькое разрешение, поэтому и без g‑sync, в большинстве случаев, всё будет плавно (при соответствующий карте).

Articles