История изменений
Исправление
stevejobs,
(текущая версия)
:
для стриминга игр не используются платы видеозахвата, потому что:
-
очень сложно скомпенсировать лаг между голосом ведущего, музыкой и картинкой. Задержка плавает
-
карта видеозахвата находится в отдельном компьютере. Отдельный компьютер стоит денег! Весь поинт же в экономии денег, так? Сомнительный способ экономии :)
Карта видеозахвата для своей работы требует GPU и CPU компьютера, поэтому в тот же самый комп втыкать её не имеет смысла. Она даже заработает, но ничего не сэкономти. Даже потратит - двадцать-сорок тысяч на покупку карты захвата :)
-
не все игры умеют фуллскриниться на оба дисплея. Если у тебя дисплеи с разным нативным DPI, то фулскрин ломается, даже если они работают в режиме дублирования. Имеется в виду Windows, конечно. Когда тебе просто нужно сдублировать на второй монитор - ты покупаешь два одинаковых монитора. Карта видеозахвата определяется как совершенно точно другой дисплей.
-
сделать так, чтобы видеокарта NVidia работала с картой видеозахвата - это большой челленж. На стороне NVidia, она определяется как монитор, но определяется неправильно. На стороне карты видеозахвата, нужен очень точный формат видео, а для этого всё должно определиться правильно с обоих сторон. Я попробовал несколько плат захвата.
Поэтому обычно картинка снимается через какой-нибудь OBS, а для кодирования используется видеокарта или мощный процессор
===
и вроде моего 2700x хватает для 1080р c 6k битрейта (h264 пресет slow).
а теперь запусти это с какой-нибудь игрой. Игра сожрёт значительную часть CPU. Не весь, но тем не менее. Если ты включишь еще и стриминг, процессор закончится. А потом в игре почему-то возникнет нагрузка, и на видео начнутся лаги. А потом ты откроешь Гугл Хром чтобы посмотреть какой-нибудь гид по прохождению на ютубе, хром и ютуб-плеер отожрут свои 30% процессора, и вооще всё встанет колом
а еще, кодирование запусти сразу в несколько потоков - тебе ж нужно не на один ютуб выкладывать, а еще на твич, фейсбук, миксер, вконтакте, длайв, итп (в зависимости от аудитории).
рестриминг решается покупкой аккаунта на restream-io каком-нибудь, но это деньги. Плюс задержка между тем что видит человек на ютубе и тем что у тебя творится на мониторе - растёт. Может дорасти до полминуты. Ты говришь: «ребята, а прокомментируйте вот это». А они это услышат только через полминуты, а у тебя уже всё изменилось.
ну и вообще, если 1080p хорошо, то для ютуба лучше 2к хотя бы, не? Если человек растянет 1080p на свой 4к монитор - это выглядит не очень красиво. Статистика Ютуба показывает, что те, кто смотрит в 2к и 4к - считаные проценты, но эти считаные проценты очень пересекаются со считаными процентами геймеров
короче, мой i7 6700k и GTX 1080 постоянно загружены по максимуму всегда. Того же Ведьмака в 4k, даже 30фпс, стримить уже не получится, или получится с дикими лагами
тредрипер и RTX 2080ti могли бы вытащить Ведьмака, но это деньги. У меня столько нету :)
Исходная версия
stevejobs,
:
для стриминга игр не используются платы видеозахвата, потому что:
-
очень сложно скомпенсировать лаг между голосом ведущего, музыкой и картинкой. Задержка плавает
-
карта видеозахвата находится в отдельном компьютере. Отдельный компьютер стоит денег! Весь поинт же в экономии денег, так? Сомнительный способ экономии :)
Карта видеозахвата для своей работы требует GPU и CPU компьютера, поэтому в тот же самый комп втыкать её не имеет смысла. Она даже заработает, но ничего не сэкономти. Даже потратит - двадцать-сорок тысяч на покупку карты захвата :)
-
не все игры умеют фуллскриниться на оба дисплея. Если у тебя дисплеи с разным нативным DPI, то фулскрин ломается, даже если они работают в режиме дублирования. Имеется в виду Windows, конечно. Когда тебе просто нужно сдублировать на второй монитор - ты покупаешь два одинаковых монитора. Карта видеозахвата определяется как совершенно точно другой дисплей.
-
сделать так, чтобы видеокарта NVidia работала с картой видеозахвата - это большой челленж. На стороне NVidia, она определяется как монитор, но определяется неправильно. На стороне карты видеозахвата, нужен очень точный формат видео, а для этого всё должно определиться правильно с обоих сторон. Я попробовал несколько плат захвата.
Поэтому обычно картинка снимается через какой-нибудь OBS, а для кодирования используется видеокарта или мощный процессор
===
и вроде моего 2700x хватает для 1080р c 6k битрейта (h264 пресет slow).
а теперь запусти это с какой-нибудь игрой. Игра сожрёт значительную часть CPU. Не весь, но тем не менее. Если ты включишь еще и стриминг, процессор закончится. А потом в игре почему-то возникнет нагрузка, и на видео начнутся лаги. А потом ты откроешь Гугл Хром чтобы посмотреть какой-нибудь гид по прохождению на ютубе, хром и ютуб-плеер отожрут свои 30% процессора, и вооще всё встанет колом
а еще, кодирование запусти сразу в несколько потоков - тебе ж нужно не на один ютуб выкладывать, а еще на твич, фейсбук, миксер, вконтакте, длайв, итп (в зависимости от аудитории).
рестриминг решается покупкой аккаунта на restream-io каком-нибудь, но это деньги. Плюс задержка между тем что видит человек на ютубе и тем что у тебя творится на мониторе - растёт. Может дорасти до полминуты. Ты говришь: «ребята, а прокомментируйте вот это». А они это услышат только через полминуты, а у тебя уже всё изменилось.
ну и вообще, если 1080p хорошо, то для ютуба лучше 2к хотя бы, не? Если человек растянет 1080p на свой 4к монитор - это выглядит не очень красиво. Статистика Ютуба показывает, что те, кто смотрит в 2к и 4к - считаные проценты, но эти считаные проценты очень пересекаются со считаными процентами геймеров