6 октября 2018 6.10.18 34 596

Ограничений на кадры в секунду в компьютерной Call of Duty: Black Ops 4 почти не будет

Открытая «бета» Call of Duty: Black Ops 4 на PC, в принципе, прошла успешно, хотя имелись и отдельные недочёты. Например, владельцам крутых систем не понравилось ограничение на частоту кадров. Напомним, что выше 90 кадров в секунду в «бете» выставить было нельзя, и это весьма солидное для большинства систем значение хозяевам топ-конфигураций оказалось тесновато.

Однако вчера разработчики недовольных успокоили — в релизной версии Black Ops 4 никаких ограничений на FPS не будет… в стандартном мультиплеере и в зомби-режиме. А вот в «Королевской битве» Blackout количество кадров всё же ограничат до 120. Позже, когда серверы стабилизируются, ограничение доведут до 144. А потом, если опять же серверы позволят, — и вовсе уберут.

Call of Duty: Black Ops 4 выйдет 12 октября.


Поддержи Стопгейм!

Call of Duty: Black Ops 4

Платформы
PC | PS4 | PS5 | XONE | XBOXSX
Жанр
Дата выхода
12 октября 2018
343
2.9
256 оценок
Моя оценка

Лучшие комментарии

Если вкратце, то приведу 2 примера:
1. CS:GO. У сервера есть tick-rate (чем выше, тем лучше). Он отправляет фиксированное количество пакетов всем клиентам и ему плевать на fps игрока.
2. COD. Клиент сам запрашивает количество кадров, которые ему нужны. Таким образом сервер отправляет разное количество пакетов и позволяет при тех же условиях вместить больше игроков.

P.S. Основано на статье в Reddit.
Господи, касательно серверов здесь еще проще: больше обновлений в секунду, значит больше данных отправленных на сервер (это могут быть данные не только положения/статуса игрока и т.д., но и анимаций), то есть больше нагрузки на сам сервер. Если перейдете по ссылке в новости на Reddit там в комментариях подробно уже все описали. Тут лишь стоит отметить (как я понимаю), что дело не только в серверах, но и в самом игровом движке.
Вообще-то мониторов с частотой выше 120 очень даже много, просто доступны (и нужны) они не всем.
На примере Overwatch, при нажатии ctrl+shift+N у вас появиться окошко для отслеживания данных сети, отклика и т.д. Ограничение кадров будет напрямую влиять на скорость отклика, поэтому большинство киберспортсменов предпочитают низкие настройки графики и (150-250+) fps. Да, тут еще фактор 240Hz мониторов, но разница перехода с 140Hz на 240Hz, не так заметна глазу как с 60Hz на 140Hz.
Не понимаю я какая у них связь между «серверами» и «fps» на конкретном клиенте. По сути жеж игра идет по тактам сервера (и на сервере) который собирает в кучу изменения от всех клиентов, а те самые клиенты их просто отображают местами пытаясь предугадать ответ сервера. И если сервер щелкает условно 30 состояний в секунду то какая ему разница сколько раз клиент отрисует это состояние. Просто по если смотреть по такой же логике, то игры типа EVE Online где при сильном замесе время игры смачно замедляется (были случаи когда 1 секунда в игре просчитывалась 10 секунд реального времени) фпс должен падать до 0.1 что ли?
Вот интересно только какой железо потянет хотя бы 120 кадров на высоких настройках? Не говорите мне про минимальные, там игры выглядит ужасно
вики не аргумент, если нужна теория ее можно найти на реддите, или на том же форум Overwatch
Именно, что уменьшит. Но не так, как вы думаете. Не могу точно ручаться за четвертую баттлу, не знаю деталей ее сетевой работы, но приведу пример по хорошо известной мне ArmA 2 — там есть возможность отслеживать текущую нагрузку сервера в риал-тайме, включая именно его, а не ваш, клиента, FPS. То есть при 15 FPS у сервера, как вы написали, ваша картинка на мониторе, конечно, не будет сменяться с частотой 15, если у вас железо позволяет куда большую — те же 30 или 60, скажем, но вот все взаимодействия между клиентом и сервером (включая скрипты) будут функционировать именно что с такой медленной чистотой. Отсюда всякие баги, тормоза, неправильные или обрывистые анимации и прочее, когда у сервера вдруг FPS проседает. При серьезный упадках это даже может повлиять в разной степени на FPS уже у всех клиентов, на личном опыте знаю. Опять же, не сведет с 60 до 15, но вот опустить с 60 до 45 вполне может на некоторое ограниченное время. А у кого из клиентов железо слабее — так и того хлеще бывали падения.
Фпс не только от графона зависит, банально синхронизировать местоположение игроков не так просто, а они еще и бегают, и стреляют и звуки издают, все эти данные нужно собрать обработать и передать всем игрокам обратно. Про 20 кадров я утрировал, но скажем, в CoD4:MW на серверах стояло ограничение в 250 фпс, потому что если клиент мог преодолеть это планку, то сервер просто не справлялся с обработкой, игрок мог бесшумно бегать, быстрее стрелять и т.д.
Зачем вообще обычным игрокам ФПС больше 75.
Спасибо, посмеялся)

над собственной глупостью? вот читаю я твои ответы и понимаю что есть у тебя ооочень поверхностные знания но принципов ты не понимаешь ровным счетом ни хрена :)

Дополнительная. которая жрет ресурсы и требует время на обработку. Которая теоретически не может ничего уменьшить.
Это примерно как заявить, что 4к текстуры требует меньше видеопамяти, чем 720р потому, что они лучше)

Мало того, что аналогии у тебя как у шизофреника, так даже в этой аналогии хрень порешь — как четко ты себя описываешь.

а про тормоза зайди в поворот на сокроости 70 без тормозов посмотрим как они не влияют XD

тыж понимаешь что импут лаги это лаги вызванные задержкой монитора, без неё может быть задержк амежду формированием кадра и его выводом, а вот СИНХРОНИЗАЦИЯ обеспечивает что катколько сформировался то сразу и вывелся, сводя к минимум все задержки которые может сам комп устроанить впринципе.

Слушай, а ты случайно не сторонник плоской земли и верований в различных богов?)

не сорян я не такой как ты :)
Самое простое изречение из этого которое чаще всего делают это — чем больше фреймрейт тем выше отклик и плевать что твой моник от силы 60-75к
Я думаю это что-то из раздела, как в Dark Souls II при 60 фпс на компе оружие гораздно быстрее ломалось :D Какие-то функции могут быть прикреплены к нему, и видимо во избежание рассинхрона с сервером им проще сделать лок фпс.
Это не ответ, «рендеринг картинки и ее отображение на экране» это процесс независимый от процесса «обмена данными с сервером». При грамотной архитектуре приложения единственный случай их влияния друг на друга это недостаток общих ресурсов (процессор/память) в результате чего обе операции будут работать медленней. Однако в статье речь про топовые конфигурации которые «могут» выдать больше 90 кадров, а раз так то оставшиеся ресурсы которые не задействованы в рендеринге этих 90 кадров тупо будут простаивать.
То есть если машина мощная, то она условно тратит 5% проца на обмен данными с сервером и к примеру 1% на каждый кадр, соответсвенно она может выдать 95 кадров без какова либо влияния на обмен данными, и только попытка выдать «больше» будет влиять на скорость обмена данными с сервером, и то только в случае если задача рендеринга имеет больший приоритет чем обмен данными. И в данном случае искусственное ограничение вообще не имеет смысла так как если машина тратит 2% на каждый кадр то до ограничения в 90 она не дотянется, а при 1% оставшиеся 5% будут простаивать.
Я понимаю что приведенный выше пример не учитывает видеокарту и другие параметры, но они в сетевом обмене данными не участвуют, и на топовых конфигах как правило всех ресурсов больше чем нужно.
В случае с кривыми портами иногда были случаи что на fps завязывались геймплейные механики, но это скорее связано с оптимизацией под консоли и мол если там фреймрейт фиксирован то почему бы его и не переиспользовать еще где то. Но в случае с сетевой игрой на ПК такой аспект не понятен.
Я как то не заметил ограничения частоты кадров не в первой не во второй бете, выставлял 144 спокойно. Другое дело что эти 144фпс моя пека не тянула.
Судя по всему у них есть прямая зависимость частоты общения клиент/сервер в зависимости от клиентского фреймрейта (обычно просто делают что общение идет на частоте, равной минимуму из фпс и некой константы). И тогда в обычном мп имеет логика на отсуствие ограничения, а в BR уже просто выходит аналог DDoS.
возможно они имели виду что и тик рейт будет соотвецтвеный !? хотя мне это очень сомнительно что будет больше 60 герцов… потомучто вы правельно говорите есле комп условно не может потянуть 90 кадров а тянет 85 то при тикрейту 60 герц както пофиг потомучто он обнавляет даные каждые 60 секунд. а вот есле не тянет 60 кадров то и ты будеш видеть меньше информацыии чем сервер тебе посылает даные… короче это дебри!
Не силен в сетевых технологиях, но на опыте знаю, что в ряде игр(шутерах) фпс зависит от мощности сервера, если сервер не справляется с обработкой данных, возникает просадка фпс у всех игроков, независимо от железа клиента. Проще говоря, если сервер обрабатывает 20 кадров в секунду, он будет передавать клиенту данных на 20 кадров в секунду.
Я так понимаю вы пользователь 140Hz монитора? Просто есть вопрос, имеет ли смысл брать такой монитор, если игра выдает около 80 фпс?
Вы меня совершенно не поняли, под скоростью отклика я имею ввиду «инпут лаг», а именно:

Герцовка — это то, сколько раз пиксель может менять цвет за единицу времени.
Фпс — это количество картинок, которые видеокарта посылает монитору.

Следовательно:
Если монитор держит 240 ГЦ — а ФПС 30, то монитор просто не используется по максимуму и больше 30 кадров вы все равно не увидите.
Если монитор 60 ГЦ — а фпс 300 — то пиксели не станут «мигать чаще» чем 60, но каждое мигание будет с самым актуальным кадром (т.к монитор возьмет самый последний из кадров, что ему прислала видеокарта), т.ч в целом повышать ФПС выше, чем Герцовка есть.

Таким образом, наилучшая плавность картинки достигается высокогерцовым монитором, при ФПС не меньшем, чем герцы. Дальнейшее повышение фпс сделает картинку актуальнее, но плавнее движения не будут, т.к монитор просто не сможет их отобразить.


Именно поэтому даже на 60hz мониторе, в fps шутеры играют при ~90-120 fps
Читай также