Меню
StopGame  Игровые новости Демонстрация мощностей GeForce GTX 1080 на примере новой DOOM с API Vulkan

Самое актуальное

  • Видеообзор игры Kona
  • Обзор игры Vikings: Wolves of Midgard
  • Разбор полетов. Ghost in the Shell: Stand Alone Complex
  • ММОдерн №142 — Star Citizen, EVE Online, Master x Master Online…
  • Sniper: Ghost Warrior 3. Польский пшутер
  • Инфакт от 24.03.2017 – For Honor, Resident Evil 7, Prey…
  • Пользовательский обзор недели
  • Превью игры Yooka-Laylee
  • Превью по ранней версии игры Warhammer 40.000: Space Wolf
  • Видеообзор игры NieR: Automata
  • Видеопревью игры P.a.m.e.l.a.
  • Обзор игры LEGO Worlds
  • Превью по ранней версии игры P.a.m.e.l.a.
  • Smite. Двойной удар
  • The Legend of Zelda: Breath of the Wild. Мир Дикого Востока
  • Студия Континентальной лиги LoL. Киберспорт по-взрослому
  • Mass Effect: Andromeda. Прилетели
  • ММОдерн №141 — Lineage 2 Classic, ArcheAge, World of Warcraft…
  • Штурм — эпизод 5
  • Пользовательский обзор недели
  • Видеообзор игры Styx: Shards of Darkness
  • Обзор игры Faeria
  • Nier: Automata. Мечтают ли андроиды о мини-юбках?
  • Styx: Shards of Darkness. Прямой путь для слабаков
  • Трудности перевода. «Mass Effect. Золотое издание»
  • Видеообзор игры Tom Clancy's Ghost Recon: Wildlands
  • Albion Online. Новые горизонты
  • Blade & Soul. Классовое неравенство
  • Обзор игры Styx: Shards of Darkness
  • Видеообзор игры Legend of Zelda, The: Breath of the Wild

Демонстрация мощностей GeForce GTX 1080 на примере новой DOOM с API Vulkan

DOOM
Игра: DOOM
Платформа: PC, PS4, XONE
Жанр: action
Дата выхода: 13 мая 2016 г.
Разработчик: id Software, Certain Affinity
Издатель: Bethesda Softworks
Издатель в России: СофтКлаб
Локализатор: СофтКлаб
На прошедшей презентации NVIDIA прелести новой видеокарты GTX 1080 показывали на примере свеженькой DOOM. Впрочем, даже если вам не шибко интересны всякие технические тонкости, вы сможете поглядеть на кусочек из одиночной кампании и оценить, как играется творение id Software на PC.

Специально для компьютеров разработчики готовят версию на низкоуровневом API Vulkan, открытой альтернативе DirectX 12. «Вулканическую» сборку и демонстрировали на презентации NVIDIA. DOOM запустили на GTX 1080 в разрешении 1080p и включённой вертикальной синхронизацией. Результат — стабильные 60 кадров в секунду. Как будто кто-то сомневался!

Поэтому самое весёлое началось после того, как id отключила V-Sync и тем самым сняла ограничение FPS. В результате счётчик кадров подскочил больше, чем в два раза, и иногда достигал отметки в 200 FPS! Разработчики признались, что такие внушительные показатели даже повлекли за собой несколько багов в игре — мол, движок DOOM не сумел совладать со всеми мощностями GTX 1080.

К сожалению, качественного ролика с мероприятия нет, только вот такая «экранка». id Software пообещала выпустить DOOM на Vulkan вскоре после релиза игры 13 мая.

Комментарии (106 шт.)
Чаще отдаю предпочтение AMD, но если цена будет адекватна, то 10xx поколение очень вкусно. Ждем что-то повкусней от красных на HBM
Ждем что-то повкусней от красных на HBM

Это как ждать второго пришествия, топы от красных на HBM сливают/паритет зеленым на GDDR5, я очень сомневаюсь что красные смогут выкатить что-то действительно превосходящие по всем фронтам тысячной серии(причем которая так-же будет в конце-концов на HBM), но буду рад ошибаться, и что желание превзойти лидера(кто не знал, под/более 70% рынка видеокарт за зелеными), даст стимул красным выкатить что-то дешевле и лучшее.
Этот год будет интересен в плане видеокарт, т.к. оба игрока рынка выкатывают продукты на новом техпроцессе. Вот только если нВидиа начала с привычного предтопа, то АМД решила начать с гораздо более массового среднего сегмента. Теперь нужно посмотреть, как покажет себя предполагаемая R9 480 по сравнению с GTX1070.

А что касается HBM памяти (второй версии, само собой), то по всей видимости новинки с ней мы увидим только в начале 2017 года.
Есть инфа о том, что Polaris будет работать с GGDR5 и это будут не флагманские чипы. Флагманами на 2016-ый останется линейка Fury, а в 2017 с запуском архитектуры Vega, в которой будет работать HBM2, линейка флагманов обновится. В общем, если верить этой информации — AMD стремится расширить рынок среднего сегмента, дав пользователям большую мощность за сравнительно небольшие деньги, при этом пока не притрагиваясь к хай-энд сегменту. Если господин Хуанг не врет и в бенчмарках 27-го мая мы увидим обещанную производительность, то AMD придется сильно попотеть, чтобы представить действительно стоящую альтернативу по соотношению цена/производительность.
Держи плюс от меня, тоже с 2002 года «сижу» на видеокартах от AMD. Начал с Sapphire Radeon 9000 PRO так и продолжил: Sapphire 9600 Pro / ASUS Radeon X1650XT / Sapphire Radeon HD 3870 / HIS Radeon HD6950 / Sapphire Dual-X OC R9 280X + Gigabyte R9 280X.
Всегда интересно наблюдать за картами конкурента.
Увы из-за злых людей не могу ставить плюсы. Я тоже приверженец AMD.
Смысл показывать новый дум на топовой видеокарте, даже у меня она летает на ура (бета тест). Ах да, точно ХАЙП!
Единственное что я понял из ролика это то что оптимизация в игре сомнительная, если уж даже ПЕЧ 1080 до 109 FPS просаживалась в игре где давайте признаем графон далеко не фантастический, то как-то немного становиться тревожно за железки среднего звена из начала десятилетия которые у большинства пользователей, уверен что это видеокарта в каком нибудь BF4 все 200 выжмет и даже не чихнет, а тут разброс от 200 до 109 таки большой, более того 1080р?, серьезно?, думаю многим интересно узреть как карта работает в 4К/60FPS, а не в устаревшем разрешении экрана из середины прошлого десятилетия.
более того 1080р? серьезно?

А сглаживание там какое?
То есть ты считаешь, что они включили уберсглаживание, чтобы на проекторе(на котором очень слабо заметна пикселизация) потерять треть фпс и всё это для того, чтобы публике прорекламировать свою видяху. LOGIC?
Почему нет? Это же демонстрация железки. И, наверняка, она может в уберсглаживание. Думаешь, они fxaa юзали? Или вообще в 900р на самом деле показывали?
Это же демонстрация железки.

Тебе слова коммерция и реклама о чём ни будь говорят? Нет? Ок.
а не в устаревшем разрешении экрана из середины прошлого десятилетия.
смеешься? Мне бы вот чтоб хотя бы на минималках пошла — и то буду рад. Ты правильно сказал,
тревожно за железки среднего звена из начала десятилетия которые у большинства пользователей
А на новый комп за 80-100К чего скрывать, не тяну финансово.
смеешься? Мне бы вот чтоб хотя бы на минималках пошла — и то буду рад.

Но мы то наблюдаем не на то как игра идет на «селероне», а все таки на видеокарту нового поколения, и хочется что бы тестили ее в том разрешении для которой ее создали, а именно 4К/ВР, а в 1080р тянули игры компьютеры буквально еще в прошлом десятилетии, в итоге таки странно видеть 1080р в данном контексте с картой которая ощутимо мощней Титана Х, это как на каком нибудь GTX 680ti показывать игру в разрешении 800х600 :D
не знал что просадки до 109 fps это проблема)
Тут дело в заявленной мощности, большей, чем у 980ti. Видеокарта позиционируется, как 4К/VR решение. Тут в демо она просаживается до 109fps в 1080p, это дает некую пищу для размышлений о том, что в 4К можно будет любоваться на просадки до 40fps, а это более чем критично для видеокарты за 600$. Тем не менее, мы до сих пор не знаем всех настроек графики в игре и не известно, возможно в демо использовался мультисэмплинг, что в некоторой степени нивелирует проблему.
а ну тогда ок, не задумывался о таком
если честно вообще не помню когда последний раз о видеокартах задумывался на пс4 играю и ладно
с нынешними ценами думаю не скоро обновлю свое ведро с гайками, тем более плойка есть
Нет смысла гадать, так как неизвестно какое было включено сглаживание и качество графики. Для максималок и сглаживания ×4 минимальньные 40 кадров в 4К — это блеск. 980Ti без сглаживания в 4К на максимальных настройках в современных играх даже максимальный FPS до 60 кадров не поднимает.
Ты меня просто перефразировал, ну ок.
Хах. Как-то я ответил на первую часть твоего комментария, а вторую то ли не прочитал, то ли забыл что прочитал ))
+ играет роль разработчик. Если бы это был очередной бенчмарк от крайтек, с уберграфонием, то это было бы достижением. А так видюха походу не тянет ни 1080/120, ни 4К/60. И как всегда основной «прирост» производительности у зелёных будет за счёт того, что они просто забьют на старые видюхи.
Там как бы SLI был
Плюс, в 1080р просадки до 100 не такое уж и достижение
С чего ты взял что там SLI был?
Сам видел, Слай в первом ряду сидел.
Остряк...))
То есть никто не в курсе что вулкан пока хренов в плане фпс? Он по кадрам между OpenGL и DX11. На винде с DX11 кадров будет куда больше.
Это не вулкан хренов, а разработчики пока с ним не разобрались. А смысл у него такой же, как у DX12, — более низкий уровень доступа к железу.
Ну так смысл не поменялся. Кадров в игре на вулкане все равно пока меньше чем на DX11.
Очень даже поменялся. Мы ведь не знаем, насколько постарались над поддержкой вулкана в думе. Возможен и такой вариант, что с DX11 фпс будет раза в два ниже :D
Крайне маловероятно
Разумеется. Но для доказательства относительности сравнений API пойдёт. И вообще, моё сообщение было написано в защиту вулкана и его потенциала, а на деле мы оба знаем, какой API популярнее, и под какой будут игры затачиваться. Печально, но факт.
а на деле мы оба знаем, какой API популярнее, и под какой будут игры затачиваться

DX11 и DX12 — разные API. DX12 пока что популярен только у M$.
DX11 был популярнее OpenGL и Mantle. Неужели ты считаешь возможной ситуацию, когда вулкан станет популярнее DX12?) Очевидно, что со временем разработчики перейдут с 11 версии на 12.
Кстати, если верить википедии, то с майками связаны 2-3 игры.
OpenGL выпал с десктопов, потому что M$ ему помогла, выпилив из венды. Да и никто OpenGL не продвигал.
У Mantle не было будущего без поддержки на зелёных картах, а невидия никогда не стала бы поддерживать API конкурента.
DX12 продвигается M$ и поддерживает только вин10 и хуан, который от дх12 всё равно получит мало пользы.
За Vulkan стоят с десяток серьёзных контор, главной их которых для ПК является Valve, которая в игровом мире имеет больше влияния, чем M$. Vulkan поддерживает вин виста/7/8/10, Linux/SteamOS, будет поддерживать MacOS, iOS/Android, Nintendo NX. Возможно, появится на PlayStation 4, т.к. Sony числится в разработчиках вулкана. Судя по инфе в интернете, Vulkan имеет больше возможностей, чем DX12.

Так что да, я уверен в возможности ситуации, когда Vulkan станет популярнее DX12.
Очевидно, что со временем разработчики перейдут с 11 версии на 12.

Какие твои доводы? Просто из-за того же названия? Разработчики не так игры разрабатывают.
Перейдут потому же, почему перешли с 10 на 11. Потому что 12 позволяет сделать то, что нельзя сделать на 11 версии. Разумеется, что 11 версия не исчезнет полностью, как и сейчас выходят игры, которым достаточно DX10.

Валв занимается исключительно тем, что им интересно, ибо денег дофига, а конкурентов не заметно. А сейчас им интересно движок и вр развивать. SteamOS по прошествии полугода можно смело называть мертворождённой.

А судить можно о будущем по старту API. На DX12 больше релизов, 2 из них (Hitman, Ashes of the Singularity) можно назвать успешными. А на стороне вулкана дум, про него ты сам всё сказал. Судя по статистике стима, на десятке уже почти 40%, а к концу срока, когда W10 можно получить бесплатно, количество увеличится ещё больше. Вполне достаточно для крупных разработчиков, которые осознают, что релиз их игры перетянет на десятку ещё пару процентов. Да, вулкан вышел совсем-совсем недавно, но тем хуже для него. Хронос Груп придётся сильно постараться, чтобы вулкан достиг хотя бы сегодняшнего уровня DX12.
Перейдут потому же, почему перешли с 10 на 11. Потому что 12 позволяет сделать то, что нельзя сделать на 11 версии. Разумеется, что 11 версия не исчезнет полностью, как и сейчас выходят игры, которым достаточно DX10.

Я спрашивал про доводы. Почему разработчики должны перейти на DX12, а не на Vulkan, который как DX12, только есть везде?
Валв занимается исключительно тем, что им интересно, ибо денег дофига, а конкурентов не заметно. А сейчас им интересно движок и вр развивать. SteamOS по прошествии полугода можно смело называть мертворождённой.

С тем же успехом DX12 можно считать мертворождённым, по прошествии почти года. Доводы есть?
А судить можно о будущем по старту API.

А то, что у них разница почти в один год, ты решил скромно опустить. И да, старт DX12 можно назвать каким угодно, но только не успешным. Обещали заметно более высокую производительность, а в итоге получили производительность то ниже, то равную DX11, а в играх от M$ ещё и системные требования взлетели до неадекватных высот без соответствующего уровня графики.
Судя по статистике стима, на десятке уже почти 40%, а к концу срока, когда W10 можно получить бесплатно, количество увеличится ещё больше.

Мне данная ситуация видится немного в другом ключе: период бесплатного обновления уже практически завершён, а у вин10 всё ещё только 40%. Возможно, будет наплыв тех, кто в попыхах в последний момент решит урвать халявный апдейт, но даже если у вин10 будет 50%, это всё равно лишь половина. Да даже если бы было 80% — зачем, если с вулканом можно сделать 100%?
Хронос Груп придётся сильно постараться, чтобы вулкан достиг хотя бы сегодняшнего уровня DX12.

Валвам всего лишь выкатить их доту и кс: го на вулкане и вулкан уже станет в разы популярнее дх12.
Я спрашивал про доводы. Почему разработчики должны перейти на DX12, а не на Vulkan, который как DX12, только есть везде?

Потому что Vulkan не «как DX12», он другой. Тебе придётся изучать документацию по чему-то совершенно новому. DX12 наследует некоторую логику DX11. Да, другой подход к работе с доступными ресурсами, но тем не менее.
С тем же успехом DX12 можно считать мертворождённым, по прошествии почти года. Доводы есть?

На DX12 выходят новые игры хотя бы :) По SteamOS нет никакой публичной статистики о продажах, прибылях, количестве часов и и т.д. Что логично, потому что хвастаться им нечем. У тебя самого-то есть доводы в пользу «живости» SteamOS?)
Обещали заметно более высокую производительность, а в итоге получили производительность то ниже, то равную DX11

Прям таки равную? Тесты Ashes of the Singularity от Digital Foundry говорят об обратном: i7.5cm.ru/i/y6wn.png Что касается игр от майков, то можешь благодарить за это UWP. Ей не только Суини недоволен. DX12 же в выигрыше, потому что вышел он раньше, на нём уже набили шишек, а любой разработчик понимает, что инструмент, о котором уже существует некоторая база FAQ, предпочтительнее.
даже если у вин10 будет 50%, это всё равно лишь половина
А сколько было у DX11, когда на него разработчики игр переходили? Уже явно не 100% А развитием OpenGL занималась та же Khronos Group c 2006 года. Как ты сам заметил выше, OpenGL никто не продвигал. Хотя не исключаю, что насчёт Vulkan у них другие планы.
Валвам всего лишь выкатить их доту и кс: го на вулкане и вулкан уже станет в разы популярнее дх12.
Dota 2 на движке Source 2 у них уже есть. Были презентации на Linux с использованием Vulkan. Какой API используется сейчас для Windows я не знаю, к сожалению. Да, Valve может использовать Vulkan в играх на Source 2, благо в движке поддержка технологии есть. Сделает ли? Увидим в будущем. Пока что я ничего не слышал о переносе других игр Valve на их новый движок. Кстати, свою лепту должна внести поддержка Vulkan в UE4. Но меня всё равно терзает мысль, что ситуация сильно не изменится. Использовался раньше OpenGL на линуксе, а на винде — DX, теперь на линуксе будет использоваться Vulkan, а винде останется прежний DX.
Потому что Vulkan не «как DX12», он другой. Тебе придётся изучать документацию по чему-то совершенно новому. DX12 наследует некоторую логику DX11. Да, другой подход к работе с доступными ресурсами, но тем не менее.

Никаких там нет наследований логики. DX11 и DX12 — совершенно разные API и дх12 с вулканом имеют куда больше общего, чем дх12 и дх11, о чём обмолвились разработчики вулкана. Не говоря уж о том, что оба основаны на Mantle.
На DX12 выходят новые игры хотя бы :) По SteamOS нет никакой публичной статистики о продажах, прибылях, количестве часов и и т.д. Что логично, потому что хвастаться им нечем.

На SteamOS уже более 2000 игр.
У тебя самого-то есть доводы в пользу «живости» SteamOS?)

SteamOS жива, пока её можно скачать со стима, пока продаются стиммашины и пока официально не объявлено о её смерти. Валвы бывают лютыми тормозами, но это не повод обзывать их поделки мертворождёнными.
Прям таки равную? Тесты Ashes of the Singularity от Digital Foundry говорят об обратном

Ага, там игра с 1000 юнитов на экране. Конечно же там производительность взлетела — игра фактически бенчмарк для низкоуровневого API. В Tomb Raider результат не столь впечатляет — производительность ниже, чем в дх11. Как и в Hitman на зелёном железе. DX12 обошёл DX11 только в хитмане на красном железе, скорее всего потому что дх12 хорош на красном железе.
Что касается игр от майков, то можешь благодарить за это UWP.

Каким боком UWP до неадекватных требований квантума или гирсов? Я скорее поверю в то, что M$ пытается скомпрометировать ПК-гейминг, дабы тот убого выглядел на фоне XBox One.
DX12 же в выигрыше, потому что вышел он раньше, на нём уже набили шишек, а любой разработчик понимает, что инструмент, о котором уже существует некоторая база FAQ, предпочтительнее.

Игр на дх12 слишком мало, чтобы говорить о какой-то базе. Любой разработчик предпочтёт весь ПК-рынок, а не его половину.
дх12 нужен мелкомягким, чтобы насильно пересадить игроков на вин10. Нужно ли это разработчикам игр? Нет. Зачем? Они выберут то, что им выгоднее и в разработке вулкана участвовали EA, Blizzard, Epic Games, Oxide Games, что как бы намекает. Кстати, EA уже была замечена в использовании Mantle, что опять же намекает.
А сколько было у DX11, когда на него разработчики игр переходили?

К моменту, когда разработчики начали пилить игры на дх11, у большинства стояла семёрка и было железо, поддерживающее дх10-11. В отличии от дх12, на дх11 не распространялось правило «один API — одна ось».
На SteamOS уже более 2000 игр.

Исключительно портированные игры. Такая консоль никому не нужна. По сути, валв решили продавать сборки ПК, только ещё со своим геймпадом. Кому нужна платформа, на которой не выходят игровые новинки, а лишь портируют игры 2-3-летней давности? SteamOS мертва, SteamMachine мертва. О них даже и вспоминать не стоит.
скорее всего потому что дх12 хорош на красном железе
И будет хорош, если Nvidia продолжит выкидывать поддержку асинхронных вычислений на уровне железа у своих видях :) Это никак не в минус DX12 идёт. Очень сильно сомневаюсь, что Vulkan в подобной ситуации показал бы прирост на картах обоих производителей.
Каким боком UWP до неадекватных требований квантума или гирсов?
Прям таки никаким? То есть тормознутость приложений на том же WPF по сравнению с чистым C# никак не связана с WPF? Да, портирование этих игр тоже со счетов сбрасывать не стоит.
К моменту, когда разработчики начали пилить игры на дх11, у большинства стояла семёрка и было железо, поддерживающее дх10-11.
Здрасьте, я ваша тётя. Найди мне DX10 для XP. Если брать в пример Россию, то все начали пересаживаться на 7 с XP исключительно из-за DX10-11. Что касается поддержки железа, то уже сейчас подобное железо весьма распространено, только больше половины его владельцев не торопятся переходить на Win10.
Кстати, EA уже была замечена в использовании Mantle, что опять же намекает.
Угу, а ещё новый Deus Ex делают в сотрудничестве с AMD. Так делают, что просадки фпс в трейлерах заметны. Уж не Vulkan ли?)
Они выберут то, что им выгоднее и в разработке вулкана участвовали EA, Blizzard, Epic Games, Oxide Games, что как бы намекает. Кстати, EA уже была замечена в использовании Mantle, что опять же намекает.
Я тоже хочу верить в светлое будущее. А ещё Steam-машины воскреснут, когда Valve анонсирует HL3 эксклюзивом. Но давай оперировать данными, которые у нас уже есть? Сейчас мы имеем то, что DX12 показал себя с хорошей и плохой стороны. Vulkan показал себя, если судить по Talos Principle и видео в топике, не с очень положительной стороны. Мне уже расхотелось спорить о том, что может произойти :D Лучше подожду и узнаю наверняка.
О них даже и вспоминать не стоит.

Можешь не вспоминать. Это не изменит того факта, что на SteamOS продолжают выходить игры ААА класса.
Это никак не в минус DX12 идёт.

Это очень плохой результат для апи годичной давности. То, что можно увидеть в видео к обсуждаемой новости, можно назвать отличным результатом.
Прям таки никаким? То есть тормознутость приложений на том же WPF по сравнению с чистым C# никак не связана с WPF? Да, портирование этих игр тоже со счетов сбрасывать не стоит.

Игры всегда портировались, но никогда такой значительный прирост требований не совпадал с использованием API, которое должно было эти требования уменьшить.
Здрасьте, я ваша тётя. Найди мне DX10 для XP. Если брать в пример Россию, то все начали пересаживаться на 7 с XP исключительно из-за DX10-11.

DX11 вышел вместе с семёркой через три года после висты и висту поддерживал. К тому времени во-первых, много кто сидел на висте (даже если не в России, то зарубежом), а во-вторых, семёрка стала новой народной осью, потому её популярность быстро взлетела и вполне логично было делать игры под дх11. Хотя про дх9 всё равно долго не забывали.
Сейчас любой адекватный разработчик будет делать игры под все окна, то есть в случае с директом разработчик вынужден будет добавлять два рендерера — на дх11 и на дх12, а если разработчик метит на мак/линукс, то используется ещё и третий — OpenGL. Зачем, когда можно использовать один Vulkan и его использование предоставит одинаковый графон/производительность для обладателей всех осей? Исключая проплату со стороны M$, я не вижу причин для использования DX12.
Угу, а ещё новый Deus Ex делают в сотрудничестве с AMD. Так делают, что просадки фпс в трейлерах заметны. Уж не Vulkan ли?)

Афаик, в новом Deus Ex пока заявлен только DX12, так что просадки не удивительны ;)
Но давай оперировать данными, которые у нас уже есть? Сейчас мы имеем то, что DX12 показал себя с хорошей и плохой стороны. Vulkan показал себя, если судить по Talos Principle и видео в топике, не с очень положительной стороны.

Действительно, давай. За исключением одной специфической игры-бенчмарка, DX12 показал себя только с плохой стороны. Vulkan в Talos Principle, по признанию разработчика, сделан на коленке и ему предстоит переписать сам рендерер и движок игры под этот рендерер. В видео с геймплеем Doom на Vulkan мы видим отличную производительность, которой гордятся сами разработчики.
Мне уже расхотелось спорить о том, что может произойти :D Лучше подожду и узнаю наверняка.

Верно. Взлететь может и то, и другое. На стороне вулкана открытость и поддержка множества осей, на стороне дх12 маркетинг и бабло M$. Через год-два узнаем победителя.
Ты еще забыл, что разработка под openGL в свое время была сущим адом, для прогера с сомнительным результатом в отличие от dx9-11, это я добавляю к тому, почему не взлетел опка.
Адом разработка под OpenGL стала после того, как с подачи M$ разработчики потеряли интерес к OpenGL. Меньше разработчиков -> меньше багрепортов -> больше багов -> меньше разработчиков.
Ниет, из-за инструментария и сложности и специфичности архитектуры, это как С++(опка) и С#(dx)
Вулкан тут ни при чём. Порт сделан на коленке и в последствии будет много дописываться, о чём разработчик признался на форуме стима.

скрытый текст
До сих пор что ли не знаешь что такое плохой/хороший порт? Как дитя малое. API он тут оценивает по одной игре. Ты бы ещё DX11 по раннему порту ватмана оценил.
В отличие от Dx12, который по производительности ничуть не лучше (а местами даже хуже) Dx11, Vulkan намного превосходит OpenGL по производительности. Пусть он по-прежнему хуже того же Dx11, но разработчики по крайней мере не врали на счёт увеличения производительности по сравнению с OpenGL
Вот только новый Doom работает не на Dx11, а на OpenGL, и по сравнению с ним, Vulkan выдаёт гораздо большую производительность.
Видел пару дней назад. Там 200 фпс было когда в вентиляцию залез и вплотную в текстуру смотрел. Это как я радуюсь на секунду, что когда смотрю в играх на небо на моем старом компе 60фпс выдает!
блин, а я думал один такой
Смотря этот ролик, про видео карту как-то не думал, больше завораживало действо что творилось на экране. DOOM грядет!!!
я первых ассасинов также прошел. Если камеру держать вниз то фпс более менее играбельным был((
Аналогично. Что-то прямо люто захотелось в новый DOOM.
Как абсолютно верно отметили камрады 1080p для современного флагмана это ни о чем. Его надо тестить в минимум 4К которое ныне является этаким флагманским разрешением для энтузиастов. Как и сами флагманские видеокарты. Так что неясно как поведет себя видеокарта в 4к, а в 1080P Doom потянет в 60фпс и более старая из 9-ой серии. Наверняка еще и более дешевая.

Плюс как тоже верно отметили неясны настройки графики.
У меня есть вопрос, который может кому-то показаться странным: зачем нужно разрешение 4к, если собираешься играть на ПК с обычным 1080р монитором, а не на плазме во всю стену?
Вопрос на засыпку, вы пользовались DSR у Nvidia в режиме 4х?
На 20-дюймовом 4:3 мониторе двенадцатилетней давности?
Ну вы даете батенька, 1080p монитор(16:9) или 4:3 из прошлого века все же? Но я все понял, вы просто уходите от ответа и я просто отвечу освободив от своих утомительных придирок вас — в dsr 4x(псевдо-4к) на 23" мониторе(1080p) картинка становится невероятно четкой, настолько, что ни одно сглаживание в подметки не годится. Другими словами, 4к нужно для получения идеального сглаживания без мыла и лесенок.
Хмм, вот оно что. Я в дебри графония никогда не залезал и вообще больше 30 fps не различаю, о такой фиче слышу впервые. Ресурсов видеокарты потребляет наверняка больше обычного сглаживания, не?
Ну вы даете батенька, 1080p монитор(16:9) или 4:3 из прошлого века все же?

Я планирую просто в скором времени взять 16:9, на старом 4:3 работать неудобно, узкий слишком.
Да, к сожалению больше ест, чем честное сглаживание SSAA, конечно в относительно старых играх без особого графония и хорошей оптимизацией можно добиться стабильных 60фпс на картах 970/980/ti(где эта фича поддерживается и основной упор идет на память GDDR5), Думаю новое поколение видях, сможет уже хорошо показать себя в режиме DSRх4(где память GDDR5x с лучшей пропускной способностью и количеством памяти), если конечно сказанное в презентации правда, а не маркетинговые телодвижения, первые тесты 1080 будут 19 мая.
[улыбнулся на минуту, поглаживая мимика из ультимы 9]
Действительно странный. Зачем играть в 4К на мониторе с 1080p и почему плазма на всю стену так сильно будет отличаться? У неё ведь тоже чаще всего те самые 1080p.

Может быть вопрос было в другом и должен был быть таким: Зачем обыкновенному по размеру монитору, стоящему перед глазами 4к?
Да, наверное стоило как раз именно так вопрос составить.
Тогда отвечу на него: Затем что игра в 4К на мониторе в 4К становится заметно сильно четче. Я бы даже написал чОтче. Плюс если отвечать на изначальный вопрос, то Pativen дал верный ответ про DSR от Nvidia. По крайней мере Nvidia заявляют что рендеринг игры в 4К, а после масштабирование до 1080p действительно улучшает графон.
Спасибо за инфу, не разбираюсь я в этих нововведениях. Я тут просто планирую летом-осенью полный апгрейд (на 4гигах DDR2 далеко не уедешь, да и поди найди ее по сходной цене), думаю над выбором видеокарты — купить сразу 960 и не париться, или подождать, пока к нам не завезут 1080. Вопрос в рентабельности: купишь за 700 баксов карточку, а поиграть не во что — в прошлом году из ААА-проектов купил только GTA V и четвертый Fallout (и то пришлось извращаться с настройками графики, 560Ti уже явно недостаточно).
Видеокарты с двумя гигами оперативной памяти нет смысла брать, либо жди в таком случает gtx1070(400 баксов в среднем), либо бери начиная от gtx970.
Тфу блин, пора идти спать — ВИДЕОПАМЯТИ*
Читал новость про 970, что у нее память разделена на 3.5 и 0.5Гб, в сша даже в суд по этому поводу на Нвидию подавали
Пытались подать, за дезу, что они не сказали, что 3.5гигов быстрой и 0.5 медленной памяти, карте в современных приложениях это не мешает быть в топе тестов и продаж. GTX960 имеет 2 гига, современные приложения (та же GTA 5) ест больше 3 гигов видеопамяти(до 4 на ультрах), в дальнейшем игры будут жрать в среднем 4 гига(сейчас уже 3гига едят в основном)… Есть маркетинговые выпердыши GTX960 с 4 гигами на борту(так же как и 770, 760, 660 и т.д.), однако они не в состоянии вытянуть больше 2-3 гигов в приложениях, которые того требуют и просто начинаются лаги и фризы, gtx970 в состоянии вытягивать и даже тащить(я обладатель такой)… В целом вы собираетесь осенью грейдить, gtx1070 ваш выбор, она идет как замена 970 в своем ценовом диапозоне, как раз и цены устаканяться к осени.
Так и сделаю, пожалуй, новое поколение обещали сделать куда лучше в плане соотношения цена/производительность. Единственное, чего я пока опасаюсь (помимо резкого изменения курса) — это накрутка цен в наших магазинах. Есть какой-нибудь проверенный забугорный интернет-магазин, где можно безбоязненно заказывать компьютерные потроха?
Не могу подсказать с этим.
А нафига тогда вообще с таким разрешением смотреть в сторону этих монстров видюхостроения?
Но 200 fps уж точно нахрен никому не сдались. Я где-то читал, что если воспринимать глаз среднестатистического человека как видеокамеру, то это видеокамера умела бы снимать видео в 90 fps с разрешением 32K. Я не знаю насколько это утверждение правильно, но думаю оно близко к правде. Конечно же, некоторые скажут, что такое это сравнение неправильное, что наше зрение когерентное и бла-бла-бла, и вообще среди нас люди с суперспособностями, которые различают 120 fps. Хорошо, 120. Но не 200 же.
Ок, В новых дровах подпортят код оптимизации для дум, чтоб у вас было 90 фпс на новом флагмане, В видео лишь демонстрировалось, на сколько фпс может вытянуть дум новая карта, а не целесообразность такого(демонстрация производительности), в контре наверно под 1к будет.
Но 200 fps уж точно нахрен никому не сдались.

Это смотря какой у вас моник.
как видеокамеру

Кончайте кинцо с игрой сравнивать. А то есть ещё и 3d кинцо и телики с 3д. Счас очки пилят под 120 на один глаз… ни о чём не говорит…
которые различают 120 fps.

Их не надо различать. Игра идёт плавнее вот и все. Чёт от серверов бф4 60-120-144 герца все были в восторге.
Не несите уже чушь. Если вы не видите разницы, то с вами точно что то не так.
Не путайте тикрейт с герцовкой монитора и фпс.
Соглашусь только в том, что высокий тикрейт в бф повышает отзывчивость бойца и тд — более приятно играть.
А вот герцовка монитора в сумме с выскоим фпс овер 150 — дает действительно плавную и приятную картинку в динамичных боях и фактически дает преимущество.
Ну отлично, я теперь на тикрейт 144 буду на 60гц мониторе бегать....)))
На тестах было чётко написано, с меньшим fps чем тикрейт на сервер не лезть…
всё не так… там была привязка к фпс, а не к герцовке монитора
вот статья по бета тестированию eashooters.ru/2015/09/29/bf4-high-tickrate-beta/
ФПС должен быть как можно выше
Ладно, тогда я с разрывами буду шпилиться на 60 герцовом и с 200 кс))))
Мы об одном и том же говорим, но только я fps привязываю к герцовке.
Если у вас вертикальная синхронизация или ограничение — то да это имеет важность.

У вас не может быть разрывов если фпс выдаваемый картой превышает герцовку или соответствует ей. У меня был монитор в 60Гц и было более 100 фпс в игре и никаких разрывов (ни единого разрыва!!! =))
Не знаю как объяснить, но 100фпс при 60Гц на мониторе было куда приятнее, чем 60 фпс…

В итоге после апгрейда видео карты и монитора — 200 фпс и 144Гц монитор. Где можно ограничиваю до 150 и полёт нормальный.
важность… ппц!!! имеет значение.
Не знаю как объяснить, но 100фпс при 60Гц на мониторе было куда приятнее, чем 60 фпс…

В смысле приятнее по сравнению с вертикальной синхронизанией на 60 кадров на этом же 60-кадровом мониторе? Это никак не объяснить, потому что это называется самовнушение.
я не фанат вертикальной синхронизации, особенно в сетевых шутерах — это раз.
может и самовнушение, но какая кому разница? — это два.
Что испортит вертикальная синхронизация в сетевом шутере, если видеокарта выдает кадров больше чем обновляется монитор? Устранит разрывы? Ты фанат разрывов? Это раз.
Это чтобы другие не вводились твоим комментарием в заблуждение. А то купят дорогую видеокарту ради 100 FPS для 60-герцового монитора, а самовнушение не сработает. Это два.
Вертикальная синхронизация увеличивает инпутлаг, что б вы знали. Для сетевого шутера это совсем не подходит. Если нравится играйте как вам удобно.

Какие разрывы? Самовнушение по ходу у вас.

Дорогую видеокарту явно не только за фпс покупают. Я просто брал вместе с монитором в 144Гц.
Она его увеличивает если хотя-бы иногда FPS падает ниже частоты монитора.

Так у тебя монитор 144 герц? Почему тогда ты нефанат вертикальной синхронизации, если тебе ее даже включать смысла нет? А если ты говорил про 60 герцовый монитор и при FPS и выше 60 у тебя нет разрывов — это называется вранье, мой лгущий друг.

Кто зачем покупает. Кто за максимальными эффектами и 30 кадров норм. Кто за плавность при высокой частоте.
Судя по вашему профилю — вы очередной недобаненый тролль, которому только дай повод дое-ться.
Читайте тут forums.overclockers.ru/viewtopic.php?f=10&t=429953

Человек задаёт вопрос:
Имеется монитор с частотой обновления 60 герц. Имеется также ряд игр, в которых для полного комфорта мне требуется от 100 фпс и выше. При этом разница 30-60 фпс видна на мониторе невооруженным глазом, а вот с разницей 60-120 фпс несколько сложнее — на глаз я не вижу разницы (или это разница на грани самовнушения), но вот по инпут лагу (задержке) мыши разница чувствуется очень и очень четко. На 60 фпс курсор (камера и тп.) не моментально реагирует на движение мышкой, чувствуется какое-то запоздание, когда на 100+ все единовременно. Так вот, по поводу монитора, может он визуально передать число кадров, >60? Может это такой случай, когда начинается играть роль время отклика монитора? Он у меня не геймерский просто. Или это вообще из другой оперы? И буду ли я с «геймерским» монитором чуствовать абсолютную плавность и отсутствие инпут лага при 60 фпс?

Ему отвечают:
60 Гц — с такой скоростью электроника может забирать данные. С какой частотой (скоростью) элктроника выдает на матрицу — это ее дело. Если даже приравнять эти два понятия, то все равно останется задержка. Любой элемент в цепочке VGA-.....-матрица выполняет буфферизацию, что означает задержку. Т.е. частота выдачи данных с видеокарты и задержка вывода на матрицу (и прорисовка не ней, что не одно и то-же) связаны весьма слабо.

Время до получения картинки на экране зависит от суммы:
— времени обсчета кадра
— времени обсчета VGA
— кол-ва кадров буфферизации (2-3, для SLI еще больше)
— времени сборки кадра во входной части монитора
— кол-во кадров буфферизации для активного разгона матрицы
— вывод на саму матрицу
— время перехода матрицы в новое состояние
Первые 3 строки зависят от скорости самой игры (FPS), остальное — увы, личное дело монитора.

При увеличении FPS сокращается время на первых 3 стадиях, поэтому 'ватность' уменьшается. Почему? — человек может отреагировать только тогда, когда увидит новую картинку на экране. После чего программа(игра) получит требование о событии от пользователя и начнет строить новый кадр под измененные параметры. Пользователь их увидит только через — список выше. Поэтому, чем выше FPS в игре и ниже лаг в мониторе (да и в мышке), тем меньше 'ватность'.

Не надо мне «тыкать» — я вам не друг. И я не обязан быть фанатом того что мне не нравится.

PS направление указать или вы уже поняли куда идти?
Вот ты о чем. Я про проседание кадров подумал. Насчет задержки в управлении спорить не буду, так и есть, как ты сказал.
Не надо мне «тыкать» — я вам не друг.

PS направление указать или вы уже поняли куда идти?

Я всем в интернете тыкаю, так привык. Хватит с тебя и того, что не грублю, а ты уже почти меня послал.
И я не обязан быть фанатом того что мне не нравится.

Конечно не обязан. Только ты получается нефанат вертикальной синхронизации просто так, так сказать виртуально, потому что с твоим 144 герцовым монитором ты ее плохие качества даже опробовать не мог (если конечно ты не шпилишь на нем в CS 1.6, которая на любом ведре будет давать больше 144 кадров)?
"Хватит с тебя и того, что не грублю" — уже грубите, а до этого фамильярдность и прочее. Так что, пока не зря "почти послал".

"Я всем в интернете тыкаю, так привык" — отвыкайте. Культура общения везде должна присутствовать. Незнакомым людям и по работе нигде не «тыкаю», только если переход на «ты» оговорен.

"Конечно не обязан. Только ты получается нефанат вертикальной синхронизации просто так, так сказать виртуально, потому что с твоим 144 герцовым монитором ты ее плохие качества даже опробовать не мог (если конечно ты не шпилишь на нем в CS 1.6, которая на любом ведре будет давать больше 144 кадров)?" — опробовать успел когда имел 60Гц монитор и сразу не впечатлило.

В общем, оставим сей разговор. Всех благ.
Объясню на пальцах. При 60 Гц моник 60 раз в секунду отображает сгенерированные кадры. Чем больше фпс даёт комп, тем более актуальным будет выбранный кадр, ибо выбор больше и лаг между кадрами меньше.
Это повлияяет только на быстроту реакции игры на действия игрока. Как это отразится на визуально «куда приятнее, чем 60 фпс», если это обеспечивает разрыв кадров и колицество этих кадров все равно будет 60 штук в секунду, пусть и более актуальных ценой разрывов?.. Ну или я не так понял, и человек говорил «приятнее» именно о задержках ввода-вывода, а не о визуальной картинке.
Ну, если попросту, то для созерцания 60 фпс вполне хорошо, но для непосредственно игрового процесса — чем больше, тем лучше.
Тьфу ты! Кол-во фпс и частота обновления 60Гц вашего монитора это две большие разницы!
ФПС это кол-во кадров в секунду которое отрисовывает видео карта!
И если вы их не видите на мониторе в 60Гц — не значит что их нет.
Условно, они привязали кол-во отправляемых пакетов к ФПС, но не к герцовке монитора.
Да я врубаюсь, что они без понятия какой у меня монитор. Я же говорю, о том что видит игрок на экране, а не сервак, а тут прямая связь между кс и герцовкой.
И монитор у меня 144 fhd
Ну теоретически получается, что игрок выходящий на вас как бы появится из воздуха… Но такая «шляпа» может быть и от пинга, лагов, потери пакетов и тд… А еще сам фростбайт не без греха — www.youtube.com/watch?v=VX33nex2dW0

Это надо тестить, а мне лень качать батлу…
)))Ладно. Я думаю мы друг друга поняли. Не будем больше дебаты разводить и так тема заезженная
ес оф кос)
Кстати, как очучения от 144? Жаба душит, стоит оно того?
На это нет однозначного ответа… всё зависит от размеров вашей жабы)))
Если дремучий монитор, то может и стоит сменить, пока курс опять не колбаснуло.
Помимо очевидных плюсов, типо плавности шутеров… и тд и тп… есть не очевидные.
Например возможность вырубить vsync, который порой жрёт несколько fps. В таких кривых играх как ac unity, где до 25-30 заваливался фреймрейт, это весьма полезно.
Мой 60 гц к сожалению рвал картинку без vsync, так что я сменил. Старый стоит на работе.
Единственное, что брать сейчас fhd уже не актуально, а на 970 вы в этом вопросе ограничены.
Привязывайте покупку моника к покупке новой карты. Вот тогда толк будет. Хотя мы ещё тестов не видели)))
Тиринг наблюдается — монитор BX2350 самсунговский, несколько лет назад брал.
Как я и писал, на fhd смысла уже переходить особо нет.
Не надо читать! Приходите в магазин — берете монитор 144Гц и включаете на нем игру/видео в 150фпс. Потом понижаете герцовку до 120 и до 60 — смотрите разницу. Если вы ее не чувствуете — значит вам оно не нужно.
За ПК Галкин сидит что-ли)
Чуток оффтопа. В начале, в моменте когда ГГ отрывает часть тела, которая застряла в двери, я сидел с обычным лицом, просто потому что в играх привык к такому и ничего в этом такого не вижу жёсткого. При этом мне 21, а люди там сидели от 25, на вид. И они охать и ахать начали. Я не хочу задать вопрос «Что со мной не так?», потому что со мной всё в норме. Тут вопрос в другом, если забыть о том, что обзорщикам, нашим и иностранным, иногда платят деньги за обзоры (тошка-тошка), то они тоже так искренне удивляются до мурашек на кончиках пальцев, из-за такой мелочи, как пол тела оторвать в игре? И поэтому они завышают оценку играм, ибо испытали «эмоции»?
У меня тоже никаких эмоций не вызвало, может это только у иностранцев, которые реально верят в зомби (к примеру) и проходят курсы самообороны против нашествия зомби?
Оружие выглядит весьма и весьма неплохо, и тут дилемма возникает: С одной стороны динамику лучше не збивать, с другой таким пушкам нужна великолепно анимированная перезарядка.
Ничего удивительного не увидел. Многие у кого 980ti побегут после релиза покупать GTX 1070 или GTX 1080 вопрос зачем??? NEXT GEN. и супер графон уже давно застоялись, в последние годы картинка в играх не меняется, добавляются только спецэффекты и анимация, так что новой картинки — графики вряд ли мы увидим до 2020 года. Вопрос простой, нахрена такие мощные видеокарты??? Ответ простой, если у вас FullHD монитор и вы играете на разрешении 1920х1080 вам вполне хватит видеокарты уровня GTX 970, ну разве что желание или необходимость получить свыше 100 кадров в секунду на этом же разрешении, вам даст покупка GTX 1070. У кого GTX 980ti вообще не вижу смысла её менять, ближайшие год-два, её производительности хватает с лихвой, даже в разрешении QHD (2560х1440) она работает очень уверенно, если вам нужно больше чем 60FPS во всех играх с максимальными настройками, то GTX 1070 вам это даст, в этом же разрешении. И последнее, касательно GTX 1080, её стоит брать только если у вас монитор 4K UHD (3840х2160) потому что иначе, смысла не вижу, здесь даже можно предположить что FPS в играх с максимально возможными настройками не упадет ниже 40+ разгон. А затем спустя время, скорее всего, выйдет GTX 1080ti который будет держать минимальный FPS на уровне 60кадров в секунду в 4K UHD (3840х2160). Это не мое воображение, это логическое и рассудительное объяснение, всему что происходило в индустрии за прошлые годы, и мнение взятое на основе прошлых поколений видеокарт и маркетинга. Выводы делайте сами.
Ну да. У меня стоит 970 и, например, только вышедший «Doom» идет на ультре с 55-60 фпс 1920х1080. Правда, он не самый тяжелый бенчмарк, но все же. Пишу без намерения хвастаться, просто как факт. На данный момент даже моей не самой новой, мягко говоря, видеокарты хватает. Что уж говорить про 980ti. Понятно, что через полгода/год уже будет не хватать, но сейчас обновляться не стоит. При условии, что карта не ниже 970. Как на агрегатах послабее — не знаю.
У кого монитор FullHD можно сильно не задумываться с выбором видеокарты, GTX 970 хватит на более чем год, а то и все два, поскольку в ближайшее время, вряд ли выйдет что либо ну очень ресурсоемкое, разве что CRYSIS 4))) Поэтому выбор очевиден, имея на борту процессор уровня i5 с частотой 3.5ГГц и видеокарту GTX 970 (можно разогнать немного) получиться играть и играть, потому что FPS в таком разрешении нигде не просядет, ниже 30 кадров. Через года два заменить это все, к примеру на GTX 1060 которая скорее всего по мощности будет как GTX 980 а возможно, местами и будет её обгонять. Ну а что до Nvidia GTX 980ti и GTX 1070 видекарты уровня QHD (2560х1440) опять же маркетинг, никто их не купит для FullHD хотя и такие найдутся, 100FPS зависимые впрочем каждому свое. Если GTX 1080 хорошо себя покажет в 4K UHD (3840х2160) тогда полагаю что,SLI уже будет не нужен, выйдет монстр GTX 1080Ti который уничтожит любую игру, думаю что энтузиастам будет мало и его, все равно захотят потестить в SLI режиме. Меня радует только одно, уже не нужно будет иметь 3 или 4 топовых видеокарты, или покупать 2 TITAN X чтобы комфортно поиграть в 4K UHD (3840х2160) будет достаточно иметь 2 Видеокарты предтопового или топового уровней, и в таком разрешении 60 кадров тебе обеспечено. Играю редко, но железом интересуюсь.
Для комментирования необходима регистрация.
Игры из новости
DOOM
2016 г., action
Прямой эфир
Kona
Обзоры игр | Вчера, 23:42
Наверх ↑