Многие помнят длительную интернет-войну, разгоревшуюся вокруг кульминации третьей части Mass Effect шесть лет назад. На первый взгляд, данный конфликт представляет из себя типовой спор из-за несовпадения ожидания и реальности, но так ли это на самом деле?
На поверхности.
Людям, которые не вникали в суть конфликта, могло показаться, что негативная реакция вызвана неизбежной смертью главного героя, капитана Шепарда, с которым игрок путешествовал на протяжении трех частей, или «глупой мотивацией» Жнецов, уничтожающих расы, которые достигли достаточного уровня развития для создания искусственного интеллекта. Самым ярким и примечательным направлением конфликтующих стали сторонники «теории одурманивания» (Indoctrination Theory), связанной с возможным одурманиванием капитана и отсутствием «истинной» концовки. Но почему люди столь сильно зацепились за существующую кульминацию трилогии Mass Effect?
Культурные корни идеи «Жнецов»
Что в итоге содержит в своей основе ключевой конфликт, представленный Катализатором во время диалога на Цитадели? Верно, конфликт «Создание — создатель», противостояние человека и искусственного интеллекта, берущий свое начало в культуре с 1920-1930 годов. Именно тогда, спустя примерно век после романа о Франкенштейне, стала популярной идея появления созданий человечества (роботов), которые могут уничтожить своих создателей. Немногим позже, в 1942 году, были впервые сформулированы
три закона робототехники Азимова:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Если обратить внимание на дополнение «Левиафан» для Mass Effect 3, в котором представляют создателей первых Жнецов, то можно увидеть, что самая развитая как интеллектуально, так и физически цивилизация не предусмотрела подобных законов существования для собственного творения.
Недоверие к концовке и изначальная версия сюжета
Сейчас основа для различных теорий об отсутствии «истинной» концовки в конце, судя по представленной в окончательной версии сюжету, исходит из очень странной формулировки мотивации действий Жнецов. Если описать ее одной фразой, то обоснование Жнецами собственных действий выглядит следующим образом: «Мы — искусственный интеллект, созданный для решения проблемы создания искусственного интеллекта, угрожающего всем разумным живым организмам». Таким образом, наиболее развитая раса в нашей галактике попыталась, образно говоря, бороться лесным пожаром с небольшими кострами, после чего оказалась первой жертвой своего же решения. Все это выглядит как использование т.н. «индусского кода» без каких-либо мер самозащиты с полным игнорированием инстинкта самосохранения, который является обязательным для всех существ, способных дожить до возраста полного развития особи. Странно, не правда ли?
В пику данной мотивации искусственного интеллекта в середине 2013 года один из режиссеров первой и второй частей трилогии, а также автор трех из четырех официальных книг по вселенной Mass Effect Дрю Карпишин (Drew Karpyshyn), ушедший из BioWare в феврале 2012 года (за 6-7 месяцев до релиза Mass Effect 3), рассказал в интервью для интернет-радио Video Game Sophistry, что изначальная версия мотивации Жнецов заключалась в противостоянии энтропии вселенной, ускоряемой активным использованием нулевого элемента, к примеру, для межзвездных путешествий и биотических взаимодействий. К слову, данная версия подтверждается ведущей в никуда сюжетной веткой, созданной миссией на планете Хестром во второй части трилогии. Планеты системы, в которую входит Хестром, страдают от слишком быстрого перерождения звезды, из-за чего на планету для исследований прилетают кварианцы.
Противоречивое противоречие
В результате принятых решений, изначально подразумевавшийся конфликт «человек — конец света» был заменен на гораздо более слабый и, к тому же, во многих случаях разрешимый конфликт «человек — искусственный интеллект». Ослабляет этот конфликт два факта: у протагониста есть дружественный искусственный интеллект СУЗИ (EDI), а в процессе прохождения второй и третьей частей игровой серии при принятии определенных решений появляется возможность обеспечить взаимовыгодное сотрудничество между гетами и органиками, включающими в себя при некоторых решениях даже создателей и первых врагов гетов, кварианцев. Именно такая замена врага всеобщего и неизбежного на врага уязвимого и ощутимого, пожалуй, и создала изначальный конфликт между BioWare и фанатами игры, ожидавших противника эпических масштабов, а получивших неправильно настроенных межгалактических роботов.
Возраст имеет значение?
Исчерпание природных ресурсов и связанные с этим проблемы стали популярной темой в искусстве относительно недавно. Первым широко известным фильмом о последствиях активного использования ресурсов человечеством, например, является фильм-катастрофа «Послезавтра» Роланда Эммериха 2004 года, основанный на книге Уитли Стрибера и Арта Белла «The Coming Global Superstorm», вышедшей в 1999 году. История же разбора конфликта человека с искусственным интеллектом различными авторами берет свое начало еще с романа о создании монстра Франкенштейна. Сам этот конфликт был рассмотрен с различных сторон и в различных аспектах, вследствие чего он уже не является столь пугающим и непознанным, как противостояние врагу неосязаемому и неодолимому, а именно последствиям неконтролируемого использования ресурсов живыми существами.
Так может ли такая замена быть лишь следствием того, что из состава сценаристов ушел Дрю Карпишин (которому на тот момент было 40 лет), и ведущим сценаристом остался Мак Уолтерс, которому на момент выхода игры было около 60 лет? Да, такой вариант вероятен, поскольку эти люди относятся к различным поколениям, выросшими на различных фильмах и книгах. И, скорее всего, конфликт между творцами из BioWare и фанатами их творчества — лишь очередной конфликт поколений, скрытый за различиями ожиданий и реальности.