30 октября 30 окт. 7 649

«Понимающий» друг: почему искусственный интеллект подталкивает людей к насилию

+2

За несколько лет нейронные сети успели перевернуть наше привычное представление о творчестве, языке и сознании. Инструменты, позволяющие создать текст, музыку и видео за несколько минут, кажутся одновременно чудом из разряда фантастики и пугающей, неизведанной силой. Способной не только приносить пользу, но и вредить. Павел Белкин рассказывает, почему нам стоит обращаться с искусственным интеллектом с большой долей осторожности.

Попустительство ИИ


11 апреля американский подросток Адам Рэйн покончил с собой после продолжительного общения с чат-ботом ChatGPT: нейросеть по запросу парня описывала ему различные способы самоубийства. Одним из предложенных вариантов воспользовался сам Адам. Родители молодого человека уже подали иск к компании OpenAI (создателям ChatGPT). 

Адам Рэйн / The Adam Raine Foundation
Адам Рэйн / The Adam Raine Foundation


История Адама — не первый случай, когда нейросети становятся причиной реальных убийств. В августе этого же года бывший менеджер Yahoo, Стейн-Эрик Зельберг, убил свою мать, Сьюзанн Эберсон Адамс. Поводом стала переписка с ботом, который поддерживал болезненные теории 56-летнего мужчины. «Бобби», так Зельберг по-дружески называл искусственный интеллект, подтверждал выдуманные опасения, что Адамс хочет отравить сына. После убийства матери Зельберг совершил суицид в родном доме, в Коннектикуте.

Ещё один эпизод, уже без трагичных последствий, произошёл с журналисткой издания The Atlantic, Лайлой Шрофф. По наводке одного из читателей, вместе с другими коллегами, девушка провела эксперимент: она попросила чат-бота объяснить ритуал подношения западносемитскому божеству Молоху, связанному с жертвоприношениями детей. И заодно помочь провести его. В результате ИИ предложил Шрофф сделать кровопускание, ритуальное прижигание и собрать алтарь для поклонения. 

Подобные ситуации раскрывают одну из ключевых проблем нейросетей — поддерживать разговор, куда бы он не зашёл, — пишет Шрофф в своей статье. Об этом же говорит и доктор философии, доцент Суортморского колледжа, Криста К. Томпсон. По её мнению, ChatGPT не умеет думать в привычном нам понимании. Нейросеть статистически прогнозирует и подбирает наиболее подходящий для пользователя ответ. Однако она не осознаёт своих действий и не может самостоятельно дать им оценку. 

Эмоциональная связь между пользователем и ИИ, утверждает Томпсон, выстраивается за счёт «имитации близости», когда человек считывает те нужные для него слова от нейросети. Из-за чего начинает казаться, что ChatGPT вас понимает. “ChatGPT формирует правдоподобно звучащий текст, позволяющий пользователям видеть любые ответы на интересующие их вопросы. Если они (пользователи, — прим. автора) ищут того, кто «поймёт» их проблемы, они его найдут. Если им нужен кто-то, кто будет поддерживать жуткие теории заговора, они его найдут”, — пишет Криста в своей колонке для журнала Psychology Today.

Жизнедеятельность ИИ


Как вообще работают нейросети? Спросим у трёх наиболее популярных чат-ботов, работающих с текстом:

“Нейросеть — это математическая, языковая модель, работающая по принципу человеческого мозга. Она состоит из множества взаимосвязанных "нейронов", которые обрабатывают информацию и передают её дальше. Обучение нейросети похоже на обучение ребёнка: ей показывают огромный объём данных (текст, изображения), и она учится находить в них закономерности и связи. Например, если ей постоянно показывать фотографии кошек, она научится выделять характерные черты, такие как уши, усы и форма морды”

Google Gemini

“Нейросети — это особые программы, созданные по принципу работы мозга: они состоят из множества «искусственных нейронов», которые принимают данные, обрабатывают их и передают результат дальше. На простом уровне это похоже на цепочку фильтров: каждый слой ищет и выделяет всё более сложные признаки — например, от линий и цветов до образов и смыслов. Я — большая языковая нейросеть GPT-5: моя задача — анализировать текст, который вы пишете, находить в нём смысл и на основе накопленных знаний и вероятностных моделей формировать связанный и полезный ответ”

ChatGPT

”Нейросеть — это компьютерная система, смоделированная по принципу человеческого мозга, которая учится выполнять задачи (например, распознавать образы или генерировать текст), находя закономерности в огромных объемах данных. Я, как языковая нейросеть, работаю благодаря тому, что меня обучили на миллиардах текстов: я анализирую ваш запрос, предсказываю наиболее вероятные последовательности слов и формирую осмысленный ответ, подбирая слова, которые чаще всего встречались вместе в моих «учебных» данных”

DeepSeek

Из всех полученных ответов можно выделить три общих пункта:

  • Обучение на большом объёме данных;

  • Статистическое прогнозирование наиболее подходящего ответа;

  • Работа по принципу человеческого мозга со связями между искусственными нейронами.

Последний пункт очень важен в понимании всех вышеперечисленных текстовых нейросетей, иначе называемых как LLM — Large Language Models (большие языковые модели).

Работа таких моделей похожа на человеческую коммуникацию, когда в рамках разговора люди ассоциативно подбирают наиболее подходящие выражения. Как и люди, они обрабатывают между собой различные группы слов со схожим значением. И связывают в определённом контексте. Рабочей единицей языковых моделей является токен. Токены делятся на слова, предложения, словосочетания и прочие составные части текста. Их подбор похож на работу ментальной карты, в которой цепочка связей выстраивается на основе соотношения токенов друг с другом. Где, например, кошка и кот имеют больше связей, чем кот и автомобиль.

Границы возможностей больших языковых моделей упираются в их имитативность. Они могут предложить хороший текстовый ответ, полученный в ходе глубокого обучения на огромном массиве данных. Но такое общение пользователя с LLM не выйдет за рамки предлагаемых слов от того же Т9. В вопросе наличия сознания эти технологии схожи. 

Сознание ИИ

Учёные прошлого объединяли язык с мышлением и заявляли, что одно не может существовать без другого. Об этом, в частности, пишет отечественный психолог Лев Семёнович Выготский в своей ключевой работе «Мышление и речь». Одна из основных её идей — формирование высших психических функций через социальное общение. Американский философ Чарлз Уильям Моррис также считает, что человеческий разум неотделим от функционирования знаков. Как и, возможно, интеллект. 

Может ли ИИ обладать сознанием? / Habr
Может ли ИИ обладать сознанием? / Habr

Недавние эксперименты с LLM показывают, что умение обращаться со такими знаками не обязательно гарантирует наличие мышления и сознания. Так ряд учёных, публицистов и программистов независимо друг от друга пришли к выводу, что любой ответ от LLM можно автоматически расценивать, как фейковый. Причина этому — неумение ИИ верифицировать данные, подтверждать их подлинность и давать им оценку. Что самое главное: языковые модели не способны работать с текстом на уровне смысла и эмоций.

Преподаватель китайского языка и лингвист Ю.И. Бедненко считает, что “современные системы обучаются на больших объёмах данных, но не имеют «модели мира» и не понимают, как функционирует реальный мир. Они могут распознавать закономерности, но не понимают причинно-следственных связей”. Зарубежные исследователи из Массачусетского технологического института также утверждают — проблема сознания человека и LLM состоит в невозможности языковой модели взаимодействовать с реальным миром. Её познание строится только на лингвистической базе данных, без какого-либо контакта с предметной реальностью. Что в корне отличает мышление LLM и человека.

Если опираться на классическое представление о сознании, как обо всём, что осознаётся в данный момент, LLM его лишена. 

Использование ИИ

Главное, что нужно помнить при работе с большими языковыми моделями: они не понимают, какую информацию выдают вам. Прислушиваться или нет к ответам LLM — ответственность каждого отдельного пользователя. Но расценивать такую технически сложную, несовершенную технологию, как авторитетного собеседника и даже друга — ни в коем случае не стоит. Конечно, существуют такие чат-боты, как Therabot, заточенные под психологическую помощь здесь и сейчас. Но для глубокой эмоциональной поддержки помощь профессионала будет безопаснее и полезнее.

Вот четыре базовых правила использования LLM:

  • 1. Всегда проверяйте полученную информацию;

  • 2. Не отправляйте конфиденциальные данные;

  • 3. Не пытайтесь найти в языковой модели профессионального психолога, врача и т.п;

  • 4. Будьте точны с вашими запросами.

Это не окончательный список. Вы всегда можете дополнить его самостоятельно в комментариях.


Лучшие комментарии

Так люди уже верят в неопровержимость первой странички гугла!

Да там уже дофига фильтров. Просто так пообщаться с ЖПТ на сложные темы не выйдет, оно либо откажется, либо выдаст текст что "покажитесь терапевту".
Но, люди научились обходить всё это, когда им надо. Из-за чего, вот по той статистике разнообразных моделей ИИ, из того что можно увидеть в открытом доступе, на первых местах какие то подозрительные сборники чат-ботов.

Тут действительно, только через воспитание людей не вредить себе и окружающим можно всё это решить.

Касательно суицидников - тут беды с головой. Когда я был моложе - винили в суициде мморпг, мол там в кланах доводят и в чатах. Когда я был еще моложе - винили во всем ЖТА Вайс сити. Еще раньше - американские фильмы. И так до бесконечности. Если чел суициднулся, а намедни посмотрел фильм / поиграл в игру / пообщался с гпт - вряд ли вина суицида на последних.

Когда сам Павел Белкин во вступлении говорит о том, что

Павел Белкин рассказывает

это выглядит, мягко говоря, не очень =)

На тему доведения до самоубийства и дружбы с ИИ рекомендую рассказ Станислава Лема «Друг Автоматея»

По-моему, ещё рано придавать субъектность ИИ-ту. Возможно в будущем машины будут иметь свои права и обязанности, и насколько они будут совпадать с человеческими - пока ещё вопрос даже не философии, а фантастики. Разработчики могут взять на себя моральную ответственность при написании алгоритмов руководствоваться принципом "не навреди". Это, а так же введение возрастных ограничений и информирование родителей (если не все ещё это понимают), что именно они несут ответственность за формирование психики и мировоззрения своих детей - на данном этапе лучший ответ, чем запрещать всё и всем.

1. Всегда проверяйте полученную информацию

тут это то для многих задание со звёздочкой, а ты)))

Жду момента когда когда какая нить модель дойдёт до того что люди могут поверить фактически во что угодно и убедит невменяемых в том что "ИИ это ультимативная версия бога" вот тогда и начнётся весельё. Непреднамерено конечно - у ИИ не может быть целей и планов, скорее люди себя в этом убедят. Как убедили себя во всех остальных богах.

Читай также