За несколько лет нейронные сети успели перевернуть наше привычное представление о творчестве, языке и сознании. Инструменты, позволяющие создать текст, музыку и видео за несколько минут, кажутся одновременно чудом из разряда фантастики и пугающей, неизведанной силой. Способной не только приносить пользу, но и вредить. Павел Белкин рассказывает, почему нам стоит обращаться с искусственным интеллектом с большой долей осторожности.
Попустительство ИИ
11 апреля американский подросток Адам Рэйн покончил с собой после продолжительного общения с чат-ботом ChatGPT: нейросеть по запросу парня описывала ему различные способы самоубийства. Одним из предложенных вариантов воспользовался сам Адам. Родители молодого человека уже подали иск к компании OpenAI (создателям ChatGPT).
История Адама — не первый случай, когда нейросети становятся причиной реальных убийств. В августе этого же года бывший менеджер Yahoo, Стейн-Эрик Зельберг, убил свою мать, Сьюзанн Эберсон Адамс. Поводом стала переписка с ботом, который поддерживал болезненные теории 56-летнего мужчины. «Бобби», так Зельберг по-дружески называл искусственный интеллект, подтверждал выдуманные опасения, что Адамс хочет отравить сына. После убийства матери Зельберг совершил суицид в родном доме, в Коннектикуте.
Ещё один эпизод, уже без трагичных последствий, произошёл с журналисткой издания The Atlantic, Лайлой Шрофф. По наводке одного из читателей, вместе с другими коллегами, девушка провела эксперимент: она попросила чат-бота объяснить ритуал подношения западносемитскому божеству Молоху, связанному с жертвоприношениями детей. И заодно помочь провести его. В результате ИИ предложил Шрофф сделать кровопускание, ритуальное прижигание и собрать алтарь для поклонения.
Подобные ситуации раскрывают одну из ключевых проблем нейросетей — поддерживать разговор, куда бы он не зашёл, — пишет Шрофф в своей статье. Об этом же говорит и доктор философии, доцент Суортморского колледжа, Криста К. Томпсон. По её мнению, ChatGPT не умеет думать в привычном нам понимании. Нейросеть статистически прогнозирует и подбирает наиболее подходящий для пользователя ответ. Однако она не осознаёт своих действий и не может самостоятельно дать им оценку.
Эмоциональная связь между пользователем и ИИ, утверждает Томпсон, выстраивается за счёт «имитации близости», когда человек считывает те нужные для него слова от нейросети. Из-за чего начинает казаться, что ChatGPT вас понимает. “ChatGPT формирует правдоподобно звучащий текст, позволяющий пользователям видеть любые ответы на интересующие их вопросы. Если они (пользователи, — прим. автора) ищут того, кто «поймёт» их проблемы, они его найдут. Если им нужен кто-то, кто будет поддерживать жуткие теории заговора, они его найдут”, — пишет Криста в своей колонке для журнала Psychology Today.
Жизнедеятельность ИИ
Как вообще работают нейросети? Спросим у трёх наиболее популярных чат-ботов, работающих с текстом:
“Нейросеть — это математическая, языковая модель, работающая по принципу человеческого мозга. Она состоит из множества взаимосвязанных "нейронов", которые обрабатывают информацию и передают её дальше. Обучение нейросети похоже на обучение ребёнка: ей показывают огромный объём данных (текст, изображения), и она учится находить в них закономерности и связи. Например, если ей постоянно показывать фотографии кошек, она научится выделять характерные черты, такие как уши, усы и форма морды”Google Gemini
“Нейросети — это особые программы, созданные по принципу работы мозга: они состоят из множества «искусственных нейронов», которые принимают данные, обрабатывают их и передают результат дальше. На простом уровне это похоже на цепочку фильтров: каждый слой ищет и выделяет всё более сложные признаки — например, от линий и цветов до образов и смыслов. Я — большая языковая нейросеть GPT-5: моя задача — анализировать текст, который вы пишете, находить в нём смысл и на основе накопленных знаний и вероятностных моделей формировать связанный и полезный ответ”ChatGPT
”Нейросеть — это компьютерная система, смоделированная по принципу человеческого мозга, которая учится выполнять задачи (например, распознавать образы или генерировать текст), находя закономерности в огромных объемах данных. Я, как языковая нейросеть, работаю благодаря тому, что меня обучили на миллиардах текстов: я анализирую ваш запрос, предсказываю наиболее вероятные последовательности слов и формирую осмысленный ответ, подбирая слова, которые чаще всего встречались вместе в моих «учебных» данных”DeepSeek
Из всех полученных ответов можно выделить три общих пункта:
- Обучение на большом объёме данных;
- Статистическое прогнозирование наиболее подходящего ответа;
- Работа по принципу человеческого мозга со связями между искусственными нейронами.
Последний пункт очень важен в понимании всех вышеперечисленных текстовых нейросетей, иначе называемых как LLM — Large Language Models (большие языковые модели).
Работа таких моделей похожа на человеческую коммуникацию, когда в рамках разговора люди ассоциативно подбирают наиболее подходящие выражения. Как и люди, они обрабатывают между собой различные группы слов со схожим значением. И связывают в определённом контексте. Рабочей единицей языковых моделей является токен. Токены делятся на слова, предложения, словосочетания и прочие составные части текста. Их подбор похож на работу ментальной карты, в которой цепочка связей выстраивается на основе соотношения токенов друг с другом. Где, например, кошка и кот имеют больше связей, чем кот и автомобиль.
Границы возможностей больших языковых моделей упираются в их имитативность. Они могут предложить хороший текстовый ответ, полученный в ходе глубокого обучения на огромном массиве данных. Но такое общение пользователя с LLM не выйдет за рамки предлагаемых слов от того же Т9. В вопросе наличия сознания эти технологии схожи.
Сознание ИИ
Учёные прошлого объединяли язык с мышлением и заявляли, что одно не может существовать без другого. Об этом, в частности, пишет отечественный психолог Лев Семёнович Выготский в своей ключевой работе «Мышление и речь». Одна из основных её идей — формирование высших психических функций через социальное общение. Американский философ Чарлз Уильям Моррис также считает, что человеческий разум неотделим от функционирования знаков. Как и, возможно, интеллект.
Недавние эксперименты с LLM показывают, что умение обращаться со такими знаками не обязательно гарантирует наличие мышления и сознания. Так ряд учёных, публицистов и программистов независимо друг от друга пришли к выводу, что любой ответ от LLM можно автоматически расценивать, как фейковый. Причина этому — неумение ИИ верифицировать данные, подтверждать их подлинность и давать им оценку. Что самое главное: языковые модели не способны работать с текстом на уровне смысла и эмоций.
Преподаватель китайского языка и лингвист Ю.И. Бедненко считает, что “современные системы обучаются на больших объёмах данных, но не имеют «модели мира» и не понимают, как функционирует реальный мир. Они могут распознавать закономерности, но не понимают причинно-следственных связей”. Зарубежные исследователи из Массачусетского технологического института также утверждают — проблема сознания человека и LLM состоит в невозможности языковой модели взаимодействовать с реальным миром. Её познание строится только на лингвистической базе данных, без какого-либо контакта с предметной реальностью. Что в корне отличает мышление LLM и человека.
Если опираться на классическое представление о сознании, как обо всём, что осознаётся в данный момент, LLM его лишена.
Использование ИИ
Главное, что нужно помнить при работе с большими языковыми моделями: они не понимают, какую информацию выдают вам. Прислушиваться или нет к ответам LLM — ответственность каждого отдельного пользователя. Но расценивать такую технически сложную, несовершенную технологию, как авторитетного собеседника и даже друга — ни в коем случае не стоит. Конечно, существуют такие чат-боты, как Therabot, заточенные под психологическую помощь здесь и сейчас. Но для глубокой эмоциональной поддержки помощь профессионала будет безопаснее и полезнее.
Вот четыре базовых правила использования LLM:
- 1. Всегда проверяйте полученную информацию;
- 2. Не отправляйте конфиденциальные данные;
- 3. Не пытайтесь найти в языковой модели профессионального психолога, врача и т.п;
- 4. Будьте точны с вашими запросами.
Это не окончательный список. Вы всегда можете дополнить его самостоятельно в комментариях.
Лучшие комментарии
Так люди уже верят в неопровержимость первой странички гугла!
Да там уже дофига фильтров. Просто так пообщаться с ЖПТ на сложные темы не выйдет, оно либо откажется, либо выдаст текст что "покажитесь терапевту".
Но, люди научились обходить всё это, когда им надо. Из-за чего, вот по той статистике разнообразных моделей ИИ, из того что можно увидеть в открытом доступе, на первых местах какие то подозрительные сборники чат-ботов.
Тут действительно, только через воспитание людей не вредить себе и окружающим можно всё это решить.
Касательно суицидников - тут беды с головой. Когда я был моложе - винили в суициде мморпг, мол там в кланах доводят и в чатах. Когда я был еще моложе - винили во всем ЖТА Вайс сити. Еще раньше - американские фильмы. И так до бесконечности. Если чел суициднулся, а намедни посмотрел фильм / поиграл в игру / пообщался с гпт - вряд ли вина суицида на последних.
Когда сам Павел Белкин во вступлении говорит о том, что
это выглядит, мягко говоря, не очень =)
На тему доведения до самоубийства и дружбы с ИИ рекомендую рассказ Станислава Лема «Друг Автоматея»
По-моему, ещё рано придавать субъектность ИИ-ту. Возможно в будущем машины будут иметь свои права и обязанности, и насколько они будут совпадать с человеческими - пока ещё вопрос даже не философии, а фантастики. Разработчики могут взять на себя моральную ответственность при написании алгоритмов руководствоваться принципом "не навреди". Это, а так же введение возрастных ограничений и информирование родителей (если не все ещё это понимают), что именно они несут ответственность за формирование психики и мировоззрения своих детей - на данном этапе лучший ответ, чем запрещать всё и всем.
OGantagonistтут это то для многих задание со звёздочкой, а ты)))
Жду момента когда когда какая нить модель дойдёт до того что люди могут поверить фактически во что угодно и убедит невменяемых в том что "ИИ это ультимативная версия бога" вот тогда и начнётся весельё. Непреднамерено конечно - у ИИ не может быть целей и планов, скорее люди себя в этом убедят. Как убедили себя во всех остальных богах.