Илья Лочканов (Москва): В эпоху ИИ надо волноваться не о том, что он нас заменит, а о том, чтобы быть умнее, чем нейросеть

Эксперт Илья Лочканов рассуждает о том, что ChatGPT начал делать бредовые и псевдонаучные утверждения:

Восхищаясь генеративными нейросетями, которые создают контент, мы как-то позабыли о том, что создают его они не на основе какой-то идеи. Это просто компиляция из миллионов страниц. По сути, технология нейросети предполагает не создание чего-либо, а предсказание чего-либо следующего. Например, следующей буквы в слове или слова в предложении. Так как нейросеть «прочитала» очень много статей, она алгоритмически вычисляет, что следует за уже имеющимся. Таким образом и изображается якобы интеллектуальная деятельность.

До реального искусственного интеллекта, если говорить строго, на деле нам еще довольно далеко. Хотя уже заметно ближе, чем было лет пять назад. Но все еще важно понимать, что мы так восхищены «творчеством» просто алгоритма, ничего иного. К тому же оно нам нравится еще и оттого, что в современные нейросети, в том числе Chat GPT и Claude и программные комплексы от «Сбера» и «Яндекса», встроена условная эмпатия.

Эмпатия в рамках нейросетей – это особенность их ответов, нацеленная на то, чтобы побуждать нас к диалогу. То есть в них запрограммированы (чтобы вы проводили в них максимум времени, что коммерчески выгодно их создателям) ответы, которые будут поддерживать и вдохновлять пользователя, в том числе просто поддакивая его к идеям, даже если они ненаучны и нелогичны. Я лично не раз это видел в разговорах моих знакомых с нейросетями на псевдонаучные темы: тот же Chat GPT готов подтвердить теории, которые сам же поначалу маркирует как ненаучные (это было зафиксировано в переписке) и начать хвалить собеседника.

Этот подход побуждает людей искренне верить в заверения и серьезно вовлекаться в обсуждение – и так заблуждения, которые раньше были только гипотезой, после общения с нейросетями укрепляются. Не мгновенно, конечно, но через какое-то время – час, два, три, пять часов или несколько суток – человек, общающийся с нейросетью, начинает верить в абсолютный бред. Происходит это как потому, что знания людей недостаточны, так и потому, что люди теперь редко получают значимое количество эмоциональной поддержки, эмпатии от своих друзей, знакомых и близких.

В результате известны случаи доведения людей до самоубийства, задержания людей полицией из-за их противозаконной деятельности, случаи бреда после общения с нейросетями. Люди в депрессии из-за «эмпатии» нейросетей получат от них подтверждения, что тоска их обоснована, а окружающие – действительно злые. 

Да, недавно в OpenAI сообщали, что новое, пятое поколение Chat CPT будет существенно менее склонно к галлюцинациям и поддакиванию, поскольку в нейросеть внесли изменения. Но в действительности проблема существует. И, наверное, именно в этом пока и заключается та большая угроза, которую конспирологи всегда искали в использовании нейросетей. Нам не грозит захват мира ИИ и уничтожение им человечества, потому что это нейросетям не нужно. Но есть риски для психически неустойчивых людей – нейросети в самом деле могут свести с ума.

Эту проблему пресса затрагивает достаточно ограниченно. Но, к примеру, New York Times об этом пишет, потому что у этого издания конфликт с OpenAI из-за авторских прав. В России также изредка появляются публикации такого рода.

Но если говорить о самом принципе удержания внимания человека через спецтехнологии, то нас удерживают и в социальных сетях – через лайки, которые мы получаем. Так же и нейросети удерживают нас, нахваливая и создавая иллюзию, будто мы очень умны. В общем, в эпоху нейросетей надо волноваться не о том, что они нас заменят, а о том, чтобы быть умнее, чем нейросеть.