Эксперт Татьяна Иларионова рассуждает о том, что Минцифры предложили ввести маркировку контента, созданного с помощью нейросетей:
Возможно, эти инициативы связаны с проблематикой защиты авторских прав. На сегодня авторские права уже претерпели значительную трансформацию, в первую очередь в связи с особенностями распространения информации в интернете. Мы знаем, что никакая громкая новость не может появиться в интернете и не быть растиражирована в максимально возможном в количестве ресурсов, распространена максимально широко. В связи с этим юристы – в первую очередь европейские – начали пытаться распространить ранее существовавшие нормы права на эту сферу.
Принципы обращения с информацией претерпевают серьезное изменение на наших глазах, поскольку уследить за тем, кто как использует информацию и кто был первоисточником ее, сложно. Государственные органы пошли по такому пути, как выявление плагиата – опять же, с помощью информационных систем. Запрет на распространение информации без ссылок на первоисточник стало частью комплаенса в СМИ, во многих университетах, в государственных органах. Указание первоисточника стало очень важно требованием и для тех, кто производит художественный контент.
Например, в Соединенных Штатах организована единая платформа для сценаристов, и там обязательно, прежде чем кому-то предлагать сценарий, загрузить его текст на эту платформу, тем самым подтвердив, что его автор – именно вы, а не кто-то другой. А вот как быть с текстами, которые производит искусственный интеллект, сказать сложно. В эту конструкцию вставить их не так-то легко, потому что искусственный интеллект не заимствует чужие тексты, а производит новые. Значит, и обнаружить там заимствования в системе антиплагиата будет сложно, ведь это новое произведение.
Пока у нас, как мы видим, предпринимается попытка воззвать к добросовестности тех, кто работает с информацией. На первом этапе это достаточно разумная мера, которую вполне можно использовать. Такого рода требования можно устанавливать, чтобы те, кто пользовался технологиями нейросетей, сами об этом заявляли и обозначали, что продукт создал не человек, а компьютерная программа. Другой вопрос – как это оформить законодательно. Это, наверное, будет непросто. Но сейчас мы вступаем на неизвестную землю, и непонятно будет, как те или иные технологии начнут работать.
Я подозреваю, что за принуждением к маркировке контента стоит политика, потому что вполне вероятно, что технологии искусственного интеллекта могут быть использованы с политическими целями. Мы видим, что сейчас идет активная борьба с фейковыми новостями, и не только в России, но и за рубежом. В том числе для выявления такого рода сообщений и преследования тех, кто распространяет панические настроения, кто потворствует терроризму и экстремизму с помощью распространения ложных новостей, очень активно используются компьютерные системы.
Как это будет выглядеть уже с применением искусственного интеллекта, сказать пока сложно. Хотя очевидно, что в современной информационной среде все оставляет свой след и невозможно скрыть его, даже если ты сфотографировал бумажные документы и разместил потом эти фото. Недавно мы видели пример этого в США, где таким образом была обнародовала военная информация. И хотя размещена она была на достаточно закрытом сайте, само размещение в Сети уже дало возможность исследовать, откуда пришла эта информация и кто был ее распространителем.
При необходимости и тех, кто распространяет сведения политического толка, в том числе созданные с помощью искусственного интеллекта, будет можно установить. Найти людей, которые использовали эту технологию, будут вполне реально.