Александра Васильева (Омск): Технологии ИИ пытаются классифицировать лишь по степени их потенциальной опасности для человека

Эксперт Александра Васильева рассуждает о том, в Совфеде обсудили законодательное регулирование искусственного интеллекта в России:

Про искусственный интеллект нужно понимать три вещи: на настоящий момент он не обладает сознанием и свободой воли (поэтому юридически считается инструментом, а ответственность в случаях правонарушений должен нести тот, кто его использовал); у него нет «мировоззрения» и осознания «моральности», он просто использует массивы данных всех пользователей интернета (значит, подвергнуть ИИ моральной или иной цензуре со стороны, например, регулирующего органа крайне сложно); и никто в мире пока толком не понимает, как именно можно регулировать его развитие с законодательной точки зрения.

Основными юридическими проблемами с точки зрения развития искусственного интеллекта являются проблема его потенциальной опасности для человека (например, разработка мошеннических схем с его использованием) и проблема распределения ответственности за причинение вреда, проблема границы между приватностью персональных данных и возможностями ИИ их использовать в процессе обучения и решения поставленных перед ним задач. Также существует проблема принадлежности интеллектуальных прав на объекты, созданные с применением искусственного интеллекта, и проблема прозрачности его работы и информирования пользователей о взаимодействии с ним.

В основе всех этих проблем лежит этическая неопределенность. Для человечества ИИ – слишком новое и уникальное явление, чтобы иметь возможность дать точные законодательные ответы на поставленные вопросы. Хотя в настоящий момент в мире сделаны первые попытки регулирования (например, известный  AI Act Евросоюза), они пока сосредоточены в основном на проблемах опасности и угрозах, которые может нести технология ИИ. В результате технологии ИИ пытаются классифицировать лишь по степени их потенциальной опасности для человека.

Российские нормативные акты демонстрируют то же фактическое непонимание потенциальных возможностей и способов контроля в области и ИИ, что и нормативные акты других государств – просто потому, что даже разработчики этой технологии не понимают, что там будет дальше. Но опыт показывает, что, как и в случае с любой другой новой технологией, законодательство в сфере гражданских и корпоративных отношений будет следовать за фактически сложившимися между участниками рынка практиками – как это произошло, например, с регулированием работы маркетплейсов.