В экспертном сообществе к инициативе правительства относятся по-разному. Одни считают, что это даст большую фору российским разработчикам, другие категорически против, потому что это может сильно навредить создателям контента. Нигде в мире этот вопрос пока до конца не решен

Фото: freepik.com
Новый правительственный законопроект об искусственном интеллекте, с которым ознакомились «Ведомости», должен определить правила игры: что считать российским ИИ, как маркировать созданный им контент, какие будут права и ответственность в этой сфере. Но на практике сразу привлекают внимание два пункта.
Первый пункт — авторы документа хотят дать право разработчикам российского ИИ использовать для обучения своих моделей статьи, книги, изображения, фильмы и другой контент, не спрашивая разрешения у правообладателей. Главное условие — пользователи нейросети не должны видеть исходные тексты или материалы, на которых она училась. И ключевое здесь — использовать для собственного обучения, указывает управляющий директор Angel Relations Group, преподаватель ВШЭ Алексей Карлов:
Алексей Карлов управляющий директор Angel Relations Group, преподаватель ВШЭ «Когда поисковик бесплатно забирает контент и предоставляет пользователю возможность прочитать короткую версию, не переходя на источник, ИИ лишает возможности заработков на рекламе, на вовлечении пользователя, на времени, проведенном на сайте. И другая сторона — когда контент используется строго для обучения нейросети, а не для перепродажи. Насколько я понимаю, это нововведение. Законодатели предлагают использовать открытый и, может быть, закрытый контент именно для обучения моделей. Обучаться можно, а использовать для показа пользователю, собирая трафик и зарабатывая самостоятельно на рекламе, нельзя».
Но где грань между обучением и использованием в выдаче? Этот философский вопрос нужно как-то решить в юридической плоскости. И готовых примеров нет. ИИ не только в России изначально учился на всем, до чего мог дотянуться, и ни у кого ни о чем не спрашивал. Что уже привело к многочисленным скандалам и попыткам как-то прописать правила игры. Самыми либеральными в этом плане оказались Япония и Сингапур. Там по закону ИИ можно использовать любые произведения для анализа и обучения алгоритмов, даже в коммерческих целях.
В ЕС ИИ может использовать чужой контент, но только до тех пор, пока каждый конкретный правообладатель не запретит это в отношении своей интеллектуальной собственности. В США отдельного закона об ИИ-обучении нет, зато есть десятки судебных процессов против ИИ-компаний. Так, например, в 2025 году несколько писателей подали групповой иск против разработчика Claude — компании Anthropic. Истцы утверждали, что компания скачала миллионы пиратских копий книг для обучения. Суд встал на сторону правообладателей и взыскал в их пользу 1,5 млрд долларов. Компенсация составила примерно по 3000 долларов за книгу для почти полумиллиона произведений.
Источник: bfm.ru