
Что случилось
Минцифры выпустило проект закона, который впервые детально регулирует работу искусственного интеллекта в России. Если его примут, новые правила заработают с сентября 2027 года.
Главное, что нужно знать
Появились новые понятия
В законе вводят три вида моделей ИИ: суверенная, национальная и доверенная. Чётких определений пока нет, но понятно, что будут различать ИИ по степени контроля и происхождению.
Можно спорить с решениями госорганов
Если государственное ведомство или госкомпания приняли решение с помощью ИИ, и оно вам не нравится, теперь можно оспорить его в досудебном порядке. Раньше было непонятно, как жаловаться на робота.
За вред от ИИ заплатят людям
Если из-за работы нейросети человеку причинили ущерб (например, ИИ ошибся в диагнозе или навредил репутации), можно требовать компенсацию.
Разработчиков заставят следить за контентом
Создатели ИИ обязаны:
• Убирать дискриминационные алгоритмы (чтобы нейросеть не делила людей по полу, возрасту или национальности)
• Блокировать создание запрещённого контента
Нейросети пометят
Всё, что создано искусственным интеллектом (тексты, картинки, видео), должно иметь специальную маркировку. Чтобы было понятно: это не человек писал, а программа.
Кто ответит за ошибки
Если ИИ выдал что-то противозаконное, отвечать будут все:
• Разработчик (кто написал код)
• Оператор (кто запустил систему)
• Владелец сервиса (где эта система работает)
• Пользователь (кто задал вопрос)
• Степень вины и ответственность поделят пропорционально — каждый получит свою долю.
Моё мнение
Закон сырой, но направление верное. Самое важное — теперь понятно, с кого спрашивать, если нейросеть накосячила. Раньше ИИ работал в серой зоне: вроде программа, а вроде отвечает за неё кто-то. Теперь цепочка ответственности прописана. Пометка контента от ИИ тоже нужна — чтобы не путать мнение человека и генерацию робота. Вопрос только в том, как это технически реализовать и не задушит ли регулирование развитие самой технологии.
#ИИ #закон #Минцифры #нейросети #регулирование #технологии #новости