Что случилось
В Госдуму внесли законопроект, который вводит уголовную ответственность за создание и распространение дипфейков без согласия человека . Инициатива касается в том числе использования голоса — раньше он был не защищён .
Какое наказание
● До 7 лет колонии — за дипфейки с действующими представителями власти.
● До 5 лет — за подделку с несовершеннолетними, уязвимыми группами или распространение через интернет.
● Штрафы до 700 тыс. рублей и принудительные работы — за другие случаи.
Раньше в законе был пробел: наказывали только за сбор и хранение чужих данных, а за саму обработку — нет. Автоматизированную обработку биометрии (главный этап создания дипфейка) просто не могли привлечь к ответственности . Теперь этот пробел закрывают.
Зачем это нужно
Мошенники всё чаще подделывают голоса и лица, чтобы обманывать людей. Звонят от имени начальника, сфабрикованным голосом просят перевести деньги. Или создают компрометирующие видео для шантажа . Закон должен закрыть эти схемы.
Мнение
Закон назрел. Раньше голос вообще не был защищён — его можно было использовать бесплатно и безнаказанно . Теперь за подделку без согласия будут сажать. Вопрос в том, как будут доказывать, что дипфейк создали без спроса. Но направление правильное — дипфейки перестали быть безобидными шутками.
#дипфейки #закон #уголовнаяответственность #Госдума #безопасность #новости
Что случилось
Искусственный интеллект превратился в главный инструмент мошенников и спецслужб. Теперь собрать досье на любого человека можно за считанные минуты: где живёт, какое имущество, чем болен, какие политические взгляды, с кем общается. Раньше для этого нужны были ресурсы спецслужб, сегодня — доступ к нейросетям и открытым базам данных .
Как это работает
Злоумышленники используют ИИ-агентов, которые:
● сканируют соцсети, мессенджеры, форумы
● собирают информацию из утечек баз данных (а их в даркнете миллиарды строк)
● анализируют поведение, интересы, связи
● в реальном времени обновляют досье
По данным Роскомнадзора, в Telegram действуют сотни «ботов-пробивов», которые за деньги выдают любую информацию о человеке. Администрация мессенджера удаляет такие сервисы, но на их месте появляются новые .
Почему это стало возможным
За 2025 год объём данных, переданных в публичные нейросети, вырос в 30 раз . Люди сами скармливают ИИ личную информацию, не задумываясь, кто сможет её потом использовать. А поисковики, индексирующие ботов и нейросети, быстро собирают и систематизируют информацию из открытых источников .
Что теперь умеют мошенники
Создавать идеальные фишинговые письма — без ошибок, копируя стиль общения жертвы
Генерировать дипфейки — подделывать голос и видео, чтобы убедить жертву перевести деньги
Подменять системные промпты ИИ-помощников, заставляя их передавать конфиденциальную информацию
Собирать досье за минуты, которые раньше собирали месяцами
Кому это выгодно
Мошенникам — для адресных атак. Они больше не рассылают спам миллионам, а выбирают конкретных жертв, готовят идеальную легенду и крадут крупные суммы .
Спецслужбам — для слежки за оппозицией, журналистами, неугодными. По словам главы Минцифры Максута Шадаева, иностранные спецслужбы имеют доступ к переписке в Telegram и используют эти данные против России .
Государству — для контроля за населением. В России чиновники сами боятся пользоваться государственным мессенджером MAX, потому что понимают: это означает передачу полного контроля над устройством спецслужбам .
Можно ли защититься
Эксперты советуют:
Не передавать личные данные ИИ-агентам. То, что вы скормили нейросети, может оказаться в открытом доступе .
Использовать локальные модели ИИ вместо облачных. Данные не уходят на сервера .
Включить двухфакторную аутентификацию везде, где это возможно .
Проверять сайты с бесплатными нейросетями. Мошенники создают поддельные предложения о бесплатном доступе к ChatGPT и другим сервисам, чтобы украсть учётные данные .
Скачивать приложения только из официальных магазинов .
Моё мнение
Эпоха приватности закончилась не потому, что технологии стали слишком мощными, а потому что мы сами перестали за неё бороться. Мы сами скармливаем нейросетям личные данные, сами оставляем цифровые следы, сами соглашаемся на условия, которые никто не читает.
Государства и корпорации уже давно знают о нас всё. Теперь ту же возможность получили мошенники. И разница между спецслужбой и преступником — только в том, кто будет использовать собранное досье.
Защититься полностью уже нельзя. Можно только замедлить процесс: не кормить ИИ личным, не верить дипфейкам, не переходить по подозрительным ссылкам. Но полной приватности больше нет.
#приватность #ИИ #безопасность #мошенники #дипфейки #новости
В неожиданном повороте событий OpenAI объявила о закрытии своего революционного генератора видео Sora. Причиной стало не падение популярности, а наоборот — чрезмерный успех, который породил в интернете феномен «нейрослопа». Sora, способный создавать гиперреалистичные видеоролики по текстовому описанию, быстро стал любимым инструментом креаторов. Однако вскоре сеть заполонили настолько качественные и убедительные дипфейки, что отличить правду от вымысла стало практически невозможно. Фейковые новости, поддельные выступления политиков и вирусные видео с участием знаменитостей — всё это стало частью повседневной жизни интернета. Феномен «нейрослопа» (от англ. deepfake + flop) начал угрожать информационной безопасности и доверию к цифровым медиа. В результате OpenAI приняла решение приостановить работу Sora, чтобы разработать более строгие механизмы контроля и этические нормы для использования подобных технологий. Закрытие Sora — это важный сигнал для всей индустрии ИИ: даже самые передовые разработки требуют ответственного подхода. А пока интернет-сообщество прощается с эпохой безграничного творчества и готовится к новым вызовам в борьбе с дезинформацией.
Голливуд бастует из-за ИИ не просто так. Технология меняет всю цепочку производства контента.
Что уже внедряется:
• Сценарии — нейросети пишут черновики, генерируют идеи, помогают выйти из творческого ступора. Человек-сценарист выступает в роли редактора и соавтора.
• Дипфейки и цифровые актеры — лица, голоса, тела. Актер может сыграть в 10 проектах одновременно, а студия — использовать образ умершей звезды (спорный вопрос этики и прав).
• Спецэффекты — ИИ генерирует фоны, монстров, разрушения, толпу. Визуал, который раньше требовал месяцев работы, делается за дни.
• Озвучка и дубляж — нейросети переозвучивают фильмы на десятки языков, сохраняя интонации и эмоции оригинального актера.
• Постпродакшн — цветокоррекция, монтаж, чистка звука автоматизируются.
Кейс: в фильме "Всё везде и сразу" ИИ использовался для создания спецэффектов при бюджете, несопоставимом с голливудскими блокбастерами.
Следующие 3–5 лет — переход к полностью синтетическому кино, где и актеры, и декорации, и камера — нейросеть.