#aiact
3 публикации
Рекрутинг — одна из самых бюрократизированных сфер, где ИИ внедряется быстрее всего. Экономия времени и денег здесь исчисляется миллионами.
Что уже реальность:
• Скрининг резюме — нейросети обрабатывают тысячи откликов за минуты, отсеивая неподходящих кандидатов по десяткам параметров. До 70% резюме никогда не доходят до человека.
• Оценка софт-скиллов — ИИ анализирует видеоинтервью: мимику, голос, выбор слов, скорость реакции. Предсказывает успешность кандидата на основе данных успешных сотрудников.
• Автоматизация администрирования — оформление офферов, подготовка документов, онбординг. Всё, что связано с бумажной работой, ускоряется в разы.
• Предиктивная аналитика — нейросети прогнозируют, кто из сотрудников собирается уволиться в ближайшие 3–6 месяцев, позволяя HR действовать на опережение.
Риски и этика:
• Алгоритмическая предвзятость — если нейросеть учили на резюме успешных сотрудников, а в компании традиционно работали мужчины, она начнет отсеивать женщин.
• Отсутствие прозрачности — кандидату могут отказать по решению алгоритма, но объяснить причину никто не сможет.
• Дискриминация по косвенным признакам — ИИ может выявлять корреляции, которые не очевидны (например, школа, район проживания, музыкальные предпочтения), используя их как фильтры.
Регулирование: в ЕС AI Act уже относит HR-системы к высокорисковым, требуя прозрачности и человеческого контроля.
Будущее: человек не исчезнет из найма, но его роль сместится от отбора бумажек к стратегии и работе с алгоритмами.
Искусственный интеллект развивается быстрее, чем законы. Но регуляторы догоняют. Три главных подхода к регулированию ИИ в мире.
Европа (AI Act) — самый жесткий подход:
• Разделение ИИ-систем на категории риска
• Запрет на биометрическую слежку в реальном времени в публичных местах
• Требования к прозрачности для генеративных моделей
• Штрафы до 7% глобального оборота
США — фрагментированный подход:
• Нет единого закона, регулирование на уровне штатов
• Исполнительные указы Байдена (потом частично отменены Трампом)
• Фокус на инновации и национальную безопасность
Китай — контроль и развитие одновременно:
• Обязательная регистрация и цензура генеративных моделей
• Жесткие требования к контенту (соответствие социалистическим ценностям)
• При этом — гигантские инвестиции в разработку собственных моделей
Россия — в процессе:
• Пока нет жесткого регулирования, обсуждаются этические кодексы
• Развитие отечественных моделей (GigaChat, Kandinsky, YandexGPT)
• Тренд на импортозамещение в ИИ-инфраструктуре
Итог: единых правил нет, бизнесу и разработчикам приходится учитывать требования каждого рынка, на который они выходят.
Каждый раз, когда вы задаете вопрос нейросети, вы отдаете ей кусочек информации. Вопрос в том, куда этот кусочек улетает и что с ним делают.
Проблемы, которые уже проявились:
• Обучение на пользовательских данных — многие сервисы используют ваши диалоги для дообучения моделей. Никто не спрашивает разрешения.
• Утечки — известны случаи, когда через промпты удавалось вытащить фрагменты обучающих данных, включая личную информацию.
• Корпоративная тайна — сотрудники загружают в публичные нейросети коммерческие данные, коды и стратегии. Компании теряют контроль.
• Регулирование — GDPR в Европе, AI Act, законы в Китае и США пытаются навести порядок, но технологии развиваются быстрее законодательства.
Что делать:
• Использовать локальные модели (Llama, Mistral) для чувствительных данных
• Внимательно читать политику конфиденциальности сервисов
• Отключать опцию «использовать диалоги для обучения», где это возможно
ИИ не остановить, но правила игры еще можно задать.