Если раньше бизнес опасался в первую очередь внешних атак — вирусов, взломов и хакерских утечек, — сегодня ситуация изменилась.
По данным Orange Cyberdefense, доля инцидентов, связанных с действиями сотрудников, выросла с 47% в 2024 году до 57% в 2025. Впервые в истории внутренние угрозы встречаются чаще внешних.
Речь идет об осознанных действиях персонала: сотрудники сами становятся источником утечек, мошенничества и саботажа. Среди самых распространенных схем:
- Вывод денег бизнеса через подставных подрядчиков
- Передача данных компании через личные сервисы и публичные нейросети
- Использование корпоративного доступа в личных целях
В статье разбираемся, какие случаи мошенничества уже происходили внутри компаний и как с этим бороться.
Почему число внутренних угроз растет
Скорость найма побеждает качество
В Хантфлоу мы много общаемся с HR-специалистами и регулярно слышим одну и ту же проблему: процессы найма во многих компаниях не выстроены как система:
- Нет четких этапов проверки кандидатов
- Критерии оценки размыты
- Ответственность за качество подбора ни на ком не закреплена
- Решения принимаются не всегда обдуманно — «свой человек порекомендовал», «потом разберемся», «главное, чтобы закрыли вакансию»
Наглядный пример — история генерального директора СКБ Техно Ильи Клементьева, которой он поделился на одном из мероприятий Хантфлоу. Однажды он нанял сотрудника наспех: срочно требовался человек, глубокую проверку не проводили, документы оформили формально.
В итоге сотрудник год собирал компромат на компанию, а затем предъявил 19 требований на сумму, превышающую его годовую зарплату. Полтора года судов, и компания проиграла. Суд встал на сторону сотрудника.
Узнайте, что помогло Илье Клементьеву наладить процессы найма в СКБ Техно
Получите запись выступления бесплатно
Удаленная работа убрала естественный контроль за сотрудниками
В офисе подозрительное поведение проще заметить: коллеги видят, кто и с какими файлами работает, руководители контролируют процесс. На удаленке этот естественный надзор исчезает. Никто не видит, какие файлы открывает сотрудник, куда он их копирует, какие посторонние сервисы использует.
Показательный кейс произошел в стартапе Mercor. Компания обнаружила, что несколько удаленных работников прошли проверку личности по поддельным документам.
Опасность была в том, что под видом эффективных специалистов в компанию проникли люди, которые потенциально могли собирать данные для иностранного государства — Северной Кореи.
Публичные нейросети стали новым каналом утечек
Сегодня сотрудник может скопировать внутреннюю информацию в ChatGPT или Claude для «быстрого анализа» искренне веря, что это ускорит работу. Но с точки зрения безопасности это риск. Данные уходят в публичную модель, откуда их уже нельзя отозвать.
В 2023 году сотрудники Samsung несколько раз загружали конфиденциальные данные в ChatGPT:
- Один ввел некорректный исходный код, связанный с программой загрузки базы данных производственных мощностей
- Другой — программный код для идентификации неисправного оборудования
- Третий преобразовал запись совещания в документ и попросил нейросеть составить протокол
Проблема в том, что ChatGPT использует данные для обучения модели. Это значит, что чужая конфиденциальная информация теоретически может «всплыть» в ответах другим пользователям.
В Samsung после инцидента ввели техническое ограничение на объем загружаемых данных в ИИ, но это не решает системную проблему. Человек может скопировать текст частями — и утечка все равно произойдет, просто растянется во времени.
Как компаниям обезопасить себя от внутренних угроз
- Усилить проверку кандидатов. Особенно на роли с доступом к критичным данным, финансам и внутренним системам. Формального собеседования больше недостаточно. Как минимум: рекомендации с предыдущих мест, проверка трудовой истории, включая трудовую книжку.
- Выстроить прозрачную адаптацию. Правила должны быть зафиксированы и доведены до сотрудника в первые дни. Чем понятнее ожидания, тем ниже риск конфликтов и злоупотреблений.
Особенно важно прописать:
- Что можно и нельзя делать с корпоративными данными
- Какие сервисы запрещено использовать
- Как фиксируются нарушения
- Внедрить понятные правила использования ИИ. Простой запрет «не используйте ChatGPT для рабочих задач» на практике трудно проконтролировать, но обозначить границы необходимо. Разумный минимум: объяснить сотрудникам, какие именно данные о компании не следует загружать в ИИ. Это могут быть отчеты, персональные данные сотрудников.
- Автоматизировать и защитить процесс найма. Например, использовать двухфакторную аутентификацию для доступа к базе кандидатов и сотрудников, настроить контроль массового скачивания резюме. Также важно ограничить права доступа: не у всех сотрудников HR-отдела должен быть доступ к полным резюме, паспортным данным и истории проверок СБ.
В Хантфлоу можно настроить разные права доступа в систему, отслеживать действия пользователей и получать уведомления о нестандартной активности. Это уберегает базу кандидатов от утечки.