Как вывести из тени и «приручить» искусственный интеллект

Пока компании задумываются о внедрении в свой контур корпоративных интеллектуальных инструментов, сотрудники действуют самостоятельно. Набирает обороты тренд «теневой искусственный интеллект» – использование внешних сервисов ИИ без согласования с ИТ-отделом и службой безопасности. С одной стороны, это сигнал зрелости рынка – сотрудники видят практическую пользу ИИ. С другой – источник серьезных рисков: от принятия неверных решений до утечки чувствительных данных.
Как этого избежать и одновременно по максимуму автоматизировать рабочие процессы, рассказывает Иван Мельников, директор по гиперавтоматизации и ИИ-агентам направления SL Soft AI компании SL Soft.
Что такое теневой ИИ и какие риски он несет для компании
Требования компаний к эффективности сотрудников повышаются, и им приходится брать инициативу в свои руки: они ищут способы упростить и ускорить повседневные операции, и наиболее логичное решение этой задачи – искусственный интеллект. По данным недавнего исследования Массачусетского технологического института (MIT), в 90% компаний сотрудники используют внешние сервисы GenAI для рабочих задач – зачастую без формального одобрения и вне поля зрения ИТ‑подразделений. Почти половина россиян (45%) уже применяют ИИ в работе, показал опрос НИУ ВШЭ, а 24% респондентов заявили, что планируют начать.
На первый взгляд, использование внешних облачных нейросетей для написания писем, анализа данных или подготовки презентаций кажется безобидным и даже полезным. Однако за этим стоит серьезная угроза. Например, когда сотрудник загружает в публичный ИИ-сервис фрагмент коммерческой переписки, проектную документацию или клиентские данные, он, пусть и неосознанно, нарушает корпоративную политику конфиденциальности. Многие внешние ИИ-платформы сохраняют введенные данные для обучения моделей или в логах, а значит, – чувствительная информация может оказаться в открытом доступе или быть использована третьими лицами.
Например, в июле 2025 года поисковая система начала индексировать публичные чаты пользователей одного из популярных сервисов модели GPT – в результате в поисковой выдаче оказались личные переписки, содержащие API-ключи, пароли, логины, конфиденциальные корпоративные сведения. Этот инцидент наглядно демонстрирует, что при бесконтрольном использовании внешних ИИ-платформ сотрудниками компания утрачивает контроль над тем, где и в каком виде хранятся рабочие данные, как они обрабатываются и кто может получить к ним доступ.
Ущерб от этого может оказаться не только репутационным, но и финансовым – особенно принимая во внимание жесткое законодательство в сфере персональных данных – тот же GDPR или российский ФЗ-152. По мнению аналитиков Gartner, к 2030 году более 40% компаний в мире пострадают от инцидентов, вызванных теневым ИИ.
Важно и другое: использование в рабочих целях внешних ИИ-сервисов попросту менее эффективно. Они ничего не «знают» об организации (и отрасли, в которой работает компания), не адаптированы к особенностям ее процессов и политик, не обучены на корпоративных данных. Отсюда – повышенные риски предоставления недостоверной информации, ошибочных выводов и неверных решений.
Кроме того, такое неконтролируемое использование внешних облачных платформ сотрудниками ставит компанию в зависимость от стороннего вендора и ограничивает ее возможности по управлению рисками. Фактически бизнес делегирует контроль над рабочими процессами стороннему провайдеру, чьи односторонние действия – от резкого скачка цен до изменения архитектуры или блокировки доступа – могут в любой момент частично парализовать работу.
Когда автоматизация не приносит пользы
Феномен теневого ИИ подкрепляется тем, что многие классические системы автоматизации в контуре компании не приносят ожидаемой пользы, что подталкивает сотрудников к использованию внешних ресурсов.
На мировых, как и на российском рынках наблюдается парадоксальная ситуация. На первый взгляд, многие компании охватила тотальная автоматизация: внедряется огромное количество информационных систем, осваиваются аналитические инструменты, документооборот переводится в электронный вид. Но фактически это зачастую только усложняет работу сотрудников. Согласно глобальному исследованию «2025 Gray Work Report» компании Quickbase, 80% компаний увеличили инвестиции в ПО в целях повышения производительности, но при этом 59% респондентов заявили, что им стало сложнее быть продуктивными, а 53% – что только половину рабочего времени они заняты значимым трудом.
Компании получают «лоскутный» ИТ-ландшафт, в котором информация изолирована внутри отдельных приложений или документах. Сотрудники вынуждены выступать в роли «живого моста», вручную устанавливая смысловые связи между сведениями из разных ресурсов – систем, документов, мессенджеров и пр. Ситуацию усугубляет специфика корпоративного контента: информация представлена в разных форматах и неструктурированном виде, оставаясь слепой зоной для традиционного ПО. Например, чтобы найти ответ на вопрос сотруднику зачастую требуется проверить документы в разных системах и сопоставить информацию в них. В то время как корпоративные ИИ-сервисы могли бы обеспечить ответ на вопрос за секунды со ссылкой на источники в качестве подтверждения.
В результате вместо профильной работы специалисты тратят время на рутинные операции – перенос данных между системами и документами, проверку договоров по чек-листам, ручной поиск информации в базах знаний, валидацию атрибутов, анализ данных из разных систем и другие операции.
Корпоративная ИИ-культура на основе надежных инструментов
Самым, казалось бы, простым решением со стороны подразделения информационной безопасности будет запретить использование ИИ. Но это противоречит запросу бизнеса: ведь тогда сотрудники продолжат выполнять рутинные операции руками и их продуктивность снизится. Правильный путь – внедрить в компании культуру использования ИИ: создать внутренний центр компетенций и развернуть надежные интеллектуальные сервисы on-premise или приватном облаке. В этом процессе можно выделить несколько ключевых взаимосвязанных этапов.
Первый этап – выбор и внедрение технологий
Важно понимать, что непосредственно большая языковая модель (LLM) – это не готовый к использованию продукт, а только его «движок». Без соответствующей обвязки модель невозможно эффективно масштабировать или превратить в тиражируемый бизнес-инструмент.
Чтобы модель приносила максимум пользы, требуются дополнительные усилия: «упаковка» модели (интерфейсы, API, механизмы логирования), дообучение (в том числе RAG-механики), защита и контроль (фильтрация данных, мониторинг, организация ролевого доступа). Только такая комплексная реализация внутри корпоративного контура позволяет не просто разово использовать ИИ, а контролируемо управлять жизненным циклом сервиса, обеспечивая его стабильность и предсказуемость для всей компании.
Кроме того, для оптимизации ресурсов и решения более широкого круга задач необходима комбинация генеративного ИИ и классического ML, а также технологий роботизации (RPA), интеллектуальной обработки документов (IDP) и иных. Такой комплексный подход закладывает фундамент для гиперавтоматизации — стратегии, позволяющей не просто внедрять точечные решения, а бесшовно масштабировать ИИ-сервисы на все уровни организации.
Оптимальным инструментом для ее реализации становится единая платформа внедрения ИИ, подобная SL Soft AI от компании SL Soft.
Тогда необходимые решения поставляются «из коробки» – собираются, как конструктор, из нужных функциональных модулей и настраиваются в соответствии с бизнес-процессами заказчика. Этот платформенный подход позволяет реализовать два сценария автоматизации.
- Во-первых, интеллектуальная автоматизация на уровне систем – создается гибкая среда для сквозной автоматизации бизнес-процессов на базе ИИ.
Компания получает инструмент для быстрой настройки end-to-end цепочек операций, где No-code workflow-движок связывает «умные технологии» и разрозненные ИТ-системы в единый интеллектуальный конвейер. Например, программный робот может автоматически переносить документы, полученные по электронной почте, передавать их в сервис IDP-модуль для распознавания и проверки, загружать результат и фиксировать выделенные атрибуты в СЭД или ERP. Если система обнаружит нехватку данных, она самостоятельно инициирует коммуникацию – сформирует письмо подрядчику и запросит недостающие файлы, полностью исключая «ручные» переходы между этапами и участие сотрудника.
Или, в другом сценарии, интеллектуальные ИИ-агенты контакт-центра могут полностью взять на себя обработку входящих обращений. Они самостоятельно классифицируют запросы, находят необходимую информацию в базе знаний, анализируют всю историю коммуникаций с клиентом, предоставляют исчерпывающий ответ и по итогам диалога автоматически вносят информацию о взаимодействии в CRM-систему, обеспечивая непрерывность и прозрачность работы с каждым обратившимся.
- Во-вторых, специализированные ИИ-ассистенты сотрудников, которые повышают эффективность сотрудников благодаря созданию персональных корпоративных ИИ-сервисов.
Конечный пользовательский продукт включает локальную LLM с поддержкой технологии RAG, которая обеспечивает ИИ-модели доступ к корпоративным базам знаний для поиска информации, генерации контента или анализа данных – все, что помогает сотруднику выполнять свои задачи быстрее, проще и эффективнее.
Вместо множества приложений сотрудники работают в интерфейсе корпоративного чат-бота, персонализированного под конкретного пользователя. С его помощью они могут оперативно выполнять различные типовые операции: получать ответы на вопросы по корпоративным документам, базам знаний и инструкциям, выгружать информацию из корпоративных систем (АБС, CRM, ERP, СЭД и других), осуществлять обработку документов в соответствии с готовыми скриптами, формировать отчеты, сопровождать сквозные процессы сервисной поддержки и многое другое. Кроме того, есть полноценный интеллектуальный поиск и ИИ-агенты для взаимодействия с внешними системами.
В этом сценарии ИИ становится полноценным цифровым помощником, который берет на себя всю рутину по поиску и анализу информации, гарантируя при этом, что чувствительные корпоративные данные никогда не покинут пределы организации.
Такая экосистема – это не просто мультиагентная среда, а глубокая синергия различных технологий (GenAI и MCP ML, RPA, IDP и пр.), работающих в единой связке для достижения максимальной эффективности компании.
Второй этап – тесная связка политик ИИ и ИБ
Необходимо разработать четкие внутренние правила использования ИИ, включая запрет на загрузку конфиденциальной информации во внешние сервисы. Этот этап сопровождается обучением сотрудников, чтобы они понимали не только что нельзя делать, но и почему. Важным шагом становится мягкое, но системное переключение сотрудников с небезопасных внешних нейросетей на корпоративные продукты внутри контура.
Третий этап – формирование культуры доверия и вовлеченности
Вместо тотального запрета многие компании идут по пути открытого диалога.
После развертывания готовой платформы основной задачей становится ее тиражирование на все подразделения. Вместо политики запретов или использования моделей в виде «песочниц» (безопасных сред, но не готовых продуктов) компания переходит к открытому диалогу, демонстрируя сотрудникам преимущества безопасных, проверенных внедряемых полноценных инструментов.
Ключевую роль здесь играет обучение персонала и поддержка инициатив со стороны руководства (tone from the top). Это помогает сформировать культуру доверия и вовлеченности, стимулируя сотрудников использовать корпоративные ИИ-решения вместо «теневых» внешних сервисов.
Для координации этого процесса и популяризации интеллектуальных инструментов внутри компании целесообразно создание выделенного центра компетенций. Это обеспечит постепенное повышение ИИ-грамотности персонала.
На этом этапе важно иметь рядом опытного вендора, который обеспечит не только технологии, но и готовую методологию внедрения, обучения и тиражирования решений. Он поможет пройти путь от первого пилота до полномасштабного тиражирования, предоставляя готовые сценарии обучения и лучшие практики по выстраиванию ИИ-культуры.
Итак, искусственный интеллект уже стал «теневым сотрудником» в вашей компании, даже если вы об этом не знаете. Важно взять его под контроль и создать условия, при которых специалистам не нужно будет скрывать использование интеллектуальных сервисов. Лучшая мера противодействия «теневому» ИИ – это прозрачный, безопасный и удобный легальный инструмент, который работает на благо бизнеса, а не против него.