Применяем ИИ в бизнесе: где можно, а где нельзя
Стоит ли доверять искусственному интеллекту принимать решения? Собрали мнения экспертов из ИТ.
Павел Житнюк, CEO iTrend
Недавно Игорь Ашманов, президент компаний «Ашманов и партнеры» и «Крибрум», член Совета при президенте РФ по развитию гражданского общества и правам человека, выступил с жесткой позицией: ИИ допустим только как персональный ассистент (транскрибация, поиск, копайлоты), но не как часть серьезных продуктов и процессов, где есть юридическая и управленческая ответственность.
Обсудили с экспертами из ИТ, где они проводят границы применения ИИ и какие ограничения видят на практике.
Можно ли доверять ИИ критичные процессы
Николай Мокрецов, партнер, исполнительный директор в «1С ПРО Консалтинг», считает, что там, где цена ошибки высока, ИИ не может быть автономным.
Николай Мокрецов, партнер, исполнительный директор в «1С ПРО Консалтинг»:
«Мы очень осторожно относимся к ИИ, потому что делаем проекты с учетными данными: здесь важна точность и цена ошибки слишком высока. Мы считаем, что ИИ точно не должен сам собирать отчеты и делать выводы по большим данным для топ‑менеджмента. Его роль – помогать анализировать уже готовые отчёты, чтобы эксперт мог быстро увидеть аномалии и перепроверить выводы руками».
Евгений Сурков, руководитель продуктового направления Некстби:
«У нас ИИ работает в двух режимах – как внешний продукт (агентские системы) и как внутренний инструмент для снятия «страха чистого листа», но всегда под обязательным ревью человека. Всё, что генерирует ИИ, должен взять под ответственность специалист, который действительно разбирается в теме».
Таким образом, ИИ уже занял устойчивое место в качестве ассистента, но во всех критичных процессах его роль – вспомогательная, а не принимающая решения. Там, где ошибки критичны, важно сохранить ручной контроль.
Облако, частный контур и цена входа
Логично встал вопрос: если компания хочет использовать ИИ на своих данных и не выносить их наружу, насколько это вообще реализуемо и не упирается ли проект в стоимость инфраструктуры.
Влад Лаптев, директор по инновациям Fork-Tech:
«Как только потенциальные заказчики узнают, сколько стоит инфраструктура для развертывания своих моделей, многие диалоги просто ломаются. Компании уже поигрались и поняли: чтобы получить нужное качество, облако в какой‑то форме неизбежно, а безопасность приходится обеспечивать через маскирование данных, безопасные интеграции и доработки вокруг облачных сервисов».
По его словам, на рынке формируется отдельный класс решений по промежуточным интеграциям: данные маскируются перед отправкой в облачную модель и размаскируются после ответа – компромисс между качеством и ИБ.
Андрей Мальков, эксперт Axenix в области ИИ:
«Проблема безопасности внешних систем не нова – ей уже много лет. Когда ты используешь не свой самописный продукт, а чьё-то готовое решение, всегда есть риск утечек и уязвимостей, ИИ здесь не уникален».
Андрей Мальков из Axenix привёл пример крупного банка, который выстроил процесс проверки опенсорс‑решений с недельным релизным циклом через собственные анализаторы безопасности. Это показывает, что гибридные модели (частичный аутсорс, частичный контроль) уже работают и в высокорегулируемых отраслях.
Таким образом, полное «замыкание» ИИ только в частном облаке сегодня часто экономически нереалистично, а полный отказ от облаков – утопия. Зрелые компании идут по пути гибридных схем: часть задач – во внешних сервисах с маскированием данных, часть – на локальных моделях, при этом ИБ не запрещает ИИ в целом, а настраивает «красные зоны» по типам данных.
Регламенты, кодексы и реальная жизнь
Следующая тема – корпоративные и отраслевые регламенты по ИИ. Банк России уже выпустил кодекс этики ИИ для финансового сектора, но помогают ли такие документы в реальной работе или остаются формальностью?
Влад Лаптев, директор по инновациям Fork-Tech:
«Правила нужны, но корневую проблему они не решают: людей, которые реально работают строго по регламентам, – единицы; внедрение ИИ – это в первую очередь история про культуру и головы топ‑менеджмента. Документы важны как фиксатор «рамок игры», но успех внедрения зависит от того, как меняется культура и насколько руководство готово поддерживать новые практики, а не просто подписывать инструкции».
Дмитрий Карпуничев, основатель Teal.Band, предложил смотреть ещё выше – на ценности собственников.
Дмитрий Карпуничев, основатель Teal.Band:
«Когда мы запускаем регламенты в компаниях, мы всегда начинаем с собственников: от их мировоззрения зависят принципы и все последующие документы. Если этот этап пропустить, регламенты по ИИ будут нарушаться, потому что они не согласованы с реальными установками высшего руководства».
Андрей Мальков добавил, что в крупных организациях жёсткие регламенты неизбежны – иначе ими просто невозможно управлять. Но и там при внедрении ИИ он предпочитает «идти от людей», смотреть, как принято работать внутри, и на этой базе уже конструировать правила, а не наоборот.
Николай Мокрецов, партнер, исполнительный директор в «1С ПРО Консалтинг»:
«Регламентация должна идти от политик к инструкциям: сначала формулируются принципы использования ИИ в организации, а уже потом – конкретные регламенты, кому, какие данные и в каких задачах можно доверить машине».
Николай Мокрецов привёл кейс крупного вуза, где студенты начали слепо верить публичным ИИ-сервисам и спорить с преподавателями, отстаивая сгенерированные «галлюцинации». Ответом стала политика, которая обязывает проверять источники и не принимать ответы ИИ на веру.
Таким образом, эксперты сошлись на трех вещах:
- документы нужны, но без опоры на ценности и культуру они не работают;
- регламент должен быть реалистичным и опираться на уже существующие процессы, а не ломать их «сверху»;
- в ИИ‑регламентах важно фиксировать не только «что запрещено», но и как устроен аудит, трассируемость и зоны ответственности.
ИИ и люди: страхи, джуны и «цеховое средневековье»
Эксперты обсудили, что происходит с людьми в компаниях, когда к ним «приходит ИИ», и можно ли вообще «заменить функции» без разрушения системы.
Андрей Мальков рассказал, что больше всего тревоги сегодня у HR‑функции – и не без оснований.
Андрей Мальков, эксперт Axenix в области ИИ:
«Технически заместить функцию HR уже можно: оцифровать профиль человека, его навыки и компетенции, а затем матчить его на проекты по формальным признакам. Но у такой автоматизации есть ограничения. Например, есть кандидат, который формально идеально вписывается в задачу, но вряд ли будет развиваться; и есть тот, кто формально не дотягивает, но через полгода–год станет вдвое сильнее. Такие тонкие вещи человек ещё способен чувствовать, а ИИ – нет».
Николай Мокрецов из «1С ПРО Консалтинг» согласился, что полностью заменять целые функции пока рано даже там, где уже активно используются чат‑боты и голосовые помощники (например, первая линия поддержки). Он привёл пример стартапа, который по видео оценивает soft skills кандидата и совмещает их с hard skills. Параллельно есть кейсы, где «трудоустраивались» аватары и агенты, обходящие формальные фильтры.
Евгений Сурков, руководитель продуктового направления Некстби:
«С помощью ИИ можно заменить ту профессию, с которой готовы навсегда попрощаться. На первой стадии зрелости технологии она выбивает именно джунов, и если сегодня бизнес закроет вход в профессию, массово подменив начальный уровень моделями, через несколько лет рынок останется без воронки для формирования мидлов и сеньоров. Такой курс ведёт к “цеховому средневековью”, когда настоящих профессионалов выращивают только небольшие команды и одиночки, а крупные структуры утрачивают способность растить смену».
Дмитрий Карпуничев, основатель Teal.Band:
«Первое, что для людей важно, – понимание личного интереса: зачем им эта технология. Если на этот вопрос нормально отвечать, проблем почти не возникает. Если не делать субъектность и использовать ИИ только как инструмент для топ‑менеджмента, чтобы собирать информацию “сверху”, сотрудники либо начинают отвечать ерунду, либо боятся говорить правду, либо просто игнорируют инициативу».
По словам Дмитрия Карпуничева, когда сотруднику сначала показывают, какие личные выгоды он получит (в том числе рекомендации для его жизни и карьеры), вовлеченность в исследования и опросы с помощью ИИ резко растёт.
Основной конфликт не в том, «заменит ли ИИ людей», а в том, какую роль люди сохранят за собой. Либо компании сознательно выстраивают цепочку роста (джун → мидл → сеньор) с ИИ как помощником, либо, экономя «здесь и сейчас», обнуляют себе будущее и вынуждены будут закупать редких сеньоров на перегретом рынке.
Как внедрять ИИ, чтобы им реально пользовались
Еще одна важная тема – не про технологии, а про повседневную практику: как сделать так, чтобы ИИ стал инструментом большинства, а не игрушкой для небольшой группы энтузиастов.
Андрей Мальков рассказал о внутреннем продукте Axenix – ассистенте для аналитиков и разработчиков. В компании матричная структура: индустриальные департаменты и горизонтальные практики.
Андрей Мальков, эксперт Axenix в области ИИ:
«Нам хочется, чтобы сотрудники были не только пользователями, но и контрибьюторами: вкладывали свою экспертизу в продукт, делали прикладные модули под реальные кейсы. Эксперты из разных направлений создают надстройки к ассистенту – от работы с SQL до аналитики юридических документов. За счет этого продукт становится ближе к реальным задачам бизнеса, снижается барьер недоверия и ИИ воспринимается как «свой» инструмент, а не внешний «чёрный ящик».
Влад Лаптев, директор по инновациям Fork-Tech:
«Доступ к ИИ должен быть у каждого сотрудника. Это первая задача, которую мы решили: единая платформа, все модели подключены, логирование, статистика. На старте платформой пользовались 5–10% сотрудников, в основном команда внедрения. Через восемь месяцев, благодаря демо, воркшопам и реальным кейсам, ежедневное использование выросло до примерно 50–60% сотрудников.»
Рецепт Влада Лаптева состоит из трёх шагов:
- прозрачность (каждое новое решение демонстрируется, показываются эффект и «рецепт»),
- встроенность в повседневность (дайджесты и новости готовятся с помощью той же платформы),
- фокус на реальных задачах (агенты закрывают понятные боли, а не только делают шоу‑кейсы).
Николай Мокрецов добавил, что ключ к принятию ИИ – попадать в самую рутинную точку боли.
Николай Мокрецов, партнер, исполнительный директор в «1С ПРО Консалтинг»:
«Если находить такие рутинные операции, которые можно заменить языковой моделью, она будет хорошо взлетать и хорошо приниматься людьми. Например, распознавание бумажной первички, голосовые чат‑боты на первой линии и рекомендательные модели в закупках. ИИ не должен забирать интересную работу, а только тяжелую монотонную часть процесса».
Кто принимает решения и за что отвечает человек
Наиболее острый вопрос в контексте применения ИИ – ответственность. Если регламент не дает однозначного ответа, кто должен решать, «можно или нельзя» использовать ИИ в конкретной задаче: юристы, техлиды или бизнес.
Дмитрий Карпуничев, основатель Teal.Band:
«Решение по спорным ситуациям должен принимать тот, на кого это решение реально влияет: кого могут уволить, наказать или кому придется разгребать последствия технически и организационно».
Андрей Мальков напомнил, что формально отвечать всё равно будет генеральный директор, но по сути зона ответственности распределяется по контексту: за разработку – технарь, за бизнес‑процессы и клиентский результат – ответственный от бизнеса. Он отметил, что если полностью ориентироваться только на юристов, прогресс остановится, потому что их работа – минимизировать риски, а не создавать новое.
Евгений Сурков сформулировал свое главное правило так: не отпускать контроль – человек контролирует искусственный интеллект, а не наоборот.
Таким образом, регламент ИИ должен содержать три опорные идеи: ответственность за финальный результат всегда на человеке; ИИ не должен быть «черным ящиком» – процесс обязан позволять аудит и трассировку; критическое мышление и проверка результатов ИИ – не опция, а базовое требование.
Резюме
Разговор об ИИ в компаниях сегодня – это уже не спор «за» или «против технологий». Практика показывает: ИИ прочно занял своё место как инструмент, который снимает рутину, ускоряет анализ и помогает работать с текстами, кодом и данными, но во всех критичных точках решения и ответственность остаются за людьми.
Там, где компании идут по пути осознанного внедрения – выстраивают гибридную инфраструктуру, продумывают регламенты «от политик к процедурам», инвестируют в культуру, учат сотрудников и дают им реальную пользу от ИИ, – модель работает и даёт ощутимый эффект. Там, где ИИ воспринимается как способ «выжать ещё немного эффективности», заменить джунов и переложить ответственность на «молоток», риски значительно выше, чем потенциальная экономия.