Почему бизнесу и его сотрудникам не стоит бояться ИИ. Пока…

Кирилл Федулов, сооснователь и директор по развитию Okdesk

В сентябре 2018 года на Всемирном экономическом форуме (ВЭФ) был представлен доклад The Future of Jobs 2020. Его авторы предполагали, что к 2025 году искусственный интеллект (ИИ) сможет выполнять больше рабочих задач, чем люди. Это приведет к потере 85 млн рабочих мест, однако создаст 97 млн новых. 

Сегодня, в середине 2024 года, подобные предсказания, как и большинство предсказаний в принципе, вызывают улыбку. Потому что ничего даже близкого к прогнозам пока не произошло.

Прогресс, как известно, не остановить, и, конечно, ИИ, как и сферы его применения, активно развивается и будет развиваться. Но стоит ли сегодня бизнесу и сотрудникам бояться искусственного интеллекта, и если да, то кому и в решении каких задач?

Истории успешного применения ИИ. Одна сторона медали

ИИ уже хорошо зарекомендовал себя в решении большого круга задач. Некоторые из них касаются непосредственно каждого жителя планеты Земля или, как минимум, Москвы. Так, столица использует уже 12 российских зарегистрированных сервисов с технологиями ИИ в здравоохранении. С их помощью поставлено более 10 млн предварительных диагнозов. При этом совсем недавно Сергей Собянин сообщил, что в Москве ИИ станет базовой медицинской технологией, ведь опыт работы с ИИ в столице показывает: точность его выводов составляет до 95%.

Другой яркий пример пользы от ИИ – это технология так называемого машинного зрения на производстве. Её всё чаще используют на конвейерах, что позволяет, например, определять элементы продукции, их отклонения от нормы и геометрические параметры. Таким образом, ИИ нивелирует влияние человеческого фактора и снижает количество брака. Другой вариант использования подобных технологий – контроль выполнения всех правил техники безопасности, который напрямую влияет на спасение человеческих жизней.

ИИ сегодня достаточно эффективно используется и в других областях:

  • рекомендательные системы или персонализированные предложения;
  • поисковые системы;
  • анализ спутниковых данных;
  • распознавание лиц;
  • синхронный перевод и т. д.

Но что мы видим за всеми этими историями успеха? ИИ достаточно быстро пробивает себе дорогу там, где необходимо обрабатывать большие объёмы данных. Причём эффективность ИИ выше тогда, когда это конкретные (назовём их формализованными и структурированными) данные, которые в том числе можно «оцифровать». В этих направлениях человек и его мозг, конечно, проигрывают ИИ уже давно, и в перспективе этот разрыв только усилится.

Оборотная сторона использования. Истории Microsoft Copilot, ChatGPT, Botkin.AI

С обработкой больших данных более или менее всё понятно. Мощности и возможности алгоритмов превышают возможности человека. Но как обстоят дела в задачах, в которых действительно нужно некое подобие интеллекта, то есть там, где необходимо размышлять, где данные достаточно быстро меняются и где их пока нельзя загнать в какие-то понятны рамки и границы? И всегда ли даже с оцифрованными данными дела обстоят хорошо?

В 2023 году вышла интересная статья, ссылающаяся на данные от исследователей из Стэнфорда и Беркли, согласно которым ChatGPT-4 деградирует и начинает давать со временем менее точные ответы, а правильно отвечает на один и тот же вопрос (хотя и математический) только в 2,4% случаев.

В статье Wired от декабря 2023 года есть ещё одна ссылка на исследование, которое провели AI Forensics и AlgorithmWatch по вопросам предстоящих выборов в Швейцарии и Германии. Итогом исследования стало следующее заключение: «На октябрь 2023 года инструмент был ненадёжным источником информации для избирателей. При этом почти в трети случаев (31%) Copilot совершал фактические ошибки, а иногда вообще выдумывал ответы на конкретные вопросы о выборах и их участниках».

В ноябре 2023 года Росздравнадзор приостановил применение системы с ИИ в связи с «угрозой причинения вреда жизни и здоровью граждан».

Исследование, опубликованное в ноябре 2023 года в Nature, говорит о том, что ChatGPT подделывает данные клинических испытаний. При этом ИИ, что ещё опаснее, удаётся дополнительно «доказать» преимущество неэффективного вмешательства.

Оборотная сторона использования ИИ. Собственный опыт

В нашей компании мы тоже проводили осенью 2023 года эксперимент с ИИ. Наша компания с 2015 года занимается разработкой системы для автоматизации процессов обслуживания различного оборудования, инфраструктуры и выездного сервиса.

Одним из наших преимуществ является качественная техподдержка. То есть мы считаем, что критически важно помогать правильно и максимально эффективно использовать наше ПО клиентам (на сегодня их почти 900) в решении возникающих у них задач. У нас выстроены процессы, обучение сотрудников и, главное, в техподдержке работают действительно интеллектуальные сотрудники. 

В рамках проводимого эксперимента нам хотелось проверить, сможет ли ИИ оказывать именно качественную (а не как подавляющее большинство чат-ботов, работающих по примитивным алгоритмам) поддержку пользователям Okdesk: решать их задачи, а не просто давать типовые ответы и ссылки на статьи базы знаний.

У нас есть очень подробная и написанная понятным языком документация. Мы «обучили» бота на её основе. Затем ему вручную скармливали запросы на поддержку в течение двух недель. По итогам эксперимента, напрямую транслировать ответ клиенту смогли 0 раз. Почему?

Возможно, дело в том, что мало «обучали» или алгоритмы ИИ были не такими уж интеллектуальными. Но для себя мы нашли объяснение и в другом.

Дело в структуре нашей документации и самой связке: вопрос – ответ. Для ответа на вопрос пользователя нужно не просто транслировать написанное, а интеллектуально анализировать задачу и находить её решение с помощью инструментов, описанных в документации.

Фактически, полные знания по предмету Okdesk приобретаются не просто по итогам прочтения учебника, а только когда пользователь попробует что-то сам настроить и дополнит понимание на практике. По-другому для ответов на вопросы, выходящие за рамки формата FAQ (а для этого нет смысла использовать ИИ – достаточно простого траблшутера), действовать, по нашему мнению, нельзя.

Получается, что на текущий момент и в ближайшее время ИИ не сможет заменить даже сотрудника техподдержки, если, конечно, это вдумчивая и интеллектуальная техническая поддержка, а не типовые ответы на типовые вопросы.

Так в чём же кроется одна из основных проблем развития ИИ и его возможной замены сотрудников? 

Проблемы ИИ, и кому не стоит его бояться

ИИ – это на текущий момент никакой не интеллект. Собственно, у нас вообще произошла подмена понятий, точнее, перевод английских терминов дословно, а не по сути. Artificial Intelligence – это про способность программы обучаться по заданным алгоритмам. Это не про «мыслить», не про «разум». ИИ не способен рассуждать. 

И эти заданные алгоритмы отлично справляются с обработкой тех самых структурированных или однотипных оцифрованных данных: «отыскать иголку в стоге сена», поставить предварительный диагноз на основании исследования КТ либо списка анализов, или «нарисовать котика по образу и подобию миллионов схожих фотографий котика». А вот когда и если нужны рассуждения, «интеллект» сбоит и, вероятно, будет сбоить ещё долгое время. 

К тому же те самые заданные алгоритмы, по которым работают и «обучают» ИИ, пишут люди, а им, как известно, свойственно ошибаться. 

В качестве подтверждения – свежая новость от «Яндекса» о найме редакторов и журналистов для подготовки эталонных текстов для обучения нейросети YaML 2.0. В новости прекрасно всё: и «эталонность» (читай: шаблонность) текстов, и понимание того, какие редакторы пойдут готовить эти «эталонные» тексты.

Другая известная проблема ИИ – в качестве данных. Нужны так называемые чистые данные. «Грязные» данные или неверно заданные базовые паттерны могут провоцировать систему делать ложные выводы, которые к тому же будет очень сложно проверить и опровергнуть.

Так бояться или нет ИИ?

ИИ уже сегодня успешно применяется для узких задач. Их количество увеличивается вместе с развитием понимания того, как можно «обучать» ИИ и как его в принципе использовать. В основном это задачи, связанные так или иначе с обработкой больших объёмов оцифрованных и структурированных данных. ИИ есть и будет системой поддержки, «оптимизатором времени» для конкретных задач с данными, помощником в принятии решений, как в случае с расшифровкой результатов КТ и т.д. В подобных направлениях ИИ уже сейчас является хорошим помощником для людей, а где-то их заменяет.

С другой стороны, для того, чтобы получать действительно выдающиеся результаты, ИИ нужно очень скрупулёзно и качественно обучать, не забывая о проблемах самой технологии. Для решения этих аспектов также необходимы люди.

Однако в ближайшем будущем ИИ вряд ли сможет заменить людей там, где нужна сообразительность или оригинальность, где нужно рассуждать, выходить за рамки, применять полученные навыки и знания в непривычных условиях, а также создавать новые смыслы. А значит, опасаться того, что искусственный интеллект в обозримом будущем вытеснит человека, точно не стоит.


11171

Комментировать могут только авторизованные пользователи.
Предлагаем Вам в систему или зарегистрироваться.

Предметная область
Отрасль
Управление
Мы используем файлы cookie в аналитических целях и для того, чтобы обеспечить вам наилучшие впечатления от работы с нашим сайтом. Заходя на сайт, вы соглашаетесь с Политикой использования файлов cookie.