Развитие искусственного интеллекта: этична ли роботизация?

1

Этика всегда стояла на защите человека. Вот и в пользовании искусственным интеллектом (ИИ) она обеспечивает соблюдение моральных принципов и фокусируется на влиянии непосредственно на человека. О том, развита ли сейчас этика ИИ в России, какие аспекты она регулирует и какие проблемы несет при несоблюдении правил, рассказала Алиса Бобовникова, автор и управляющий системы PM Brain с элементами искусственного интеллекта.

Потребность в этике и ее регулирование

Количество ИИ-систем постоянно растет. Только за последние полгода появилось более 100 программных продуктов на основе ИИ, и ежеквартально в мире выпускаются тысячи таких решений. Представьте, если эти системы будут нести себе угрозы морали, злоупотребления личными данными в корыстных целях и др. На фоне миллионов пользователей, использующих ИИ, это огромная угроза.

Чтобы этого избежать, необходимы принципы, на которые разработчики ИИ будут опираться при создании систем. Понимая неизбежность этого развития, Россия совершила значительный прорыв в области этического законодательства, подписав 26 октября 2021 года Кодекс в рамках I Международного форума «Этика искусственного интеллекта: начало доверия». Документ был подписан крупнейшими российскими компаниями. Этот шаг подчеркивает стремление страны к созданию сбалансированных и этичных норм для разработки и использования ИИ. Подписание Кодекса стало важным моментом, поскольку он устанавливает основные принципы ответственного развития ИИ и призывает к учету интересов человека и общества в процессе разработки и применения технологий. Этот шаг является важным вкладом в мировое обсуждение этических аспектов искусственного интеллекта и способствует формированию доверия к этой технологии. В 2023 году к нему присоединились 10 стран Африканского континента.

Основные принципы этики ИИ

При разработке ИИ необходимо придерживаться человеко-ориентированного и гуманистического подхода, где человек и его права считаются высшей ценностью. Авторы ИИ должны уважать автономию и свободу воли человека, поддерживать его способность принимать решения и не разрабатывать ИИ, который может негативно на это повлиять.

Эти принципы помогут обеспечить этичное и безопасное использование ИИ и учтут интересы всех заинтересованных сторон:

Поднадзорность. Система ИИ не должна действовать автономно, она всегда должна оставаться под контролем её создателей. Это включает в себя не только наблюдение за работой ИИ, но и контроль над процессом её улучшения и обучения, чтобы предотвратить потенциальные нежелательные последствия.

Безопасность данных. Разработчики должны обеспечивать безопасность данных, используемых ИИ. Это включает в себя защиту от несанкционированного доступа и соблюдение этических норм, чтобы избежать нанесения вреда пользователю при обработке информации.

Риск-ориентированный подход. Прогнозирование рисков должно быть всесторонним и междисциплинарным, охватывая как социальные, так и политические и культурные аспекты. Высокий уровень внимания к этическим вопросам должен быть признан неотъемлемой частью этого процесса.

«Необходимо помнить, что ответственность за искусственный интеллект начинается на этапе его создания, и первоочередная обязанность соблюдения этики лежит на разработчиках. Рекомендуется проводить независимую оценку рисков использования ИИ, анализируя последствия и воздействия на человека и его права», - подчеркивает Алиса Бобовникова.

Проблемы при несоблюдении этики ИИ

Для минимизации потенциальных негативных последствий для человека необходимо понимать, к каким проблемам несоблюдение этики в разработке и использовании ИИ может привести: угроза безопасности, дезинформация, киберугрозы, дискриминация и другие. Например, общество уже задумывается, какие профессии ИИ может заменить. Здесь, если не уделять внимание социальным и этическим аспектам этого процесса, увеличится безработица и неравенство в обществе.

Авторы ИИ-систем должны выстраивать алгоритмы для предотвращения дискриминации по различным признакам, таким как раса, национальность, пол, политические взгляды, религиозные убеждения и другие. Так, в 2018 году стало известно, что алгоритмы машинного обучения, используемые в процессе приема на работу, склонялись к предпочтению кандидатов мужского пола, что привело к существенной дискриминации женщин. В том же году неконтролируемое развитие автономных систем ИИ привело к смерти человека. Беспилотное автомобильное транспортное средство сбило пешехода, чего можно было избежать при строгом соблюдении этических и безопасных стандартов.

«В последние годы ИИ в социальных сетях могут воздействовать и на общественное мнение. Злоумышленники используют алгоритмы социальных медиа, чтобы усиливать распространение фейковых новостей. Все это создает общественные и политические проблемы. Именно законодательное регулирование станет отличным подспорьем, чтобы избежать этого», - добавила Алиса Бобовникова.

Развитие правовых норм имеет несомненный положительный эффект для избегания этих проблем. Бизнес осознает всю ответственность за обеспечение этичности использования ИИ в продуктах, услугах и осуществляет контроль над разработкой и внедрением технологий. Общественное доверие и репутация компаний зависят от соблюдения высоких этических стандартов в разработке и использовании ИИ. Таким образом, владельцы бизнеса становятся ключевыми сторонами в обеспечении этического контроля ИИ, учитывая свои интересы, клиентов и общества в целом.

5712
Коментарии: 1

Комментировать могут только авторизованные пользователи.
Предлагаем Вам в систему или зарегистрироваться.

  • Алексей Овчинников
    Рейтинг: 116
    Нанолек, ООО
    Начальник отдела информационной инфраструктуры
    29.11.2023 14:54

    ИИ это инструмент, он не может быть этичным или не этичным. Правильная мысль про проблемы несоблюдения этики при использовании. Людей надо учить. Скальпелем можно и убить и спасти человека. Пока вижу проблему в том, что не сформировался опыт использования систем, уровень доверия или отсутствие его. Время расставит все.. надеюсь

Предметная область
Отрасль
Управление
Мы используем файлы cookie в аналитических целях и для того, чтобы обеспечить вам наилучшие впечатления от работы с нашим сайтом. Заходя на сайт, вы соглашаетесь с Политикой использования файлов cookie.