Развитие искусственного интеллекта: этична ли роботизация?
Этика всегда стояла на защите человека. Вот и в пользовании искусственным интеллектом (ИИ) она обеспечивает соблюдение моральных принципов и фокусируется на влиянии непосредственно на человека. О том, развита ли сейчас этика ИИ в России, какие аспекты она регулирует и какие проблемы несет при несоблюдении правил, рассказала Алиса Бобовникова, автор и управляющий системы PM Brain с элементами искусственного интеллекта.
Потребность в этике и ее регулирование
Количество ИИ-систем постоянно растет. Только за последние полгода появилось более 100 программных продуктов на основе ИИ, и ежеквартально в мире выпускаются тысячи таких решений. Представьте, если эти системы будут нести себе угрозы морали, злоупотребления личными данными в корыстных целях и др. На фоне миллионов пользователей, использующих ИИ, это огромная угроза.
Чтобы этого избежать, необходимы принципы, на которые разработчики ИИ будут опираться при создании систем. Понимая неизбежность этого развития, Россия совершила значительный прорыв в области этического законодательства, подписав 26 октября 2021 года Кодекс в рамках I Международного форума «Этика искусственного интеллекта: начало доверия». Документ был подписан крупнейшими российскими компаниями. Этот шаг подчеркивает стремление страны к созданию сбалансированных и этичных норм для разработки и использования ИИ. Подписание Кодекса стало важным моментом, поскольку он устанавливает основные принципы ответственного развития ИИ и призывает к учету интересов человека и общества в процессе разработки и применения технологий. Этот шаг является важным вкладом в мировое обсуждение этических аспектов искусственного интеллекта и способствует формированию доверия к этой технологии. В 2023 году к нему присоединились 10 стран Африканского континента.
Основные принципы этики ИИ
При разработке ИИ необходимо придерживаться человеко-ориентированного и гуманистического подхода, где человек и его права считаются высшей ценностью. Авторы ИИ должны уважать автономию и свободу воли человека, поддерживать его способность принимать решения и не разрабатывать ИИ, который может негативно на это повлиять.
Эти принципы помогут обеспечить этичное и безопасное использование ИИ и учтут интересы всех заинтересованных сторон:
Поднадзорность. Система ИИ не должна действовать автономно, она всегда должна оставаться под контролем её создателей. Это включает в себя не только наблюдение за работой ИИ, но и контроль над процессом её улучшения и обучения, чтобы предотвратить потенциальные нежелательные последствия.
Безопасность данных. Разработчики должны обеспечивать безопасность данных, используемых ИИ. Это включает в себя защиту от несанкционированного доступа и соблюдение этических норм, чтобы избежать нанесения вреда пользователю при обработке информации.
Риск-ориентированный подход. Прогнозирование рисков должно быть всесторонним и междисциплинарным, охватывая как социальные, так и политические и культурные аспекты. Высокий уровень внимания к этическим вопросам должен быть признан неотъемлемой частью этого процесса.
«Необходимо помнить, что ответственность за искусственный интеллект начинается на этапе его создания, и первоочередная обязанность соблюдения этики лежит на разработчиках. Рекомендуется проводить независимую оценку рисков использования ИИ, анализируя последствия и воздействия на человека и его права», - подчеркивает Алиса Бобовникова.
Проблемы при несоблюдении этики ИИ
Для минимизации потенциальных негативных последствий для человека необходимо понимать, к каким проблемам несоблюдение этики в разработке и использовании ИИ может привести: угроза безопасности, дезинформация, киберугрозы, дискриминация и другие. Например, общество уже задумывается, какие профессии ИИ может заменить. Здесь, если не уделять внимание социальным и этическим аспектам этого процесса, увеличится безработица и неравенство в обществе.
Авторы ИИ-систем должны выстраивать алгоритмы для предотвращения дискриминации по различным признакам, таким как раса, национальность, пол, политические взгляды, религиозные убеждения и другие. Так, в 2018 году стало известно, что алгоритмы машинного обучения, используемые в процессе приема на работу, склонялись к предпочтению кандидатов мужского пола, что привело к существенной дискриминации женщин. В том же году неконтролируемое развитие автономных систем ИИ привело к смерти человека. Беспилотное автомобильное транспортное средство сбило пешехода, чего можно было избежать при строгом соблюдении этических и безопасных стандартов.
«В последние годы ИИ в социальных сетях могут воздействовать и на общественное мнение. Злоумышленники используют алгоритмы социальных медиа, чтобы усиливать распространение фейковых новостей. Все это создает общественные и политические проблемы. Именно законодательное регулирование станет отличным подспорьем, чтобы избежать этого», - добавила Алиса Бобовникова.
Развитие правовых норм имеет несомненный положительный эффект для избегания этих проблем. Бизнес осознает всю ответственность за обеспечение этичности использования ИИ в продуктах, услугах и осуществляет контроль над разработкой и внедрением технологий. Общественное доверие и репутация компаний зависят от соблюдения высоких этических стандартов в разработке и использовании ИИ. Таким образом, владельцы бизнеса становятся ключевыми сторонами в обеспечении этического контроля ИИ, учитывая свои интересы, клиентов и общества в целом.