Искусственный интеллект: технологии меняются, ошибки — нет

Недавняя публикация API-ключа к популярному сервису искусственного интеллекта на платформе GitHub подчёркивает нарастающую угрозу утечки конфиденциальной информации в связи с повсеместным использованием ИИ.

По словам Александра Михайлова, руководителя GSOC компании «Газинформсервис», ИИ — это новая поверхность атаки, но ошибки, которые приводят к компрометации, — старые. Эксперт призывает разработчиков пересмотреть свои тактики кибербезопасности, чтобы предотвратить подобные инциденты.

«Для многих служб ИБ и SOC отслеживание публикации API-ключей может стать нетривиальной задачей, поэтому разработчикам стоит критически взглянуть на свои процессы и добавить в них шаги для исключения возможности подобных утечек», — отмечает руководитель GSOC.

Киберэксперт Михайлов рекомендует следующие меры безопасности:

«API-ключи, пароли, закрытые ключи — всё это секреты, которые не должны храниться вместе с кодом в Git-репозитории, особенно если репозиторий публичный или доступен широкому кругу сотрудников.

Храните все параметры конфигурации, включая API-ключи, вне исходного кода.

Запретите Git'у отслеживать файлы, которые потенциально могут содержать секреты или специфичные для разработчика конфигурации.

Автоматически проверяйте код на наличие потенциальных секретов перед тем, как коммит будет создан».

Комментировать могут только авторизованные пользователи.
Предлагаем Вам в систему или зарегистрироваться.

Предметная область
Отрасль
Управление (роль)
Мы используем файлы cookie в аналитических целях и для того, чтобы обеспечить вам наилучшие впечатления от работы с нашим сайтом. Заходя на сайт, вы соглашаетесь с Политикой использования файлов cookie.