В России этапы создания, внедрения и использования искусственного интеллекта (ИИ) пока не урегулированы законодательно. Между тем области применения ИИ стремительно расширяются, и недавно принятый «Кодекс этики в сфере искусственного интеллекта» дал старт добровольному саморегулированию и внедрению инструмента «мягкой силы» для достижения согласия между ИИ и человеком.
Кодекс был разработан с учётом требований Национальной стратегии развития ИИ на период до 2030 года. Над проектом документа работали Альянс в сфере искусственного интеллекта совместно с Аналитическим центром при Правительстве РФ и Минэкономразвития России. Кодекс подписали почти два десятка российских технологических компаний, в том числе «Ростелеком», «Яндекс», фонд «Сколково», «Сбер», МТС, VK, «Газпром нефть» и другие. Полный текст Кодекса можно прочитать здесь, а ниже — его ключевые моменты.
ИИ для человека
Авторы Кодекса сошлись на том, что ИИ-технологии должны создаваться и использоваться в интересах людей. Человекоориентированный и гуманистический подход — центральный критерий оценки этичного поведения в сфере ИИ, а права и свободы человека — главная ценность.
Свобода воли в принятии решений, право выбора, безопасность персональных данных — всё это важно сохранять и учитывать ещё на этапе проектирования ИИ. Тем более нельзя допускать причинения вреда жизни и здоровью человека, имуществу граждан и юридических лиц, окружающей среде.
Авторы предложили в ближайшем будущем разработать целую методику оценки рисков систем искусственного интеллекта (СИИ), чтобы прогнозировать возможные негативные последствия и вовремя принимать соответствующие меры.
Также авторы считают необходимым всегда информировать людей о том, что они взаимодействуют именно с ИИ. И давать возможность прекратить это взаимодействие по желанию человека.
Недопущение неравенства
В отдельный пункт Кодекса вынесено, что алгоритмы, наборы данных, методы их обработки не должны дискриминировать людей по признакам расовой, национальной, половой принадлежности, политических взглядов, религиозных убеждений и так далее. Исключение — ИИ, созданные для конкретных групп пользователей, объединённых по каким-то из перечисленных признаков.
Всё по закону
На всех этапах создания и внедрения ИИ-технологий важно руководствоваться российским законодательством. Работа ИИ-систем не должна нарушать действующие законы. В частности, в области персональных данных.
Авторы даже предложили ввести соответствующие маркировки, которые сразу указывали бы на то, что та или иная СИИ не нарушает российские законы и положения Кодекса. Проходить необходимую для получения такой маркировки сертификацию можно будет добровольно.
Ответственность — на людях
Несмотря на огромный потенциал ИИ, его функционирование необходимо контролировать человеку. Ответственность за работу СИИ и её последствия тоже должен нести именно человек.
Авторы Кодекса рекомендуют вести комплексный надзор за работой СИИ и делать регистрационные записи. В случаях, когда ИИ доверяют принять важное социальное или юридическое решение, необходимо оставить человеку право отменить это решение или предотвратить его принятие.
Мир, дружба, ИИ
По мнению авторов Кодекса, эффективное развитие ИИ-технологий возможно в атмосфере сотрудничества и здоровой конкуренции, а не безжалостного соперничества. Всем участникам жизненного цикла СИИ рекомендуется делиться достоверной информацией, обмениваться опытом, повышать доступность ресурсов в сфере ИИ и сообщать обо всех выявленных критических уязвимостях.
Как будет работать Кодекс
Следить за соблюдением пунктов Кодекса будет специальная Комиссия. Её работу будет обеспечивать ассоциация «Альянс в сфере искусственного интеллекта». Внутри Комиссии могут создаваться рабочие группы из представителей бизнеса, науки, государства и других заинтересованных сторон.
Комиссия будет также рассматривать заявки на присоединение к Кодексу и вести реестр его участников. Присоединение к Кодексу, разумеется, добровольное.