15.11.2021

Люди и роботы: как и для кого должен работать ИИ

В России этапы создания, внедрения и использования искусственного интеллекта (ИИ) пока не урегулированы законодательно. Между тем области применения ИИ стремительно расширяются, и недавно принятый «Кодекс этики в сфере искусственного интеллекта» дал старт добровольному саморегулированию и внедрению инструмента «мягкой силы» для достижения согласия между ИИ и человеком.

Кодекс был разработан с учётом требований Национальной стратегии развития ИИ на период до 2030 года. Над проектом документа работали Альянс в сфере искусственного интеллекта совместно с Аналитическим центром при Правительстве РФ и Минэкономразвития России. Кодекс подписали почти два десятка российских технологических компаний, в том числе «Ростелеком», «Яндекс», фонд «Сколково», «Сбер», МТС, VK, «Газпром нефть» и другие. Полный текст Кодекса можно прочитать здесь, а ниже — его ключевые моменты.

ИИ для человека

Авторы Кодекса сошлись на том, что ИИ-технологии должны создаваться и использоваться в интересах людей. Человекоориентированный и гуманистический подход — центральный критерий оценки этичного поведения в сфере ИИ, а права и свободы человека — главная ценность.

Свобода воли в принятии решений, право выбора, безопасность персональных данных — всё это важно сохранять и учитывать ещё на этапе проектирования ИИ. Тем более нельзя допускать причинения вреда жизни и здоровью человека, имуществу граждан и юридических лиц, окружающей среде.

Авторы предложили в ближайшем будущем разработать целую методику оценки рисков систем искусственного интеллекта (СИИ), чтобы прогнозировать возможные негативные последствия и вовремя принимать соответствующие меры.

Также авторы считают необходимым всегда информировать людей о том, что они взаимодействуют именно с ИИ. И давать возможность прекратить это взаимодействие по желанию человека.

Недопущение неравенства

В отдельный пункт Кодекса вынесено, что алгоритмы, наборы данных, методы их обработки не должны дискриминировать людей по признакам расовой, национальной, половой принадлежности, политических взглядов, религиозных убеждений и так далее. Исключение — ИИ, созданные для конкретных групп пользователей, объединённых по каким-то из перечисленных признаков.

Всё по закону

На всех этапах создания и внедрения ИИ-технологий важно руководствоваться российским законодательством. Работа ИИ-систем не должна нарушать действующие законы. В частности, в области персональных данных.

Авторы даже предложили ввести соответствующие маркировки, которые сразу указывали бы на то, что та или иная СИИ не нарушает российские законы и положения Кодекса. Проходить необходимую для получения такой маркировки сертификацию можно будет добровольно.

Ответственность — на людях

Несмотря на огромный потенциал ИИ, его функционирование необходимо контролировать человеку. Ответственность за работу СИИ и её последствия тоже должен нести именно человек. 

Авторы Кодекса рекомендуют вести комплексный надзор за работой СИИ и делать регистрационные записи. В случаях, когда ИИ доверяют принять важное социальное или юридическое решение, необходимо оставить человеку право отменить это решение или предотвратить его принятие. 

Мир, дружба, ИИ

По мнению авторов Кодекса, эффективное развитие ИИ-технологий возможно в атмосфере сотрудничества и здоровой конкуренции, а не безжалостного соперничества. Всем участникам жизненного цикла СИИ рекомендуется делиться достоверной информацией, обмениваться опытом, повышать доступность ресурсов в сфере ИИ и сообщать обо всех выявленных критических уязвимостях. 

Как будет работать Кодекс

Следить за соблюдением пунктов Кодекса будет специальная Комиссия. Её работу будет обеспечивать ассоциация «Альянс в сфере искусственного интеллекта». Внутри Комиссии могут создаваться рабочие группы из представителей бизнеса, науки, государства и других заинтересованных сторон.

Комиссия будет также рассматривать заявки на присоединение к Кодексу и вести реестр его участников. Присоединение к Кодексу, разумеется, добровольное.