Права человека: должен ли искусственный интеллект их соблюдать?

Страны мира с переменным успехом продолжают искать подходы к регулированию ИИ

Depositphotos
Как работают алгоритмы искусственного интеллекта? Вдруг кто-то специально изменил их для своей выгоды? А мы знаем это? Владислав Архипов, заведующий кафедрой теории и истории государства и права в СПбГУ, преподаватель Moscow Digital School, разбирает эти вопросы в своей колонке, а также объясняет, какие есть юридические особенности искусственного интеллекта, и, как они связаны с правами человека.

Сегодня есть масса способов применения искусственного интеллекта в повседневной жизни. Некоторые из них, в зависимости от страны, могут быть еще в диковинку, а некоторые уже хорошо нам знакомы — разговор с голосовым помощником, ботом из службы поддержки или получение в ленте социальной сети рекомендаций, основанных на работе алгоритмов. Кроме того, ИИ используется и в различных областях, где велика опасность причинения вреда человеку, в том числе, физического. Например, ДТП с участием беспилотных транспортных средств уже не являются гипотетической ситуацией – известны различные случаи, связанные с причинением вреда жизни и здоровью.
 
Использование искусственного интеллекта нужно рассматривать с точки зрения одного из главных, если не самого главного права человека – права на жизнь. Так, разработчикам ИИ важно учитывать меры для минимизации рисков причинения такого вреда, а также действовать по принципу «проектируемых мер безопасности» («by design»). На мой взгляд, этот подход должен пониматься максимально широко и включать в себя, в том числе, внимание к экологии и устойчивому развитию. Например, после оценки рисков и возможного воздействия проектируемой системы ИИ разработчикам необходимо заложить в нее технические меры безопасности – вплоть до «красной кнопки» и аварийного перехода на ручное управление.
 
Сегодня многие государства ищут подходы к регулированию искусственного интеллекта, но, на мой взгляд, наиболее подробным и системным документом, в котором прямо рассматривается проблема ИИ и прав человека, остается исследование европейского Комитета ad hoc по ИИ (CAHAI) – «Feasibility Study».

Авторы взяли за отправную точку права человека, как они известны согласно Конвенции о защите прав человека и основных свобод, последовательно сопоставили эти права с особенностями и рисками систем искусственного интеллекта.
 
Так, например, конвенция закрепляет право на человеческое достоинство и право на физическую и психическую неприкосновенность. Казалось бы, вполне классические права, существующие давно, но не факт, что прямо применимые в цифровом мире.
 
Однако CAHAI, отталкиваясь от них, предлагает, чтобы в тех областях применения ИИ, где есть риск нарушения права на человеческое достоинство, поскольку людей заменяет алгоритм, была предусмотрена возможность взаимодействия с человеком. Более того, если случай особенно чувствительный, взаимодействие в принципе должно строиться только с человеком. Но может быть и обратная ситуация: обойтись без использования искусственного интеллекта нельзя, и тогда людей надо уведомлять о том, что они взаимодействуют именно с ним. В качестве примера можно представить себе ситуацию, когда вы переписываетесь с кем-то, кого обоснованно считаете живым собеседником, возможно даже изливаете ему душу, например, если речь идет о сервисе психологического консультирования. А потом вдруг оказывается, что все это время вы говорили с роботом. В таких случаях моральный вред не всегда будет значителен, но досада пользователя будет вполне объяснима.
 
Рассматривая искусственный интеллект с точки зрения прав человека, необходимо также поднять вопрос защиты неприкосновенности частной жизни и персональных данных в цифровой среде. Уже опубликовано немало материалов о том, как социальные медиа обрабатывают данные пользователей для получения самых разных преимуществ.

Чего стоит скандал с Cambridge Analytica, где под видом безобидных тестов на Facebook собирались данные пользователей для последующего маркетингового воздействия.
 
Исходя из права на свободу и личную неприкосновенность человека необходимо очень осторожно подходить к вопросам использования персональных данных в системах ИИ. Так, на протяжении всего жизненного цикла систем искусственного интеллекта должны соблюдаться принципы и правила обработки персональных данных.
 
При этом, на мой взгляд, разработчикам и пользователям систем ИИ необходимо внедрять механизмы человеческого контроля для обеспечения данных прав пропорционально рискам. Человек должен иметь возможность отключить алгоритм или изменить его функционал, а разработчики в свою очередь должны иметь необходимые компетенции и квалификации для надлежащего контроля за соблюдением указанных ценностей. Пользователи ИИ должны стараться избегать «экономики внимания», ограничивающей автономию личности.
 
С точки зрения европейских исследователей, под вопросом находится широкое использование искусственного интеллекта в технологиях распознавания лиц и иных случаях обработки биометрической информации. Должен быть установлен высочайший уровень проверки при использовании ИИ в чувствительных сферах жизни - правоприменении, правосудии, отношении в области предоставления убежищ и миграции, здравоохранении, а также в общественной безопасности и трудоустройстве.
 
В других случаях важно, чтобы люди знали, что они взаимодействуют не с другим человеком, а с ИИ.

В таких ситуациях, по мнению авторов документа, также должно быть ясно, как человеку попросить «переключить» его на живого специалиста. Также здесь подразумевается требование отслеживаемости («traceability») и предоставления информации в случае, если системы ИИ могут негативно повлиять на права человека.
 
Информация о том, как работают системы ИИ, должна быть доступна пользователям и изложена в понятной для них форме.
 
Рекомендации для реализации непростые: пользователи могут нуждаться в том, чтобы были раскрыты все подробности действия алгоритмов и прочих программных средств, но такого рода информация может охраняться классическими инструментами права интеллектуальной собственности и коммерческой тайной.

Примерно с этим столкнулся гражданин США Лумис в деле против штата Висконсин, которое рассматривалось несколько лет назад. При вынесении против него решения использовались данные компьютерной системы COMPAS, которая спрогнозировала, что риск повторного совершения преступления этим гражданином был высокий. Однако на чем был основан такой прогноз, было непонятно – алгоритмы были неизвестны публике. Закрытость данных системы не дала каких-либо преимуществ при оспаривании решения.
 
Это обзор некоторых, но не всех последствий для регуляторного поля искусственного интеллекта, связанного с современными концепциями прав человека.

Во многом, данные подходы уже актуальны и для России, поскольку часть из них отражена в Национальной стратегии развития искусственного интеллекта и Концепции развития регулирования отношений в сфере искусственного интеллекта и робототехники.
 
Основная мысль, связанная со всеми этими вопросами, кажется довольно простой, но важной – энтузиазм по поводу того, как новые технологии могут изменить нашу жизнь, очень хорош и может вызывать преимущественно восхищение, но за заменой обычных социальных институтов технологическими платформами нельзя забывать, что все это, в идеале, должно делаться для лучшего будущего человечества, где должно оставаться место человеческой личности, наделенной свободой и ответственностью.

Автор - доцент, заведующий кафедрой теории и истории государства и права Санкт-Петербургского государственного университета (СПбГУ), преподаватель Moscow Digital School.