Кто несет ответственность за искусственный интеллект
Перейти к содержимому

Кто несет ответственность за искусственный интеллект

  • автор:

Ответственность искусственного интеллекта в правовом поле

В современном мире технологии искусственного интеллекта могут принести людям как большую пользу, так и серьезный вред. Их быстрое развитие приводит к тому, что принятие решений человеком порой отходит на второй план.

Беспилотник, частично управляемый пилотом, вдруг разбивается и причиняет ущерб; программа с искусственным интеллектом диагностирует неправильное медицинское лечение; автомобиль без водителя сбивает пешехода. Кто будет нести ответственность за действия машин в каждом из этих случаев? Производитель беспилотника? Автор медицинской программы? Собственник автомобиля? Разработчик системы искусственного интеллекта? Сама система искусственного интеллекта? Какой должна быть эта ответственность?

Кто виноват?

Юристы предлагают различные подходы к определению правового статуса искусственного интеллекта. Некоторые не исключают даже полное равенство в правах с человеком. Однако более жизнеспособной представляется теория, которая приближает правовое положение ИИ к юридическим лицам.

Вместе с тем, существует и критика предложений наделить искусственный интеллект самостоятельной правосубъектностью, даже частичной, так как, по мнению ряда юристов, такой статус ИИ может повлечь возможность возложения на него юридической ответственности вместо реальных виновников.

Участие множества сторон в деятельности ИИ (разработчики и провайдеры данных, создатели и эксплуатанты и т.д.), приводит к тому, ответственность искусственного интеллекта трудно установить, когда что-то идет не так, и необходимо учитывать множество факторов, например:

  • был ли нанесен ущерб при эксплуатации и соблюдались ли пользователем инструкции, имеются ли в системе искусственного интеллекта какие-либо общие или конкретные ограничениями и были ли они доведены до сведения пользователя – от ответа на этот вопрос зависит степень вины пользователя или собственника технологии в инциденте;
  • если ущерб нанесен в то время, когда система искусственного интеллекта еще обучалась, виноват ли разработчик или поставщик данных;
  • возможно ли проследить причиненный ущерб до стадии разработки или производства системы искусственного интеллекта, что позволяет возложить ответственность на дизайнера или производителя, и т.д.

Как мы видим, одной из основных правовых проблем юридической ответственности искусственного интеллекта и смежных технологий является вопрос распределения ответственности за действия ИИ между задействованными субъектами — разработчиком, собственником, непосредственным пользователем и др. При этом при решении данной задачи необходимо стремиться к балансу интересов граждан, бизнеса и государства.

Что делать?

Развитие технологий искусственного интеллекта в течение последних лет уже привело к осознанию, что необходимо разрабатывать его правовое регулирование, включая вопросы юридической ответственности искусственного интеллекта. В связи с этим во многих государствах, в том числе и в России, уже приняты стратегические документы в области развития технологий ИИ, которые позволят в дальнейшем развивать и уточнять правовое положение таких технологий. Также разрабатываются нормы непосредственного действия, регулирующие отдельные вопросы создания и эксплуатации роботов и искусственного интеллекта. Ниже перечислены несколько основных примеров такой законодательной деятельности и инициатив.

В Европе в сентябре 2022 было принято два новых предложения по адаптации правил ответственности к цифровой эпохе. Было предложено модернизировать существующие правила строгой ответственности производителей за дефектную продукцию (от интеллектуальных технологий до фармацевтических препаратов) с целью дать предприятиям правовую определенность, чтобы они могли инвестировать в инновационные продукты, и одновременно обеспечить потерпевшим справедливую компенсацию, когда дефектные продукты, включая цифровые, причиняют вред.

Вторым предложением стала целенаправленная гармонизация национальных правил ответственности за искусственный интеллект, что должно облегчить получение компенсации жертвам ущерба, связанного с ИИ. В идеале новые правила должны обеспечить жертвам такие же стандарты защиты в случае причинения вреда действиями ИИ, как и в случае причинения вреда при любых других обстоятельствах.

Данные инициативы являются развитием «Закона Евросоюза об искусственном интеллекте», проект которого был впервые опубликован Европейской Комиссией 21 апреля 2021 г., а сейчас находится на завершающей стадии процедуры принятия.

В части юридической ответственности искусственного интеллекта Закон об ИИ придает особое значение выполнению обязательств стороной, которая размещает систему ИИ на рынке (или вносит в нее существенные изменения), или «поставщиком».

Поставщиком может быть сторонний поставщик или компания, разработавшая ИИ. Например, обязательства по проверке перед выпуском системы ИИ на рынок будут возложены на дистрибьюторов или импортеров системы ИИ, а не на первоначального поставщика системы ИИ.

Одновременно пользователи системы ИИ должны подчиняться требованиям ответственного проектирования, разработки, развертывания и мониторинга. В обязанности пользователей в соответствии с проектом Закона об ИИ также входит обеспечение качества данных, мониторинг и протоколирование системы, соблюдение процедур аудита, выполнение применимых требований прозрачности и поддержание системы, которая управляет рисками искусственного интеллекта.

В 2020 году в США появился Закон о национальной инициативе в области искусственного интеллекта (National Artificial Intelligence Initiative Act of 2020). Ответственность ИИ стала одним из главных принципов правового регулирования технологической сферы. Не менее важны беспристрастность, устойчивость и возможность контроля. Одновременно с желанием сохранить мировое конкурентное преимущество американское законотворчество в сфере искусственного интеллекта отдает приоритет своей национальной безопасности.
Немаловажное значение в США придается и вопросам этики при применении современных технологий. Так, например, появились примеры, когда компании отказываются использовать программы, если следствием может быть предубеждение против отдельных групп лиц. Известен случай отказа IBM от деятельности по использованию биометрии и анализа изображений, например, в целях наблюдения за гражданами. Такой подход помогает предотвратить потенциальный вред гражданским правам, а следовательно, является профилактикой решения вопроса о юридической ответственности искусственного интеллекта.

Россия

Указ Президента РФ «О развитии искусственного интеллекта в Российской Федерации» (№ 490 от 10.10.2019) определил базовые термины и также установил такие принципы использования искусственного интеллекта как безопасность и технологический суверенитет. Не оставлены без внимания и прозрачность и защита гражданских прав и свобод.

Также следует упомянуть распоряжение Правительства Российской Федерации «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.» (№ 2129-р от 19.08.2020). Документ посвящен регулированию оборота данных, а также юридической ответственности в случае применения искусственного интеллекта. Затронуты вопросы информационной безопасности ИИ и возможности его применения в различных сферах жизни (транспорт, космическая деятельность, медицина и др).

Подписанный в 2021 году Кодекс этики искусственного интеллекта, хоть и носит рекомендательный характер, но является важным шагом в создании объединяющих правил, способствующих развитию технологий искусственного интеллекта в России. На первое место при внедрении ИИ Кодекс выносит такие принципы как ответственность, конфиденциальность и безопасность.

Одновременно в России вводятся различные экспериментальные правовые режимы в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта, что также способствует дальнейшему развитию правовой базы для инновационной деятельности. Так, например, обсуждается законопроект о беспилотных автомобилях, в котором, в том числе, должны быть урегулированы вопросы ответственности как компаний, разрабатывающих такие технологии, так и владельцев транспортных средств.

Вкалывают роботы, счастлив человек

Помимо различных законодательных инициатив в некоторых секторах разрабатываются специальные правила для борьбы с рисками, связанными с системами ИИ. Например, в Великобритании предлагается ввести правила, согласно которым страховщик будет нести основную ответственность в случае аварий, вызванных автономными транспортными средствами. Также рассматривается возможность создания специальных компенсационных фондов в качестве альтернативного инструмента возмещения вреда.

В целом в мире мы можем наблюдать тенденцию на создание такого правового регулирования новых технологий, которое позволит использовать науку и прогресс на благо человека, но и не забывать о том, что робототехнические устройства являются всего лишь вещами, которые должны эксплуатироваться их пользователями в условиях безопасности и соблюдения интересов как отдельного человека, так и общества в целом.

Эксперты Вышки разобрались, кто должен нести ответственность за действия искусственного интеллекта

Эксперты Вышки разобрались, кто должен нести ответственность за действия искусственного интеллекта

Искусственный интеллект (ИИ) вскоре может стать участником принятия юридически значимых решений, система ИИ фактически будет наделена властью, считают эксперты Института права цифровой среды НИУ ВШЭ. Поэтому должен быть решен вопрос о порядке ответственности в случае «автоматизированного принятия решения». О том, должны ли отвечать за действия системы ее разработчики и какие меры государство может принять для развития инвестпроектов в сфере ИИ, эксперты рассказали в специальном докладе.

В докладе «Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения» отмечается, что уже в самое ближайшее время во всем мире будет наблюдаться процесс постепенного правового признания тех или иных «действий» системы искусственного интеллекта и их последствий, а также формализации этих действий. Быстрое развитие технологий искусственного интеллекта ставит вопрос о правовом статусе использования систем ИИ, обладающих разной степенью автономности: по некоторым прогнозам, к 2075 году мыслительные процессы роботов уже нельзя будет отличить от процессов мышления человека.

Эксперты подчеркивают, что «принятие юридически значимых решений может обладать характером властного воздействия, то есть, по сути, система ИИ фактически будет наделена властью, в этом случае должен быть определенно решен вопрос о порядке ответственности в случае такого автоматизированного принятия решения».

Расширение использования ИИ поднимает много проблем, одной из важнейших является достижение баланса между экономическими интересами и интересами общества, ставшая отражением глубокого конфликта выгоды и морали. В России этические проблемы развития и использования цифровых технологий в РФ не являются на данный момент действительно важной частью повестки не только государственных органов власти и коммерческих структур, но и общества в целом, подчеркивают авторы доклада.

Тем не менее, этой темой государству придется заниматься. При рассмотрении ответственности ИИ целесообразно говорить, в первую очередь, о деликтной ответственности, то есть меры ответственности должны быть установлены как реакция на вред, который ИИ может причинить или причиняет.

«В случае признания ИИ только объектом права, к чему пока что склоняются в мире, ответственность должна быть распределена по разным этапам жизненного цикла ИИ (этап разработки, этап эксплуатации, этап утилизации). При этом ответственность ИИ сводится не к карательно-воспитательным мерам, а к установлению действенного механизма управления рисками», — считают эксперты Вышки.

В свете возможного возложения ответственности на разработчиков необходимо хотя бы на начальных этапах предусмотреть сбалансированную систему иммунитетов для них, добавив обязательное страхование ответственности, а также регистрацию систем ИИ. В случае признания ИИ субъектом возможно установление режима совмещенной ответственности, когда субсидиарную ответственность могут нести и создатель ИИ, и его владелец или иной субъект, говорится в исследовании.

Эксперты Вышки также предложили способы устранения барьеров для инвестпроектов в сфере искусственного интеллекта и робототехники. В частности, речь идет о создании экспериментальных правовых режимов для разработки новых технологий специальных правовых режимов для привлечения инвестиций, предусматривающих налоговые льготы.

Этика и безопасность искусственного интеллекта

Разработчиков искусственного интеллекта (ИИ) призвали приостановить обучение мощных систем, базирующихся на машинном обучении. Эксперты из крупных компаний считают, что необходим перерыв в исследованиях, чтобы избежать рисков. Кто-то считает, что огромные объёмы созданной ИИ информации не позволят людям отличать правду от лжи.

Выработка принципов и стандартов, которые помогут обеспечить безопасность и этичность использования ИИ, чрезвычайно важна для дальнейшего развития этих технологий.

В статье рассмотрим некоторые этические аспекты ИИ.

Иллюстрация сгенерирована Midjourney

Проблема мирового масштаба

Некоммерческая организация Future of Life опубликовала письмо за подписью главы Tesla, SpaceX и Twitter Илона Маска, одного из создателей Apple Стива Возняка, сооснователя Pinterest Эвана Шарпа и ещё более тысячи экспертов в области ИИ.

Они настаивают на перерыве в исследованиях до появления общих протоколов безопасности. В обращении говорится, что системы с интеллектом, сравнимым с человеческим, представляют большой риск для общества.

К числу тех, кто видит в развитии ИИ опасность для человечества, присоединился после увольнения из Google один из основоположников нейросетей Джеффри Хинтон. По его мнению, созданный ИИ новостной контент (фото, видео, тексты) наводнит Интернет, и люди не смогут отличить правдивую информацию от ложной. Он также заявил, что технологии со временем трансформируют рынок труда, заменив людей в некоторых областях.

Присутствие ИИ в повседневности вызывает множество этических вопросов, которые с каждым годом становятся всё острее. Среди наиболее заметных примеров – смертельные ДТП с участием самоуправляемых автомобилей Tesla и Uber. Немаловажные проблемы в сфере использования ИИ касаются, в том числе, манипулирования информацией и различного рода дискриминацией.

Ответственность и прозрачность ИИ

Одна из самых популярных этических задач заключена в так называемой «проблеме вагонетки» – мысленном эксперименте, состоящем из набора ситуаций, когда необходимо выбрать одно из решений, чтобы обойтись минимальным числом жертв. В случае с беспилотным автомобилем алгоритмы ИИ должны просчитать, как лучше поступить в экстренных случаях на дороге: свернуть, создав угрозу для пассажиров, либо продолжать движение, подвергнув опасности нарушителей ПДД.

Автопилот Tesla определяет объекты, а ИИ принимает решения

Чтобы помочь ИИ сделать такой выбор, в Массачусетском технологическом институте предлагают людям пройти тест. Его результаты лягут в основу алгоритмов, благодаря которым ИИ будет решать, как поступить в экстремальных ситуациях.

Респонденты поставлены перед выбором: разбить автомобиль, убив пассажиров, или совершить смертельный наезд на пешеходов.

Дилемма теста: убить пассажиров или совершить смертельный наезд на пешеходов

Из проведенного опроса следует, что как сторонние наблюдатели люди в большинстве случаев стремятся указать наиболее рациональное решение, в основном принося в жертву пассажиров самоуправляемого автомобиля. Однако в роли пассажиров большинство выбирает тот вариант, который ставит их безопасность на первое место. Появляется новая этическая дилемма: дорожное движение с появлением самоуправляемых автомобилей станет безопаснее только благодаря применению алгоритмов ИИ, которые люди отклоняют в качестве неприемлемых для себя. Данный фактор может повлиять на будущий спрос и принятие решений о покупке таких автомобилей.

И тем не менее важной задачей при создании ИИ является определение границ ответственности системы. В настоящее время законодательство не признаёт ИИ субъектом права и не предусматривает его ответственности за возможные происшествия. Создатель ИИ владеет алгоритмами, но результат, полученный в результате их использования, может оказаться непредсказуемым. Итог работы алгоритма сильно зависит от входных данных, и разработчик не всегда может гарантировать его точность. В такой ситуации необходимо определить, кто несет ответственность, поскольку ИИ может быть сконструирован командой специалистов.

Процессы принятия решений ИИ должны быть прозрачными, чтобы существовала возможность отслеживать его действия и своевременно выявлять проблемы в функционировании. Однако некоторые алгоритмы могут быть слишком сложными для понимания человеком. В таких случаях возникает проблема контроля ИИ.

Предвзятость алгоритмов

Казалось бы, искусственный интеллект должен работать и принимать решения с холодным разумом как любая машина.

Однако его создатели являются обладателями когнитивных искажений, которые невольно наследуют разрабатываемые системы, что способствует появлению предвзятостей в алгоритмах.

Их исключение – одно из сложностей при использовании ИИ. Информация, которая поступает в систему, должна быть неискаженной, достоверной, а главное – не содержать в себе предубеждения. Некорректная работа алгоритмов может привести к дискриминации или несправедливым решениям в отношении человека.

Например, боты занимаются сбором изображений лиц людей в интернете. Описания к ним вычленяются из контекста размещения. Поэтому ИИ чаще относит женщин к категории «домохозяйка» вместо, например, «доктор», исходя из сохраняющихся в обществе стереотипов. Так на уровне данных ИИ наследует предвзятость от людей.

Использование технологий ИИ подчас задевают существующие в обществе ценности. Например, нарушаются такие основополагающие принципы как расовое и гендерное равенство. Явление пристрастности ИИ получило название AI bias.

Необъективность ИИ стала причиной возмущений общественности в связи с решениями уголовно-исполнительной системы США в отношении этнических меньшинств, которые были вызваны ошибками в распознавании лиц.

Известный случай дискриминации, связанной с использованием ИИ, произошел в 2018 году. Выяснилось, что алгоритм системы судейства при определении размера залога для подозреваемых в правонарушениях оказался пристрастным к афроамериканцам.

Недавно специалист в области информатики Джон Маккормик признался в непреднамеренном создании 25 лет назад «расово предвзятого» алгоритма ИИ для распознавания лиц.

The author’s 1998 head-tracking algorithm used skin color to distinguish a face from the background of an image.

Проект заключался в отслеживании движений головы человека на основе данных с видеокамеры. Для совершенствования системы группа, в составе которой был Маккормик, пошла по пути других исследователей, установивших, что области изображения телесного цвета можно извлекать в режиме реального времени. Поэтому учёные решили сосредоточиться на цвете кожи как на дополнительной подсказке для трекера.

Маккормик сделал несколько фотографий себя и других белых людей. Так было легче вручную извлечь некоторые пиксели телесного цвета из этих изображений и построить статистическую модель для цветов кожи. После некоторой настройки и отладки удалось создать надёжную систему отслеживания в реальном времени.

(Не)доверие к ИИ

Одна из основных опасностей, которую необходимо учитывать при работе с технологиями, подобными искусственному интеллекту, – завышенное доверие к ним со стороны неспециалистов. Важно помнить, что нет идеальных систем, и даже самые надёжные из них могут выходить из строя, особенно когда им предоставляются большие возможности. Поэтому заблуждение о безошибочности ИИ может привести к ужасным последствиям, и следует придерживаться здравого смысла в оценке потенциала таких систем.

Сложные задачи, особенно с вариативными входными данными, могут приводить к ошибкам в работе ИИ. И по сей день она затруднена тем, что надёжность системы не может быть гарантирована. В особенности это актуально для задач, связанных с автономным управлением транспортными средствами. Поэтому важным аспектом является создание устойчивых систем с минимальным количеством сбоев.

Прозрачность также является ключом к построению доверия между человеком и ИИ. Непонимание людьми оснований для принятия решений система порождает сомнение в точности результатов. Пользователям необходимо понимать, как ИИ приходит к выводам и чем руководствуется, давая рекомендации.

ИИ от IBM Watson for Oncology, предоставляющий рекомендации по лечению рака, так и не смог заслужить доверие онкологов.

При взаимодействии с Watson врачи оказывались в двоякой ситуации. Когда указания программы совпадали с мнениями медиков, те не видели большой ценности в рекомендациях ИИ, поскольку они не меняли лечения. Скорее, врачи просто укреплялись в собственной правоте. Но подтвердить, что ИИ улучшает статистику выживаемости с раком, не удалось.

Если рекомендации Watson противоречили мнению экспертов, те не доверяли программе, считая её некомпетентным. Алгоритмы машинного обучения были слишком сложными для понимания, врачи не видели объяснений эффективности лечения ИИ и полагались на свой опыт, игнорируя рекомендации ИИ.

Врачи-онкологи расходились с программой Watson почти в 70% случаях, поэтому медицинские учреждения решили отказаться от ее использования.

Watson столкнулся с проблемой недоверия. Программа работает по сложной системе анализа данных, что лишает большинства понимания, как он принимает решения. Взаимодействие вызывает ощущение потери контроля. Люди предпочитали полагаться на свой опыт, а не на ИИ, за которым не могли следить в режиме реального времени.

ИИ не считается абсолютно надежным в том числе потому, что создаётся людьми. То, что нельзя полагаться на эти технологии, подтверждается примерами ошибок, громогласно освещаемых в СМИ. В частности, то ДТП с автопилотом Tesla, закончившееся смертельным исходом.

Приватность данных

Анализ метаданных может помочь улучшить качество работы ИИ, но он также вызывает вопросы о приватности и безопасности личной информации. Таким образом, при создании системы ИИ необходимо обеспечить надёжность хранения данных и защитить их от кражи или злоупотребления.

Так, исследование американских университетов Принстона и Беркли и Швейцарской высшей технической школы Цюриха совместно с Google и DeepMind подтвердило вероятность утечки данных из систем создания изображений с применением ИИ – DALL-E, Imagen и Stable Diffusion.

Исходное и сгенерированное изображение из Stable Diffusion

В ходе обучения в эти системы загружается масса изображений с сопутствующими описаниями. Исследование ставит под сомнение уникальность созданных на их основе картинок. При определённых условиях нейросеть может выдать в почти неизменённом виде оригинальное изображение, использованное ранее для обучения. Таким образом, существует вероятность того, что программа случайно раскроет личную информацию.

Этические кодексы в сфере ИИ

В связи с развитием нейросетей и машинного обучения крупнейшие ИТ-компании мира стали проявлять особый интерес к этике ИИ. В числе первых в 2016 году были опубликованы «10 Законов для искусственного интеллекта» Microsoft, в которых от имени генерального директора компании Сатьи Наделлы указаны ключевые требования к развитию этики ИИ.

Свой взгляд на этику ИИ представила и IBM.

Почти полсотни крупных ИТ-компаний по всему миру обладают собственными кодексами и правилами, основанные на этических принципах, относящихся к применению и развитию ИИ. В числе таких компаний российские ABBYY, Сбер и Яндекс.

Значительную роль в развитии этики ИИ играют некоммерческие организации, объединяющие профессионалов, которые проводят исследования и внедряют научно-технические инновации. НКО продемонстрировали углублённый подход к этике ИИ, который позволяет принимать во внимание интересы и права потребителей, а также ставит на первый план общественные нужды и благо всех людей.

Этические нормы и ценности сформулированы в 13 из «23 принципов искусственного интеллекта» на Асиломарской конференции в 2017 году. В числе тех, кто подписал их, – Илон Маск, Стивен Хокинг, Рэй Курцвайл и другие. Эти принципы отразились в корпоративных нормах ряда компаний, чья деятельность связана с разработкой ИИ.

Асиломарская конференция

Законодательное регулирование ИИ в России и за рубежом

Россия, как одна из передовых стран по применению искусственного интеллекта (ИИ), также сталкивается с вопросами этики и правовой ответственности. Необходимо принимать меры для того, чтобы развитие ИИ шло по безопасному пути.

C 1 июля 2020 года в Москве проводится пятилетний эксперимент, направленный на разработку и внедрение технологии ИИ для заинтересованного бизнеса. Ранее ИИ не регулировался законодательно. Между тем, использование таких технологий порождает проблемы, включая, но не ограничиваясь:

необходимостью обезличивания и защиты персональных данных, особенно в области распознавания лиц,

обеспечением доступа ИИ к большим массивам информации для полноценного развития,

разграничением ответственности за действия ИИ и возможности доказательства.

Закон 123-ФЗ от 24 апреля 2020 года устанавливает в Москве специальный правовой режим в сфере ИИ. В нём указаны требования по защите персональных данных граждан и использования псевдоданных, собираемых в режиме анонимности. В частности, допускается обработка обезличенных персональных данных граждан для реализации эксперимента.

Цель этого экспериментального правового режима – повышение качества жизни населения, эффективности госуправления и деятельности бизнеса в ходе внедрения технологий ИИ. А также формирование комплексной системы регулирования общественных отношений, возникающих в связи с развитием и использованием ИИ. Эксперимент позволит создать правовую базу для этого.

Регулирование использования ИИ разными странами мира проходит по-разному. Некоторые страны уже разработали законы и правила, а другие только занимаются подготовкой соответствующих документов.

Одна из основных областей, где применяются ИИ, – государственное управление. Использование ИИ в этой области может помочь улучшить качество услуг, снизить издержки и повысить эффективность государства в целом. Однако возникают вопросы о прозрачности и ответственности государственных систем ИИ.

В России была создана рабочая группа по разработке принципов этики ИИ. В 2021 году в рамках I международного форума «Этика искусственного интеллекта: начало доверия» был принят российский «Кодекс этики в сфере ИИ». На 2023 год документ подписали более 150 российских организаций.

Необходимость выработки этических норм и нормативного регулирования для ИИ прописана в «Национальной стратегии развития искусственного интеллекта на период до 2030 года».

Ещё один важный документ – «Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года».

В ней сказано, что развитие технологий ИИ и РТ должно основываться на базовых этических нормах и предусматривать:

Цель обеспечения благополучия человека должна преобладать над иными целями разработки и применения систем ИИ и РТ.

Запрет на причинение вреда человеку по инициативе систем ИИ и РТ. По общему правилу, следует ограничивать разработку, оборот и применение систем ИИ и РТ, способных по своей инициативе целенаправленно причинять вред человеку.

Подконтрольность человеку в той мере, в которой это возможно с учётом требуемой степени автономности систем ИИ и РТ и иных обстоятельств.

Проектируемое соответствие закону, в том числе – требованиям безопасности: применение систем ИИ не должно заведомо для разработчика приводить к нарушению правовых норм.

В Европейском союзе была создана Группа ведущих экспертов по искусственному интеллекту (AI HLEG), которая занимается разработкой рекомендаций по этике. В частности, они предупреждают технологических гигантов о том, что алгоритмы не должны дискриминировать пользователей по признаку их возраста, расы или пола.

В документе сказано, что ИИ должен соответствовать требованиям установленных норм и законов, этических принципов и ценностей, быть надёжным с технической и социальной точек зрения.

Рекомендации включают необходимость учета этических вопросов на каждом этапе разработки и внедрения ИИ, прозрачности процессов, а также гарантии защиты конфиденциальности личных данных пользователей и другие меры.

Значительное внимание уделяется также этике использования ИИ в области медицины и биотехнологий. В том же документе AI HLEG предлагается, чтобы использующие ИИ эксперименты и исследования на животных и людях были этически обоснованы и согласованы с соответствующими регуляторами.

Одним из важнейших принципов в области этики ИИ является создание систем, способных сохранять уважение к человеческой жизни, достоинству и правам. Здесь, в числе прочего, необходимо учитывать культурные различия во избежание нежелательных социальных последствий.

В качестве заключения

В недавнем интервью Такеру Карлсону Илон Маск заявил, что ИИ может быть использован в качестве инструмента влияния, в том числе, на выборах. А если ИИ будет достаточно умён, неизбежно возникнет вопрос, кто кого использует: люди ИИ или ИИ людей. «Мы движемся в странном направлении, и движемся всё быстрее… Нам нужен надзорный орган. А в свою очередь, СМИ должны пристальнее следить за тем, что публикуется и печатается на их платформах. И работать с людьми, а не с GPT-ботами, притворяющимися людьми», – подчеркнул Маск.

Несмотря на все вызовы и опасности, которые стали актуальными, ИИ остаётся одной из самых перспективных технологий, которая может усилить наши возможности и упростить жизнь. Главное – помнить, что это всего лишь инструмент, который мы можем и должны использовать с максимальной осторожностью и этичностью.

ПРАВОВОЙ СТАТУС ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Право»

Аннотация научной статьи по праву, автор научной работы — Крысанова-Кирсанова Ирина Георгиевна, Трушина Ирина Олеговна

Исследуются вопросы, связанные с правовым статусом искусственного интеллекта как субъекта частного и публичного права, возможности наделения носителя искусственного интеллекта правами, обладает ли искусственный интеллект признаками субъекта права, юридическая ответственность за действия искусственного интеллекта .

Похожие темы научных работ по праву , автор научной работы — Крысанова-Кирсанова Ирина Георгиевна, Трушина Ирина Олеговна

LEGAL STATUS OF ARTIFICIAL INTELLIGENCE

The issues related to the legal status of artificial intelligence as a subject of private and public law, the possibility of granting rights to the bearer of artificial intelligence, whether artificial intelligence has the features of a subject of law, legal responsibility for the actions of artificial intelligence are examined.

Текст научной работы на тему «ПРАВОВОЙ СТАТУС ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»

Научная статья УДК 347

https://doi.org/10.24412/2414-3995-2022-2-104-107 NIION: 2015-0066-2/22-281 MOSURED: 77/27-011-2022-02-480

Правовой статус искусственного интеллекта

Ирина Георгиевна Крысанова-Кирсанова1, Ирина Олеговна Трушина2

1 2 Московский университет МВД России имени В.Я. Кикотя, Москва, Россия 1 gajde@mail.ru

Рецензент: кандидат юридических наук В. А. Гук

Аннотация. Исследуются вопросы, связанные с правовым статусом искусственного интеллекта как субъекта частного и публичного права, возможности наделения носителя искусственного интеллекта правами, обладает ли искусственный интеллект признаками субъекта права, юридическая ответственность за действия искусственного интеллекта.

Ключевые слова: искусственный интеллект, правоспособность, правосубъектность, юридическая ответственность

Для цитирования: Крысанова-Кирсанова И. Г., Трушина И. О. Правовой статус искусственного интеллекта // Вестник экономической безопасности. 2022. № 2. С. 104-107. https://doi.org/10.24412/2414-3995-2022-2-104-107.

Legal status of artificial intelligence

Irina G. Krysanova-Kirsanova1, Irina O. Trushina2

1 2 Moscow University of the Ministry of Internal Affairs of Russia named after V.Ya. Kikot', Moscow, Russia 1 gajde@mail.ru

Reviewer: Candidate of Legal Sciences V. A. Guk

Abstract. The issues related to the legal status of artificial intelligence as a subject of private and public law, the possibility of granting rights to the bearer of artificial intelligence, whether artificial intelligence has the features of a subject of law, legal responsibility for the actions of artificial intelligence are examined. Keywords: artificial intelligence, legal capacity, legal personality, legal responsibility

For citation: Krysanova-Kirsanova I. G., Trushina I. O. Legal status of artificial intelligence. Bulletin of economic security. 2022;(2):104-7. (In Russ.). https://doi.org/10.24412/2414-3995-2022-2-104-107.

Ввиду быстро развивающихся цифровых технологий и внедрения их в повседневную жизнь вопрос о правовом статусе искусственного интеллекта приобретает новый, более важный характер и становится наиболее актуальным для гражданского права.

Предпосылки возникновения искусственного интеллекта появились в период образования первых философский учений, приблизительно в XVII веке. С того периода понимание сущности искусственного интеллекта прошло разноплановую модернизацию и правовую трансформацию. Но впервые понятие искусственного интеллекта было сформулировано на подзаконном уровне Указом Президента Российской Федерации от 10.10.2019 года № 490 «О развитие искусственного интеллекта в Российской Федера-

© Крысанова-Кирсанова И. Г., Трушина И. О., 2022

ции», которое впоследствии стало зафиксировано в Федеральном законе от 24.04.2020 года № 123-Ф3 «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных». Исходя из п. 2 ст. 2 данного источника права искусственный интеллект характеризуется «комплексом технологических решений, позволяющих имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые как минимум, с результатами интеллектуальной деятельности человека».

Понятие искусственного интеллекта и его правовой статус можно найти лишь в отдельных федеральных законах, касающихся информационных технологий. Гражданский кодекс Российской Федерации не предусматривает понятия искусственного интеллекта, следовательно, его правовой статус в кодексе не закреплен. Это является актуальной проблемой в отечественном законодательстве, поскольку искусственный интеллект сейчас заменяет труд человека во многих передовых сферах жизнедеятельности -автомобилестроение и их использование, медицина, образование, сельское хозяйство, искусство и др. Под руководством человека, искусственный интеллект научился создавать аудио- и видео-произведения, художественные рисунки, тексты различной сложности, обслуживать граждан по простой юридической консультации в онлайн формате (боты), водить транспортное средство и многое другое.

Несмотря на сложность, вопрос об определении правового статуса искусственного интеллекта в гражданском праве, законодатель не стоит на одном месте. В новостных сводках общественно-политической газеты «Коммерсантъ» от 11 ноября 2020 года в Государственной Думе РФ было выдвинуто предложение о внесении в Гражданский кодекс РФ нормы, посвященной искусственному интеллекту, а также предложение о закреплении права на интеллектуальную собственность, включая аудио- и видеоконтент или аналитические материалы, созданные с помощью искусственного интеллекта, за его разработчиком. В данном предложении законодатель предлагает закрепить ответственность за правообладателем программы, с помощью которой был сформирован результат интеллектуальной деятельности. Ф. В. Ужов отмечал, что, «если теория «мыслящих машин» превратится в практику, перед законодателем неизбежно будет поставлен вопрос о наличии или же об отсутствии необходимости наделения носителя искусственного интеллекта правами» [4, с. 358]. Мы считаем, что данная практика уже наступила. Все чаще в реальной жизни встречаются предметы, наделенные возможностью самостоятельно мыслить, совершать активные действия, которые влекут за собой юридические последствия, образуют при этом юридические права и обязанности. Но до сих пор вопрос о включении понятия искусственного интеллекта в Гражданский кодекс и урегулирование его правового статуса остается открытым.

Для разрешения данного вопроса и искоренения проблемы об определении правого статуса искусственного интеллекта, необходимо установить, обладает ли искусственный интеллект признаками субъекта права. Соответственно, сможет ли искусственный интеллект обладать правовым статусом субъекта права. Стоит выделить структуру правого статуса искусственного интеллекта и может ли данное понятие

находиться в нормах Гражданского кодекса, имеет ли оно следующие части:

1. Правосубъектность, которая включает в себя правоспособность, дееспособность и деликтоспособ-ность субъекта.

«Искусственный интеллект не сравним в полной мере с человеком, так как он не имеет души, сознания, чувств, интересов и свободы воли» [3, с. 240], отмечал Ручкин В. А. Гаджиев Е. А. говорил о том, что «роботы не смогут в ближайшее время рассматривать и разбирать гражданские дела, ввиду их неспособности учесть все детали, в том числе и прежде всего в отсутствии «человеческого фактора» [2, с. 27]. Мы согласны с авторами в точке зрения того, что искусственный интеллект хоть и обладает базовыми характеристиками правосубъектности, в полной мере не сможет заменить человека и являться субъектом права. Однако, в конце 2016 года в юридической фирме Dentons в городе Санкт-Петербург был разработан и выдвинут законопроект «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники». В законодательной инициативе авторы предлагают наделять робота правоспособностью, если таковой зарегистрирован. В таком случае, к «машине» может применяться гражданское законодательство, а ответственность за деяния робота будет нести собственник и непосредственный владелец.

Так как «в юриспруденции сознание не является необходимым условием правосубъектности» [5, с. 74], по данному пункту искусственный интеллект имеет полное право стать субъектом гражданского права. Однако, «понятие правосубъектности имеет актуальность для построения системы правового регулирования отношений в сфере функционирования искусственного интеллекта» [2, с. 28].

2. Установленные законом права и обязанности.

Искусственный интеллект как машина наделен

способностями самообучаться и принимать самостоятельные решения без помощи человека. Своими действиями он способен реализовывать собственные права и обязанности, порождать юридические последствия. Данные качества искусственного интеллекта в полной мере позволяют говорить о его самостоятельности как субъекта права. Таким образом, искусственный интеллект, являясь субъектом права и обладая правовым статусом, будет нести юридическую ответственность за свои действия.

3. Гарантии установленных прав.

Искусственный интеллект гарантирует получение

результата, так как в его основе находятся запрограммированный план действий, который ведет к выполнению цели и получению результата. Данные гарантии должны быть закреплены на законодательном уровне,

что при их нарушениях без труда было определить пределы функционирования искусственного интеллекта, его вину в совершенных действиях. Следовательно, искусственный интеллект наделен принципом результативности и может реализовывать правовой статус.

4. Ответственность субъекта за неисполнение обязанностей.

Стоит указать, что несмотря на осуществление прав и обязанностей искусственного интеллекта, по нашему мнению, ответственность за нарушение функционирования работы машины будет нести ее собственник. Рассматривая вопрос о применении юридической ответственности в отношении непосредственно самого искусственного интеллекта — машины, стоит сказать, что данный факт приведет к утопии существования человека. Это является «базово тупиковой ветвью эволюции». Об этом в своем выступлении упомянул специальный представитель Президента Российской Федерации по вопросам цифрового и технологического развития Дмитрий Песков [6]. Анализируя вопрос о применении ответственности за нарушение функционирования искусственного интеллекта Европарламент 16 февраля 2017 года утвердил резолюцию о гражданско-правовых нормах, регулирующую вопросы ответственности робототехники, в которой предложил две базовые модели ее возникновения: «ответственности независимо от вины; риск-ориентированный подход, когда ответственным признается то лицо, которое было способно минимизировать риски и негативные последствия» [8]. Согласно первой модели отсутствие вины искусственного интеллекта освобождает его от гражданско-правовой ответственности по общему правилу. То есть независимо от того, по вине собственника или производителя произошел системный сбой машины, ответственность за причиненный вред или нарушение отечественного законодательства будет нести искусственный интеллект. Примером данной конструкции послужил резонансный случай в 2018 году в Аризоне, когда беспилотный автомобиль во время испытаний насмерть сбил пешехода, так как искусственный интеллект отказался распознать человека, переходившего дорогу в неположенном месте. Компания-владелец автотранспортного средства не понесла ответственности, а лишь добровольно компенсировала причиненный вред семье погибшей.

Исходя из второй модели, которой придерживается Европейский парламент, юридическая «ответственность должна лежать на человеке, а не на роботе» [8]. Севернее от Хьюстона в штате Техас электромобиль Tesla под управлением искусственного интеллекта (автопилота) движущийся в темное время суток на высокой скорости, нарушая ПДД, не справился с управлением, пересек сплошную линию и столкнулся с деревом [7]. В результате чего автомобиль загорелся, а сидевшие в нем пассажиры погибли. Однако,

производитель Tesla смог уйти от ответственности. Так как в США существует шкала (от 0 — фактически управляет водитель; 5 — автомобилем управляет искусственный интеллект), по которой можно оценить каждую машину на автономность. Большинство машин в штатах имеют второй уровень автономности, что характеризует транспортное средство как возможность машины самостоятельно управлять скоростью, при этом за рулем автотранспорта обязан находиться водитель. В таком случае, при всех ошибках на дорогах — нарушениях ПДД, авариях, летальных исходах, юридическую ответственность будет нести водитель. Как известно, перед аварией человек, находившийся на переднем сиденье, перевел искусственный интеллект в автономный режим и перебрался на заднее сиденье. Управление над машиной было утеряно. Поэтому, в данном случае виновником ДТП будет сам водитель.

Хотя данное решение вызывает некоторые сомнения: водитель, переводя систему автомобиля в автономный самостоятельный режим, надеется на то, что искусственный интеллект будет работать исправно. Человек доверяет свою жизнь искусственному интеллекту. Искусственный интеллект в данном случае рассматривается как полноценный участник дорожного движения, а следовательно, несет ответственность на себе за нарушение ПДД и владеет правовым статусом. Однако, при совершении ДТП, исходя из практики, юридическая ответственность за совершенное деяние ложится на водителя. Данное суждение неверно, так как в понимании водителя искусственный интеллект является полноправным носителем прав и обязанностей.

В целях изучения общественного мнения о правовом статусе искусственного интеллекта, в рамках настоящего исследования было проведено анкетирование 136 респондентов, которым было предложено ответить на 1 вопрос:

По Вашему мнению, является ли искусственный интеллект субъектом права и может ли обладать правовым статусом?

Анкетирование проводилось в гибридном формате: на информационном ресурсе Anketolog.ru и посредством распространения письменных анкет среди контекстных групп. Анкетирование прошли лица в возрасте от 18 до 55 лет, в том числе обучающиеся юридических вузов Российской Федерации, действующие сотрудники органов внутренних дел и профессорско-преподавательский состав.

Согласно данным проведенного социологического исследования 80 респондентов посчитали, что искусственный интеллект является юридическим лицом в гражданско-правовых отношениях. 40 отвечающих сказали, что искусственный интеллект не является субъектом гражданского права, соответственно, существование правового статуса у него отсутствует. 13 участников опроса сказали, что искусственный ин-

теллект является физическим лицом с собственными правами, обязанностями и правовым статусом. Всего 3 респондента посчитали, что искусственный интеллект необходимо приравнять к правовому статусу животных. Исследование показало, что большая часть (около 58 %) опрошенных считают необходимым «приравнивание статуса искусственного интеллекта к статусу юридического лица» [1, с. 88].

Таким образом, стоит отметить, что искусственный интеллект может являться самостоятельным субъектом гражданского процесса (данный факт не закреплен в законе, является лишь предложением), но на данный момент не обладает полным перечнем признаков субъекта права. Так искусственный интеллект никогда не будет наделен такими качествами как душа, человечность, полноценное сознание, осмысление, что подтверждает сложность вопроса о наделении искусственного интеллекта правовым статусом субъекта права. За функционированием искусственного интеллекта должен следить человек. Поэтому, за нарушения в работе машин юридическую ответственность будут нести его непосредственные собственники и правообладатели. Невозможность наделения искусственного интеллекта правовым статусом связана с отсутствием единого подхода к определению понятия искусственного интеллекта и его правового статуса, отставанием закрепления юридической ответственности для искусственного интеллекта, в случае нарушения в его функционировании.

1. Афанасьевская А. В. Правовой статус искусственного интеллекта // Вестник Саратовской государственной юридической академии. № 4. 2021. С. 88-92.

2. Гаджиев Е. А., Войниканис Е. А. Может ли робот быть субъектом права (поиск правовых форм для

регулирования цифровой экономики) // Право. Журнал Высшей школы экономики. 2018. № 4. С. 24-48.

3. Ручкин В. Н., Фулин В. А. Универсальный искусственный интеллект и экспертные системы. СПб. : БХВ — Петербург, 2009.

4. Ужов Ф. В. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. 2017. № 3.

5. Щербаков М. Г. Проблемы правового регулирования трансформации правового статуса искусственного интеллекта : постановка проблемы // Юридические науки. 2019. Т. 5. № 3. С. 73-81.

8. https://robopravo.ru/riezoliutsiia_ies. References

1. Afanasievskaya A. V. The legal status of artificial intelligence // Bulletin of the Saratov State Law Academy. № 4. 2021. P. 88-92.

2. Gadzhiev E. A. Voynikanis E. A. Can a robot be a subject of law (search for legal forms for regulating the digital economy) // Pravo. Journal of the Higher School of Economics. 2018. № 4. P. 24-48.

3. Ruchkin V. N., Fulin V. A. Universal artificial intelligence and expert systems. St. Petersburg : BHV -Petersburg, 2009.

4. Yezhov F. V. Artificial intelligence as a subject of law // Gaps in Russian legislation. 2017. № 3.

5. Shcherbakov M. G. Problems of legal regulation of the transformation of the legal status of artificial intelligence : statement of the problem // Legal sciences. 2019. Vol. 5. № 3. P. 73-81.

8. https://robopravo.ru/riezoliutsiia_ies. Информация об авторах

И. Г. Крысанова-Кирсанова — доцент кафедры гражданского и трудового права, гражданского процесса Московского университета МВД России имени В.Я. Кикотя, кандидат юридических наук;

И. О. Трушина — курсант института подготовки сотрудников для органов предварительного расследования Московского университета МВД России имени В.Я. Кикотя.

Information about the authors I. G. Krysanova-Kirsanova — Associate Professor of the Department of Civil and Labor Law, Civil Procedure of the Moscow University of the Ministry of Internal Affairs of Russia named after V. Ya. Kikot', Candidate of Legal Sciences;

I. O. Trushina — Cadet of the Institute for Training Employees for Preliminary Investigation Bodies of the Moscow University of the Ministry of Internal Affairs of Russia named after V.Ya. Kikot'.

Вклад авторов: все авторы сделали эквивалентный вклад в подготовку публикации. Авторы заявляют об отсутствии конфликта интересов.

Contribution of the authors: the authors contributed equally to this article. The authors declare no conflicts of interests.

Статья поступила в редакцию 29.03.2022; одобрена после рецензирования 29.04.2022; принята к публикации 25.05.2022.

The article was submitted 29.03.2022; approved after reviewing 29.04.2022; accepted for publication 25.05.2022.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *