Искусственный интеллект как объект гражданского права
Перейти к содержимому

Искусственный интеллект как объект гражданского права

  • автор:

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ КАК УЧАСТНИК ГРАЖДАНСКИХ ОТНОШЕНИЙ: ТРАНСФОРМАЦИЯ ПРАВА Текст научной статьи по специальности «Право»

Проанализированы сложившиеся подходы к пониманию правовой природы и правового статуса искусственного интеллекта как в отечественной, так и в зарубежной доктрине. Выявлены наиболее значимые позиции правоведов в данной сфере, а также спорные проблемы. Намечены возможные подходы к регулированию гражданских отношений с участием разных форм искусственного интеллекта .

Похожие темы научных работ по праву , автор научной работы — Вавилин Евгений Валерьевич

ARTIFICIAL INTELLIGENCE AS A PARTICIPANT IN CIVIL RELATIONS: THE TRANSFORMATION OF LAW

Artificial Intelligence (hereinafter referred to as AI) carriers are active participants in civil relations. Therefore, questions of legal nature of AI units, their ability to possess rights and bear responsibilities, exercise rights and perform responsibilities, questions of liability limits for improper exercise of rights and performance of responsibilities by AI units are most relevant. For law, the defining characteristic of any participant in civil relations is its role in the exercise of rights and the performance of duties. The digital actor must also be viewed from this perspective. One of the central debates in this area is the possibility of conferring legal capacity on digital actors. This position has found supporters and opponents both in domestic science and abroad. At the same time it is necessary to take into account the specifics of will, consciousness and other anthropomorphic qualities of AI carriers. Complex neural networks have similar anthropomorphic qualities, the nature of which is a digital algorithm. AI is capable of expressing its will in accordance with the interest, goals and motives set by software algorithms, i.e. it is technological in nature. Obviously, an AI must be endowed with legal capacity and be responsible for its actions, otherwise we cannot use the full potential of an AI as a technology (person), and the actions of such a participant in legal relations cannot be recognised as legally significant. According to its purpose and registration an AI medium can be endowed with different legal personality: to be an agent — a subject with a narrow special legal capacity within certain functions, to participate in civil relations as a full subject, or to act as an object of legal relations at all. This legal capacity is conditioned by the robot having a certain set of qualities, such as the level of self-awareness, autonomy, complexity of neural networks, and competences. It is necessary to create a classification of AI forms by legal personality, by competences, which are certified through state registration. Legal statuses of different types of AI should be defined, including a new specific legal status of limited digital legal capacity. It is necessary to consider the legal personality of AI in relation to its exercise of rights, principles of law and legal content. It is necessary to create for AI varieties a certain mechanism of responsibility conditioned by the legal status assigned to it at the state registration. With respect to AI carriers the nature of law execution changes — subjective expression of will disappears, the execution becomes objective, unbiased. AI software must incorporate a system of principles for the exercise of rights and the performance of duties. In this way, the AI will be certified to a specific scope of powers, be competence-oriented and have a specific legal capacity.

Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ КАК УЧАСТНИК ГРАЖДАНСКИХ ОТНОШЕНИЙ: ТРАНСФОРМАЦИЯ ПРАВА»

ПРОБЛЕМЫ ЧАСТНОГО ПРАВА

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ КАК УЧАСТНИК ГРАЖДАНСКИХ ОТНОШЕНИЙ: ТРАНСФОРМАЦИЯ ПРАВА1

Проанализированы сложившиеся подходы к пониманию правовой природы и правового статуса искусственного интеллекта как в отечественной, так и в зарубежной доктрине. Выявлены наиболее значимые позиции правоведов в данной сфере, а также спорные проблемы. Намечены возможные подходы к регулированию гражданских отношений с участием разных форм искусственного интеллекта.

Ключевые слова: искусственный интеллект; осуществление прав; исполнение обязанностей

Национальная стратегия развития искусственного интеллекта на период до 2030 года [1], определяя приоритетные направления развития и использования технологий искусственного интеллекта (далее — ИИ) в социальной и экономической сферах, указывает в качестве отдельных путей оптимизации указанных отраслей автоматизацию рутинных (повторяющихся) производственных операций, использование автономного интеллектуального оборудования и робототехнических комплексов, интеллектуальных систем управления логистикой.

Таким образом, повсеместное внедрение 1Т-технологий, в том числе и в экономические, хозяйственные отношения, является стратегической задачей.

Следует обратить внимание на тот факт, что разнообразные носители искусственного интеллекта в той или иной мере уже выполняют определенные операции, юридически значимые действия (в большей или меньшей степени автономно): с помощью голосовых сообщений боты информируют потребителей услуг, способны поддерживать простейшие диалоги, в финансовой сфере они проводят некоторые простейшие операции, транзакции, в разных сферах постепенно внедряются беспилотные транспортные средства.

1 Исследование выполнено в рамках государственного задания № 075-00998-21-00 от 22.12.2020 г. Номер темы: FSMW-2020-0030 «Трансформация российского права в условиях больших вызовов: теоретико-прикладные основы».

Необходимо признать: искусственный интеллект на сегодняшний день является активным участником гражданского оборота, следовательно, остро стоит проблема правовой регламентации отношений с его участием. Поэтому безотлагательными являются такие ключевые вопросы, как правовая природа различных форм ИИ, их способность (или неспособность) обладать правами и нести обязанности, особенности осуществления прав и исполнения обязанностей с их участием, вопросы границ ответственности за ненадлежащую реализацию прав и исполнение обязанностей с участием юнитов ИИ.

В этой связи в науке о праве активно дискутируется несколько направлений.

Важной проблемой, требующей неспешного рассмотрения, является проблема дефиниций понятия «искусственный интеллект». Пока можно констатировать, что многочисленные попытки исчерпывающе и универсально определить указанное понятие, отражают отдельные, свойственные не всем видам цифровых, электронных, программируемых устройств, характеристики, а иногда грешат описательностью и узкоспециальным подходом [2. С. 46-91].

Данное понятие используется правоведами очень собирательно и подчас включает в себя разнообразные и разнородные явления, объединенные тем не менее единой сферой бытования — цифровой средой.

В рамках дискуссии о признаках ИИ, позволяющих рассматривать его юниты как участников гражданско-правовых отношений, можно утверждать, что наиболее релевантной характеристикой любого цифрового участника гражданских отношений необходимо признать его роль в осуществлении прав и исполнении обязанностей.

При этом наиболее важна степень самостоятельности юнитов, поскольку разные формы ИИ наделены этим признаком в разной степени.

Убедительными являются аргументы в пользу того, что робототехнику, выполняющую простейшие вспомогательные, рутинные производственные операции и работающую по строго заданным алгоритмам, а также лишенную функции принимать самостоятельные решения, необходимо рассматривать как объект в праве. Вместе с тем необходимо учитывать, что роботы, наделенные когнитивными способностями, способностью взаимодействовать со средой и вносить в нее изменения, т.е. обладающие высокой степенью автономности, уже не являются исключительно инструментом, а значит, не могут признаваться объектом права.

Предложения специалистов по поводу наделения цифрового актанта способностью обладать правами и нести обязанности вызывают наиболее острые дискуссии.

Сторонники наделения ИИ правоспособностью оперируют следующими аргументами.

Не одно столетие существует и оправдывает себя в качестве субъекта права фикция — юридическое лицо. Юниты ИИ по аналогии предлагается наделить статусом специфических субъектов права [3; 4. С. 96], учитывая способность отдельных разновидностей обладать когнитивными способно-

стями, реагировать на изменения окружающей действительности и действовать на основе полученных ими самими аналитических данных [5. С. 358]. Противники наделения ИИ правосубъектностью усматривают в этом покушение на антропоцентризм [6].

Однако, как правило, в отношении ИИ специалисты не ведут речь о самоценности цифровых актантов. Цель правовой регламентации отношений в указанной сфере — упорядочить их и создать возможности безопасного и полезного использования достижений 1Т-технологий во благо человечеству. Поэтому идея создания нового субъекта права — электронного лица -нашла достаточно активную поддержку среди правоведов [2, 7, 8].

Наиболее часто сомнения исследователей, связанные с наделением форм ИИ правосубъектностью, обусловлены такой характеристикой, как антропоморфизм, т. е. перенесение на программируемые системы психических свойств, присущих человеку [9].

В качестве основного аргумента невозможности наделения правосубъектностью ИИ противники выдвигают отсутствие у него воли [10]. Между тем из всех известных гражданскому праву субъектов — физического лица, юридического лица, публично-правовых образований — волей в собственно биологическом, психологическом смысле обладает исключительно физическое лицо. По отношению ко всем остальным субъектам понятие воли применяется в специальном условном смысле, подразумевая коллективное волеизъявление или иную демонстрацию намерений.

Правоспособностью, подразумевающей, по справедливому замечанию Л.А. Чеговадзе, «индивидуальные потребности субъекта, определяющие основные компоненты социально-психологической регуляции его поведения: интерес, цели, мотивы, волю, социально-правовые установки» [11. С. 115], может быть наделен и ИИ, учитывая, что его волеизъявление проявляется в соответствии с интересом, целями и мотивами, социально-правовыми установками, заданными программными алгоритмами, т. е. имеет технологический характер.

Необходимо понимать, что само существо волеизъявления по отношению к цифровому интеллекту другое, как и в случае, скажем, с юридическим лицом. Здесь следует развести два принципиально разных понятия, имеющих различное значение для права, — волю и волеизъявление.

ИИ также способен на волеизъявление, которое повлечет определенные юридические последствия: в частности, в финансовой сфере боты, совершающие транзакции, проявляют волеизъявление, имеющее совершенно конкретные правовые последствия. То есть для права важно проявление воли вовне, а не внутренние психологические процессы [12. С. 17; 13].

В качестве еще одного аргумента в пользу признания объективированного волеизъявления ИИ служит и следующий довод: волеизъявление в его субъективном проявлении может порождать ряд негативных явлений -злоупотребление правом, шикану. Волеизъявление ИИ формируется объективно через заданные алгоритмы и в этом смысле более непредвзято, поскольку запрограммировано на достижение конкретных законных ре-

зультатов. Если ИИ действует с противоправной целью, ответственность в первую очередь должна лежать на разработчиках программного обеспечения и владельцах устройства.

Если ИИ сертифицирован и прошел государственную регистрацию, то его волеизъявление прогнозируемо и одобрено государственными органами. Таким образом, будет обеспечена безопасность его деятельности, подтверждены частная и общественная польза и легитимность. В этом случае вред, причиненный действиями ИИ, должен возмещаться из государственной казны, по аналогии с вредом, причиненными действиями (бездействием) государственных органов.

Именно в контексте проблем наделения ИИ способностью к волеизъявлению минимизируется субъективизм в реализации прав и исполнении обязанностей.

Следующее обстоятельство, которое, по мнению некоторых исследователей, препятствует наделению ИИ правоспособностью, заключается в том, что, в отличие от субъектов права в классическом понимании, у ИИ отсутствует осознанность. Но, с другой стороны, это сближает его с субъектами -носителями неполной или ограниченной дееспособности. Вспомним известный пример наделения правами и обязанностями лиц с ущербным сознанием или вовсе без такового — несовершеннолетних, душевнобольных [14. С. 120-122], юридических лиц — в противовес аргументу о том, что ИИ не наделен сознанием [15].

Кроме того, уже сейчас умные роботы могут в разной степени «осознавать» и оценивать свои действия. Таким образом, правовой статус ИИ будет зависеть от понимания специфики его самосознания (либо отсутствия такового). Доводы о том, что ИИ не может быть субъектом, поскольку лишен способности осознавать и оценивать свои действия, опровергнуты действительностью: сложные нейронные сети уже способны самоидентифицироваться, наделены отдельными свойствами самосознания.

ИИ не может и не должен обладать антропоморфизмом во всей смысловой полноте этого понятия, поскольку продуктам цифровых технологий не свойственны определенные, присущие исключительно человеку характеристики. Человек руководствуется не только рациональными, но и ценностными ориентирами, осуществляя ту или иную деятельность, у цифровых субъектов отсутствует такой ценностно ориентированный самоконтроль. Безусловно, неприменимы по отношению к ИИ такие эмоционально -оценочные гуманистические качества, как чувства долга, привязанности и ряд им подобных. Вместе с тем это обстоятельство не означает, что деяния ИИ не должны оцениваться с позиций этики.

Служебная функция носителей ИИ и подконтрольность не снимают возможности их самостоятельных, юридически значимых действий. Проблема заключается не в том, как относиться к юниту, а в том, как рационально и безопасно организовать его деятельность. Эта идея выражена в перечне поручений Правительству РФ, утвержденных Президентом по итогам конференции по искусственному интеллекту 31 декабря 2020 г., где

первой обозначена задача принять федеральные законы, предусматривающие «возможность установления в отдельных отраслях экономики и социальной сфере экспериментальных правовых режимов в целях расширения применения технологий искусственного интеллекта».

Теоретическая мысль уже приходила к необходимости выработки критериев, в соответствии с которыми отдельные разновидности ИИ могут наделяться правами и обязанностями, а также деликтоспосбностью, поскольку это проблема, вызванная к жизни необходимостью оценивать юридически значимые действия ИИ.

В частности, в 2016 г. была предпринята попытка предложить соответствующие изменения в гражданское законодательство, дополнив Гражданский кодекс РФ главой о роботах-агентах [16]. Эта попытка не лишена рационального зерна в части способности электронных агентов иметь права и обязанности, нести гражданско-правовую ответственность. Однако во многом механическое переложение главы о юридических лицах не отразило всей специфики принципиально иной природы цифровых субъектов и отношений в сфере использования ИИ.

Пока отечественная доктрина не выработала универсального подхода к природе явлений, обозначенных собирательным термином ИИ. Следует ли наделять таких участников гражданских отношений статусом объекта права, использовать применительно к ним нормы об ограниченной дееспособности или делегировать им статус субъектов — необходимо признать все еще открытыми вопросами.

Вместе с тем достаточно убедительно звучат доводы в пользу как гражданско-правовой, так и уголовной ответственности за результаты деятельности ИИ владельцев, создателей ИИ и разработчиков программного обеспечения для него.

Так, Резолюция Европейского парламента от 16 февраля 2017 г. с рекомендациями Комиссии по правилам гражданского права в области робототехники (2015/2103(ЖЬ); далее — Резолюция) указывает на то, что в вопросах использования ИИ центральными становятся проблемы ответственности лиц, связанных с процессами разработки и коммерческого использования устройств с ИИ (Введение, п. М) [17].

На наш взгляд, степень автономности и самостоятельности должна определяться объективными критериями — наличием тех или иных компетенций. Критерии этих компетенций могут быть выработаны совместными усилиями специалистов в области информационных технологий и правоведами и закреплены нормативно. При этом следует учитывать сложность прогнозирования и верификации результатов действия систем ИИ и предусмотреть способы такой верификации.

Например, в Резолюции содержится предложение о создании так называемых «черных ящиков» для утилитов, фиксирующих оперативную деятельность нейросети. По мнению авторов Резолюции, это позволит проследить алгоритм принятия решений ИИ и приблизиться к пониманию деликтоспо-собности его утилитов.

В мировой практике существует несколько подходов к пониманию правового статуса и деликтоспособности ИИ: ИИ и робототехника как объекты, ИИ как юридическое лицо, ИИ как физическое лицо, ИИ как электронный субъект права [18].

Согласно действующим в ЕС правилам, ответственность за вред, причиненный действиями (бездействием) роботов третьим лицам, находится в причинно-следственной связи с действиями (бездействием) производителей, разработчиков, операторов, владельцев или пользователей, если они могли предвидеть и избежать действий роботов, в результате которых причинен ущерб, вред [17]. В Резолюции указывается на пробельность норм в случаях, когда ущерб причинен по причине самостоятельно принятых ИИ решений. В документе ставится вопрос о том, насколько автономные роботы вписываются в систему существующих правовых категорий и не следует ли рассматривать их как принципиально новую категорию права (п. AC).

В отечественных исследованиях в узкоспециальных смыслах вопросам ответственности носителей ИИ периодически уделяется внимание. Так, было предложено признать беспилотные транспортные средства источником повышенной опасности, а ответственность за вред, причиненный ими, возложить на лицо, их программировавшее, или лицо, ответственное за их использование [19].

Исследователями предложено несколько моделей ответственности за действия (бездействие) юнитов ИИ. В зависимости от степени самостоятельности волеизъявления ИИ, ответственность за его действия (бездействие) могут нести как непосредственно правонарушитель, так и изготовитель (программист), сам ИИ, а также владелец или пользователь ИИ [2. С. 251-252].

Действительно, в отношении деликтоспособности ИИ должен применяться принцип гибкого правового регулирования, о котором отчетливо сказано в Национальной стратегии развития искусственного интеллекта на период до 2023 года (п. 51) [1]. Подобный дифференцированный подход к цифровым технологиям видится наиболее продуктивным и справедливым по следующим соображениям. Деликтоспособность ИИ должна определяться в соответствии с правовым статусом робота (объект или субъект, компетенции ИИ), отраслевой принадлежностью отношений, уровнем автономности ИИ (уровнем организации нейросетей).

В настоящее время используется четыре основных вида ИИ. К наиболее простым относят реактивные машины, которые не имеют памяти и запрограммированы на выполнение отдельных конкретных задач, они лишены памяти и не способны использовать собственный опыт.

Второй разновидностью являются системы с ограниченной памятью, основанной на прошлом опыте, который вместе с тем не сохраняется и не входит в библиотеку информации ИИ.

ИИ третьего типа (теория разума) уже способен распознавать человеческие эмоции и намерения, обладает социальным интеллектом и способен участвовать в командной работе.

Наконец, системы ИИ, обладающие самосознанием, способны сформировать представление о себе, что почти полностью имитирует человеческий мозг [20].

Это самый общий посыл для разграничения правовых статусов разных видов ИИ. И если первые два типа с большой долей уверенности можно отнести к категории объектов права, то более совершенные виды ИИ могут быть дифференцированно отнесены к субъектам права.

Задача правоведов на данном этапе — выработать критерии для определения правового статуса разных видов ИИ.

Именно в связи с появлением новых участников гражданских отношений — различных форм ИИ — в настоящее время происходит коренное переустройство самой системы права, начиная с его субъектно-объектного состава вплоть до пересмотра базовых категорий правоспособности, делик-тоспособности, принципов осуществления прав и исполнения обязанностей.

В определении границ возможного, дозволенного и должного, ответственности по отношению к наиболее автономным и развитым формам ИИ особую значимость приобретают принципы осуществления прав и исполнения обязанностей. Данные начала должны быть заложены в алгоритмы программного обеспечения ИИ. Поэтому особое внимание должно уделяться оценке качества программного обеспечения ИИ.

При этом, как и в отношении других участников гражданских отношений, эти установления должны содержать императивы двух уровней. Первый из них — комплекс целеполагающих начал, концентрирующих в себе представления о нормальном, долженствующем развитии гражданско-правовых отношений, выраженных в форме идей, освоенных доктриной и функционирующих в процессе законотворчества. Эти принципы осуществления представляют собой концентрированные подходы к правореа-лизации и правоприменению. В данной группе начал выражены ценностные, гуманистические, социальные приоритеты, на которых должен быть основан механизм осуществления прав и исполнения обязанностей ИИ. К таковым относятся принцип гарантированного осуществления прав и исполнения обязанностей, принцип сочетания частных (личных) и общественных интересов, принцип эффективности.

Второй уровень принципов осуществления — принципы-методы, определяющие выбор способов и средств осуществления прав и исполнения обязанностей. В группе принципов-методов отражаются приемы и способы, пути достижения этих целей. Принципы-методы в механизме осуществления гражданских прав и исполнения обязанностей выполняют специфичные функции: часть из них направлена непосредственно на формирование определенного типа поведения субъектов правоотношений и связана с волеизъявлением участников правоотношений (например, принцип беспрепятственного осуществления прав, принцип диспозитивности, недопустимость злоупотребления правом), остальные — на формирование объективных условий, не зависящих от воли правообладателя (принципы сохранения прав в случае отказа граждан и юридических лиц от этих прав, равенства

участников гражданских правоотношений, соразмерности гражданских прав и обязанностей).

Таким образом, принципы-методы формируют конкретные субъектно-объектные связи в пределах каждой стадии действия механизма осуществления прав и исполнения обязанностей.

Следует признать изменение состава и содержания принципов осуществления прав в цифровых взаимодействиях. Так, применительно к ИИ теряет свою актуальность принцип добросовестного осуществления прав и исполнения обязанностей. Это связано с тем, что само правосодержание применительно к цифровому агенту другое. При осуществлении прав и исполнении обязанностей субъектами — носителями ИИ отсутствует элемент субъективности, так как юнит действует по заданному алгоритму, следовательно, личное волеизъявление отсутствует.

С другой стороны, актуализируется вопрос о корректном понимании равенства участников гражданских правоотношений с участием ИИ.

В уже упомянутой Резолюции этой проблеме посвящена часть «Этические принципы», в которой, в частности, говорится о том, что вся система руководящих принципов в сфере использования ИИ должна базироваться на правилах «делай благо» и «не навреди».

Подводя некоторые итоги, можно отметить, что ИИ становится участником гражданских отношений, которые требуют соответствующего правового регулирования. Для права определяющей характеристикой любого цифрового участника гражданских отношений является его роль в осуществлении прав и исполнении обязанностей.

Очевидно, что ИИ должен быть наделен правоспособностью и нести ответственность за свои деяния, иначе мы не сможем использовать в полной мере весь потенциал ИИ как технологии (лица), позволяющий реали-зовывать определенные компетенции, поскольку действия такого участника правоотношений не могут быть признаны юридически значимыми, будь то торговля, транспортные отношения, медицина, образование, сфера услуг (в том числе государственные), государственное управление, реализация правосудия, коммуникации, различная операторская деятельность.

В соответствии со своим предназначением и регистрацией ИИ может наделяться (или не наделяться) разной правосубъектностью: быть объектом правоотношений, быть агентом — субъектом с узкоспециальной правоспособностью в рамках определенных функций, участвовать в гражданских отношениях как полноправный субъект.

Но правоспособность эта специфическая, обусловленная наличием у робота определенного набора качеств, таких как уровень самосознания, автономность, сложность нейросетей и компетенций.

Необходимо создать классификацию форм ИИ по правосубъектности, по компетенциям, которые сертифицированы посредством государственной регистрации. Например, юнит-судья, помощник судьи должны иметь круг определенных компетенций, в соответствии с которыми определяется граница ответственности за их действия (бездействие). Соответственно, долж-

ны быть определены правовые статусы разных типов ИИ, включая новый специфичный правовой статус ограниченной цифровой правоспособности.

Необходимо рассматривать правосубъектность ИИ в связи с его право-осуществлением, принципами права, правосодержанием.

Требуется создать для разновидностей ИИ определенный механизм ответственности, обусловленный правовым статусом, присвоенным ему при государственной регистрации.

Если ИИ осуществляет функции государственных органов или ответственного лица, то ответственность за его действия (бездействие) должна быть возложена на государство, субъекта государства или муниципальное образование. Если ИИ действует в интересах физического лица — ответственным за деяния ИИ должен признаваться бенефициар. Не исключена в ряде случаев необходимость признавать самостоятельную ответственность ИИ за свои деяния.

Таким образом, применительно к носителям ИИ меняется природа осуществления права — уходит субъективное волеизъявление, осуществление становится объективным, непредвзятым.

При осуществлении прав ИИ отпадает необходимость в толковании права.

В программном обеспечении ИИ должна быть заложена выверенная система принципов осуществления прав и исполнения обязанностей. Тогда ИИ будет сертифицирован на определенный объем правомочий, ориентирован на конкретные компетенции и наделен специфичной деликтоспособностью.

1. Национальная стратегия развития искусственного интеллекта на период до 2030 года : утв. Указом Президента Российской Федерации от 10.10.2019 № 490. URL: http://static.kremlin.ru/media/events/files/ru/AH4x6HgKWANwV1MOfPDhcbRpvd1HCCsv.pdf

2. Морхат П.М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы : дис. . д-ра юрид. наук. М., 2018. 257 с.

3. Морхат П.М. Юнит искусственного интеллекта как электронное лицо // Вестник Московского государственного областного университета. Сер. Юриспруденция. 2018. № 2. С. 62-63.

4. Понкин И.В. Искусственный интеллект с точки зрения права // Вестник РУДН. Сер. Юридические науки. 2018. Т. 22, № 1. С. 91-109.

5. Ужов Ф.В. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. 2017. № 3. С. 357-360.

6. Спицин И.Н., Тарасов И.Н. использование искусственного интеллекта при отправлении правосудия: теоретические аспекты правовой регламентации (постановка проблемы) // Актуальные вопросы российского права. 2020. Т. 15, № 8. С. 96-107.

7. Архипов В.В., Наумов В.Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности // Закон. 2017. № 5. С. 157-170.

8. Ирискина Е.Н., Беляков К.О. Правовые аспекты гражданско-правовой ответственности за причинение вреда действиями робота как квазисубъекта гражданско-правовых отношений // Гуманитарная информатика. 2016. Вып. 10. С. 63-72.

9. Толковый словарь русского языка / С.Ю. Ожегов, Н.Ю. Шведова. М. : Азъ, 1994. URL: http://slovar-ozhegova.biz/chto-oznachaet-slovo-antropologiya

10. Дурнева П.Н. Искусственный интеллект: анализ с точки зрения классической теории правосубъектности // Гражданское право. 2019. № 5. С. 30-33.

11. Чеговадзе Л.А. Структура и состояние гражданского правоотношения. М. : Статут, 2004. 539 с.

12. Рыженков А.Я. Действие своей волей и в своем интересе как принцип гражданского законодательства // Юрист. 2014. № 16. С. 16-21.

13. Архипов В.В., Наумов В.Б. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике // Труды СПИИРАН. 2017. Вып. 55. С. 46-62.

14. Покровский И.А. Основные проблемы гражданского права. Петроград : Право, 1917. 349 с.

15. Афанасьев С.Ф. К вопросу о законодательном регулировании искусственного интеллекта// Российская юстиция. 2020. № 7. С. 46-49.

16. О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники. URL: https://www.dentons.com/ru/insights/alerts/2017/january/27/dentons-develops-first-robotics-draft-law-in-russia

17. Резолюция Европейского парламента от 16.02.2017 года с рекомендациями Комиссии по правилам гражданского права в области робототехники (2015/2103(INL). URL: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.html

18. Ручкина Г.Ф. Искусственный интеллект, роботы и объекты робототехники: к вопросу о теории правового регулирования в Российской Федерации // Банковское право. 2020. № 1. С. 7-18.

19. Антонов А.А. Искусственный интеллект как источник повышенной опасности // Юрист. 2020. № 7. С. 69-74.

20. Технологии искусственного интеллекта и машинного обучения. URL: https://hsbi. hse.ru/artides/tekhnologii-iskusstvennogo-inteUekta-i-mashinnogo-obucheniya/#:

:text=Вид^I% 20и%20технологии%20искусственного%20интеллекта.,и%20решающие%20только%20 определенные%20задачи

Vavilin Evgeniy V., Moscow State Law University named after O.E. Kutafin (MSLA) (Moscow, Russian Federation)

ARTIFICIAL INTELLIGENCE AS A PARTICIPANT IN CIVIL RELATIONS: THE TRANSFORMATION OF LAW

Keywords: artificial intelligence, exercise of rights, performance of duties. DOI: 10.17223/22253513/42/11

Artificial Intelligence (hereinafter referred to as AI) carriers are active participants in civil relations. Therefore, questions of legal nature of AI units, their ability to possess rights and bear responsibilities, exercise rights and perform responsibilities, questions of liability limits for improper exercise of rights and performance of responsibilities by AI units are most relevant.

For law, the defining characteristic of any participant in civil relations is its role in the exercise of rights and the performance of duties. The digital actor must also be viewed from this perspective.

One of the central debates in this area is the possibility of conferring legal capacity on digital actors. This position has found supporters and opponents both in domestic science and abroad.

At the same time it is necessary to take into account the specifics of will, consciousness and other anthropomorphic qualities of AI carriers.

Complex neural networks have similar anthropomorphic qualities, the nature of which is a digital algorithm. AI is capable of expressing its will in accordance with the interest, goals and motives set by software algorithms, i.e. it is technological in nature.

Obviously, an AI must be endowed with legal capacity and be responsible for its actions, otherwise we cannot use the full potential of an AI as a technology (person), and the actions of such a participant in legal relations cannot be recognised as legally significant.

According to its purpose and registration an AI medium can be endowed with different legal personality: to be an agent — a subject with a narrow special legal capacity within certain functions, to participate in civil relations as a full subject, or to act as an object of legal relations at all.

This legal capacity is conditioned by the robot having a certain set of qualities, such as the level of self-awareness, autonomy, complexity of neural networks, and competences.

It is necessary to create a classification of AI forms by legal personality, by competences, which are certified through state registration. Legal statuses of different types of AI should be defined, including a new specific legal status of limited digital legal capacity.

It is necessary to consider the legal personality of AI in relation to its exercise of rights, principles of law and legal content.

It is necessary to create for AI varieties a certain mechanism of responsibility conditioned by the legal status assigned to it at the state registration.

With respect to AI carriers the nature of law execution changes — subjective expression of will disappears, the execution becomes objective, unbiased.

AI software must incorporate a system of principles for the exercise of rights and the performance of duties. In this way, the AI will be certified to a specific scope of powers, be competence-oriented and have a specific legal capacity.

1. Russian Federation. (2019) Natsional'naya strategiya razvitiya iskusstvennogo intellekta na period do 2030 goda: utv. Ukazom Prezidenta Rossiyskoy Federatsii ot 10.10.2019 № 490 [National strategy for the development of artificial intelligence up to 2030: approved. Decree No. 490 of the President of the Russian Federation dated October 10, 2019]. [Online] Available from: http://static.kremlin.ru/media/events/files/ru/AH4x6HgKWANwVtMOfPDhcbRpvd1H CCsv.pdf

2. Morkhat, P.M. (2018) Pravosub"ektnost' iskusstvennogo intellekta v sfere prava intel-lektual'noy sobstvennosti: grazhdansko-pravovye problemy [Legal personality of artificial intelligence in the field of intellectual property law: civil law problems]. Law Dr. Diss. Moscow.

3. Morkhat, P.M. (2018) Artificial intelligence unit as electronic personality. Vestnik Moskovskogo gosudarstvennogo oblastnogo universiteta. Ser. Yurisprudentsiya. 2. pp. 62-63. (In Russian).

4. Ponkin, I.V. (2018) Iskusstvennyy intellekt s tochki zreniya prava [Artificial intelligence from the law point of view]. VestnikRUDN. Ser. Yuridicheskie nauki. 22(1). pp. 91-109.

5. Uzhov, F.V. (2017) Legal personality of artificial intelligence. Probely v rossiyskom zakonodatel'stve — Gaps in Russian Legislation. 3. pp. 357-360. (In Russian).

6. Spitsin, I.N. & Tarasov, I.N. (2020) Artificial intelligence in the administration of justice: theoretical aspects of the legal regulation (articulation of the issue). Aktual'nye voprosy rossiyskogo prava — Actual Problems of Russian Law. 15(8). pp. 96-107. (In Russian). DOI: 10.17803/1994-1471.2020.117.8.096-107

7. Arkhipov, V.V. & Naumov, V.B. (2017) O nekotorykh voprosakh teoreticheskikh osnovaniy razvitiya zakonodatel'stva o robototekhnike: aspekty voli i pravosub"ektnosti [On some issues of theoretical foundations for the development of legislation on robotics: aspects of will and legal personality]. Zakon. 5. pp. 157-170.

8. Iriskina, E.N. & Belyakov, K.O. (2016) Legal aspect of civil liability for damages in tort as a result of quasi party robot performance. Gumanitarnaya informatika — Humanitarian Informatics. 10. pp. 63-72. (In Russian). DOI: 10.17223/23046082/10/7

9. Ozhegov, S.Yu. & Shvedova, N.Yu. (1994) Tolkovyy slovar' russkogo yazyka [The Explanatory Dictionary of the Russian Language]. Moscow: Az". [Online] Available from: http://slovar-ozhegova.biz/chto-oznachaet-slovo-antropologiya

10. Durneva, P.N. (2019) Artificial Intelligence: An Analysis from the Standpoint of the Classical Legal Capacity Theory. Grazhdanskoe pravo — Civil Law. 5. pp. 30-33. (In Russian).

11. Chegovadze, L.A. (2004) Struktura i sostoyanie grazhdanskogo pravootnosheniya [Structure and State of Civil Relations]. Moscow: Statut.

12. Ryzhenkov, A.Ya. (2014) Deystvie svoey voley i v svoem interese kak printsip grazhdanskogo zakonodatel'stva [Action by one's own will and in one's own interest as a principle of civil legislation]. Yurist. 16. pp. 16-21.

13. Arkhipov, V.V. & Naumov, V.B. (2017) Iskusstvennyy intellekt i avtonomnye ustroystva v kontekste prava: o razrabotke pervogo v Rossii zakona o robototekhnike [Artificial intelligence and autonomous devices in the context of law: on the development of the first Russian law on robotics]. Trudy SPIIRAN- SPIIRASProceedings. 55. pp. 46-62.

14. Pokrovskiy, I.A. (1917) Osnovnye problemy grazhdanskogo prava [The main Problems of Civil Law]. Petrograd: Pravo.

15. Afanasiev, S.F. (2020) On the issue of legislative regulation of Artificial Intelligence. Rossiyskayayustitsiya — Russian Justitia. 7. pp. 46-49. (In Russian).

16. Russian Federation. (2017) O vnesenii izmeneniy v Grazhdanskiy kodeks Rossiyskoy Federatsii v chasti sovershenstvovaniya pravovogo regulirovaniya otnosheniy v oblasti robototekhniki [On introducing amendments to the Civil Code of the Russian Federation in terms of improving the legal regulation of relations in the field of robotics]. [Online] Available from: https://www.dentons.com/ru/insights/alerts/2017/january/27/dentons-develops-first-robotics-draft-law-in-russia

17. European Union. (2017) Rezolyutsiya Evropeyskogo parlamenta ot 16.02.2017 goda s rekomendatsiyami Komissii po pravilam grazhdanskogo prava v oblasti robototekhniki (2015/2103(INL) [Resolution of the European Parliament of February 16, 2017, with the recommendations of the Commission on civil law rules in the field of robotics (2015/2103(INL)]. [Online] Available from: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.html

18. Ruchkina, G.F. (2020) Artificial intelligence, robots and objects of robotics: on the legal regulation theory in the russian federation. Bankovskoe pravo — Banking Law. 1. pp. 7-18. (In Russian).

19. Antonov, A.A. (2020) Artificial intelligence as a source of increased danger. Yurist. 7. pp. 69-74. (In Russian). DOI: 10.18572/1812-3929-2020-7-69-74

20. HSBI. (n.d.) Tekhnologii iskusstvennogo intellekta i mashinnogo obucheniya [Technologies of artificial intelligence and machine learning]. [Online] Available from: https://hsbi. hse.ru/articles/tekhnologii-iskusstvennogo-intellekta-i-mashinnogo-obucheniya/#:

:text=Vidy %20i%20tekhnologii%20iskusstvennogo%20intellekta.,i%20reshayushchie%20tol'ko%20opr edelennye%20zadachi

To the matter of the legal essence of artificial intelligence

Аннотация: В статье рассматриваются вопросы, относящиеся к пониманию правовой сути такого явления современной действительности как искусственный интеллект. Проводится анализ позиций об отнесении искусственного интеллекта к категориям «объект» или «субъект» гражданского права.

Abstract: The article deals with issues related to the understanding of the legal essence of the contemporary phenomenon of artificial intelligence. The analysis of positions on the attribution of artificial intelligence to the categories of "object" or "subject" of civil law is carried out.

Ключевые слова: искусственный интеллект, результат интеллектуальной деятельности, объект гражданского права, субъект гражданского права, самостоятельное принятие решений.

Keywords: artificial intelligence, result of intellectual activity, object of civil law, subject of civil law, independent decision-making.

Об актуальности тематики искусственного интеллекта достаточно красноречиво свидетельствуют следующие высказывания.

По мнению израильского историка Юваль Ной Харари, искусственный интеллект представляет собой первую технологию, способную автономно работать, создавать собственные истории и производить уникальный контент, что представляет большую опасность для господства человека на Земле [1] .

Аналогичного мнения придерживается и американский бизнесмен Илон Маск, который вместе с рядом экспертов в области искусственного интеллекта подписал открытое письмо, в нем авторы призвали приостановить разработку искусственного интеллекта хотя бы на полгода для того, чтобы создать твердые правила регулирования разработки и деятельности современных ИИ-технологий, так как последние могут представлять серьезные риски для общества и человечества [2] .

Это лишь отдельные примеры из множества подобных высказываний относительно искусственного интеллекта как феномена современной действительности. И коль скоро существование такого феномена в общественной жизни с его потенциалом существенного влияния на весь социум практически никем не отрицается, справедливо говорить также и о необходимости подбора к этому явлению юридических измерений. В данной работе предложен взгляд на искусственный интеллект с позиции гражданского права.

Известно, что правовое регулирование, в том числе в гражданской сфере, характеризуется одновременно двумя направленностями:

— то, по поводу чего осуществляется регулирование, здесь в результате устанавливается правовой режим объекта, и

— тот (или те), кто способен осознанно воспринимать нормативные предписания и следовать установленным правилам, в результате чего устанавливаются права и обязанности субъектов правоотношений.

Применительно к искусственному интеллекту, исходя даже из названия этого явления, потенциально применим взгляд с обеих направленностей. Характеристика «искусственный» в толковых словарях русского языка в основном определяется как сделанный, созданный руками человека (в отличие от естественного); не природный, сделанный наподобие подлинного [3] . То, что создается человеком и не является естественным, проявляется, очевидно, как объект человеческой деятельности, также и с позиции права — это объект.

Характеристика «интеллект» в толковых словарях русского языка определяется как мыслительная способность, умственное начало у человека [4] . То есть качество интеллекта определяется исключительно к человеку, то есть к субъекту с позиции права.

Поэтому неудивительно, что в среде специалистов-правоведов можно наблюдать дискуссию о квалификации искусственного интеллекта в качестве объекта или в качестве субъекта (как это ни парадоксально) гражданского права.

В нашей стране законодательное регулирование искусственного интеллекта находится на стадии становления, и системное юридическое регламентирование исследуемых общественных отношений пока отсутствует. Так, в 2018 г. Президиум Совета при Президенте РФ по стратегическому развитию и приоритетным проектам утвердил паспорт национальной программы «Цифровая экономика Российской Федерации» [5] , в 2019 г. Президент РФ поручил Правительству РФ разработать национальную стратегию в области искусственного интеллекта [6] . Такая Национальная стратегия развития искусственного интеллекта на период до 2030 года (далее — Национальная стратегия) была утверждена Указом Президента Российской Федерации от 10.10.2019 № 490, в ней закреплено легальное определение понятия «искусственный интеллект».

Согласно Национальной стратегии, искусственный интеллект — это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.

Нельзя сказать, что данная формулировка отображает строгий взгляд на искусственный интеллект как на объект, а не субъект, поскольку описываемое представление о нем не укладывается в полной мере в представление об известных объектах гражданских прав. Больше всего у искусственного интеллекта, в понимании Национальной стратегии, признаков некоего объекта интеллектуальной деятельности, и возможно, интеллектуальной собственности, что все-таки подчеркивает производный (зависимый) от интеллектуальной деятельности именно человека характер искусственного интеллекта и его природу как объекта действительности и права. Однако, свойство поиска решений без заранее заданного алгоритма, способность получения результатов, сопоставимых, как минимум, с результатами интеллектуальной деятельности человека (а может, и превосходящих такие человеческие результаты?), как бы прорисовывают в искусственном интеллекте некий образ суперчеловека. Тодла что может помешать настолько интеллектуальному явлению претендовать в гражданском праве на статус субъекта?

Как известно, дееспособность в качестве ключевого элемента правосубъектности заключается в способности понимать значение собственного поведения и руководить им, то есть в способности действовать осознанно и волево. Очевидно, приведенными выше характеристиками искусственного интеллекта указанные способности покрываются. Несколько уравновешивает ситуацию, пожалуй, выражение об «имитации» искусственным интеллектом когнитивных функций человека, что свидетельствует, вероятно, об отсутствии у искусственного интеллекта, в понимании Национальной стратегии, перспективы стать человеком. Тем не менее, это не снимает актуальности проблемы адекватного определения правовой природы искусственного интеллекта с учетом его фактической сути и перспектив развития вместе с развитием самой современной действительности.

Обратимся к доктрине. Так, например, В.А. Лаптев считает, что искусственный интеллект и связанное с ним законодательство будут развиваться в следующем направлении: первично роботизированный искусственный интеллект выступает как объект права, деятельность искусственного интеллекта предполагает ответственность его изготовителя (лица, управляющего его поведением); со временем приобретая правосубъектность, роботы становятся участниками правоотношений, самостоятельно подлежат юридической ответственности; в итоге безотносительно к материальному миру искусственный интеллект приобретет правосубъектность сугубо в цифровом пространстве [7] .

По мнению Соменкова С.А., искусственный интеллект все активнее входит в самые разные сферы, которые ранее считались доступными только для человека. Применительно к гражданско-правовым отношениям на сегодняшний день несомненно, что системы искусственного интеллекта — это объект таких отношений. Но объект достаточно специфичный. При этом законодательство не содержит каких-либо особенностей правового режима этих объектов и не ограничивает их оборот [8] .

Чеховская С.А. же отмечает, что у такого объекта как искусственный интеллект есть ряд особенностей, связанных с возможностью его автономного функционирования. Поэтому деятельность, связанная с использованием ИИ, нуждается в специальном правовом регулировании. В настоящее время идет научное осмысление и поиск адекватной правовой формы включения систем искусственного интеллекта в гражданский оборот. При этом вполне допускается, что по мере развития цифровых технологий формирование гражданского оборота на их основе может предполагать отказ от традиционного понимания гражданского правоотношения, поскольку его элементы — субъекты права, объекты права и содержание, права и обязанности участников получают специфическое закрепление в информационной системе [9] .

В дискуссии специалистами также отмечается, что законодатель не стал включать в современные нормативные акты понятие искусственного интеллекта как субъекта права, иначе возникли бы сразу две серьезные проблемы. Первая: как применять к искусственному интеллекту меры ответственности, если машина не обладает чувствами и эмоциями и не может в полной мере ощутить на себе тяжесть юридической ответственности? И вторая: как быть с создателями искусственного интеллекта, кем их считать в данном контексте? Ведь субъект не может быть одновременно объектом, иначе в праве воцарился бы полнейший хаос. Соответственно, в настоящее время невозможно урегулировать подобные правоотношения, но в перспективе создание концепции такой системы – дело первостепенное. Таким образом, пока что рассматривать искусственный интеллект в качестве полноценного субъекта права нельзя, но можно и нужно задуматься о частичном наделении его этим статусом [10] .

В качестве своего рода обобщающего мнения можно привести позицию Валиуллина Э.А. [11] , который, называя искусственный интеллект объектом, относит его к результатам творческой и интеллектуальной деятельности, то есть это определенный результат деятельности. В статье 128 ГК РФ термин «искусственный интеллект» специально не закреплен, что говорит о необходимости отнесения данного объекта в системе гражданского права к некому специфическому объекту. Что касается варианта предоставления искусственному интеллекту статуса «субъекта», то это будет зависеть от уровня развития искусственного интеллекта, ведь, если для его функционирования будет необходимо участие человека как субъекта, тогда стоит относить искусственный интеллект к объекту гражданского права. А если работа искусственного интеллекта как некоего устройства не требует никакого вмешательства человека, тогда возникнут основания для отнесения его к субъектам гражданского оборота. Однако, скорее всего можно ожидать, что законодатель примет вызов современности, и на основе компромисса между приведенными аргументами создаст место в правовой системе для искусственного интеллекта как специфичного явления за рамками традиционного представления о субъекте и объекта правоотношений.

От себя резюмируем, что имеющееся текущее представление о фактических характеристиках искусственного интеллекта не позволяет в достаточной мере обоснованно квалифицировать его в качестве субъекта гражданского права и не оставляет иного выбора, нежели как регулировать это явление представлениями об объектах гражданских прав. Между тем, потенциал развития феномена искусственного интеллекта уже в ближайшее время может создать поводы по-иному оценивать его правовую сущность.

[1] См., например, https://ria.ru/20230423/intellekt-1867207531.html

[2] См., например, https://ria.ru/20230418/mask-1865963604.html

[3] См., например, электронный ресурс значения слов в толковых словарях русского языка http://xn—-8sbauh0beb7ai9bh.xn--p1ai/%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9

[4] Там же http://xn—-8sbauh0beb7ai9bh.xn--p1ai/%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82

[5] Паспорт национальной программы «Цифровая экономика Российской Федерации». URL: http://government.ru/info/35568/

[6] В России создается национальная стратегия в области искусственного интеллекта. URL: https://habr.com/ru/post/442024/

[7] Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 99.

[8] Соменков С.А. Искусственный интеллект: от объекта к субъекту? // Вестник Университета имени О.Е. Кутафина (МГЮА). 2019. № 2. С. 13.

[9] Чеховская С.А. К вопросу о правовом статусе систем искусственного интеллекта (Книга Субъект права: стабильность и динамика правового статуса в условиях цифровизации: сборник научных трудов (коллектив авторов; под общ. ред. Д.А. Пашенцева, М.В. Залоило). – «Инфотропик Медиа», 2021 С. 79

[11] Валиуллин, Э.А. Место искусственного интеллекта в гражданском праве / Э.А. Валиуллин // Гражданские правоотношения в цифровой среде: вопросы теории и практики: сб. науч. статей. – Санкт-Петербург,2022. – С. 138

Введение

image

В 21 веке перед человечеством остро встаёт вопрос о внедрении искусственного интеллекта (далее – ИИ) в повседневную жизнь. В данной статье дефиниции «искусственный интеллект» и «робот» специально не разделяются ввиду действительной конвергенции данных понятий. ИИ – это свойство технической или программной системы выполнять функции, которые ранее могли быть выполнены исключительно человеком или иным биологическим существом. И в данном контексте, не говорится о простейшем ИИ типа утюга или микроволновки, речь идёт о куда более сложных алгоритмах. Если сейчас мы смотрим на алгоритмы ИИ как на посредников для достижения наших целей, например, мы используем навигационное приложение «Яндекс. Навигатор» для того, чтобы добраться до дома быстро в обход дорожных пробок, то в дальнейшем, возможно, такие алгоритмы превратятся в наших правителей. Если посмотреть за кулисы приложения «Яндекс. Навигатор», то мы увидим, что тысячи автомобилистов ежеминутно передают данные о состоянии на дорогах. Именно поэтому приложение знает о том, как наиболее рационально проложить дорогу до дома, сохранив наше время. А что, если тысячи, нет, – миллионы людей будут передавать информацию о себе, своих политических предпочтениях, состоянии здоровья и тому подобном в какое-нибудь приложение типа «Управляющий РФ» и этот алгоритм, учитывая статистические данные, будет, например, направлять финансы на поддержу здравоохранения в одном регионе, на развитие образования в другом. В этом случае человеческий вид просто окажется в прямой зависимости от действий ИИ [11]. Это звучит как фантастика, но мы стоим к этому ближе, чем может казаться. Компания Microsoft занимается разработкой и постепенным внедрением приложения «Cortana», которое может стать не просто помощником, но и полноценным представителем человека, например, в ходе ведения переговоров. В этом направлении следуют и другие компании: Apple с «Siri» и Яндекс с «Алиса». Такое развитие технологий порождает множество вопросов. Может ли ИИ признаваться автором произведения науки или искусства? Будет ли ИИ равен в своих правах человеку? А, если ИИ, управляющий автомобилем совершит аварию, в результате чего пассажиры получат травму, возможно ли будет обратиться в суд и требовать возмещения вреда здоровью не с человека, а вы только вдумайтесь с ИИ?! И кто будет нести ответственность: пассажир или ИИ? Попробуем ответить на данные вопросы с учетом мнения учёных, при помощи исследования судебной практики и законодательства ряда государств.

1. Искусственное выражение «я». Может ли ИИ быть признан автором произведения науки или искусства?

В обществе распространено мнение, что ИИ не может превзойти человека, если не во всех, то по крайней мере в одной уж области точно – это искусство и, как ни печально, данное суждение является ошибочным.

Если Deep Blue, который обыграл в шахматы Гарри Каспарова, был достаточно хорошо научен правилам игры своими создателями, то современный ИИ получает от программистов лишь минимальный объем информации, предпочитая самостоятельное машинное обучение. Эти программы изменяют команды и переменные, создавая всё более качественную цепочку кода для достижения поставленной задачи. Так, программа Alpha Go научилась играть в старинную китайскую настольную игру «Го», которая во много раз сложнее, чем шахматы, при этом программа применяла абсолютно новые стратегии, что сильно удивило экспертов. Гораздо больше шокирует ещё и то, что ИИ научился создавать уникальные произведения науки и искусства.

Так, появление в 2016 году программы The Next Rembrandt разрушило представление людей о том, что ИИ не может творить. Данная программа проводит анализ картин Рембрандта и на основе полученных данных создаёт собственные картины, которые невозможно отличить от кисти великого мастера. Довольно интересная информация по поводу работы программы приведена на сайте компании Microsoft: «Результатами 18 месяцев совместной работы специалистов Microsoft, Дельфтского технического университета, Королевской галереи Mauritshuis и дома-музея Рембрандта в Амстердаме стало создание уникальной в своём роде картины, портрета, который с исключительной точностью воссоздаёт творческую манеру Рембрандта» [10]. Имеется ещё один прецедент, связанный с творением, полученным от ИИ. Дэвид Коуп – американский композитор и преподаватель Калифорнийского университета в Санта – Крузе разработал программу Emily Howell, которая способна создавать музыку, имитирующую шедевры Баха, Бетховена, Шопена и других композиторов. Следует отметить, что ряд экспериментов с участием профессиональных музыкантов позволяет утверждать, что созданную ИИ музыку невозможно отличить от произведений великих классиков. Не отстаёт ИИ от человека и в области науки, так, программа Watson собирает данные пациентов и на их основе создаёт персонализированный график лечения. В данном контексте непременно встаёт вопрос: кому принадлежит право авторства на указанные произведения науки и искусства?

Ответ на этот вопрос с точки зрения законодательства ряда государств одинаков. В соответствии с Законом об авторском праве Великобритании, автором считается лицо, использующее какой-либо инструмент для достижения поставленной цели. Американское законодательство базируется на том, что автором произведения науки или искусства может быть человек. Так, в довольно известном деле Feist Publications, Inc. v. Rural Telephone Service Co., Inc. – 499 U.S. 340, 111 S. Ct. 1282 (1991) [9]. Верховный суд США указывает на то, что не может быть объектом авторского права произведение, в котором отсутствует минимальный творческий вклад сознания автора. Вопрос о наличии сознания у ИИ будет подробнее рассмотрен далее, но стоит сразу отметить, что сознанием ИИ не обладает, поэтому получается, что автором может быть только человек. Что касается Российской Федерации, то анализируя пункт 1 статьи 1228 Гражданского кодекса Российской Федерации (далее – ГК РФ) можно сделать вывод, что автором произведения науки или искусства также может быть только физическое лицо. Исходя из буквального толкования статьи 1228 ГК РФ, приходим к выводу о том, что не может быть признано автором произведения науки и искусства лицо, которое разработало программу, создавшую это произведение, поскольку «не признаются авторами результата интеллектуальной деятельности граждане, не внесшие личного творческого вклада в создание такого результата» [2]. По этому поводу приведём высказывание А.А. Семёновой:

Подходит к этой позиции и статья 136 ГК РФ, в которой говорится, что право собственности на плоды, продукцию, доходы принадлежат собственнику вещи. Но здесь, непременно, стоит отметить, что в соответствии с пунктом 3 ст. 1227 ГК РФ к интеллектуальным правам не применяются положения о праве собственности и других вещных правах. Таким образом, вопрос об авторстве находится как бы в «подвешенном» состоянии. Тем не менее, ответ на данный вопрос, возможно, найти в международном праве, а именно в статье 12 Конвенции ООН «Об использовании электронных сообщений в международных договорах» (2005 год) [1]. Суть данной нормы заключается в том, что операции, которые были совершены компьютером, можно рассматривать как действия физических или юридических лиц, от имени которых используется компьютер. Ввиду отсутствия судебной практики эту норму косвенно можно связать непосредственно с действиями ИИ.

Исходя из вышесказанного на вопрос о том, может ли ИИ быть признан автором следует ответить – нет, на данный момент не может. Российское законодательство, к сожалению, не имеет специальных норм, регулирующих деятельность ИИ, поэтому вопрос о том, кого считать автором произведения, созданного ИИ, остаётся открытым.

На данный момент в российском законодательстве имеется очевидный пробел, дающий возможность создание произведения без автора, а значит созданное ИИ произведение будет считаться общественным достоянием. Автор – это физическое лицо, то есть субъект гражданского права, поэтому в данном случае появляется прямая зависимость от того, а следует ли ИИ признать субъектом правоотношений?

2. Физические, юридические и электронные лица

Вопрос о том, какой правовой статус следует распространять на ИИ довольно актуален, и по нему в науке имеется огромное множество точек зрения.

Следует сразу отметить, что на данный момент имеется государство, поданным которого является андроид, обладающий ИИ. Тем самым создан прецедент, благодаря которому можно говорить о том, что на ИИ, как и на человека распространяется правовой статус физического лица. Этим государством является Саудовская Аравия, поданный – София (человекоподобный робот).

На наш взгляд решение Саудовской Аравии является поспешным. Вряд ли рационально распространять правовой статус физического лица, на объект явно не обладающий психоэмоциональными свойствами присущими человеку. Так, интеллект и сознание являются не схожими понятиями.

Сознание присуще всем людям. Под ним понимается совокупность электрохимических реакций в клетках головного мозга, выражающихся в переживании организмом событий внешнего мира и последующей реакции на эти события. Короче говоря, сознание позволяет испытывать людям субъективные ощущения боли, любви, ненависти, счастья. Интеллект – это способность использовать знания для воздействия на окружающую среду. В этой связи, необходимо отметить отсутствие сознания у ИИ, а также отсутствие способности чувствовать и что-либо желать.

Поэтому не является целесообразным уравнивать в правовом статусе человека и ИИ. Ведь в таком случае получается, что мы создаём фикцию: люди и программы будут совершать примерно одинаковые действия, желая достигнуть определённого результата, будут нести одинаковую ответственность за свои действия. Получается, что ИИ наравне с людьми получит и основополагающие права: право на жизнь, право на личную неприкосновенность и т.д. Но не следует ли нам придерживаться презумпции бессознательности ИИ? В виду того, что у ИИ отсутствуют субъективные переживания личности, он будет сильно выделяться на фоне человека, поскольку будет явно превосходить его по многим параметрам. Да и вряд ли ИИ сможет в ближайшем будущем самостоятельно осмыслить фразу «cogito ergo sum».

Представляется, что ИИ должен располагать особым правовым статусом. Так, В.В. Архипов, В.Б. Наумов считают, что к ИИ применима аналогия с юридическими лицами [6]. Действительно, в таком случае ИИ будет иметь все признаки юридического лица, за исключением организационного единства. А.А. Иванов в связи с этим отмечает, что может возникнуть двойственный статус ИИ, поскольку он сможет быть как объектом, так и субъектом гражданского права [8]. С точки зрения этой позиции встаёт ещё вопрос и о праве собственности на вещи: на каком праве ИИ будет обладать вещами? Будет ли это ограниченное вещное право? Ответить на данные вопросы в данный момент не представляется возможным.

Л.И. Сафаргалеев высказывает мнение, что к ИИ применимо правило, используемое ещё в римском праве – servi res sunt (рабы – вещи), по его мнению ИИ не может быть самостоятельным субъектом права, но он может приобретать права и обязанности для своего хозяина [5, С. 407].

Все выше названные позиции имеют право на существование, но, по нашему мнению, они не лишены недостатков, так как неминуемо встаёт вопрос о том, а каков будет правовой статус ИИ после смерти его владельца? Следуя реалиям российского гражданского законодательства получается, что для приобретения права собственности на ИИ нам необходимо будет ждать 5 лет, то есть, по факту, в течении этого срока будет существовать «ИИ-нелегал», который имеет разум, совершает действия, но не приобретает ни для кого прав и обязанностей. Что делать? Конечно, в таком случае мы можем поступать с ИИ как с кошками, собаками и иными животными в Древнем Египте, то есть утилизировать их вместе с хозяевами. Но насколько это рационально?
Верно, на наш взгляд, в своё время отметил Дж. Дьюи:

Интересна для рассмотрения вопроса о правовом статусе ИИ резолюция Европарламента от 16 февраля 2017 года (далее – Резолюция). В Резолюции приводятся рекомендации для Европейской комиссии относительно норм гражданского права о робототехнике (2015/2013(INL)) [3]. В тексте данного документа правовой статус ИИ является специфическим, ИИ становится своеобразным «электронным лицом». В Резолюции особо подчёркивается, что ИИ призван дополнить возможности человека, а не заменить его. Указывается, что ИИ не может своими действиями или бездействиями причинять вред человеку, а также допускать возможность причинения вреда, ИИ должен повиноваться всем приказам человека, то есть фактически закрепляются три закона робототехники, сформулированные писателем – фантастом Айзеком Азимовым в рассказе «Хоровод» ещё в 1942 году. Подход, сформулированный в Резолюции, на наш взгляд, является наиболее целесообразным, и здесь сразу же возникает вопрос об ответственности ИИ.

3. Кто будет нести ответственность?

Представьте себе, что вы едете в автомобиле, управляемом искусственным интеллектом. Транспортное средство находится в вашей собственности и, неожиданно, вы въезжаете в толпу прохожих. Несколько прохожих получили лёгкие повреждения, вы испытали сильный эмоциональный стресс, у машины был повреждён бампер. Кто в данном случае будет возмещать убытки за причинённый вред здоровью, моральный вред, ущерб, нанесённый автомобилю?

В соответствии с российским законодательством возмещать все убытки будет владелец источника повышенной опасности. Но ведь автомобилем управлял ИИ. Не будет ли это считаться непреодолимой силой? Мог ли владелец автомобиля вовремя осознать опасность для окружающих и взять управление на себя? Ввиду отсутствия судебной практики ответить на этот вопрос затруднительно, но ряд государств уже ввели нормы, которые регулируют ответственность в случае возникновения таких казусов. Стоит подробнее остановиться на опыте ФРГ. Так, в Германии в 2017 году был принят «Восьмой закон о внесении изменений в Закон о дорожном движении от 16 июня 2017 года» [4], которым фактически оформилась возможность использовать беспилотный транспорт. В законе устанавливается, что водитель может отвлекаться от происходящего на дороге, но он обязан взять управление на себя, если ИИ предлагает сделать ему это в значительной части или полностью. Также водитель должен взять управление на себя, если он осознает или должен осознавать, что дальнейшее управление автомобилем ИИ невозможно, например, когда водитель видит, что автомобиль под управлением ИИ направляется в толпу пешеходов и т.п. При этом в случае, если имело место причинение вреда человеку или имуществу по вине водителя, то ответственность будет нести он, если вред был причинён из-за технической ошибки, то отвечать будет автопроизводитель. В Германии, на наш взгляд, подход к ответственности является действительно достаточно качественным, поскольку не может и не должен нести ответственность автомобилист, который не смог взять управление автомобилем на себя в результате технической ошибки.

Вопрос об ответственности также поднимается в Резолюции Европарламента от 16 февраля 2017 года [3]. В документе указывается, что ИИ не может нести ответственность сам по себе, поскольку его действия или бездействия зависят от оператора (владельца), то есть ИИ является своеобразным инструментом для достижения конкретной цели. Ввиду вышесказанного устанавливается ответственность не только владельца ИИ, но и производителя, если какой-либо ущерб был причинён из-за технической ошибки. Однако в Резолюции также говорится о том, что, чем выше автономность ИИ, тем меньше он может расцениваться как обычный инструмент. Это вызывает вопрос: может ли ИИ самостоятельно отвечать за свои действия или бездействия? Нет, на данный момент не может, но стоит отметить, что по мере развития технологий юристы непременно вернутся к этому вопросу. Пока что можно лишь предложить варианты ответственности ИИ. Вполне рабочую идею, в этой связи, предложили Г.А. Гаджиев и Е.А. Войниканис [7]. Её суть заключается в том, что ИИ будет нести ответственность за счёт средств, находящихся на счёте непосредственно у ИИ. Реализовать данную идею возможно, если при регистрации какого – любо ИИ его владелец будет вносить определённую сумму, которая в дальнейшем будет аккумулирована в страховом фонде и в случае возникновения страхового случая будет направлена на его удовлетворение. В конце концов, если ИИ будет признан самостоятельным субъектом права, то он сможет трудоустраиваться, иметь свой банковский счёт и самостоятельно отчислять деньги в свой страховой фонд.

Заключение

На данный момент ИИ не может быть признан автором произведения науки или искусства, поскольку такая возможность появится лишь при признании ИИ субъектом правоотношений.

Нормы законодательства ряда государств не признают ИИ в качестве субъекта правоотношений. Однако Саудовская Аравия предоставила гражданство роботу Софии, что говорит о признании за ИИ статуса физического лица. Такой подход кажется преждевременным, поскольку человек и ИИ не совпадают в плане своих психоэмоциональных качеств и свойств. Вполне возможным в то же время представляется говорить о признании за ИИ особого статуса «электронного лица». Это позволило бы не смешивать понятия в праве и никоем образом не нарушало бы прав людей. Вопрос об ответственности ИИ также является неурегулированным. В случае причинения вреда человеку или имуществу ответственность в соответствиях с реалиями законодательства будет нести или владелец источника, причинившего вред, или же его производитель. Представляется, что необходимо обязать возмещать, причинённый вред, ИИ, если у него для этого будут иметься все необходимые возможности и в первую очередь наличие денежных средств.

Вопрос об аккумуляции денежных средств можно решить путем внесения во время регистрации ИИ его владельцем денежных средств в страховой фонд или же в случае, если сам ИИ сможет зарабатывать денежные средства, то воздействовать на него уже известными нам способами, например, путем списания средств с банковского счёта и т.п.

Данная тема имеет огромный исследовательский потенциал. ИИ непременно станет частью будущего человечества, поэтому необходимо всерьёз подходить к вопросам, связанным с его правовым статусом и регулированием отношений с его участием.

Данная статья публиковалась ранее в сборнике. Ссылка на неё будет выглядеть следующим образом: Воробьева И.В., Салахутдинов В.Д. Проблемы правового регулирования искусственного интеллекта // Малышевские чтения – 2020. Наука и образование: будущее и цели устойчивого развития: материалы XVI международной научной конференции, в 4 частях / под ред. А.В. Семенова. – М.: изд. ЧОУВО «МУ им. С.Ю. Витте», 2020. Ч. 4. — C. 62-72

Этические и правовые вопросы искусственного интеллекта

Системы, использующие технологии искусственного интеллекта, становятся всё более автономными в смысле сложности задач, которые они могут выполнять, их потенциального влияния на мир и уменьшающейся способности человека понимать, предсказывать и контролировать их функционирование. Большинство людей недооценивает реальную автономность таких систем. Они могут учиться на собственном опыте и осуществлять действия, которые не были задуманы их создателями. Этим обусловлен ряд этических и правовых затруднений.

Этика и право неразрывно связаны в современном обществе, и многие правовые решения вытекают из восприятия тех или иных этических проблем. Искусственный интеллект добавляет новое измерение в данные вопросы. Системы, использующие технологии искусственного интеллекта, становятся всё более автономными в смысле сложности задач, которые они могут выполнять, их потенциального влияния на мир и уменьшающейся способности человека понимать, предсказывать и контролировать их функционирование. Большинство людей недооценивает реальную автономность таких систем. Они могут учиться на собственном опыте и осуществлять действия, которые не были задуманы их создателями. Этим обусловлен ряд этических и правовых затруднений, которые будут затронуты в данной статье.

Этика и искусственный интеллект

Существует довольно известный эксперимент — проблема вагонетки. Он поднимает ряд важных этических вопросов, имеющих непосредственное отношение к искусственному интеллекту. Представьте, что неуправляемая вагонетка несётся по рельсам, а на ее пути к рельсам привязаны пять человек. Вы стоите возле рычага, с помощью которого можно переключить стрелку, и вагонетка повернёт и поедет по другому пути, где к рельсам привязан один человек. Переключите ли Вы стрелку?

Однозначного ответа на данный вопрос нет. Более того, вариаций ситуации, в которой приходится принимать подобное решение, очень много [1]. К тому же разные социальные группы дают разные ответы. Так, например, буддистские монахи преимущественно готовы пожертвовать жизнью одного человека, чтобы спасти пятерых даже в более сложном варианте проблемы вагонетки.

Что касается искусственного интеллекта, такая ситуация может возникнуть, например, на дороге, по которой двигается беспилотный транспорт, в случае, если авария непреодолима. Возникает вопрос, чья жизнь должна быть в приоритете — пассажиров, пешеходов или ни тех, ни других? В Массачусетском технологическом университете был даже создан специальный сайт, посвящённый этой проблеме, где пользователь может попробовать на себе различные сценарии и выбрать, как стоило бы поступить в той или иной ситуации.

Возникают также вопросы, что позволено делать с правовой точки зрения? На основе чего делать выбор? И кто в итоге будет виноват? Данная проблема уже получила отклики от компаний и регуляторов. Так, представители компании «Мерседес» прямо сказали, что их машины будут отдавать приоритет пассажирам, на что в Министерстве транспорта Германии был сразу же дан ответ, предвосхищающий будущее регулирование, — что делать такой выбор на основе ряда критериев будет неправомерно и в любом случае производитель будет нести ответственность.

Другие страны могут выбрать иной путь. Возьмём, к примеру, китайскую Систему социального рейтинга, в соответствии с которой каждому гражданину присваивается рейтинг в зависимости от законопослушности, полезной общественной деятельности и др. Обладатели низких рейтингов будут подвергаться санкциям. Что помешает руководству Китая заставить производителей беспилотного транспорта предусмотреть правило, что в случае непреодолимой аварии жертвовать необходимо человеком с наименьшим рейтингом? За счёт, например, технологий распознавания лиц и доступа к соответствующим базам данных, вполне возможно определить и сравнить рейтинги потенциальных жертв.

Основные проблемы, стоящие перед правом

Но правовые проблемы ещё глубже, особенно в случае роботов. Система, которая учится на информации полученной из внешнего мира, может действовать таким образом, который создатели не могли предсказать [2], а предсказуемость критична для современных правовых подходов. Более того, такие системы могут действовать независимо от создателей или операторов, что усложняет задачу по определению субъекта ответственности. Данные характеристики ставят проблемы предсказуемости и способности действовать самостоятельно, но не быть юридически ответственным [3].

Варианты регулирования многочисленны, в том числе на основе уже существующих норм. Так, технологии, использующие искусственный интеллект, можно регулировать как объекты авторских прав либо как имущество. Однако сложности возникают, если учесть, в частности, способность к автономному действию помимо воли создателя, собственника или владельца. В связи с этим можно применить нормы, регулирующие особый вид имущества — животных, поскольку последние также способны к автономным действиям. В российском праве к животным применяются общие правила об имуществе (ст. 137 ГК РФ), поэтому ответственность будет наступать по ст. 1064 ГК РФ: вред, причинённый личности или имуществу гражданина, подлежит возмещению в полном объёме лицом, причинившим вред, которым является собственник автономного агента.

Предложения о применении правового режима животных высказываются [4], однако они имеют некоторые ограничения. Во-первых, применение законодательства по аналогии недопустимо в рамках уголовного права. Во-вторых, данные нормы созданы в первую очередь для домашних животных, которые не должны причинять вред при обычных обстоятельствах. Для более развитых систем существуют предложения провести аналогию с дикими животными, поскольку для последних существуют более жёсткие правила [5]. Однако и здесь возникает вопрос, как сделать такое разделение в связи с особенностями искусственного интеллекта, указанными выше. Более того, жёсткие правила могут привести к замедленному внедрению технологий искусственного интеллекта в связи с большими и непредсказуемыми рисками ответственности для создателей.

Распространённым предложением является применение к таким системам норм о юридических лицах [6]. Поскольку юридическое лицо является искусственно сконструированным субъектом права [7], то роботов также можно наделить аналогичным статусом. Право может быть достаточно гибким и наделять практически любого правами. Оно также может и ограничить в правах. Например, исторически рабы не обладали практически никакими правами и вообще являлись имуществом. Можно также наблюдать и противоположную ситуацию, когда объекты без явных признаков способности к действию наделяются правами. Даже сегодня существуют примеры необычных объектов, признающихся юридическими лицами, — как в развитых, так и в развивающихся странах. В Новой Зеландии в 2017 г. был принят закон, который признал статус юридического лица за рекой Уонгануи. В законе указывается, что данная река является юридическим лицом и обладает всеми правами, полномочиями и обязанностями юридического лица. Таким образом, данный закон трансформировал реку из собственности в юридическое лицо, что расширило границы понимания относительно того, что может являться собственностью, а что нет. В Индии Верховный Суд в 2000 г. признал юридическим лицом основной священный текст сикхов — Гуру Грантх Сахиб.

Но даже если не рассматривать экстремальные варианты, а привести в пример обычные компании, правовые системы предусматривают гражданско-правовую, а в некоторых случаях и уголовно-правовую [8] ответственность юридических лиц. Не определяя, что компании (или государства) обладают свободой воли или интенцией, или что они могут действовать преднамеренно или осознанно, считается возможным признавать их юридически ответственными за определённые действия. Таким же образом, не обязательно приписывать интенцию или свободу воли роботам, чтобы признавать их ответственными за то, что они делают.

Однако аналогия с юридическими лицами проблематична, поскольку, по сути, концепция юридического лица нужна для быстрого и эффективного осуществления правосудия, но действия юридических лиц всегда восходят к действиям индивида или группы людей, даже если невозможно их точно определить [9]. Другими словами, правовая ответственность компаний и похожих образований связана с действиями, выполняемыми их представителями или работниками. Более того, в случае уголовной ответственности, когда она признаётся за юридическими лицами, она возможна только при условии, что физическое лицо, совершившее действие от имени юридического лица, определено [10]. Действия же систем на основе искусственного интеллекта не обязательно будут прямо восходить к действиям человека.

Наконец, к таким системам можно применять правовые нормы об источниках повышенной опасности. В соответствии с п. 1 ст. 1079 ГК РФ юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих (использование транспортных средств, механизмов и др.), обязаны возместить вред, причинённый источником повышенной опасности, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего. Проблема заключается в разграничении, какие системы могут быть отнесены к источникам повышенной опасности. Этот вопрос похож на вышеуказанную проблему разграничения домашних и диких животных.

Национальное и международное регулирование

Многие страны активно создают правовые условия для развития технологий, использующих искусственный интеллект. Так, в Южной Корее ещё с 2008 г. существует Закон «О содействии развитию и распространению умных роботов». Закон направлен на улучшение качества жизни и развитие экономики путём разработки и продвижения стратегии устойчивого развития индустрии умных роботов, а правительство каждые пять лет разрабатывает основной план обеспечения эффективного достижения данной цели.

Здесь хотелось бы остановиться на двух недавних примерах — Франции, которая заявила об амбициях стать европейским и мировым лидером в сфере искусственного интеллекта; и Европейском союзе, в котором предложены продвинутые нормы регулирования умных роботов.

Франция

В конце марта 2018 г. президент Франции Э. Макрон презентовал национальную стратегию в сфере искусственного интеллекта. Франция планирует инвестировать 1,5 млрд евро в течение пяти лет для поддержки исследований и инноваций в данной сфере. Стратегия основана на рекомендациях, сделанных в отчёте, подготовленном под руководством французского математика и депутата национального собрания Франции Седрика Виллани. Причём сделан выбор направить стратегию на конкретные четыре сектора: здравоохранение, транспорт, окружающую среду и оборону, и безопасность. Это сделано для того, чтобы использовать потенциал сравнительных преимуществ и сфер компетенций с фокусом на секторах, в которых компании смогут играть ключевую роль на глобальном уровне, а также из-за их важности для общественного интереса и др.

В целом даны семь ключевых предложений, одно из которых представляет особый интерес для целей статьи — сделать искусственный интеллект более открытым. Действительно, алгоритмы закрыты и в большинстве случаев являются коммерческой тайной. Однако алгоритмы могут быть предвзятыми, например, в процессе самообучения впитать стереотипы, существующие в обществе либо переданные разработчиками, и на их основе принимать решения. Таким образом уже принимаются судебные решения. В США подсудимый был приговорён к продолжительному сроку заключения на основе информации, полученной от алгоритма, оценивающего возможность повторного преступления. Подсудимый безуспешно оспаривал использование алгоритма для принятия такого решения, поскольку не были предоставлены критерии оценки, являющиеся коммерческой тайной. Французская стратегия предлагает развить прозрачность алгоритмов и возможностей по их проверке, а также определить этическую ответственность работающих в сфере искусственного интеллекта, создать консультативные комитеты по этике и т. д.

Европейский союз

В ЕС первым шагом в направлении регулирования вопросов искусственного интеллекта стала Резолюция Европейского Парламента 2017 г. «Нормы гражданского права о робототехнике». Ещё в 2015 г. в Европейском Парламенте была создана рабочая группа по правовым вопросам, связанным с развитием робототехники и искусственного интеллекта в ЕС. Резолюция не является обязательным документом, но дает ряд рекомендаций Европейской Комиссии для возможных действий в этом направлении, причём не только касательно норм гражданского права, но и этических аспектов робототехники.

Резолюция определяет «умного робота» как робота, получающего автономию через использование сенсоров и/или взаимосвязь с окружающей средой; при этом робот имеет по меньшей мере минимальную физическую поддержку, адаптирует своё поведение и действия в соответствии с условиями среды, при этом у него отсутствует жизнь с биологической точки зрения. Предлагается создать систему регистрации продвинутых роботов, которая управлялась бы Агентством ЕС по робототехнике и искусственному интеллекту. Данное агентство также предоставляло бы техническую, этическую и регулятивную экспертизу по робототехнике. Что касается ответственности, предлагаются два варианта: либо объективная ответственность (не требующая вины), либо подход риск-менеджмента (ответственность лица, которое могло минимизировать риски). Ответственность должна быть пропорциональной реальному уровню указаний, которые отдаются роботу и уровню его автономности. Правила ответственности могут быть дополнены обязательным страхованием для пользователей роботов, и компенсационным фондом для выплаты компенсации в случае отсутствия страхового полиса, покрывающего риск.

Для решения этических вопросов резолюция предлагает два кодекса поведения: Кодекс этики для разработчиков робототехники и Кодекс комитетов по этике научных исследований. Первый, в частности, предлагает четыре этических принципа: 1) «делай благо» (роботы должны действовать в интересах людей); 2) «не навреди» (роботы не должны причинять вред человеку); 3) автономия (взаимодействие человека с роботами должно быть добровольным); 4) справедливость (выгоды, получаемые от деятельности роботов, должны быть распределены справедливо).

Таким образом, примеры, приведённые в статье, показывают, среди прочего, как общественные ценности влияют на отношение к искусственному интеллекту и его юридическому оформлению. Поэтому наше отношение к автономным системам, будь то роботы или что-то другое, наше переосмысление их роли в обществе и положения среди нас, может иметь трансформационный эффект. Правосубъектность определяет то, что важно для общества, и позволяет решить, является ли «что-то» ценным и надлежащим объектом для обладания правами и обязанностями.

В связи с особенностями искусственного интеллекта звучат предложения о непосредственной ответственности определённых систем [11]. В соответствии с такими взглядами, не существует фундаментальных причин, почему автономные системы не должны нести ответственность за свои действия. Однако открытым остаётся вопрос о необходимости либо желательности введения такой ответственности (во всяком случае на данном этапе). Это в том числе связано с этическими проблемами, указанными в статье. Возможно, сделать программистов или пользователей автономных систем ответственными за действия таких систем будет более эффективным. Однако это же может замедлить инновации. Поэтому необходимо продолжить поиски оптимального баланса.

Для этого важно ответить на многие вопросы. Например, какие цели мы преследуем, развивая технологии искусственного интеллекта? Чьи интересы должны преобладать? Насколько эффективно это будет? Ответ на эти вопросы поможет предотвратить ситуации подобно той, которая случилась в России XVII в., когда животное (а именно, козёл) было отправлено в ссылку в Сибирь за совершённые им действия [12].

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *