Чем опасен для человечества искусственный интеллект
В принципе ситуация с ИИ не новая. Она возникает каждый раз, когда речь идет о появлении революционной технологии. Она может приносить как огромную пользу, так и огромный вред. Вопрос в том, сумеет ли человечество правильно и вовремя распорядиться этим достижением науки.
Сегодня поступь ИИ поражает. Он уже уверенно шагает по планете, стремительно занимает все новые ниши, вытесняя человека. Причем он мастер на все руки. Диагнозы ставит, лица идентифицирует, в судах работает адвокатом, музыку и картины пишет, чемпионов в покер и го обыгрывает. Предсказывает не только погоду, но даже банкротства.
И это только начало его бурной карьеры. Энтузиасты утверждают, что совсем скоро он возьмет на себя практически все сферы жизни, к нему перейдут функции и экспертизы, и управления, и выбора оптимальных вариантов развития экономики, а в конце концов и общества.
Такое будущее уже не выглядит сюжетом фантастического рассказа. Во всяком случае, ведущие страны делают ставку на нейросети, заявляя: кто будет лидером в этой сфере, тот будет править миром. Поэтому принимаются национальные программы, выделяются огромные деньги в надежде, что нейросети помогут решать задачи развития государства, которые уже настолько сложны, что мозговые штурмы не могут найти оптимальные ответы. Словом, сейчас ИИ наше все.
И тем не менее Маск и его сторонники призывают на шесть месяцев приостановить разработки. Почему? Человечество сегодня не готово использовать его без вреда самому себе. Оно словно получило в руки интересную игрушку, с удовольствием с ней играет, не понимая опасности, которая ему грозит. Авторы письма особо подчеркивают, что ИИ-лаборатории увязли в гонке по созданию все более мощных цифровых умов, которые никто, даже сами разработчики, не может до конца понять, прогнозировать и надежно контролировать. Это может спровоцировать очень болезненные, а порой даже неожиданные изменения в жизни человечества, несет угрозу самому его существованию.
Даст какой-то эффект это письмо? Ранее об опасности ИИ и массовой роботизации неоднократно писали тот же Маск, Стивен Хокинг и другие знаменитости. Эхо было громким, но недолгим. Кто согласится остановить гонку? Ведь сказано же: кто будет лидером в сфере ИИ, тот будет править миром.
Игорь Пивоваров, главный аналитик центра прикладных систем искусственного интеллекта МФТИ
— Мне кажется, нынешняя ситуация с ИИ напоминает ту, которая сложилась после того, как при самом активном участии ученых в невероятной гонке было создано атомное оружие. А когда его возможности были продемонстрированы, ученые первыми стали думать, как оставить его в арсеналах, обеспечить его неприменение. В итоге было создано МАГАТЭ, которое контролирует многие вопросы в атомной сфере. Между странами подписаны важнейшие документы, где они берут на себя обязательства по неприменению и нераспространению такого оружия.
Технологии ИИ по своему влиянию на человечество в определенном смысле сравнимы с атомным оружием. Речь идет не о взрывах, а о негативных последствиях неконтролируемого применения ИИ. И условиях, в которых сегодня создаются такие системы. Фактически между несколькими крупнейшими фирмами идет, говоря образно, «гонка вооружений» в области ИИ. Сами разработчики не в полной мере представляют, как работают эти «черные ящики», но продолжают стремительно наращивать их «мускулы», открывая для них все новые возможности в самых разных сферах. В такой гонке времени на проверку безопасности систем, на оценку последствий их применения практически нет. Сейчас об этом мало думают, главное — опередить конкурентов.
И этот призыв авторов письма в первую очередь не к политикам, а к коллегам, разработчикам ИИ. Нельзя продолжать эту сумасшедшую бесконтрольную гонку в никуда. Давайте сделаем паузу, чтобы те блестящие умы, которые создают такие мощные интеллекты, остановились и договорились о новых правилах игры. Цель — сделать ИИ, который будет работать только на пользу, а не во вред человеку.
Геннадий Красников, президент РАН
— В области искусственного интеллекта должна быть очень серьезно прописана законодательная база. Во-первых, важно учесть, что наиболее активно он развивается в сфере «оборонки». Вторая серьезная задача связана с фреймворками (открытыми базами данных), куда разработчик «складывает» свои программные опции, которые можно использовать для нейронных сетей.
И все это нужно очень внимательно смотреть, потому что там зачастую могут уже содержаться коды ошибок. А это создает определенную опасность.
И еще подчеркну такой момент. Почему мы вообще заговорили про ИИ, про нейронные сети? На самом деле только сейчас там начинают разворачиваться основные события. Ведь за последние 35 лет производительность компьютеров увеличилась в 1 млрд раз. Что это означает? Если раньше задача решалась десять лет, то сейчас за 0,3 секунды.
Сейчас в нейронных сетях начинает появляться другая модель нейронов, так называемые спайковые модели и другие. И самое важное — появилась новая, «нефоннеймановская» архитектура, которая позволяет более эффективно производить вычисления, появляется новый вид памяти. Сегодня у любого процессора 40% занимает память по площади, по энергетике. Мы ожидаем в ближайшие 10 лет мультипликативные эффекты в 100 тыс. раз, что намного расширит возможности нейронных сетей. Многое в жизни будет меняться. Перед этим взрывом важно остановиться и еще раз просмотреть законодательную базу по ИИ.
Италия запретила доступ к ChatGPT
Итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT на территории страны. Регулятор обвинил разработчика в нарушении законодательства о персональных данных после произошедшей утечки. В результате массового сбоя ряд пользователей смогли увидеть сообщения людей, общавшихся с чат-ботом, а также их имена, фамилии, электронные адреса и платежную информацию платных подписчиков сервиса, включая последние четыре цифры и сроки действия кредитных карт.
Регулятор подчеркивает, что разработчики не располагали «правовой основой, оправдывающей массовый сбор и хранение персональных данных».
Еще одной причиной ограничения стало то, что формально ChatGPT предназначен для пользователей старше 13 лет, но на практике бот не фильтрует их по возрасту. У ChatGPT есть 20 дней, чтобы ответить на претензии и провести работу над ошибками. Иначе создателям будет грозить штраф до 20 млн евро, или до 4 процентов от годового оборота во всем мире.
Подобные ограничения на использование чат-бота рассматриваются и в Германии.
ОТВЕТСТВЕННОСТЬ ЗА ВРЕД, ПРИЧИНЕННЫЙ ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ: РЕАЛЬНОСТЬ И ПЕРСПЕКТИВЫ Текст научной статьи по специальности «Право»
Рассматриваются вопросы ответственности за вред , причиненный искусственным интеллектом , как с точки зрения действующего законодательства, так и с позиции необходимости его дальнейшего совершенствования исходя из потребностей правоприменительной практики.
Похожие темы научных работ по праву , автор научной работы — Жаглина М. Е., Жаглин А. В.
RESPONSIBILITY FOR THE HARM CAUSED BY ARTIFICIAL INTELLIGENCE: REALITY AND PROSPECTS
The issues of liability for harm caused by artificial intelligence, both from the point of view of the current legislation, and from the position of the need for its further improvement based on the needs of law enforcement practice are being discussed.
Текст научной работы на тему «ОТВЕТСТВЕННОСТЬ ЗА ВРЕД, ПРИЧИНЕННЫЙ ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ: РЕАЛЬНОСТЬ И ПЕРСПЕКТИВЫ»
Ответственность за вред, причиненный искусственным интеллектом:
реальность и перспективы
Марина Евгеньевна Жаглина1, Андрей Вячеславович Жаглин2
1 Центральный филиал Российского государственного университета правосудия, Воронеж, Россия,
2 Воронежский институт МВД России, Воронеж, Россия, gagdrej@mail.ru
Аннотация. Рассматриваются вопросы ответственности за вред, причиненный искусственным интеллектом, как с точки зрения действующего законодательства, так и с позиции необходимости его дальнейшего совершенствования исходя из потребностей правоприменительной практики.
Ключевые слова: искусственный интеллект, робот, источник повышенной опасности, ответственность, вред
Для цитирования: Жаглина М. Е., Жаглин А. В. Ответственность за вред, причиненный искусственным интеллектом: реальность и перспективы // Вестник Московского университета МВД России. 2022. N° 2. С.75-78. https://doi.org/10.24412/2073-0454-2022-2-75-78.
Liability for damage caused by artificial intelligence: reality and prospects
Marina E. Zhaglina1, Andrey V. Zhaglin2
1 Central Branch of the Russian State University of Justice, Voronezh, Russia, mzhaglina@mail.ru
2 Voronezh Institute of the Ministry of Internal Affairs of Russia, Voronezh, Russia, gagdrej@mail.ru
Abstract. The issues of liability for harm caused by artificial intelligence, both from the point of view of the current legislation, and from the position of the need for its further improvement based on the needs of law enforcement practice are being discussed.
Keywords: artificial intelligence, robot, source of increased danger, responsibility, harm
For citation: Zhaglina M. E., Zhaglin A. V. Responsibility for the harm caused by artificial intelligence: reality and prospects. bulletin of the Moscow University of the Ministry of Internal affairs of Russia. 2022;(2):75-78. (In Russ.). https://doi.org/10.24412/2073-0454-2022-2-75-78.
Внедрение в различные сферы нашей жизни новых технологий, особенно в эпоху «ковидных» ограничений, порождает значительный круг правовых проблем, связанных как с определением правовой природы данных объектов, так и круга ответственных лиц в случае причинения ими вреда.
Сегодня цифровые технологии широко применяются в разнообразных видах деятельности: медицине, транспорте, образовании, банковском обслуживании, охране общественного порядка, осуществлении правосудия, промышленности и т. д., что предопределяет необходимость всестороннего правового регулирования порядка и последствий их использования.
Под искусственным интеллектом обычно понимают совокупность технологических решений, позволяющих имитировать когнитивные функции человека (в частности, самообучение и поиск решений без заранее заданных алгоритмов) и получать результаты, сопоставимые с интеллектуальной деятельностью человека. При этом отмечается, что искусственный интеллект включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, сервисы по обработке данных и поиску решений [1].
Искусственный интеллект может воплощаться в различных формах, что оказывает влияние на его правовой режим. Так, он может быть представлен в виде
© ^ar^HHa M. E., ^anrnH A. B., 2022
сложной компьютерной программы, либо киберфизи-ческого устройства, например, робота.
Некоторая (причем, все более расширяющаяся) автономность робототехнических комплексов, делающая невозможным полный контроль за ними со стороны операторов, предопределяет необходимость решения двух этико-правовых вопросов: о безопасности таких систем для человека и об ответственности за вред, причиненный в результате их применения.
В научной литературе в последнее время обсуждается вопрос о субъекте ответственности за вред, причиненный в результате использования технологий искусственного интеллекта. В рамках данного исследования мы не будем рассматривать концепции, предлагающие признать интеллектуального робота самостоятельным «электронным» субъектом права, и, соответственно, ответственным за причиненный им вред [2; 3]. Представляется, сегодня способность робота к абсолютно самостоятельным действиям сильно преувеличена, в силу чего собственного волевого момента в его действиях недостаточно для признания субъектом права, что не означает невозможности возвращения к данному вопросу в будущем.
Если же мы признаем искусственный интеллект исключительно объектом права, даже в этом случае фигура ответственного за вред лица не выглядит однозначно. В различных исследованиях, посвященных данной проблеме, высказываются мнения о возложении ответственности на:
• производителя робота или программного обеспечения для него;
• юридическое или физическое лицо — владельца устройства (программы);
• лицо, непосредственное управляющее роботом (оператора), в момент причинения вреда;
• тьютора (для самообучающихся систем).
По нашему мнению, субъект ответственности должен определяться исходя из ряда критериев:
относится ли устройство с искусственным интеллектом к источникам повышенной опасности (речь, конечно же, идет об устройствах в виде объектов материального мира, например, роботах);
в каких отношениях состоит непосредственный пользователь технологий искусственного интеллекта (оператор) с их владельцем.
В ст. 1079 ГК РФ дан лишь примерный перечень источников повышенной опасности. Поэтому, чтобы определить, относится ли соответствующее устройство к источникам повышенной опасности, необходимо проанализировать сущностные признаки такого объекта.
По нашему мнению, не все подобные устройства отвечают признаку повышенной опасности для окружающих. В то же время применение роботов с высокой степенью автономности исключает полный кон-
троль за ними со стороны человека, поэтому их вполне можно считать источниками повышенной опасности. В частности, в ст. 31 Модельной конвенции о робототехнике и искусственном интеллекте высказывается предложение о необходимости закрепления презумпции опасности для человека искусственного интеллекта, пока не доказано иное [4].
Таким образом, разделение робототехнических систем на те, которые представляют собой источники повышенной опасности, и те, которые к ним не относятся, позволит решить вопрос о субъекте и основаниях ответственности за вред, причиненный такими объектами. В первом случае, ответственность будет наступать по ст. 1079 ГК РФ, которая возлагает ответственность на владельца источника повышенной опасности даже при отсутствии его вины, во втором случае, ответственность будет нести непосредственный причинитель вреда на общих основаниях, т. е. только за вину, по ст. 1064 ГК РФ. При этом, если вред был причинен при исполнении трудовых или служебных обязанностей, субъектом ответственности будет юридическое лицо или гражданин-работодатель (ст. 1068 ГК РФ).
В результате мы можем прийти к выводу, что сегодня гражданское законодательство не предусматривает какой-либо специфики правового регулирования отношений, связанных с использованием устройств с искусственным интеллектом.
В то же время многими исследователями данной проблемы отмечается недостаточность правового регулирования в указанной сфере и невозможность применения действующих, в определенной степени устаревших, правовых конструкций в области возмещения внедоговорного вреда, причиненного роботами с высокой степенью автономности. В этой связи, предлагаются различные варианты решения рассматриваемой проблемы.
Во-первых, возможен дифференцированный подход к решению вопроса о субъекте ответственности в зависимости от вины. В соответствии с данной концепцией субъектом ответственности за вред, причиненный роботом, будет то лицо, которое виновно в наступлении вредоносных последствий: производитель (если вред причинен дефектами конструкции), разработчик программного обеспечения (если вред причинен сбоем программы), оператор (если вред причинен выполнением неверных команд) и т д. [5].
Во-вторых, возможен смешанный режим ответственности, когда степень опасности робота определяет основания ответственности и ее субъекта (в определенной степени он существует уже сейчас, поскольку выбор суда между ст. 1064 и ст. 1079 ГК РФ будет зависеть от характеристик конкретного робота). Тем не менее, высокая автономность некоторых роботов, а также риски взломов и хакерских атак, создающие
Вестник Московского университета МВД России
высокую потенциальную угрозу причинения вреда, требуют разработки специального правового режима в отношении данных объектов, поскольку определить 5. конкретное виновное лицо, ответственное за действия робота, может быть весьма проблематично.
В-третьих, предлагается концепция управления рисками, т. е. привлечения к ответственности за действия робота лица, обязанного минимизировать риск 6. причинения вреда. Авторы данной концепции обосновывают ее эффективность тем, что меры ответственности должны применяться к лицу, которое не выполнило свои обязанности по устранению негативных 7. последствий действий робота [6, с. 32]. Очевидно, что при данном подходе возникает проблема определения ответственного лица, а также оснований его ответственности.
В-четвертых, возможен режим коллективной ответственности изготовителя, оператора, собственника и пользователя робота в зависимости от степени вины [7]. 8.
Таким образом, можно констатировать, что ответственность за вред, причиненный устройствами с искусственным интеллектом, может наступать в рамках существующего правового механизма, что не означает отсутствия необходимости выработки нового подхода в рассматриваемой области с учетом сложившихся реалий и потребностей правоприменительной практики. В частности, Сбербанк РФ и Минэкономразвития РФ 1. заявили о разработке к концу 2021 года правил ответственности за вред, причиненный роботами и искусственным интеллектом, а также правил страхования данных рисков [8].
1. Федеральный закон от 24 апреля 2020 г. № 123-Ф3 «О проведении эксперимента по установлению специального регулирования
в целях создания необходимых условий для 2
разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 3. Федерального закона «О персональных данных» // Собрание законодательства РФ. 2020 г. № 17. Ст. 2701.
2. Ястребов О. А. Дискуссия о предпосылках для присвоения роботам правового статуса «элек- 4. тронных лиц» // Вопросы правоведения. 2017.
3. Гаджиев Г. А., Войниканис Е. А. Может ли робот быть субъектом права (поиск правовых 5. норм для регулирования цифровой экономики)? // Право. Журнал Высшей школы экономики. 2018. № 4. С. 24-48.
4. Модельная конвенция о робототехнике и ис- 6. кусственном интеллекте [Электронный ре-
сурс]. URL: https://robopravo.ru/modielnaia_ konvientsiia (дата обращения: 08.12.2021). Не навреди : семь проблем правового регулирования робототехники [Электронный ресурс]. URL: https://trends.rbc.ru/trends/innovati on/5d65246a9a79474c7e708aec (дата обращения: 08.12.2021.
Михалева Е. С., Шубина Е. А. Проблемы и перспективы правового регулирования робототехники // Актуальные проблемы российского права. 2019. № 12 (109). С. 26-35. Юридическая концепция роботизации : монография / Под ред. Ю. А. Тихомирова, С. Б. Намба. М. : Проспект, 2019. [Электронный ресурс]. URL: http://www.consultant.ru/ cons/cgi/online.cgi?base=CMB&n=18874&req =doc#049061320082362303 (дата обращения: 01.12.2021).
Искусственный интеллект и роботы будут нести ответственность за причиненный вред [Электронный ресурс]. URL: https://sovetov. su/news/672_iskusstvennyy_intellekt_i_roboty_ budut_nesti_otvetstvennost_za_prichinennyy_ vred.html (дата обращения: 12.11.2020).
Federal Law № 123-FZ of April 24, 2020 «On conducting an experiment to Establish special Regulation in order to create the necessary conditions for the Development and Implementation of artificial intelligence Technologies in the Subject of the Russian Federation — the Federal City of Moscow and Amendments to Articles 6 and 10 of the Federal Law «On Personal Data» // Collection of Legislation of the Russian Federation. 2020. № 17. Art. 2701.
Yastrebov O. A. Discussion on the prerequisites for assigning robots the legal status of «electronic persons» // Questions of Jurisprudence. 2017. № 1. P. 189-202.
Gadzhiev G. A., Voynikanis E. A. Can a robot be a subject of law (search for legal norms to regulate the digital economy)? // Right. Journal of the Higher School of Economics. 2018. № 4. P. 24-48.
Model Convention on Robotics and Artificial Intelligence [Electronic resource]. URL: https:// robopravo.ru/modielnaia_konvientsiia (accessed: 08.12.2021).
Do no harm : seven problems of legal regulation
of robotics [Electronic resource]. URL: https://
c7e708aec (accessed: 08.12.2021).
Mikhaleva E. S., Shubina E. A. Problems and
prospects of legal regulation of robotics // Actual
problems of Russian law. 2019. № 12 (109). P. 26-35.
7. Legal concept of robotization : monograph / Edited by Yu. A. Tikhomirov, S. B. Namba. M. : Prospect, 2019. [Electronic resource]. URL: http:// www.consultant.ru/cons/cgi/online.cgi?base=C MB&n=18874&req=doc#049061320082362303
8. Artificial intelligence and robots will be responsible for the damage caused [Electronic resource]. URL: https://sovetov.su/news/672_ iskusstvennyy_intellekt_i_roboty_budut_nesti_ otvetstvennost_za_prichinennyy_vred.html (accessed: 12.11.2020).
Информация об авторах
М. Е. Жаглина — доцент кафедры гражданско-правовых дисциплин Центрального филиала Российского государственного университета правосудия, кандидат юридических наук, доцент;
А. В. Жаглин — старший преподаватель кафедры социально-гуманитарных, экономических и правовых дисциплин Воронежского института МВД России, кандидат юридических наук, доцент.
Information about the authors
M. E. Zhaglina — Associate Professor of the Department of Civil Law Disciplines of the Central Branch of the Russian State University of Justice, Candidate of Legal Sciences, Associate Professor;
A. V. Zhaglin — Senior Teacher of the Department of Socio-Humanitarian, Economic and Law Disciplines of the Voronezh Institute of the Ministry of Internal Affairs of Russia, Candidate of Legal Sciences, Associate Professor.
Вклад авторов: все авторы сделали эквивалентный вклад в подготовку публикации. Авторы заявляют об отсутствии конфликта интересов.
Contribution of the authors: the authors contributed equally to this article. The authors declare no conflicts of interests.
Статья поступила в редакцию 16.12.2021; одобрена после рецензирования 24.01.2022; принята к публикации 21.02.2022.
The article was submitted 16.12.2021; approved after reviewing 24.01.2022; accepted for publication 21.02.2022.
в юридическои деятельности
Информационные технологии в юридической деятельности. 2-е изд., перераб. и доп. Учебное пособие. Под ред. А.И. Уринцова. 351 с. Гриф НИИ образования и науки. Гриф МУМЦ «Профессиональный учебник».
Рассмотрены основные понятия и категории информатики в юриспруденции, программное обеспечение, охватывающие практически все области юридической деятельности. Предложена оригинальная схема направлений информатики в аспекте их изучения в юридическом вузе. Приведены примеры использования в юридической деятельности современных информационных технологий, таких как мультимедиа, экспертные системы и др. Отдельные главы посвящены рассмотрению технологий работы с правовыми информационными системами, структуры, состава и принципов функционирования программного обеспечения информационных технологий.
Изложены основы информационной безопасности и защиты информации в компьютерных системах. Разобраны проблемы защиты информации на персональном компьютере от потери и разрушения, несанкционированного доступа, вопросы восстановления утраченных данных, надежного удаления данных и т.д. Особое место отведено вопросам обеспечения защиты информации в компьютерных сетях.
Для студентов вузов, обучающихся по направлению «Юриспруденция» и специальности «Правоохранительная деятельность».
В США идут дискуссии о том, как не дать искусственному интеллекту вырваться из-под контроля и стать очередной угрозой человечеству
«Искусственный интеллект», об опасности которого рассказывали популярные кинобоевики в 80-е и 90-е годы прошлого века (как, например, цикл о Терминаторе, показавший мрачную перспективу «бунта машины против человека»), сегодня становится реальностью. И американские политики, в детстве и юношестве смотревшие эту кинофраншизу, опасаются последствий бурного развития AI (Artificial intelligence, общепринятая аббревиатура для ИИ — искусственного интеллекта).
В мае в Белом доме прошло совещание под председательством вице-президента Камалы Харрис, которое посетил президент Байден — «ввиду важности темы». А в обеих палатах Конгресса прошли слушания, на которые были вызваны представители компаний-разработчиков ИИ, а также эксперты из мира науки. Искусственный интеллект рассматривается одновременно как огромная возможность и страшная угроза. И если технический прогресс не остановить, то его можно пустить в определенном направлении — с помощью регулирующих законов. Так полагают здешние политики. На это надеются ученые. Это нужно сделать, говорят сами производители ИИ.
Бывший министр финансов США Лоуренс Саммерс сказал, что такие инструменты ИИ, как ChatGPT (популярное приложение к айфонам, айпадам и прочим гаджетам), могут быть столь же эффективными, как печатный станок, электричество или даже колесо или огонь. Совсем другое сравнение от производителей ИИ и инвесторов, таких как генеральный директор Tesla и Twitter Илон Маск: риски, связанные с этой технологией, сопоставимы с пандемиями и ядерной войной. Маск, соучредитель Apple Стив Возняк и другие так называемые «визионеры», представители технической и интеллектуальной элиты, призвали на шесть месяцев остановить работы по развитию искусственного интеллекта — систем более мощных, чем существующая GPT-4 — до принятия строгих регулирующих законов, ставящих отрасль под контроль и тем самым, возможно, снимающих риски для всего человечества.
Майский опрос, проведенный Reuters/Ipsos, показал, что почти две трети американцев считают, что ИИ представляет опасность для человечества. И тем не менее охотно пользуются новыми программами.
Отрасль развивается очень быстро. Сенатор Джош Хоули, республиканец из Миссури, отметил, что слушания в Конгрессе не могли состояться год назад, потому что ИИ еще так широко не вошел в общественное сознание. Он предвидит два пути, по которым может пойти технология, сравнив ее будущее
Искусственный интеллект: возможности и необходимость его уголовно-правовой охраны
Сокова, А. А. Искусственный интеллект: возможности и необходимость его уголовно-правовой охраны / А. А. Сокова. — Текст : непосредственный // Молодой ученый. — 2019. — № 16 (254). — С. 122-125. — URL: https://moluch.ru/archive/254/58131/ (дата обращения: 18.09.2023).
В последние годы актуальной становится проблема определения правового статуса искусственного интеллекта (роботов). Ученые множества стран дискутируют по поводу законодательной регламентации данного вопроса.
Недавно правительство Европарламента одобрило инициативу ввести роботов в правовое поле и придать им статус юридических лиц. Роботы смогут от своего имени быть истцами и ответчиками в суде [3]. Однако придание статуса искусственному интеллекту может повлечь самые неожиданные последствия. Какими они могут быть, и кто будет отвечать за эти последствия в рамках уголовного права, и предстоит решить в данной работе.
При ответе на эти вопросы необходимо отметить, что глобальной проблемой является полное отсутствие в России нормативно-правового регулирования в области искусственного интеллекта. Заниматься исследованиями в данной сфере необходимо и потому, что в марте 2019 года компания Microsoft признала Россию лидером по внедрению технологий искусственного интеллекта [13]. В свою очередь Президент поручил Федеральному собранию разработать программу развития искусственного интеллекта до 2022 года [10]. Многие российские компании активно занимаются внедрением результатов достижения научного прогресса в области робототехники в свое производство. Зарубежные страны также активно начинают разрабатывать материал по вопросам правового регулирования искусственного интеллекта. Так, например, в Южной Корее принят закон о робототехнике, однако в нем дается лишь законодательное понятие «умный робот». Вопросы ответственности же будет решать специальный закон, который правительство пока не подготовило [4]. Первые шаги в этом направлении сделали и страны Европы, приняв резолюцию «О робототехнике», в которой призвали развивать данное направление без вреда жизни и здоровью человека [11]. В США при рассмотрении споров, возникающих из отношений, связанных с искусственным интеллектом, опираются на действующее законодательство, что зачастую вызывает трудности при разрешении этих дел в судах [5].
УК РФ, как известно, охраняет самые ценные общественные отношения. Можем ли мы «вписать» «искусственный интеллект» в уже существующий круг общественных отношений, охраняемых уголовным законом?
Для решения этого вопроса, прежде всего, необходимо выяснить, что такое «искусственный интеллект». Исходя из различных подходов и признаков данного института, наиболее удачным, по моему мнению, является определение И. В. Понкина и А. И. Редькиной, которые раскрывают искусственный интеллект как искусственно сложную кибернетическую компьютерно-программно-аппаратную систему, обладающую свойствами субстантивности, автономности, а также возможностями воспринимать и анализировать данные [9, с.91]. Именно такой сложной системой в совершенстве обладают роботы. А соблюдается ли главный закон робототехники — «Не навреди человеку!» в условиях бурного развития искусственного интеллекта, предстоит выяснить [14].
Стоит предположить, что с появлением человекоподобных мыслящих роботов необходимо будет изменить законодательство, чтобы охватить их роль в обществе как участников различных правоотношений. Это неизбежно повлечет массу вопросов о восприятии роботов подобием человека, а, следовательно, и об их правах. Конечно, необходимо иметь в виду то, что объекты с искусственным интеллектом должны иметь определенный правовой статус.
Однако, по моему мнению, поспешным будет решение о тождестве искусственных объектов (объектов с искусственным интеллектом) с людьми, так как, например, конституционными правами, которыми наделяются субъекты при рождении, могут обладать только люди (физические лица). Несмотря на это в мире уже есть прецедент, когда искусственный интеллект получил гражданство. В Саудовской Аравии робот София стала обладателем таких прав, которых нет даже у женщин и трудовых мигрантов в этой стране [12].
До недавнего времени подобные вопросы вообще не поднимались и искусственный интеллект находился в нормативном вакууме, только лишь в некоторых государствах можно найти нормы, касающиеся регулирования беспилотных транспортных средств и летательных аппаратов [6, с.21]. Существующая судебная практика по данной тематике сложилась достаточно однозначно. Чаще всего компания-производитель робота с искусственным интеллектом (в нашем случае беспилотного автомобиля) признается невиновной, так как аварии невозможно было избежать по вине пешеходов [18].
В России уже разработана первая концепция закона о робототехнике. Анализ данной концепции позволяет сделать вывод о том, что регулирование искусственного интеллекта в РФ будет начинаться не с запретов, а с четкого определения границ ответственности владельцев роботов и компаний, занимающихся их разработкой, с учетом рисков потребителей. Что позволит стать России привлекательной с точки зрения инвестиций иностранных партнеров в робототехнику на территории РФ. Документ предполагал частично использовать регулирование, которое применяется к животным и юридическим лицам. В законе также указаны случаи уголовно-правовой охраны робототехники. Предполагается, что уголовная ответственность будет наступать за конструирование робота-убийцы, специальное отключение программ и функций, блокирующих возможность причинения вреда человеку. Разработчики надеются, что их концепция станет базой для изменения гражданского и уголовного законодательства [2].
Переходя к вопросам ответственности, можно сразу отметить, что из поля зрения законодателя выпадают новые угрозы транспортной безопасности, а именно вопросы ответственности использования беспилотных летательных аппаратов в противоправных целях, а также неосторожное причинение вреда в результате их эксплуатации. Беспилотными летательными аппаратами являются любые аппараты, способные взлетать и поддерживать контролируемый полет, а также аэронавигацию без какого-либо присутствия человека на борту [15]. Первостепенное значение для уголовного права имеют случаи разрушения беспилотников, причинение вреда жизни и здоровью людей или имуществу [1, с.74]. Огромный интерес для нас представляют случаи возможного столкновения беспилотников с пассажирскими самолетами. Последствиями подобной катастрофы будет причинение вреда не только имуществу авиакомпании-перевозчика, но и жизни, а также здоровью пассажиров.
Обращаясь к гражданскому законодательству, беспилотные автомобили будут восприниматься как источник повышенной опасности, следовательно, имущественная ответственность за возмещение вреда, причиненного данным транспортным средством, возлагается на собственника.
Дискуссионным остается вопрос об уголовно-правовой ответственности за причинение таковыми автомобилями тяжкого вреда здоровью или смерти лица, вызванным сбоем в техническом обеспечении беспилотника. Можно ли говорить об установлении уголовной ответственности лишь для лиц, разрабатывающих программное обеспечение для функционирования подобного транспортного средства, или же стоит привлекать и лиц, осуществляющих установку и обслуживание этих автомобилей? Возможно ли установить причинно-следственную связь между деянием и наступившими общественно опасными последствиями, которые были им вызваны? При решении этого вопроса следует обратиться к теориям причинной связи, а именно, рассмотреть теорию необходимого условия, согласно которой деяние человека тогда является причиной данного последствия, когда это действие было одним из необходимых условий его наступления [7]. Несмотря на критику этой концепции, в ней есть рациональное зерно, и, например, возможно установить причинно-следственную связь между нарушением лицом технологий разработки искусственного интеллекта и наступившими общественно опасными последствиями. Также при установлении причинно-следственной связи стоит обращаться к специалистам, а именно проводить комплексные технико-технологические или компьютерные экспертизы.
Необходимо предусмотреть уголовную ответственность за ненадлежащее создание, разработку и внедрение программного обеспечения для роботов (беспилотных автомобилей, летательных аппаратов и т. д.), нарушение технологии их обслуживания и эксплуатации, создающих угрозу причинения тяжкого вреда здоровью, смерти по неосторожности либо крупного ущерба [16,с.103]. А так как объединить эти противоправные деяния в одну статью не представляется возможным, стоит внести изменения в ряд статей Особенной части УК РФ. Так, например, поправки следует внести в ст. 266, 272 и некоторые составы главы 21 УК РФ.
Также не стоит забывать о том, что человек тоже может причинить вред роботам. На данный момент роботы рассматриваются как разработки программного обеспечения, напрямую запатентованные крупнейшими мировыми компаниями. А так как спектр их использования достаточно широк, они внедряются в здравоохранение, оборону, банковское обслуживание, промышленность, то вероятность воздействия на роботов высока. На сегодняшний день даже «умные помощники» не могут отождествляться с человеком, а, значит, вред, причиненный им, будет квалифицироваться как вред имуществу собственника, владельца, разработчика программного обеспечения.
Открытым остается и вопрос кибератак на роботов. Технологии искусственного интеллекта больше всего подвержены хакерским кибератакам, так как взломать объект, который находится без присмотра и влияния человека на определенном этапе его использования, намного проще, нежели другие объекты. Инженеры беспилотных технологий уже бьют тревогу по поводу уязвимости таких автомобилей. Именно поэтому множество компаний объединилось и увеличивает количество стартапов, целью которых является создание новейших технологий киберзащиты. Что же касается вопросов ответственности за кибератаки, я предлагаю дифференцировать уголовную ответственность в зависимости от цели преступников. Если целью будет причинение вреда непосредственно роботу, то тогда содеянное следует классифицировать по статьям главы 21 УК РФ. Если же целью преступников является кибератака на роботов для применения их в качестве орудия совершения террористической или иной запрещенной законами деятельности, то в этом случае ответственность будет наступать по статьям Особенной части УК РФ за преступления террористической или иной направленности, а роботы здесь будут рассматриваться в качестве орудий для воплощения преступного замысла.
Однако в науке уголовного права есть ученые, которые предлагают ввести новую главу «Преступления против интеллектуальной собственности» [17]. И если данную инициативу преобразовать в законопроект, то возможно предусмотреть в ней состав преступления «кража технологий искусственного интеллекта в виде информации». И тогда некоторые составы преступлений против искусственного интеллекта можно будет не включать в разные главы Особенной части УК РФ, а сконструировать в одной главе. На сегодняшний же день, в отсутствие данной главы, получение технологий искусственного интеллекта путем неправомерного доступа к компьютерной информации можно квалифицировать по ст. 272 УК РФ.
Таким образом, на основании всего вышесказанного предлагается:
1) предусмотреть уголовную ответственность за ненадлежащее создание, разработку и внедрение программного обеспечения для объектов искусственного интеллекта, нарушение условий их обслуживания и эксплуатации, создающих угрозу причинения тяжкого вреда здоровью, смерти по неосторожности либо крупного ущерба;
2) внести изменения в соответствующие статьи главы 21, ст. 272, 266 УК РФ;
3) разработать Закон «О робототехнике», в котором определить правовой статус искусственного интеллекта и отнести роботов к источникам повышенной опасности;
5) разработать концепции киберзащиты объектов с искусственным интеллектом;
6) дополнить пункт «к» ст. 63 УК РФ, в котором предусмотреть в виде отягчающего наказание обстоятельства совершение преступления с использованием источников повышенной опасности, в которые будут включаться и объекты с искусственным интеллектом;
7) при необходимости разработать постановление пленума Верховного Суда РФ и разъяснить судам вопросы, касающиеся привлечения к уголовной ответственности за совершение преступлений с использованием искусственного интеллекта.