Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Вестник Российской академии наук, 2024, № 7

научный и общественно-политический журнал
Покупка
Новинка
Артикул: 848677.0001.99
Доступ онлайн
4 268 ₽
В корзину
Вестник Российской академии наук : научный и общественно-политический журнал. - Москва : Наука, 2024. - № 7. - 94 с. - ISSN 0869-5873. - Текст : электронный. - URL: https://znanium.ru/catalog/product/2184447 (дата обращения: 28.11.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов
ВЕСТНИК РОССИЙСКОЙ 
АКАДЕМИИ НАУК
научный и общественно-политический журнал
том 94   № 7   2024   Июль
Основан в 1931 г.  
Выходит 12 раз в год  
ISSN: 0869-5873
Журнал издаётся под руководством  
Президиума РАН
Главный редактор
В.Я. Панченко
РЕДАКЦИОННАЯ КОЛЛЕГИЯ
А.В. Адрианов, В.П. Анаников, А.Л. Асеев, А.Р. Бахтизин,  
С.И. Безродных, В.В. Бражкин, Ф.Г. Войтоловский, 
 А.В. Гавриленко, А.Д. Гвишиани, Ю.Г. Горбунова,
В.И. Данилов-Данильян, Л.М. Зелёный, Н.А. Зиновьева,  
Н.И. Иванова, В.С. Комлев, С.Н. Кочетков, С.В. Кривовичев,  
А.П. Кулешов, Ю.Ф. Лачуга, Я.П. Лобачевский, А.В. Лопатин,  
Г.Г. Матишов, А.М. Молдован, О.С. Нарайкин, В.В. Наумкин,
С.А. Недоспасов, А.Д. Некипелов, Р.И. Нигматулин,  
Н.Э. Нифантьев, М.А. Островский, В.В. Полонский,
И.В. Решетов, Г.Н. Рыкованов, А.В. Сиренов, В.А. Сойфер,  
О.Н. Соломина, Г.Т. Сухих, И.А. Тайманов, В.А. Тишков,  
В.А. Ткачук, А.В. Торкунов, И.В. Тункина, М.А. Федонкин,  
Т.Я. Хабриева, В.Ю. Хомич, В.И. Цетлин, В.А. Черешнев,
М.Ф. Черныш, В.П. Чехонин, А.П. Шкуринов, И.А. Щербаков,  
А.В. Юревич
Заместитель главного редактора
Г.А. Заикина
Заведующая редакцией
О.Н. Смола
E-mail: vestnik.ran@yandex.ru, vestnik@pleiadesonline.com
Москва
ФГБУ «Издательство «Наука»
© Российская академия наук, 2024
© Редколлегия журнала
     “Вестник РАН” (составитель), 2024


СОДЕРЖАНИЕ
Том 94, номер 7, 2024
С кафедры президиума РАН
Т.Я. Хабриева
Правовые проблемы идентификации искусственного интеллекта
609
А.И. Аветисян
Искусственный интеллект в гуманитарной сфере.  Угрозы и возможности
623
В.Б. Бетелин
Научные проблемы обеспечения технологического суверенитета в области технологий 
искусственного интеллекта
629
К 300-летию Российской академии наук
И.М. Щедрова
Академические дипломы XVIII века
635
Точка зрения
А.Б. Гусев, М.А. Юревич
Линии антагонизма в научном сообществе и отягчающий молодёжный фактор
646
Из рабочей тетради исследователя
М.А. Островский, Т.Б. Фельдман
Новый подход к оценке последствий действия радиации на глаз
658
Эссе
Н.В. Корниенко
“…Я прожил жизнь”
К 125-летию со дня рождения писателя А.П. Платонова
665
Обозрение
В.В. Миронов, М.А. Толкач, А.Г. Тимаров
Технологии тепловой защиты ракетных двигателей твёрдого топлива
677
Былое
Г.Г. Матишов, А.В. Венков
Причины низких потерь донских казаков в войнах Российской империи
688


CONTENTS
Vol. 94, No. 7, 2024
From the Rostrum of the RAS Presidium
T.Ya. Khabrieva
Legal issues of the artificial intelligence identification
609
A.I. Avetisyan
Artificial intelligence in the humanitarian field. Threats and opportunities
623
V.B. Betelin
Scientific problems of ensuring technological sovereignty in the field of artificial  
intelligence technologies
629
For the 300th anniversary of the Russian Academy of Sciences
I.M. Shchedrova
Academic diplomas of the XVIII century
635
Point of view
A.B. Gusev, M.A. Yurevich
Lines of antagonism in the scientific community and the aggravating youth factor
646
From the researcher's notebook
M.A. Ostrovsky, T.B. Feldman
A new approach to assessing the consequences of radiation on the eye
658
Essay
N.V. Kornienko
“...I lived my life”
On the 125th anniversary of the birth of the writer A.P. Platonov
665
Review
В.В. Mironov, M.A. Tolkach, A.G. Timarov
Thermal protection technologies for solid propellant rocket engines
677
Bygone times
G.G. Matishov, A.V. Venkov
The reasons for the low losses of the Don Cossacks in the wars of the Russian Empire
688


ВЕСТНИК РОССИЙСКОЙ АКАДЕМИИ НАУК,  2024, том 94, № 7,  с.  609–622
С КАФЕДРЫ ПРЕЗИДИУМА РАН
ПРАВОВЫЕ ПРОБЛЕМЫ ИДЕНТИФИКАЦИИ  
ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
© 2024 г.     Т.Я. Хабриеваа,*
аИнститут законодательства и сравнительного правоведения при Правительстве Российской Федерации,  
Москва, Россия
*E-mail: office@izak.ru
Поступила в редакцию 16.04.2024 г.
После доработки 16.04.2024 г.
Принята к публикации 05.05.2024 г.
Искусственный интеллект, как и ряд других продуктов технологической революции, послужил 
предпосылкой к формированию специфической области общественных отношений, что обусловило поиск адекватных форм и методов правового регулирования. Использование ресурсов права 
в процессе создания необходимых регуляторов привело к накоплению соответствующего практического опыта и появлению дисциплинарной онтологии, аккумулирующей доктринальное знание 
о правовом бытии искусственного интеллекта. Центральное место в ней занимает проблематика 
правовой идентификации искусственного интеллекта, имеющая как теоретическое, так и практическое значение. Её освоение предполагает разработку комплекса фундаментальных, программных 
и проектных вопросов. 
В статье представлены образующие этот комплекс решения в контексте развития научного правового знания и практики правового регулирования в области создания и использования искусственного 
интеллекта, а также рациональная картина опосредования правом рассматриваемых общественных 
отношений в её актуальном виде; характеризуются содержание и динамика этой картины; анализируется накопленный правотворческий опыт и практика правовых экспериментов; изложены прогнозы 
относительно дальнейшего развития данного сегмента правовой сферы и применяемых для его упорядочения инструментов; определены задачи юридической доктрины на перспективу. 
Статья подготовлена на основе научного доклада, представленного автором на заседании Президиума 
РАН 12 марта 2024 г. 
Ключевые слова: закон об искусственном интеллекте, искусственный интеллект, конституционное регулирование технологического прогресса, объект интеллектуальных прав, обязанности искусственного интеллекта, ответственность искусственного интеллекта, права искусственного интеллекта, правовая идентификация искусственного интеллекта, правосубъектность искусственного интеллекта, 
регулятивные возможности искусственного интеллекта, технологии искусственного интеллекта, технологическая политика, цифровой кодекс, этика искусственного интеллекта. 
DOI: 10.31857/S0869587324070015, EDN: FMXVUD
ХАБРИЕВА Талия Ярулловна – академик РАН, заместитель президента РАН, директор ИЗиСП.
Появление и развитие технологий, именуемых 
искусственным интеллектом (далее – ИИ), а также 
их интенсивное применение в различных сферах человеческой деятельности стали вызовом для права 
и юридической доктрины. В общем русле цифровизации и становления антропотехносферы создание 
и усовершенствование этих технологий демонстрируют социально значимые эффекты, указывающие 
на необходимость упорядочения соответствующих 
процессов. 
Искусственный интеллект, как и ряд других продуктов технологической революции, послужил пред609


ХАБРИЕВА
вопрос о субъектности ИИ [17–20], взаимодействии 
человека и робототехники в процессе принятия решений [21]. В частности, ИИ осваивается с позиций 
когнитивных наук [22], с точки зрения способности 
больших данных и ИИ влиять на решения человека 
в культурном, экономическом и политическом контекстах [23]. Отдельный блок поиска осуществляется на стыке права и нейронауки [24, 25] и направлен 
на выяснение возможностей ИИ в юридической аргументации [26];
• теоретико-методологические исследования 
бытия ИИ в правовой сфере, создание правовой 
инфраструктуры взаимодействия человека и технологий ИИ [1, 27, 28]. 
Анализ научных результатов приводит к выводу 
о том, что правоведы в научном поиске движутся 
в русле фрагментации предмета исследований и полученных знаний. Несмотря на это, эскиз дисциплинарной онтологии (отраслевой научной картины) 
уже просматривается. Более того, доктриной предложены вариативные правовые модели, позволяющие на текущем этапе придать наиболее важным 
общественным отношениям в области применения 
ИИ правовую форму, купировать реальные и потенциальные риски для человека и общества [27, 28]. 
В то же время главная научная задача – разработка 
эффективной модели правового регулирования – 
сохраняет актуальность. 
Регуляторика в области ИИ стала формироваться 
сравнительно недавно. В процессе её становления 
пройдено несколько этапов как в  доктрине, так 
и  на практике. Поиск эффективного регулятора 
обозначил конкуренцию между этикой, на первых 
порах выполнявшей роль основного инструмента 
регулирования1, и правом, которое некоторое время 
было нейтральным по отношению к данной сфере. 
В настоящее время этическое регулирование уступило ведущую роль праву, хотя продолжает использоваться. 
В качестве причин изменений в соотношении 
этического и правового регулирования следует отметить: 
• переход к интенсивному внедрению ИИ во 
многие сферы жизни общества и деятельности государственных институтов, а также хозяйствующих 
1	См., например: Азиломарские принципы разработки ИИ 
(2017); Глобальные этические стандарты (Рекомендации) 
ЮНЕСКО в сфере искусственного интеллекта (2019); Рекомендации ОЭСР по искусственному интеллекту (2019); 
Рекомендации по этике для заслуживающего доверия искусственного интеллекта (2019), разработанные Экспертной группой высокого уровня Европейской комиссии; Руководящие принципы и Международный кодекс поведения Хиросимского процесса для организаций, разрабатывающих передовые системы искусственного интеллекта, 
Блетчли, Великобритания (2023). В России принят Кодекс 
этики в сфере искусственного интеллекта (2021). К нему 
присоединилось более 190 российских организаций и более 15 зарубежных компаний. 
посылкой формирования специфической области 
общественных отношений, что обусловило задачу 
поиска адекватных форм и методов их регулирования. К настоящему времени накоплен эмпирический материал для научного анализа, позволяющий 
проследить реакцию государств и международных 
институтов на развитие нового сегмента правовой 
сферы, а также оценить подходы к регламентации 
общественных отношений, связанных с технологией ИИ. Данное обстоятельство послужило стимулом 
для активизации правовых исследований в этой области. 
Искусственный интеллект осваивается правоведами в качестве и прикладной, и фундаментальной 
проблемы. Есть основания констатировать возникновение самостоятельного научного направления 
в юридической науке, которое объединяет теоретическую и  практическую проблематику правового регулирования общественных отношений, 
связанных с созданием и эксплуатацией ИИ. Уже 
проведены классификации состоявшихся научных 
исследований, систематизирован широкий спектр 
вопросов [1]. В их числе понятийно-категориальный аппарат права, необходимый для создания юридических форм в области применения ИИ, правовой 
статус соответствующих технологий и их носителей, 
юридическая ответственность за вред, причинённый ИИ. 
Правовые исследования в  этой сфере можно 
сгруппировать следующим образом:
• общие вопросы правового обеспечения создания и использования ИИ [2];
• формирование оптимального технологического, экономического и правового ландшафта для 
применения ИИ в социальной и юридической практике [3]. Разработки ведутся в части регулирования 
автономных и полуавтономных транспортных систем [4], автоматизированных биржевых консультантов (robo-advising) [5], банковской деятельности [6], 
применения ИИ в корпоративных процедурах [7];
• оценка возможностей, последствий и рисков 
опосредования технологий ИИ и  общественных 
отношений, связанных с его эксплуатацией различными отраслями права и законодательства (антимонопольного [8], законодательства о  защите 
персональных данных [9], об интеллектуальных 
правах [10]), соответствующая адаптация отраслевых и комплексных правовых институтов (юридическая ответственность, персональные данные, 
кибербезопасность и т.д.) [11]; 
• использование ИИ в юриспруденции, в том 
числе для выполнения определённых задач юриста [12–14];
• разработка специализированного “права роботов”, которое коррелирует с кибернетической этикой и программными правилами, имплементированными в машинные алгоритмы [15, 16]. Изучается 
	
ВЕСТНИК РОССИЙСКОЙ АКАДЕМИИ НАУК	
том 94	
№ 7	
2024


ПРАВОВЫЕ ПРОБЛЕМЫ ИДЕНТИФИКАЦИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

611
этики и права играет позитивную роль в процессе 
выработки правил поведения, необходимых как для 
развития технологий ИИ, так и для защиты человека 
от сопряжённых с этим рисков. 
На начальном этапе создания регуляторики 
в сфере ИИ возникла проблема выбора между установлением общего правового регулирования для 
всех сфер его применения и конструированием дифференцированного регулирования в каждой сфере 
в отдельности. Мировым трендом стала практика 
формирования унифицированной модели регулирования, предполагающей общие правила вне зависимости от области применения ИИ. Общие (базовые) законы об ИИ готовятся в 15 государствах. 
В основном это Восток и Азия: ОАЭ (Оман, Катар), 
Малайзия, Китай, Таиланд, Филиппины и др.
Значительный интерес подставляет Закон Европейского союза об искусственном интеллекте 
(Artificial Intelligence Act), принятый Европейским 
парламентом 13 марта 2024 г.3 Сфера его применения охватывает все секторы (за исключением военных) и все виды ИИ. Закон объёмный (85 статей), 
содержит правила использования различных приложений на основе ИИ, в том числе систем распознавания лиц, предиктивной аналитики, генеративного 
ИИ, беспилотных автомобилей и др. Он разработан 
на базе подхода, основанного на оценке рисков, согласно которому технологии ИИ классифицируются 
в соответствии с их потенциальным риском по четырём категориям: неприемлемый риск, высокий 
риск, низкий риск и  минимальный риск. Закон 
станет первым в мире примером комплексного регулирования использования ИИ, на который в дальнейшем так или иначе будут ориентироваться власти 
других стран и корпорации. И это уже происходит 
при подготовке собственных аналогичных актов. 
Например, в  Бразилии готовится законопроект, 
который имеет сходные черты с проектом закона 
Европейского союза. Он содержит похожие определение систем ИИ, категории рисков, перечень 
систем высокого риска, предоставляет субъектам 
права в отношении поставщиков и пользователей 
систем ИИ, механизмы обеспечения безопасности 
и ответственности4.
В целом страны Запада действуют в  соответствии с принятыми Организацией экономического сотрудничества и развития Рекомендациями по 
искусственному интеллекту 2019 г. В них закреплены принципы защиты персональных данных, фунсубъектов повлёк за собой разнообразные риски для 
человека, общества и государства (в сферах оборота 
персональных данных, обеспечения прав потребителей, конкуренции, жизни и здоровья людей);
• усиление социальной потребности в эффективной регуляции новых общественных отношений, 
обусловленной многочисленными рисками для человека, общества и государства, которые сопутствуют широкомасштабному внедрению ИИ;
• дефицит позитивного социального эффекта 
от этического регулирования на фоне повышения 
уровня и масштабов применения технологий ИИ, 
а также упомянутых рисков. 
Этические нормы не предполагают конкретных 
механизмов их реализации, преодоления последствий их несоблюдения (например, компенсация 
вреда жизни и здоровью человека, его имуществу). 
Право в этом смысле более действенный регулятор, 
который позволяет не только нормировать поведение людей и организаций, но и примирять противоречия, разрешать конфликты в области создания 
и использования ИИ. Это возможно только на основе императивов, которыми оперирует право, так 
как на повестке дня задача предотвратить серьёзные риски для человека. Этика постепенно, но неизбежно становится дополнительным регулятором. 
В практике разных государств наблюдается стремление наращивать правовое регулирование в области 
использования ИИ. В формируемой государствами 
регуляторике, опосредующей развитие и  применение технологий ИИ, увеличивается количество 
законодательных актов. Согласно докладу Стэнфордского университета “Индекс искусственного 
интеллекта – 2023” (AI Index Report 20232) в 2016 г. 
был принят всего один закон, в 2018 г. их было уже 
12, в 2021 г. – 18, в 2022 г. – 37. 
Законотворческая практика государств (от Европейского союза до Китая) очень разнообразна, но 
при этом в основу законодательных решений положен приоритет прав человека в том виде, в котором 
они определены во Всеобщей декларации прав человека. Отсюда охранительный уклон и разного рода 
охранительные ноу-хау в управлении развитием ИИ 
(в этом плане показателен опыт Китая, специфика 
которого будет показана ниже). 
Созданные этические нормы в области ИИ сохраняют действие, в  том числе служат одним из 
источников применяемых и проектируемых юридических норм. Осмысление динамики формирующегося социального регулирования в области ИИ 
приводит к выводу о том, что в нём складывается 
“трансграничный” режим в том смысле, что оно 
осуществляется на линии соприкосновения права 
и морали (этики), демонстрируя их взаимное проникновение в предмет, цели и функционал друг 
друга. В  сложившихся условиях взаимодействие 
3	См.: Proposal for a Regulation of the European Parliament and 
of the Council Laying down Harmonised Rules on Artificial 
Intelligence (Artificial Intelligence Act) and Amending 
Certain Union Legislative Acts // An official website on the 
European 
Union. 
https://eur-lex.europa.eu/legal-content/
EN/TXT/?uri=CELEX:52021PC0206
4	https://www.taylorwessing.com/en/interface/2023/ai---arewe-getting-the-balance-between-regulation-and-innovationright/ai-regulation-around-the-world 
2	https://aiindex.stanford.edu/report/
ВЕСТНИК РОССИЙСКОЙ АКАДЕМИИ НАУК	
том 94	
№ 7	
2024


ХАБРИЕВА
даментальных прав человека, прозрачности ИИ 
и логики принятия решений, сотрудничества стран 
в разработке и регулировании ИИ5, а также предлагается регулировать данную сферу согласно ранее 
принятым рекомендациям о трансграничном потоке персональных данных, с учётом ответственности 
оператора по факту его контроля над персональными данными вне зависимости от местонахождения. 
Специфичен опыт Китая, который готовит свой 
закон об ИИ. Этот подход является более фрагментированным и потенциально более жёстким (разрешительным), поскольку предполагается введение правила о предварительном одобрении службы 
безопасности для применения генеративного ИИ, 
ориентированного на потребителя. Западные специалисты критикуют его за чрезмерную, по их мнению, ответственность оператора и разработчика ИИ 
и возложение на него ответственности за поведение 
пользователя6. Помимо защиты персональных данных и ответственности разработчика или оператора 
систем ИИ, законопроект предусматривает защиту 
общественной морали, основных ценностей социализма и традиций китайского общества, а также 
фильтрацию данных, на основе которых обучаются 
системы ИИ7. 
Следствием использования права в  качестве 
основного регулятора общественных отношений 
в области ИИ стала необходимость правовой идентификации данного феномена. Несмотря на известные курьёзы, касающиеся распространения статуса 
субъекта права на цифровые сущности (предоставление Королевством Саудовская Аравия подданства 
роботу “София”8; рекомендации Еврокомиссии 
2017 г. “Нормы гражданского права о робототехнике”9, в которых допускалось особое правовое положение роботов, наделение их правовым статусом, 
включающим способность нести ответственность 
за свои действия, принимать самостоятельные решения или иным образом независимо от человека 
взаимодействовать с третьими лицами; информация 
о том, что нейросеть-чатбот ChatGPT претендует на 
собственную личность10, и др.), базовым направлением развития правовой доктрины и практики в рассматриваемой сфере стало признание ИИ объектом 
субъективных прав. Этот тренд отражает недавно 
принятый Закон Европейского союза об ИИ.
Искусственный интеллект проявляет себя в национальных правовых порядках прежде всего в качестве объекта гражданских прав. Соответственно, 
любая технология или система ИИ – это то, по поводу чего возникают правоотношения. Например, 
согласно российскому законодательству11 ИИ может быть идентифицирован как имущество, охраняемый результат интеллектуальной деятельности. 
В  международной частноправовой практике киберфизические интеллектуальные системы также 
имеют статус вещи в общем смысле и статус товара 
в коммерческом отношении. Так, Международная 
классификация товаров и услуг для регистрации 
знаков (МКТУ) прямо называет специфический вид 
товара: “Роботы человекоподобные с искусственным интеллектом” (класс 09, базовый № 090778)12. 
В то же время в доктрине продолжается дискуссия о наделении юнитов ИИ правосубъектностью 
и признании его субъектом права. Например, их 
предлагается наделить правом на функционирование, энергосбережение, самообучение. Обсуждаются вопросы о распространении на юниты ИИ прав 
человека (в их конституционном смысле), юридическом оформлении их правового статуса в качестве 
“электронного лица” [29, с. 277, 303–358, 30, 31], 
кибернетических “электронных организмов” [32], 
“электронных агентов”13 (такие модели уже разработаны). 
Среди потенциальных конституционных прав 
и свобод искусственных интеллектуальных систем 
называют: право быть свободным, право на самосовершенствование (обучение и  самообучение), 
право на неприкосновенность (защита программного кода от произвольного вмешательства третьих 
лиц), свобода слова, свобода творчества, признание 
за ИИ авторских прав и ограниченное право собственности [33]. В отношении обязанностей ИИ 
5	Рекомендации приняты Советом ОЭСР на уровне министров 22 мая 2019 г. по предложению Комитета по 
политике цифровой экономики (CDEP). См.: OECD. 
Recommendation of the Council on Artificial Intelligence, 
OECD/LEGAL/0449. 2022. https://legalinstruments.oecd.org/
en/instruments/oecd-legal-0449. P. 2–4.
	DigiChina. 
7	The Measures for the Management of Generative Artificial 
Intelligence Services (Draft for Comment). URL: https://
digichina.stanford.edu/work/translation-measures-for-themanagement-of-generative-artificial-intelligence-servicesdraft-for-comment-april-2023/ 
8	См.: Робот-андроид София стала подданной Саудовской 
Аравии // ТАСС / URL: https://tass.ru/ekonomika/4680400. 
9	См.: European Parliament Resolution of 16 February 2017 
with recommendations to the Commission on Civil Law Rules 
on Robotics (2015/2103(INL)) // European Parlament. URL: 
http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//
EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN
10	
См.: Чат-бот претендует на личность // Коммерсантъ / 
https://www.kommersant.ru/doc/5408670
11	
См.: Федеральный закон от 24 апреля 2020 г. № 123-ФЗ 
«О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных 
данных”»; Гражданский кодекс РФ. 
12	
См.: Международная классификация товаров и услуг для регистрации знаков (МКТУ) (11-я ред., изд. 1-е) // Правовая 
система “Кодекс”. https://docs.cntd.ru/document/420273241
13	
См.: Дмитрий Гришин представил проект регулирования 
правового статуса роботов в России. (17 декабря 2016 г). 
https://robotrends.ru/pub/1650/dmitriy-grishin-predstavilproekt-regulirovaniya-pravovogostatusa-roboto
	
ВЕСТНИК РОССИЙСКОЙ АКАДЕМИИ НАУК	
том 94	
№ 7	
2024


ПРАВОВЫЕ ПРОБЛЕМЫ ИДЕНТИФИКАЦИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

613
ческих конструкций на отработанные веками базовые институты права, открываются перспективы для 
развития общей модели правового регулирования. 
Наконец, ещё один сюжет связан с проблемой 
допустимости применения ИИ в качестве инструмента правового регулирования. Исследования показали наличие у технологий ИИ необходимого для 
этого потенциала. Соответствующие технологии используются при организации онлайн-голосования 
на выборах и референдумах, дорожного движения, 
квалификации преступлений, выявлении моделей 
преступного поведения (например, коррупционного). В ряде стран они попали в сферу судебного правоприменения. Например, в России первым опытом 
в этом направлении стал Белгородский эксперимент 2021 г. В Белгородской области на нескольких 
участках мировых судей технология ИИ была задействована для формирования судебных приказов по 
взысканию задолженностей по имущественным, 
земельным и транспортным налогам14. На проходившем 23–25 мая 2023 г. Совете судей России его 
председатель В.В. Момотов сообщил о  том, что 
в рамках суперсервиса “Правосудие онлайн”, запуск которого намечен на 2024 г., предполагается 
использование технологии “слабого” ИИ15. 
Потенциал систем ИИ в области формирования 
возможных судебных решений наглядно демонстрирует опыт соответствующих экспериментов в так 
называемом предсказанном правосудии (predicting 
justice). Искусственный интеллект на основе анализа массива исходных данных прогнозирует наиболее вероятный исход судебного разбирательства 
по тому или иному делу. Так, программное моделирование судебных актов позволило роботам в 70% 
случаев предсказать решения Верховного суда США 
и в 79% – решения Европейского суда по правам 
человека [39]. Значительные перспективы в плане 
определения оптимальной меры уголовного наказания открывает уникальная технология “Электронные весы правосудия”, разработанная И.М. Рагимовым и Х.Д. Аликперовым [40, 41] и не имеющая 
аналогов в мире.
14	
См.: “А судьи кто?”: как искусственный интеллект помогает человеку в суде. http:// www.techinsider.ru
15	
В суперсервис будут встроены вспомогательные элементы, 
с помощью которых можно определить подсудность дела, 
рассчитать и оплатить госпошлину, а также стандартные 
формы и справочники исковых требований, что позволит 
упростить и  ускорить обращение в  суд лицам, нуждающимся в  судебной защите. Основной задачей судебного 
ИИ станет автоматизированное составление проектов 
судебных актов на основе анализа текста процессуального обращения и материалов судебного дела. Планируется 
оценить потенциал его использования для расшифровки 
аудиопротоколов, создания интеллектуальной поисковой 
системы с  возможностью анализа и  систематизации судебной практики (см.: Суды планируют подключить искусственный интеллект к  составлению решений. http://
www.rg.ru).
предлагается конституционное закрепление трёх 
законов робототехники, сформулированных фантастом А. Азимовым в научно-фантастическом рассказе “Хоровод” (англ. Runaround) [34]: непричинение вреда человеку, а равно недопущение своим 
бездействием его причинения; повиновение всем 
приказам, отдаваемым человеком, кроме направленных на причинение вреда другому человеку; забота о собственной безопасности, за исключением 
предыдущих двух случаев [35]. 
В теоретической плоскости вопросы правосубъектности ИИ обсуждаются преимущественно 
в контексте трёх сюжетов: право интеллектуальной 
собственности, ответственность за гражданско-правовые деликты, картельные сговоры. Правоведы 
допускают даже уголовную ответственность искусственного интеллекта [36], оценивают перспективу 
появления в уголовных кодексах раздела, посвящённого мерам уголовно-правового характера для 
электронных субъектов [29, 37, с. 12]. 
Наделение этих творений правосубъектностью 
объясняется прагматичными соображениями, 
в числе которых необходимость решения ставших 
уже очевидными проблем их правовой идентификации в социальном и правовом пространстве, упрощение и оптимизация применения к ним действующих правовых режимов, содействие интеграции 
и сотрудничеству между человеком и машиной [29], 
а также специфика программ, которые в процессе 
самообучения становятся независимыми от своего создателя. Такие программы могут генерировать 
результаты, которые не предполагались замыслом 
разработчика, но стали возможны благодаря обучающей способности лежащего в их основе алгоритма [38, с. 137]. Однако для специалистов очевидно, 
что главной причиной актуальности обоснования 
соответствующих правотворческих решений является стремление перенести на сами юниты ИИ бремя 
юридической ответственности за причинение вреда 
человеку, имуществу, охраняемым законом общественным отношениям. В связи с этим, полагаем, 
что идеи правосубъектности ИИ будут находить своих адептов и научная полемика по данной проблеме 
будет продолжена. 
Вместе с тем в практической плоскости сделан 
выбор, который не предполагает воплощения указанных идей в правотворчестве или правоприменении, во всяком случае, в обозримой перспективе. 
Социализация ИИ осуществляется на основании 
традиционных подходов юриспруденции и сохранения его идентичности объекту субъективных прав. 
Гуманистический потенциал такого решения проблемы, имеющей по сути фундаментальный характер, очевиден. В соответствии с данным подходом 
создаются правовые основания для защиты человека, общества и государства от потенциальных негативных эффектов дальнейшей социализации ИИ, 
не происходит наслоения новых гибридных юридиВЕСТНИК РОССИЙСКОЙ АКАДЕМИИ НАУК	
том 94	
№ 7	
2024


ХАБРИЕВА
сурсами в создание национальной научно-технической системы (Венесуэла).
Конституционно закреплены права -
человека 
на получение выгоды от научно-технического 
прогресса нации (Гватемала), доступ к Интернету 
и информационным технологиям (Индия, Исландия, Мексика, Судан), использование достижений 
науки и техники (Индонезия). В проекте политической конституции Республики Чили, подготовленном Конституционным конвентом страны, который был вынесен на национальный плебисцит 
(4 сентября 2022 г.), но не был поддержан, каталог 
общеизвестных прав человека дополнен правами: 
на доступную цифровую среду; участие в цифровом 
пространстве, его устройствах и инфраструктурах; 
цифровое образование; развитие знаний, мышления и технологического языка, а также пользование его преимуществами; свободное использование 
Интернета. 
Очень важно, что конституционно закреплены 
критерии допустимости создания и распространения новых технологий. В качестве таковых зафиксированы необходимость корреляции их продвижения с религиозными ценностями (“с высочайшим 
уважением” к ним) и “национальным единством”, 
с целью “развития цивилизации и процветания человечества” (Индонезия), этическими и правовыми 
принципами, “регулирующими исследовательскую 
деятельность в области науки, гуманизма и технологий” (Венесуэла), со служением людям, с уважением 
к жизни, физической и психической неприкосновенности (Чили), общественным благополучием 
(Бразилия).
В целом можно констатировать, что в современных конституциях присутствуют несколько акцентов: 
• признание научно-технологического прогресса в качестве конституционной ценности и приоритета общественного развития; 
• стимулирование научно-технологического прогресса;
• право человека на доступ к технологическим 
инновациям;
• охрана конституционных, в том числе религиозных, ценностей от возможных негативных последствий технологической революции. 
Конституция РФ содержит ряд положений программного характера, которые служат своеобразным 
ответом на вызовы технологической революции 
и нового технологического уклада. В числе ценностей общественного (в том числе социально-экономического) развития, возведённых на уровень 
важнейших ориентиров и  приоритетов государственной политики (на федеральном и региональном уровнях), конституционное закрепление получили научно-технологическое развитие, наука 
и научный потенциал России как его источники 
и самостоятельные блага. Конституцией России по 
Искусственный интеллект востребован не только 
в сфере индивидуального (казуального) правового 
регулирования. Он используется в правотворчестве 
для прогнозирования последствий принимаемых 
нормативных правовых актов, выявления противоречий в  законодательстве [42]. Например, Еврокомиссия приняла Руководство по внедрению 
и использованию искусственного интеллекта в парламентском рабочем пространстве (DRAFT v1.0 / 6 
April 2023). 
Таким образом, признание инструментального 
характера искусственного интеллекта в правовом 
регулировании состоялось. Юридические основания для этого созданы. Применяемые в качестве 
вспомогательного инструментария системы имеют 
предпосылки стать одним из основных средств регулирования. По прогнозам, в будущем технологии 
ИИ будут использовать в правообразовании, выявлении, интерпретации и даже генерации политической воли (в качестве общей воли, отражающей 
борьбу и согласование свободных воль в их взаимодействии и взаимообусловленности, государственной, классовой или иной) [43, 44].
Можно констатировать, что период стремительного и во многом непонятного юристам, да и не 
только им, развития новых отношений в области 
создания и использования ИИ пройден. Круг этих 
отношений как предмет правового регулирования 
более или менее установлен, есть признаки относительно устойчивого воспроизводства этих отношений в определённом контуре. Ключевые правовые 
проблемы, включая угрозы и риски, которые несёт 
ИИ, осмыслены. Ответы на многие актуальные 
фундаментальные правовые вопросы предложены. 
Концептуализация отраслевого знания позволила 
выйти на необходимый уровень понимания сущности данного правового феномена и установления 
параметров его правовой идентификации. Это дало 
правоведам возможность предложить программные 
решения, которые нашли отражение в Основном 
Законе государства. 
В современных конституциях появились такие 
объекты регулирования, как научно-технологическое развитие (в разных вариантах формулировок – Россия, Мозамбик и др.); новые технологии 
(Бразилия, Венесуэла); информационные и коммуникационные технологии (Боливия, Германия); 
инновации, информационные услуги, национальная научно-техническая система (Венесуэла). В некоторых конституциях государству вменено в обязанность гарантировать, поддерживать и поощрять 
научно-технологическое развитие. В связи с этим 
к предметам ведения и (или) полномочиям органов 
публичной власти отнесены определение государственной политики в области научно-технологического развития, его обеспечение и  поддержка 
(Россия, Боливия, Германия). В отдельных случаях 
частный сектор обязывается вносить свой вклад ре	
ВЕСТНИК РОССИЙСКОЙ АКАДЕМИИ НАУК	
том 94	
№ 7	
2024


ПРАВОВЫЕ ПРОБЛЕМЫ ИДЕНТИФИКАЦИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

615
сути учреждена функция государства, состоящая 
в обеспечении научно-технологического развития 
и управлении им (посредством отнесения к предметам ведения Российской Федерации), а самостоятельным направлением государственной деятельности признано “обеспечение безопасности личности, 
общества и государства при применении информационных технологий, обороте цифровых данных” 
(п. “м” ст. 71).
Особенности данного конституционного регувания в области ИИ16, а также в научных концепциях. Например, в 2020 г. Институт законодательства 
и сравнительного правоведения при Правительстве 
Российской Федерации подготовил Концепцию 
комплексного регулирования (правового регулирования) отношений, возникающих в связи с развитием цифровой экономики17. В ней определены 
подходы и пределы: правового регулирования нетипичных общественных отношений, связанных с использованием цифровых технологий (в том числе 
финтеха, регтеха); применения к новым объектам 
(цифровым вещам, цифровым сущностям) действующих правовых режимов; гармонизации нормативного и индивидуального, правового и этического 
регулирования. Её положения нашли отражение 
в Научных концепциях развития российского законодательства [45], в которых предложены прогнозные и программно-целевые выводы и установки 
относительно развития законодательства Российской Федерации в целом, его отдельных отраслей, 
а также комплексных и формирующихся правовых 
массивов.
В настоящее время отечественная правовая 
доктрина сфокусирована на подготовке проектных решений в области ИИ, разработке правовых 
механизмов реализации конституционных новелл 
и актов государственного стратегического планирования. Соответствующий поворот наблюдается 
и в законодательстве, которое от периода интенсивной точечной адаптации к появлению отношений, осложнённых ИИ, перешло к этапу плановой 
технологической модернизации на основе доктринальных разработок и применения правового эксперимента18. На этом этапе важно эффективно воплотить фундаментальные и программные решения 
в текстах законов с тем, чтобы, с одной стороны, 
законодательно закрепить необходимые правовые 
конструкции, институты и процедуры, обеспечивающие безопасную для человека и общества социа16	
См.: Национальная стратегия развития искусственного 
интеллекта на период до 2030 года, утверждённая Указом 
Президента РФ от 10 октября 2019 г. № 490 “О развитии 
искусственного интеллекта в  Российской Федерации”; 
Концепция развития регулирования отношений в  сфере 
технологий искусственного интеллекта и  робототехники 
до 2024 года, утверждённая распоряжением Правительства 
РФ от 19 августа 2020 г. № 2129-р. 
17	
Концепция подготовлена по заказу Фонда развития Центра разработки и  коммерциализации новых технологий 
(Сколково).
18	
Федеральные законы от 24 апреля 2020 г. № 123-ФЗ 
«О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных 
данных”, от 31 июля 2020 г. № 258-ФЗ “Об экспериментальных правовых режимах в сфере цифровых инноваций 
в Российской Федерации”». 
лирования заключаются, во-первых, в  том, что 
в -
Основном Законе России гармонично сочетаются позитивно-регулятивный и охранительный 
подходы к новым технологиям, в частности к ИИ; 
во-вторых, в признании необходимости защищать 
всех без исключения основных субъектов конституционных правоотношений – личность, общество 
и государство. Систематическое толкование конституционных норм приводит к выводу о том, что 
осуществление функции защиты права распространяется и на бизнес.
Таким образом, обновлённая Конституция РФ 
(в п. “е”, “м” ст. 71, п. “е” ч. 1 ст. 72, ст. 114):
во-первых, формирует мировоззренческую парадигму, в некотором смысле идеологию социально-экономического развития России (на основе 
знаний и высоких технологий), включая критерии 
для определения пределов допустимого использования технологических инноваций. В ней нашли 
отражение стимулы для научно-технологического 
развития (в единстве науки как источника и технологий как результата научного поиска), гарантии 
защиты от его нежелательных эффектов, причём для 
всех основных субъектов конституционных отношений – личности, общества, государства; 
во-вторых, создаёт необходимые конституционные ориентиры для достижения стратегических 
целей России;
в-третьих, оформляет конституционную модель 
целой сферы общественной жизни, именуемой 
философами техносферой (или более широко – 
антропотехносферой), включая её ценностные 
основания, институциональную и функциональную основы, объекты и субъекты правового взаимодействия, правовые инструменты реализации 
государственных приоритетов, конституционные 
гарантии безопасности для личности, общества 
и государства.
Всё это задаёт правовые параметры развития 
и “социализации” ИИ, в том числе с учётом рисков 
и угроз, которые несёт перспектива его повсеместного внедрения [1].
Программные решения доктрины выражены 
в актах государственного стратегического планироВЕСТНИК РОССИЙСКОЙ АКАДЕМИИ НАУК	
том 94	
№ 7	
2024


Доступ онлайн
4 268 ₽
В корзину