Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Где кончаются технологии и начинается человек: социогуманитарное осмысление искусственного интеллекта

Покупка
Новинка
Основная коллекция
Артикул: 850155.01.01
Доступ онлайн
от 268 ₽
В корзину
В монографии рассматриваются вызовы искусственного интеллекта (ИИ), анализируется симбиоз современного человека и технологий с учетом позитивных и негативных последствий. Демонстрируются фундаментальные ограничения компьютерной теории сознания и новые конфигурации субъектности цифровой эры. Раскрываются барьеры алгоритмизации и обсуждается проблема субъектоподобных качеств нейросетей. Обосновывается потребность создания теории сознания на основе человеческого субъективного опыта. Адресована широкому кругу читателей: научным работникам, студентам, аспирантам, преподавателям и всем интересующимся проблематикой развития ИИ.
Лешкевич, Т. Г. Где кончаются технологии и начинается человек: социогуманитарное осмысление искусственного интеллекта : монография / Т.Г. Лешкевич. — Москва : ИНФРА-М, 2025. — 221 с. — (Научная мысль). — DOI 10.12737/2189092. - ISBN 978-5-16-020726-1. - Текст : электронный. - URL: https://znanium.ru/catalog/product/2189092 (дата обращения: 19.04.2025). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов
ГДЕ КОНЧАЮТСЯ 
ТЕХНОЛОГИИ 
И НАЧИНАЕТСЯ ЧЕЛОВЕК
СОЦИОГУМАНИТАРНОЕ 
ОСМЫСЛЕНИЕ ИСКУССТВЕННОГО 
ИНТЕЛЛЕКТА
Т.Г. ЛЕШКЕВИЧ
Москва
ИНФРА-М
2025
МОНОГРАФИЯ


УДК  004.8+1(075.4)
ББК  16.6:87.6
	
Л53
Лешкевич Т.Г.
Л53	 	
Где кончаются технологии и начинается человек: социогуманитарное осмысление искусственного интеллекта : монография / Т.Г. Лешкевич. — Москва : ИНФРА-М, 2025. — 221 с. — (Научная мысль). — 
DOI 10.12737/2189092.
ISBN 978-5-16-020726-1 (print)
ISBN 978-5-16-113386-6 (online)
В монографии рассматриваются вызовы искусственного интеллекта 
(ИИ), анализируется симбиоз современного человека и технологий с учетом позитивных и негативных последствий. Демонстрируются фундаментальные ограничения компьютерной теории сознания и новые конфигурации субъектности цифровой эры. Раскрываются барьеры алгоритмизации 
и обсуждается проблема субъектоподобных качеств нейросетей. Обосновывается потребность создания теории сознания на основе человеческого 
субъективного опыта.
Адресована широкому кругу читателей: научным работникам, студентам, аспирантам, преподавателям и всем интересующимся проблематикой 
развития ИИ.
УДК  004.8+1(075.4)
ББК  16.6:87.6
Р е ц е н з е н т ы:
Баева Л.В., доктор философских наук, профессор, декан факультета истории и социальных коммуникаций, профессор Астраханского 
государственного университета имени В.Н. Татищева, почетный работник высшего профессионального образования Российской Федерации;
Алексеев А.Ю., доктор философских наук, профессор, профессор 
Инженерной академии Российского университета дружбы народов 
имени Патриса Лумумбы, ученый секретарь Научного совета при 
Президиуме Российской академии наук по методологии искусственного интеллекта и когнитивных исследований
ISBN 978-5-16-020726-1 (print)
ISBN 978-5-16-113386-6 (online)
©  Лешкевич Т.Г., 2025


Вместо предисловия
Отношение мышления к бытию, а в свете современных реалий 
к бытию техногенному, предстает проблемой архиактуальной, ибо современное состояние как нельзя лучше отражает вывод: «мы обитаем 
в технологиях, технологии обитают в нас»! Виртуально визуализированный образ претендует на то, чтобы стать доминантой сознания. 
И хотя «цифра» истолковывается как наш друг, в условиях гибридного мира, сочленяющего цифровое и физическое, современники 
ощущают конфликтную перспективу «пре-цифрового» и цифрового 
существования. Степень насыщения технологическими новшествами 
предстает своеобразным критерием, свидетельствующим о состоятельности и современности «здесь и сейчас» живущих людей. Доступ 
к технологическим новшествам выступает маркером социальной 
неоднородности, стратификационным показателем престижа, достатка и благополучия. Считается, что человек XXI века тем более 
способен к самореализации, чем более он успешен в освоении и применении технологических новшеств.
Вместе с тем основной вызов, который бросает нам современная 
цивилизация, заключается в претензии искусственного интеллекта 
(ИИ) на формализацию и стереотипизацию семантики разумного 
мышления. И если упрощенные схемы стереотипов осуществляют 
«нормативное давление», то человеческое мышление нуждается 
в опоре на смысловое воздействие, обеспечивающее смыслообразование. Пафос лозунга «задраить люки и не допустить вторжение 
цифрового врага!» понятен, когда становится ясно, что Сеть, захватывая наше внимание, тут же предлагает ресурсы, производящие 
эффект его рассеивания. Или когда сетевые взаимодействия, обладая 
потенциалом мгновенной связи огромного количества людей, оборачиваются цифровым одиночеством и сокращением физических 
контактов «лицом к лицу».
В монографии предлагается социально-гуманитарное осмысление 
проблем, сопровождающих развитие ИИ. В центре идея внедрения 
технологий в когнитивную и психоментальную сферы человеческого 
восприятия мира. Акцент сделан на парадоксы ИИ в контексте существующей гибридной реальности, новые виды субъектности и векторы антропологических трансформаций. В фокусе внимания ловушки техноэволюции, эффекты «эхо-камеры», «пузырей фильтров», 
ботов, эмодзи как инструментов инет-общения. Поднимается острая 
проблема доверия/недоверия ИИ, галлюцинаций нейросетей, анализируется Метавселенная, размывающая границы виртуального 
и реального, а также специфика технологии NFT. В оптике «новой 
нормальности» цифрового мира дают о себе знать такие феномены, 


как «Эффект Цезаря», «Google-эффект», «Эффект Протея» и норма, 
обязывающая «быть всегда на связи». Выявлены противоречия новой 
нормальности и типы адаптационных стратегий.
Монография состоит из 6 глав и включает в себя многолетние 
разработки, опубликованные в статьях автора и содержащиеся в его 
выступлениях на конгрессах и конференциях. Она включает в себя 
обширную библиографию, сопровождаемую систематизацией современных отечественных и западных источников, которые направлены 
на изучение различных аспектов данной проблемы. В первой главе 
акцент сделан на последствия цифрового доминирования. В центре 
внимания исходные дефиниции используемых концептов, механизм 
детерриторизации, стирающий пространственные границы и «эффект миссионеров», обеспечивающий распространение технологических достижений. Во второй главе рассматриваются различные 
конфигурации субъектности цифрового мира, сопровождающая их 
клип-культура, обсуждаются негативы инет-общения. Третья глава 
нацелена на вопрос «кто мы есть?». В ней поднимается проблема: 
являются ли люди естественными киборгами? Выявлены тенденции 
«вочеловечивания» роботов и «роботизации пользователя», про-анализировано стремление к антропоморфизации внешнего облика 
робота. В четвертой главе обсуждаются многочисленные аргументы 
в споре -ИИ-энтузиастов и ИИ-алармистов. При рассмотрении проблемных зон ИИ в фокусе внимания «компьютерная метафора», 
оборачивающаяся вопросом: может ли мозг быть уподоблен компьютеру, а сознание сведено к мозгу? Пятая глава посвящена повороту 
к Метавселенной, позиционирующей себя в статусе новой реальности, рассматривается проблема алгоритмической ответственности 
и субъектоподобных качеств нейросетей. Монография завершается 
шестой главой, связанной с рассмотрением особенностей новой нормальности и цифровым трансфером ценностей. Многие поднятые 
вопросы и остро поставленные проблемы являются благодатным 
полем для современных дискуссий и ждут своих актуальных и оригинальных решений.


Введение
Стремительное развитие технологий ИИ порождает ситуацию, 
окрашенную нотками тревоги и беспокойства, свидетельствуя о все 
более технологизирующемся человеке и антропологизирующейся техносреде его обитания. Появление огромного массива научной литературы, а также многочисленных статей в научно-популярных журналах 
и блогах красноречиво свидетельствует об озабоченности, связанной 
с последствиями внедрения ИИ технологий в жизнь и деятельность 
нашего современника. Страницы журналов пестрят броскими названиями: Человек уже не нужен? Возьмет ли ИИ под контроль 
нашу жизнь? Какие риски несет неконтролируемое развитие ИИ? 
Станет ли помощник надзирателем?
В англоязычном дискурсе размышления, сосредоточенные вокруг 
тематики, сопоставляющей привычные офлайн-практики и онлайн- 
окружение, представлены под общим названием «Digital Humanities». 
Заметим, что как в названии, так и в интерпретации этого направления имеется значительное разнообразие. Иногда исследователи 
употребляют термин «digital culture», как, например, в исследованиях 
А. Рончи [Ronchi, 2009]. Категория «цифровое» свидетельствует 
о смещении социальных и гуманитарных исследований к информационной индустрии [Ruppert, et al., 2013]. В фокусе внимания оказываются взаимодействия человек — Сеть, индивид — интернет-ресурсы 
[Meteyard, et al., 2012]. Отечественные исследователи считают, что 
к этой области может быть отнесено все, что связано с созданием 
электронных аналогов духовных и материальных объектов, а также 
собственно виртуальных пространств, процессов и явлений [Баева, 
2013]. Широко распространено понятие «инфомир и населяющие 
его субъекты», которые, характеризуясь как Homo Interneticus [Лешкевич, 2017], включают в себя такие разновидности, как агент сетевых 
практик, «просмотрщик контента», актант, хиккикимори, «человек 
кликающий», человек-виртуал [Катречко, 2004]. В поле зрения аватаризация [Расторгуев, Литвиненко, 2011] и киборгизация человека 
[Емелин, 2013; Малькова, 2018; Митрофанова, 2018; Георгиу, 2022], 
роболичность и робозомби [Алексеев, 2020]; техносубъект [Игнатьев, 
2021].
Вместе с тем нынешняя, «третья волна» возрождения бурного 
интереса к ИИ и осмысления последствий его применения имеет 
тенденцию, ведущую от безусловного доверия к ИИ к фиксации атмосферы недоверия с четко осознаваемой необходимостью контроля 
над его развитием. Многообразные аспекты данной проблематики 
освещены в работах многих исследователей, среди которых Финн, 
2011, 2021; Кунафин, Кудряшев, Бугера, 2009; Бовыкин, 2012; Друкер, 


2012; Бостром, 2016; Chandrasekaran, Yadav, et al., 2017; Жданов, 
2015; Алексеев, 2015; Писаренко, 2017; Лукьянова, 2019; Разумов, 
Сизиков, 2019; Воеводина, Волобуев и др., 2019; Бухановский, 2019; 
Иоселиани, 2019; Рапопорт, Герц, 2020; Хуэй, 2016; Бруссард, 2020; 
Cross, Ramsey, 2021; Гусаков, 2021; Стерледева, Стерледев, 2021; 
Тарасов, 2021; Михайлов, 2022; Лешкевич, 2022; Любимов, 2022; 
Оливейра, 2022; Шнайдер, 2022 и многие др.
Интерес исследователей направлен на проблемы соотношения 
ИИ и особенностей когнитивных процессов, сопоставление ИИ 
и специфики субъективной реальности, эти аспекты рассматривают 
Лекторский, 2006, 2022; Дубровский, 2007, 2022; Васильев, 2009; 
Величковский, 2008; Винник, 2017; Карр, 2012; Смолл, Ворган, 2011; 
Смирнов, 2012; Кузнецов, 2016; Ефимова, 2017; Петрунин, 2018; 
Боргест, 2019; Гаврилина, 2020, 2022; Вислова, 2021; Лепский, 2021; 
Неизвестный, 2021; Черниговская, 2021; Анохин, 2021, а также Levy, 
2009; Dehaene, Lau, et al., 2017; Kinouchi, Mackin, 2018; Kotseruba, 
Tsotsos, 2018; Деан, 2018; Харари, 2019; Киссинджер, Шмидт, Хаттенлокер, 2022; Yampolskiy, 2022; Gao, 2023 и др. Исследователи 
единодушны в том, что побочные продукты внедрения ИИ без должного социогуманитарного сопровождения могут вести к повышению 
тревожности и напряженности [Ушаков, Валуева, 2022], воздействие 
ИИ на человека и человечество оценивается как гуманитарно-технологическая революция [Малинецкий, 2019]. Международная группа 
ученых [см.: Lehman, et al., 2018] собрала внушительную подборку 
сбоев в работе алгоритмов, тем самым показав, что не случайно цифровую эпоху называют эпохой программ, сталкивающихся с неполадками. Ряд ученых, среди которых Floridi, 2015; Рибьеро и др., 
2016; Bryson, 2018; Moar, 2019; Wiencierz, Lünich, 2020; Ryan, 2020; 
Ferrario, et al., 2020; Нестик, 2018; Дашков, Нестерова, 2021; Потапова, Шклярук (ред.), 2021, а также Гарбук, 2020; Латыпова, 2020; 
Лешкевич Т.Г., 2023; Oksanen, Saleva, et al., 2020; Kaplan, Kessler, et 
al., 2021; Solberg, Kaarstad, et al., 2022 и др., поднимают проблему 
доверия ИИ. Аспект доверия цифровым помощникам Amazon Alexa, 
Samsung Bixby, Microsoft Cortana, Google Assistant, Apple Siri и др., 
которые учитывают предпочтения пользователей, анализируют Манович, 2015; Полонски, 2016; Szegedy, et al., 2017; Ejdys, et al., 2019; 
Кaplan, Haenlein, 2019; Пурванто, Кусванди и др., 2020; Gillath, Ai, et 
al., 2021. В работе Venkatesh, et al., 2016 отмечается, что доверие функционирует как важная предпосылка принятия технологии в целом 
и использования ИИ в частности [Siau, Wang, 2018]. Перспективным 
направлением представляется решение вопроса о способности ИИ 
к эмпатии [Hubbard, 2011; Kaptein, Broekens, et al., 2017; Zhang, Xie, 
2018; Хабибрахимов, 2020] и того, насколько велика эмоциональная 
зависимость человека от диалоговых цифровых помощников [Peart, 


2018]. В контексте сотрудничества с ИИ поднимается проблема дружественности ИИ [Рассел, Норвинг, 2007; Мейсон, 2008; Креншоу, 
2010; Селиванов, 2010; Гизатуллин, 2017; Гринбаум, 2017; Бугаков, 
2019; Углева, Разин, Денисов и др., 2020; Грачев, 2022; Yudkowsky, 
2008, 2011; Muehlhauser, Bostrom — Think, 2014; Olson 2014; Dancy, 
2018; Boyles, Joaquin, 2020; Fröding, Peterson, 2022].
Своевременная оценка рисков, обусловленных прогрессом разработок в области ИИ, выдвигается в число приоритетных [Cycleback, 
2018; Шнуренко, 2018–2019]. При этом внимание обращено на существенную «эпистемологическую непрозрачность» [Humphreys, 2009; 
Zednik, 2021], на подходы к функционированию ИИ по типу «черных 
ящиков» [Kitchin, 2011; Diakopoulos, 2013] и в целом на отрицательные последствия использования ИИ [Meteyard, Rodriguez, et al., 
2012; Кловайт, Ерофеева, 2019; Бруссард, 2020; Иванов, Игнатовский, 
2020 и др.]. Заявлена острая проблема злонамеренного использования 
искусственного интеллекта и классификации ЗИИИ: [Пашенцев, 
2019, 2022]. Значимый аспект выявлен в исследованиях токсичного 
поведения ИИ компанией «DeepMind». Под зонтиком «токсичность» 
группируются способы генерирования оскорбительных выражений, 
включая язык ненависти, ненормативную лексику и угрозы [Gehman, 
et al., 2020].
Исследовательские усилия направлены на рассмотрение проблемы 
алгоритмической ответственности, которая обусловлена как автоматизированностью алгоритмических процессов (при минимальном 
участии человека или вовсе без него), так и непрозрачностью ИИ 
[Binns, 2018; Martin, 2019; Мартыненко, Добринская, 2021]. Исследователи подчеркивают, что в основе того, что мы делаем на компьютере, лежат математические действия, которые имеют свои фундаментальные ограничения, определяющие границы технологий 
[Бруссард, 2020]. Причем, «дигитально-рожденные» — т.е. объекты, 
выработанные сразу в цифровой форме, могут быть как статичные 
(завершенные), так и динамические [Спивак, Д.Л., 2020]. С особой 
настоятельностью исследователи подчеркивают, что на первый план 
выходят вопросы ответственности за разработку и внедрение алгоритмов, а также проблема контроля над результатами их работы, 
зачастую заранее непрогнозируемыми [Willson, 2017]. Согласно 
имеющимся данным около 46% европейцев положительно оценивают работу алгоритмов и только 20% озабочены негативными последствиями алгоритмического управления и принятия решений 
на основе алгоритмов [Grzymek, Puntschuh, 2019]. О «когнитивной 
автоматизации», в которой роль людей, принимающих решения, 
является часто упускаемым из виду фактором, пишет Рибьеро и др., 
2016. В работе Polonski, 2018 показано, что многим людям не нравится 
полагаться на AI, они предпочитают доверять экспертам-людям. 


Вопрос о понятности решений ИИ с включением таких аспектов, как 
прозрачность, прослеживаемость и интерпретируемость, обсуждается 
[Grzymek, Puntschuh, 2019; Коене и др., 2019; Роде, 2018]. К направлениям, посвященным новым методам интерпретируемости решений 
ИИ, относятся работы Guidotti, et al., 2018; Samek, 2019 и др.
Важной признана идея адаптации, которая определяется как способность системы ИИ «правильно интерпретировать внешние данные, 
учиться на них и использовать полученные знания для достижения 
конкретных целей и задач посредством гибкой адаптации» [Каплан, 
Хайнлайн, 2019]. Внимание обращено на возможность систем ИИ 
нейтрализовать предвзятость в процессе принятия решений [Zarsky, 
2015]. В ряде исследований [Джарратано, 2007; Bermudez-Contreras, 
2021; Бурцев, Логачева, 2020; Визильтер, 2021; Бурцев, Бухвалов, 
Ведяхин и др., 2021] обсуждаются трудности обучения ИИ вне моделирования строгих рассуждений с использованием системы постулатов и средств логического вывода. Следует отметить и то, что 
для большинства исследователей, к числу которых относятся как 
отечественные, так и западные ученые [Марков, 2020; Петрунин, 
2018; Николенко, 2018; Михеенкова, 2019; Майер-Шенбергер, 2014; 
Ceglowski, 2016; Гудфеллоу, 2017; Binns, 2020; Hoffmann, 2019 и др.], 
главным ресурсом для обучения искусственного интеллекта признаны массивы Большие данных. При этом «одним из типов входных 
данных является информация о том, на какие из ссылок, выданных 
ранее по тому же запросу, кликали пользователи» [Манович, 2015]. 
Проблема метавселенной интересует Костикову, Сегал, 2022; Кочнову, 2021; Гурова, Конькову, 2022 и др. Затрагивается проблема 
ценностей, значимая для возникновения технологий Больших данных 
[La Fors, Custers, et al., 2019; Журавлева, 2012]. В фокусе внимания 
оказывается этический аспект изучения Big Date [Favaretto, De 
Clercq, et al., 2020].
Подход, обнаруживающий отмежевание этики ИИ, представлен 
такими исследователями, как Карпов, Готовцев и др., 2018; Bryson, 
2018; Ланье, 2019; Разин, 2019, 2022; Жадунова, 2020; Назаров, 2020; 
Согомонов, 2020; Дубровский, Ефимов, Матвеев, 2022, Клюева, 
2022; Каримов, Хорт, 2023; Взорин, Букинич, Нуркова, 2024; 
а также Baum, 2020; Bruneault, Laflamme, 2020; Coeckelbergh, 2020; 
Morley, Floridi, 2020. Этот подход дает о себе знать и в более ранних 
исследованиях [Лефевр, 2003; Allen, Smit, et al., 2005; Wallach, Allen, 
et al., 2008; Coeckelbergh, 2010; Tarleton, 2010; Yampolskiy, 2013]. 
В центре внимания аспект, маркирующий типы отношений человека к ИИ [Пинчук, Тихомиров, 2019; Замков, 2019]. Интерес представляют моральные проблемы «машинного поведения» [Bonnefon, 
et al., 2016; Ускова, 2021]. Р. Ферс и Э. Робинсон выделяют шесть 
типов человеко-машинного взаимодействия на основании крите
риев оптимизма/пессиммизма/ ассамбляжности, а также стратегичности и гуманистичности [Firth, Robinson, 2021].
Аспекты, затрагивающие потенциал воплощения определенной 
системы ценностей при алгоритмизированном принятии решений, 
присутствуют в трудах [Zarsky, 2015; Nissenbaum, 2001]. В контексте сотрудничества с ИИ предпочтения отдаются стратегиям 
объяснимого ИИ [Gunning, 2017; Doran, Schulz, et al., 2017; Adadi, 
Berrada, 2018; Borgo, Cashmore, et al., 2018; Miller, 2018; Боргест, 
2019]. В трудах [Allen, Smit, et al., 2005; Kolonin, Goertzel, et al., 2018] 
уделено внимание гибридному интеллекту.
Гибридную реальность, допускающую двоякое представительство 
как онлайновых, так и офлайновых форм взаимодействия, и определяемую как смешение и наложение друг на друга реального и виртуального, рассматривают Шкляр, Попова, 2018; Дроздова, 2018; 
Иванова, 2018; Фролов, 2018; Чистякова, Иванченко, 2018; Аршинов, 
Буданов, 2019; Лепский, 2019; Лешкевич, 2019; Пономарев, 2019; 
Славин, Гринь, 2019; Игнатьев, 2020; Ильин, 2020; Зейналов, 2021; 
Чеклецов, 2021; Баширов, 2021; Сухов, 2022; а также Stancuigelu, 
Rusu, Iacob, 2015 и др.
Отдельное направление связано с рассмотрением роли и значения ИИ в контексте будущего [Шмидт, Коэн, 2013; Брайтон, 
2018; Брокман, 2017; Минделл, 2017; Овчинников, 2017; Урри, 2018; 
Zuboff, 2019; Осипов, 2001; Финн, 2021; Веласко, Поппер и др., 2021; 
Firth, Robinson, 2021], интерес представляют исследования мировых 
тенденций развития ИИ [Цветкова, 2017; Шнуренко, 2018–2019; 
Ефременко, 2020; Буров, Гайнулов и  др., 2019]. Размышления 
о стремительном усложнении технологий ИИ, предстающих в качестве инструмента по осуществлению имитации разнообразных 
сценариев, нашли отражение в работах Разумова, Сизикова, 2019. 
Ученые А. Каплан, М. Хайнлайн указывают на шесть направлений 
будущего ИИ с учетом правоприменения, занятости, этики, образования, согласия и эволюции [Каплан, Хайнлайн, 2020].
Следует отметить и ряд отечественных центров, разрабатывающих 
проблематику ИИ. Так, в рамках научного Совета РАН по методологии ИИ проводится многоаспектное философско-методологическое 
изучение ИИ. Приращения в области применения ИИ в промышленности и сферах профессиональной деятельности связаны с работой 
исследовательского центра «Сильный искусственный интеллект 
в промышленности» Университет Иннополис, ИТМО. Значима направленность работы центра Сколтеха по внедрению технологий ИИ 
в индустрию и, в частности, в целях снижения углеродного следа. 
Центр ИИ МФТИ концентрирует свои усилия на разработках прикладного использования ИИ (разговорный ИИ и ассистенты, технологии ИИ в антропоморфной робототехнике, технологии интеллек
туального управления). Проблематика исследовательского центра 
искусственного интеллекта НИУ ВШЭ интересна разработками 
технологий ИИ для решения социально значимых задач, обращенных 
к экологии, этике, лингвистике, праву и пр. На анализ и диагностику 
психологического состояния россиян по их аккаунтам в соцсетях направляет свои усилия «Центр искусственного интеллекта» Института 
системного программирования им. В.П. Иванникова.
Если затронуть вопрос о приемлемой методологической стратегии, то она опирается на принципы конвергенции и детерминации 
будущим, а также предполагает учет феномена эмерджентности. Эффективным является субъектно-ориентированный подход, акцентирующий приоритеты человекоразмерного существования. Особое 
значение приобретает дескриптивный, оценочно-описательный метод 
и метод компаративного анализа, которые позволяют как систематизировать позиции ученых и экспертов, так и фиксировать проблемы, 
возникающие в процессе развития и функционирования ИИ. Не теряет свою актуальность принцип социокультурной детерминации, 
указывающий на зависимость технологического развития от вызовов 
и запросов социокультурной среды. Важная роль принадлежит этикоаксиологическому измерению, опирающемуся на общечеловеческую 
систему ценностей и этических императивов.


Похожие

Доступ онлайн
от 268 ₽
В корзину