Применение алгоритмов машинного обучения для исследования конкурентоспособности организаций в условиях цифровой экономики
Покупка
Новинка
Основная коллекция
Издательство:
СОЛОН-Пресс
Автор:
Бесхмельнов Максим Игоревич
Год издания: 2023
Кол-во страниц: 104
Дополнительно
Вид издания:
Монография
Уровень образования:
Профессиональное образование
ISBN: 978-5-91359-543-0
Артикул: 849063.01.99
Переход от бумажных носителей информации к цифровым, вызванный повсеместным использованием информационных и телекоммуникационных технологий, открывает перспективы для работы с постоянно возрастающим объемом информации и возможностью извлечения знаний из слабоструктурированного массива данных. Несмотря на относительно небольшой срок активного применения в промышленности цифровых носителей, объем данных на них растет год от года в геометрической прогрессии, что является следствием преобразования и перевода данных из различных областей жизнедеятельности человека в цифровой вид. К 2016 году накопленное количество данных оценивалось в 16 зеттабайт, но по прогнозам аналитической компании IDC к 2025 году объем всех данных достигнет отметки в 163 зеттабайт. В связи с этим на первый план выходят способы хранения, обработ- ки, поиска и извлечения знаний из данных. Эта технология получила название сквозной цифровой технологии «Большие данные». К 2024 году осуществить комплексную цифровую трансформацию экономики и социальной сферы России.
Тематика:
ББК:
- 6505: Управление экономикой. Экономическая статистика. Учет. Экономический анализ
- 6529: Экономика предприятия (фирмы)
УДК:
ОКСО:
- ВО - Бакалавриат
- 38.03.01: Экономика
- 38.03.02: Менеджмент
- ВО - Магистратура
- 38.04.01: Экономика
- 38.04.02: Менеджмент
- ВО - Специалитет
- 38.05.01: Экономическая безопасность
ГРНТИ:
Скопировать запись
Фрагмент текстового слоя документа размещен для индексирующих роботов
Бесхмельнов Максим Игоревич ПРИМЕНЕНИЕ АЛГОРИТМОВ МАШИННОГО ОБУЧЕНИЯ ДЛЯ ИССЛЕДОВАНИЯ КОНКУРЕНТОСПОСОБНОСТИ ОРГАНИЗАЦИЙ В УСЛОВИЯХ ЦИФРОВОЙ ЭКОНОМИКИ Монография СОЛОН-Пресс Москва 2023
УДК 338.24 [2] ББК 65.29, 65.050 Б538 Рецензенты: Панова Елена Сергеевна — К.э.н., доцент кафедры «»Управление качеством», руководитель Группы учебного планирования и международного взаимодействия Факультета маркетинга и международного сотрудничества Института управления и регионального развития РАНХиГС Ермошина Татьяна Владимировна — к.э.н. доцент, доцент кафедры экономики и менеджмента Московского финансово-юридического университета (МФЮА) Об авторе Бесхмельнов Максим Игоревич — ассистент кафедры информатики Института кибербезопасности и цифровых технологий ФГБОУ ВО «РТУ МИРЭА» Бесхмельнов Максим Игоревич Применение алгоритмов машинного обучения для исследования конкурентоспособности организаций в условиях цифровой экономики. Монография. — М.: СОЛОН-Пресс, 2023. — 104 с. ISBN 978-5-91359-543-0 Переход от бумажных носителей информации к цифровым, вызванный повсеместным использованием информационных и телекоммуникационных технологий, открывает перспективы для работы с постоянно возрастающим объемом информации и возможностью извлечения знаний из слабоструктурированного массива данных. Несмотря на относительно небольшой срок активного применения в промышленности цифровых носителей, объем данных на них растет год от года в геометрической прогрессии, что является следствием преобразования и перевода данных из различных областей жизнедеятельности человека в цифровой вид. К 2016 году накопленное количество данных оценивалось в 16 зеттабайт, но по прогнозам аналитической компании IDC к 2025 году объем всех данных достигнет отметки в 163 зеттабайт. В связи с этим на первый план выходят способы хранения, обработки, поиска и извлечения знаний из данных. Эта технология получила название сквозной цифровой технологии «Большие данные». К 2024 году государство намерено осуществить комплексную цифровую трансформацию экономики и социальной сферы России. ISBN 978-5-91359-543-0 © СОЛОН-Пресс, 2023 © Бесхмельнов М. И., 2023
ОГЛАВЛЕНИЕ Введение ......................................................................................................... 4 1. Теоретические основы машинного обучения ......................................... 6 2. Искусственный интеллект в цифровой экономике ............................... 26 3. Цифровая трансформация промышленных предприятий в условиях инновационной экономики ......................................................................... 33 4. Оценка конкурентоспособности организаций в условиях цифровой экономики .................................................................................................... 49 5. Технологии искусственного интеллекта как фактор цифровизации экономики России и мира ........................................................................... 55 6. Цифровая экономика и ее влияние на конкурентоспособность организаций ................................................................................................. 62 7. Использование методов и алгоритмов машинного обучения для исследования конкурентоспособности организаций ......................... 82 8. Риски при проведении цифровой трансформации организаций на примере технологий машинного обучения ............................................... 87 Заключение .................................................................................................. 96 Список литературы ................................................................................... 100 3
ВВЕДЕНИЕ Направление по обработке «больших данных» входит в зону ответственности ГК «Росатом», где в рамках создания цифровой платформы «Распределенная среда обработки больших данных» предусмотрены работы по развитию компонентов систем поддержки принятия решений, программных интерфейсов доступа к данным и др. Ввиду возрастания объема данных и необходимости осуществлять поиск среди них на первый план выходит задача определения релевантности и пертинентности информации. Понятие «релевантность» означает «соответствие полученной информации информационному запросу». Таким образом, релевантность определяется исключительно используемыми математическими моделями в конкретной информационно-поисковой системе. Под понятием «пертинентность» понимается «соответствие полученной информации информационной потребности», т.е. пертинентность — соответствие найденных информационно-поисковой системой документов информационным потребностям пользователя независимо от того, как полно и точно эта потребность выражена в форме запроса. Один из подходов для повышения пертинентности информационного поиска — использование методов машинного обучения как частный случай применения интеллектуального анализа данных. Данное направление исследования лежит на пересечении целого ряда дисциплин: математики, информатики, статистики, теории вероятностей и прочих. Выделяют особый подкласс информационных систем, опирающийся на математические модели и позволяющий решать задачи по определению релевантности и пертинентности данных, который называется рекомендательными системами. Отсутствие универсальных подходов для решения задач предобработки и классификации в рекомендательных системах делает разработку методов и алгоритмов машинного обучения в этом случае особо актуальной. Рекомендательная система представляет собой программное средство и методы, назначением которых является прогнозирование поведения пользователя в отношении объекта информационного поиска и 4
Введение формирование рекомендаций для объектов, с которыми он еще не встречался. Потребность в персонификации информационных предложений также будет реализовываться в развитие интеллектуальных советников, которые будут адаптироваться под конкретного пользователя. Источником данных для рекомендательной системы выступают профили пользователей, явные и неявные. В профиле фиксируются данные о самом пользователе, предоставленные как лично, так и через перечень действий, которые он совершил за время работы с системой. 5
1. Теоретические основы машинного обучения Несмотря на тот факт, что непосредственно термин машинное обучение был введен только в 1959 году, первые попытки построения таких систем начаты еще в 1936 году с разработок AT&T Bell Labs синтезатора речи. Эпоха же нейронных сетей отсчитывается с работы МакКаллока и Питтса 1943 года и введенной одноименной пороговой модели биологического нейрона с функцией Хевисайда в качестве функции активации Такая модель является грубой, как с точки зрения описания биологического нейрона, так и ограниченной в практическом применении. В связи с разрывностью этой функции, служившей затруднением для настройки нейросетей, построенных на такой модели нейрона, в расчетную практику был введен целый набор непрерывных функций активации, в частности, кусочно-линейная, гауссова, сигмоидальная, тангенциальная и т.д (см. рисунки 1,2,3,4) Рисунок 1 — Функция Хевисайда 6
1. Теоретические основы машинного обучения Рисунок 2 — Сигмоидальная функция активации Рисунок 3- Тангенциальная функция активации Рисунок 4- Кусочно-линейная функция активации 7
1. Теоретические основы машинного обучения Рисунок 5 — Гауссова функция активации Использование таких модельных (часто называемых формальными, или математическими) нейронов как элементарных единиц обработки информации привело к концепции формальной нейронной сети, где накопителями информации являются пластические связи-синапсы, настраиваемые процедурой, называемой обучением. Первая вычислительно полезная линeйно разделяющая однослойная модель на формальных математических нейронах Мак-Каллока и Питтса — Персептрон — была предложена в 1958 году Фрэнком Розенблаттом, доказавшим теорему сходимости для обучения персептрона. В конце 1950-х в Корнелльском университете он построил систему Mark I Perceptron, которую можно признать первым нейрокомпьютером, обозначившим стартовую веху в машинном обучении. Однако предложенная однослойная модель, независимо от нелинейности нейрона, способна только на линейное разделение, что, собственно, в результате критики Минского и Пайперта привело к известному замораживанию работ и потере интереса исследователей по нейронным сетям до середины восьмидесятых годов и обращению к другим методам. В 1967 появился метрический алгоритм классификации «Метод k-ближайших соседей», основой которого является отнесение текущего примера к тому классу, к которому относятся большинство из k соседей. Период охлаждения интереса к нейронным сетям закончился их ренессансом с появлением в 1986 году алгоритма обратного распространения ошибки, когда прямой проход сигнала по сети до выходного дополняется обратным в направлении входного с последовательным 8
1. Теоретические основы машинного обучения внесением коррекции в синаптические веса с учетом ошибки вычисляемой на узлах. Индуктивные методы обучения (такие как, например, обучение дерева решений), обобщающие серии тренировочных примеров на основе независимого от предметной области сходящегося тренировочного алгоритма. Особенностью этого подхода является их способность обучения «с листа», т.е. только на основе примеров. К этому типу относится обучение по прецедентам (case-based learning или instance-based learning), когда знания представляется в терминах конкретных случаев или опытов и используются гибкие методы сопоставления для извлечения этих случаев и применения их к новым ситуациям. Так, например, схема ближайшего соседа, просто находит хранимый пример ближайший (в соответствии с некоторой метрикой расстояния) к текущей ситуации, затем использует его для классификации или прогнозирования. Обучение по прецедентам обычно хранит учебные экземпляры в памяти; обобщение происходит во время поиска, причем значительная часть мощности, присутствующей в схеме индексирования, и метрика подобия используется для идентификации соответствующих прецедентов, хотя более сложные варианты могут адаптировать извлеченный случай к новой ситуации. Методы генерации правил (rule generation) использует правила условия действия, деревья решений или сходные структуры знаний. Метод сортирует экземпляры по веткам дерева или находит первое правило, условиям которого соответствуют экземпляр, обычно используя подход все-или-ничего. Информация о классах или прогнозах хранится в сторонах действия правил или листьев дерева. Алгоритмы обучения в методе генерации правил обычно выполняют жадный поиск в пространстве деревьев решений или наборов правил, рекурсивно разбивая данные обучения на непересекающиеся множества, пытаясь суммировать каждый набор, как совокупность логических условий. Нейронные сети (neural networks) представляют знания как сеть многослойных узлов-нейронов, которая проводит активацию от входа через внутренние блоки к выходным нейронам. Величины активации 9
1. Теоретические основы машинного обучения выходных узлов может быть переведены в числовые прогнозы или дискретные решения о классе входа. Аналитические подходы к обучению, в частности, обучение на основе объяснений (explanation-based learning), когда формируются объяснения для примеров и обобщаются примеры, основанные на знаниях, специфичных для области, используют встроенную теорию предметной области для анализа и обобщения отдельных примеров обучения. К их достоинству относится тот факт, что они требуют меньше данных для обучения и учатся гораздо быстрее. В работе предлагается трехэтапная процедура реализации такого подхода: 1. Объяснение. Объяснениебъясняется путем объединения последовательности правил теории предметной области. 2. Анализ. Объяснение анализируется, чтобы найти самое слабое условие, при котором это объяснение приводит к такому же результату. Таким образом, особенности, которые не играют никакой роли в объяснении, не включаются в это слабое условие. Обобщающее пример объяснение формирует новое правило. 3. Уточнение. Полученное обобщенное объяснение добавляется в память правил. Генетические алгоритмы являются разновидностью алгоритмов оптимизации методом случайного поиска набора параметров («кандидата»), максимизирующего целевую функцию (функцию приспособленности), в данном случае характеризующую успешность решения задачи обучения. Алгоритм требует определения операторов кроссовера и мутации, посредством которых генерируются новые кандидаты, близкие к наиболее приспособленным из существующих. Наименее приспособленные кандидаты отбрасываются. В результате множество кандидатов совершают параллельное движение к оптимуму функции приспособленности, сохраняя набор конкурирующих, а иногда и дополняющих друг друга описаний памяти. 10