Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

ИТ в современном менеджменте

Покупка
Артикул: 826577.01.99
Доступ онлайн
1 000 ₽
В корзину
Курс посвящен применению современных информационных систем в управлении предприятием.
Кияев, В. И. ИТ в современном менеджменте : краткий учебный курс / В. И. Кияев, О. Н. Граничин. - Москва : ИНТУИТ, 2016. - 121 с. - Текст : электронный. - URL: https://znanium.ru/catalog/product/2140017 (дата обращения: 21.11.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов

                                    
ИТ в современном менеджменте

2-е издание, исправленное

Кияев В.И.
Граничин О.Н.

Национальный Открытый Университет “ИНТУИТ”
2016

2

ИТ в современном менеджменте/ В.И. Кияев, О.Н. Граничин - М.: Национальный Открытый
Университет “ИНТУИТ”, 2016

Курс посвящен применению современных информационных систем в управлении предприятием.

(c) ООО “ИНТУИТ.РУ”, 2014-2016
(c) Кияев В.И., Граничин О.Н., 2014-2016

3

Изменение вычислительно-информационной парадигмы: новые
подходы и модели

Эволюция вычислений и вычислительных устройств. Нелинейная динамика и
синергетика – возможности применения в параллельных вычислениях. Искусственный
интеллект. Практические задачи и устройства для их решения: “новый-старый” подход.
Обработка информации в условиях неопределенностей.

Эволюция вычислений и вычислительных устройств

Быстродействие современных вычислительных средств уже довольно близко подошло
к теоретическому пределу. Этого быстродействия, однако, оказывается недостаточно
для того, чтобы практически решать новые сложные задачи управления
неоднородными нелинейными системами, осуществлять непрерывный анализ
огромных потоков информации, реализовывать основные функции “искусственного
интеллекта”.

Поэтому все более становится актуальным, так называемый “новый” взгляд на
информационные процессы. Этот взгляд, основывается на идее, что всё лучшее уже
существует — и существует в природе! Выявление принципов работы существующих в
природе механизмов обработки информации и внедрение этих результатов в
технические системы является одним из приоритетных путей развития техники.

В природе есть сверхпроизводительный биологический параллельный компьютер с
миллиардами нейронов-процессоров, глобально связанных друг с другом (до десятка
тысяч связей у каждого) — головной мозг. И это несмотря на то, что “тактовая”
частота работы отдельного элемента-процессора достаточно низкая. В связи с этим
интересно проследить эволюцию идей реализации параллельных вычислений.

За шесть десятилетий быстрого развития средств вычислительной техники пройден
путь от ламп, через транзисторы, интегральные микросхемы к сверхбольшим
интегральным микросхемам (рис. 1.1).

Рис. 1.1.  Эволюция средств вычислительной техники

Что будет дальше? Основной вопрос настоящего времени уже не сводится просто к
наращиванию мощности вычислительных устройств — он трансформировался к
вопросу: “Как эффективно использовать имеющиеся мощности для сбора, обработки и
использования данных?”

Быстрое развитие электронных технологий приводит к тому, что компьютеры
становятся все меньше и меньше, что позволяет использовать их во всё более

4

миниатюрных устройствах – мобильных телефонах, цифровых фотоаппаратах,
различных видеустройствах. Когда-то думали, что более мощные вычислительные
системы по необходимости будут требовать больше места под периферию, память и
т.д. Это предположение оказалось неверным. В 1965 году. Г. Мур сформулировал
правило, имеющее силу и сейчас (“закон Мура”), согласно которому
производительность вычислительных систем удваивается каждые восемнадцать
месяцев.

Мур вывел свой эмпирический закон, построив зависимость числа транзисторов в
интегральной микросхеме от времени. Как следствие, из этого можно было оценить
темпы миниатюризации отдельного транзистора. В настоящее время развитие
цифровых технологий приводит к тому, что размер элементарного вычислительного
устройства приближается к размеру молекулы или даже атома. На таком уровне законы
классической физики перестают работать и начинают действовать квантовые законы,
которые для многих важных динамических задач еще не описаны теоретически.

Увеличение быстродействия вычислительных устройств и уменьшение их размеров с
неизбежностью приводит к необходимости операций с “переходными” процессами.
Логично было бы перейти от устоявшихся операций с классическими битами к
операциям, задаваемым теми или иными динамическими моделями микромира.
Введение более широкого класса моделей было бы более обоснованным, если бы
удалось, например, для функции, значения которой записаны в кластере квантовых
битов, определить операцию, эффективно выполняющую, например, преобразование
Фурье. При этом вполне может оказаться, что время на её выполнение будет
соизмеримым со временем выполнения одной классической операции, так как аналоги
операций типа операции “свертки функций” вполне могут обнаружиться “в природе”.
Исследования похожих моделей, проводившихся в последнее время, показывают, что
их выполнение за счет присущей природе способности к самоорганизации не
обязательно “раскладывается” на более простые кирпичики, т.е. не всегда может быть
записано в виде классического алгоритма

Новые потребности, глобализация задач, экспоненциальное возрастание сложности
вычислительных систем и наметившаяся в последнее время подъём отечественной ИТотрасли в развитии суперкомпьютерных вычислений (суперкомпьютеры российских
компаний “T-Платформы”, “СКИФ-Аврора”, появление суперкомпьютера
“Ломоносов” в Московском государственном университете и другие проекты)
заставляют уже в практическом плане задуматься о перспективах и возможной смене
парадигмы: “Каким должен быть процесс вычислений?” Объективные сегодняшние
тенденции — миниатюризация и повышение производительности процессоров, как это
и было предсказано законом Мура — приводят технологии к порогу развития
традиционных вычислительных устройств. От приоритетов бесконечного наращивания
тактовой частоты и мощности одного процессора производители переходят к
многоядерности, параллелизму и т. п.

На прошедшей в сентябре 2012 года в Абрау-Дюрсо Международной научной
конференции “Научный сервис в сети Интернет: поиск новых решений” во многих
докладах ставился вопрос: “Что будет при переходе от сегодняшних
производительностей суперкомпьютеров в “TeraFlops” к следующему масштабу

5

“ExaFlops”? В этой связи один из организаторов конференции, член-корреспондент
РАН Вл. В. Воеводин говорил: “Переход к “ExaScale”, естественно, должен будет
затронуть такие важнейшие аспекты вычислительных процессов, как: модели
программирования, степень и уровни параллельности, неоднородность программных и
аппаратных систем, сложность иерархии памяти и трудности одновременного доступа
к ней в распределенных вычислениях, стек системного и прикладного ПО, надежность,
энергопотребление, сверхпараллельный ввод/вывод … ” [Воеводин Вл. В., 2012].

Анализ развития вычислительной техники показывает, что, несмотря на проявление
спиральной тенденции, присутствует еще и параллельная эволюция идей о
мультипроцессорности или о многоэлементности при реализации вычислений. Можно
отметить, что одновременно с развитием различных параллельных архитектур на базе
“простых” процессорных элементов (от матричных, систолических и транспьютерных
к кластерным архитектурам) успешно реализована идея многоядерных процессоров и
усложнения отдельного вычислительного элемента — процессора. В последнее время
эта тенденция продолжает развиваться.

Сейчас несколько ядер в процессоре переносного компьютера — уже норма, а в
процессорах суперкомпьютеров ядер в тысячи раз больше. “Джин выпущен из
бутылки”: пройдет совсем немного времени и ядер станет несколько десятков, а потом
и сотен тысяч!

Появятся совершенно другие архитектуры, ядра будут объединяться в сложные
композитные блоки. К данным можно будет получать одновременный параллельный
доступ разным вычислительным блокам, “общение” вычислительных блоков между
собой будет происходить через общую память.

Всё это приведет к тому, что изменятся многие аспекты парадигмы: “Что такое
вычислительное устройство и что такое вычислительный процесс”. Изменятся
традиционные представления о том, как устроен компьютер, что такое вычислительная
система. Эти процессы принесут изменения и в стиль программирования, и в то, как
будут использоваться вычислительные устройства и готовиться данные для
вычислений. По нашему мнению, всё это неизбежно приведёт к смене парадигмы
высокопроизводительных вычислений (рис. 1.2)!

Рис. 1.2.  Смена вычислительно-информационной парадигмы

6

Переход к новой парадигме вычислений и обработке информации приведет, видимо, к
тому, что архитектура вычислительных устройств “сдвинется” в сторону “набора
одновременно работающих асинхронных моделей взаимодействующих динамических
систем (функциональных элементов)”. Среди новых характерных параметров будущей
парадигмы все более отчетливо проступают следующие: стохастичность, гибридность,
асинхронность, кластерность (отсутствие жесткой централизации и динамическая
кластеризация на классы связанных моделей) [Амелин К. С., Граничин О. Н., Кияев В.
И., 2010].

Стохастичность. С одной стороны, хорошо известно, что компьютеры становятся все
миниатюрнее и миниатюрнее, размер элементарного вычислительного элемента
(вентиля) приближается к размеру молекулы или даже атома. На таком уровне законы
классической физики, как было сказано выше, перестают работать, и начинают
действовать квантовые законы, которые в силу принципа неопределенности
Гейзенберга принципиально не дают точных ответов о состоянии элемента
вычислительной системы. С другой стороны, стохастичность — это известное свойство
сложных динамических систем, состоящих из огромного числа компонент.

Под гибридностью будущих процессов вычислений можно понимать необходимость
рассмотрения комбинации непрерывных и дискретных процессов, т. е. учет
непрерывной эволюции протекания физических процессов при работе той или иной
модели и скачкообразное переключение с одной модели на другую.

Увеличение быстродействия вычислительных устройств и уменьшение их размеров с
неизбежностью приводит к необходимости операций с “переходными” процессами.
Серьёзным ограничением классической модели вычислений является разбиение памяти
на изолированные биты. Во-первых, сокращение длины такта и расстояний между
битами с определенного уровня делает невозможным рассматривать их изолированно в
силу законов квантовой механики. Вместо примитивных операций с классическими
битами в будущем логично перейти к операциям, задаваемыми теми или иными
динамическими моделями микромира, оперирующими с наборами взаимосвязанных
“битов” [Shor P., 1997; Tien D. K., 2003]. При этом простейшими “моделями” могут
остаться классические операции с битами.

Асинхронность. Отказ от унифицированных простых вычислительных элементов
неизбежно приводит к отказу от синхронизации работы различных компонент,
имеющих существенно отличающиеся физические характеристики и свои
длительности “тактов”. В рамках классической теории множеств противоречивый
смысл понятия единого “такта” выражается в рамках неразрешимости проблемы
континуума в рамках аксиоматики Френкеля-Цермело.

Кластерность. Одним из неожиданных результатов многочисленных попыток в
разработках (создании, адекватном описании поведения и управлении) сложных
стохастических систем оказалась перспективность модели мультиагентных систем, в
которой топология связей агентов между собой меняется со временем. При этом
“агентом” может быть как некоторая динамическая модель (компонент системы), так и
определенный набор моделей. При отсутствии жесткой централизации такие системы
способны эффективно решать достаточно сложные задачи, разбивая их на части и

7

автономно перераспределяя ресурсы на “нижнем” уровне, а эффективность часто
повышается за счет самоорганизации агентов и динамической кластеризации на классы
связанных моделей.

В некотором смысле, переход к разработке и созданию моделей сложных вычислений
закономерный этап развития микропрограммирования. Понимание возможных
преимуществ работы устройств с эффективным микрокодом отмечалось еще в 50-е
годы прошлого века. Во втором ряду серии ЕС ЭВМ в конструкцию была заложена
возможность динамического микропрограммирования. Хорошо известен целый ряд
ЭВМ — от “Мир-1” до “Эльбруса”, использующих языки высокого уровня (High Level
Language — HLL) как машинные [Терехов А. Н., 1993]. В настоящее время технологии
микропрограммирования, т.е. создания программ в виде компилируемых текстов,
естественным образом сдвигаются в сторону физических процессов.

В тоже время все большее распространение получают нейронные системы и
нейрокомпьютеры, которые являются параллельными вычислительными устройствами
по определению. В концепции облачных вычислений также присутствует идея
распараллеливания вычислений. Таким образом, одновременно идет развитие
структур, состоящих из большого количества относительно сложных элементов и
наращивание их числа, с другой стороны — усложнение отдельного элемента
(многоядерные структуры), и развитие идей параллельных вычислений на множестве
сложных автономных вычислителей. Эти вычислители соединены сетью заданной
структуры, реализованной для решения определенного класса сложнейших задач —
как теоретических (математика, механика, физика, лингвистика), так и прикладных
(биология, химия, медицина, геофизика и метеорология, экономика и многие другие
области знания).

Сложность использования многоядерных, многопроцессорных и кластерных структур
заключается в необходимости использования специальных средств программирования,
так как изначально программы не являются параллельным представлением алгоритмов
решения задач. Это приводит, например, к тому, что зачастую второе, третье (и так
далее) ядро процессора у пользователя, не являющегося профессиональным
программистом, не задействуется. Наличие специализированных языков параллельного
программирования, выбор которых зависит от используемой платформы, также
затрудняет эффективное использование многопроцессорных и многомашинных
комплексов. Появление стандарта параллельного программирования несколько
улучшило ситуацию, но не существенно.

В этой связи достаточно убедительными оказываются доводы о том, что архитектура
нейросетевых систем изначально адекватна параллельному представлению решаемой
задаче и более естественна для высокопроизводительных вычислений. Можно это
охарактеризовать как конвергенцию идей — движение навстречу друг другу разных
подходов. С одной стороны — усложнения отдельного элемента системы (как в
нейронных сетях) и с другой стороны — увеличение числа процессоров с
одновременным изменением их структуры. Это говорит о том, что в дальнейшем для
решения действительно сложных задач будет найдено компромиссное решение:
“сложный элемент — простая структура” и/или “сложная структура – простой
элемент”. Видимо, эффективное решение лежит между этими двумя крайними

8

проявлениями и может быть охарактеризовано как “относительно сложный элемент и
относительно сложная структура”. При этом степень относительности и сложности
будут зависеть от конкретного класса решаемых задач.

9

Нелинейная динамика и синергетика. Искусственный интеллект

Одно из наиболее перспективных направлений поиска высокопроизводительного
интеллектуального вычислительного устройства лежит в области моделирования
работы человеческого мозга.

Нелинейная динамика и синергетика – возможности применения в
параллельных вычислениях

Из результатов исследования электрической активности мозга нейрофизиологами
следует, что мозг является нелинейной динамической системой с хаотической
природой электрохимических сигналов. Сложная структура коры головного мозга
моделируется с помощью взаимосвязанных нейронных решеток. Глобальная связь
между нейронами порождает их коллективное поведение. Каждый нейрон
представляет собой отдельное устройство, которое можно сопоставить процессору
вычислителя. Именно поэтому структура нейронной сети наиболее подходит для
выполнения параллельных вычислений, поскольку нет необходимости в
предварительной подготовке исходных данных перед распараллеливанием.

Десятки сотен проектов, направленных на исследование принципов функционирования
головного мозга человека, также способствовали становлению новой предметной
области — нелинейной динамики. Нелинейная динамика — это часть синергетики,
которая изучает коллективное поведение множества нелинейных объектов: квантов,
атомов, молекул, клеток (в частности нейронов), подсистем. Одним из направлений в
нелинейной динамике является изучение проявления самоорганизации в
синхронизации хаотических систем. Изучение синхронизации — этого
фундаментального явления природы — проводится в биохимии, биофизике, квантовой
физике, нейропсихологии, нейрофизиологии, нейробиологии.

Отметим, что исследования все более приобретают междисциплинарный характер.
Поскольку всё связано со всем, то закономерности, которые выявляются в поведении и
функционировании элементов одной природы, иногда могут быть использованы для
управления элементами другой природы. Как показывают многочисленные
исследования в области нелинейной динамики — чем сложнее задача, тем сложнее
динамика системы, и, следовательно, управление ею. Поэтому все больше работ
посвящено объединению достижений в области нелинейной динамики,
самоорганизации и теории нейронных сетей.

При разработке новых высокопроизводительных систем на основе принципов
самоорганизации предполагается, что решение задачи и соответствующая структура
для ее решения самоорганизуются за счет внутренних процессов в системе и за счет
обратной связи с внешней средой — классических задач низкоуровневой
функциональной декомпозиции в данном случае не возникает [Амелин К. С., Граничин
О. Н., Кияев В. И., 2010]. Более того, использование синергетического синтеза также
предполагает отсутствие классического разделения в вычислениях на аппаратную и
программную части.

10

Доступ онлайн
1 000 ₽
В корзину