Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета, 2009, №47

Покупка
Основная коллекция
Артикул: 640728.0001.99
Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета, 2009, вып. №47 - Краснод.:КубГАУ, 2009. - 168 с.:. - Текст : электронный. - URL: https://znanium.com/catalog/product/620807 (дата обращения: 03.05.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.
Научный журнал КубГАУ, №47(3), 2009 года 

http://ej.kubagro.ru/2009/03/pdf/08.pdf

1

УДК 519.722:[539.183.3+ 
+577.112.5+59.002+519.765+113/119] 
 
ХАОС И ПОРЯДОК ДИСКРЕТНЫХ СИСТЕМ 
В СВЕТЕ СИНЕРГЕТИЧЕСКОЙ ТЕОРИИ 
ИНФОРМАЦИИ 
 
Вяткин Виктор Борисович 
к.т.н. 
Екатеринбург, Россия 
 
С помощью синергетической теории информации 
проведена оценка хаоса и порядка в структуре таких систем как электронные системы атомов, белковые молекулы, паутины пауков, поэтические 
произведения. Сделано предположение о существовании в природе статистического закона структурной организации, согласно которому эволюция 
дискретных систем направлена в сторону равновесия хаоса и порядка 
 
Ключевые слова: ХАОС, ПОРЯДОК, 
СТРУКТУРА, СИСТЕМА, ИНФОРМАЦИЯ, 
ЭНТРОПИЯ, НЕГЭНТРОПИЯ 

UDC 519.722:[539.183.3+ 
+577.112.5+59.002+519.765+113/119] 
 
CHAOS AND ORDER OF DISCRETE SYSTEMS 
IN LIGHT OF SYNERGETIC INFORMATION 
THEORY 
 
Vyatkin Victor Borisovich.  
Cand. Tech. Sci. 
Ekaterinburg, Russia 
 
Estimation of chaos and order in structure of electronic 
systems of atoms, protein molecules, webs of spiders, 
poetic products is done with the help of synergetic 
information theory. Existence of statistical rule of 
structural organization in nature is expected. This rule 
directs evolution of discrete system towards balance of 
chaos and order. 
 
 
 
Keywords: CHAOS, ORDER, STRUCTURE, 
SYSTEM, INFORMATION, ENTROPY, 
NEGENTROPY 
 

«Для характеристики реального мира ныне 
недостаточны 
фундаментальные 
понятия 
классической физики – материя, вещество, 
движение, энергия, пространство, время. Для 
полноты этой характеристики необходимо 
столь же фундаментальное и столь же всеобщее понятие информации» 
Берг А.И., Спиркин А.Г. 
 

Введение 

Рассматривая ту или иную систему с конечным множеством элемен
тов в плоскости какого-либо признака, мы, как правило, по значениям это
го признака разделяем систему на части и характеризуем образовавшуюся 

структуру с помощью таких противоположных понятий как хаос и поря
док. То есть, чем большее разнообразие проявляют элементы по значениям 

признака и, соответственно, чем на большее число частей разделяется сис
тема, тем более хаотичной и менее упорядоченной является ее структура. 

Наглядной иллюстрацией сказанного служит рисунок 1, на котором систе
Научный журнал КубГАУ, №47(3), 2009 года 

http://ej.kubagro.ru/2009/03/pdf/08.pdf

2

ма, состоящая из 16-ти элементов, характеризуется признаком «направле
ние движения элементов».  

а 
б 
в 
г 
д 

 

Рисунок 1. Деление системы на части по направлению 
 движения элементов 

 
На данном рисунке приведены 5 состояний системы, которым соот
ветствует последовательное ее деление на 1, 2, 4, 8, 16 равновеликих час
тей, отличающихся друг от друга направлением движения элементов. В 

состоянии на рисунке 1а все элементы движутся в одном направлении, и в 

структуре системы наблюдается идеальный порядок. На рисунке 1д имеем 

полярную противоположность, то есть каждый элемент системы обладает 

строго индивидуальным направлением движения и структура системы яв
ляется максимально хаотичной. Состояния системы на рисунках 1б,в,г за
нимают промежуточное положение по отношению к состояниям на рисун
ках 1а,д и характеризуются тем, что в их структуре присутствует как хао
тичность, так и упорядоченность.  

Количественная сторона хаоса и порядка в структуре дискретных 

систем обычно характеризуется с помощью статистической термодинами
ки или традиционной теории информации. В обоих случаях за меру хаоса 

принимается 
энтропия. 
Причем 
в 
термодинамике 
это 
энтропия 

Л.Больцмана, статистически выражающая второе начало и имеющая тео
ретическое значение при анализе молекулярных множеств, а в теории ин
формации, – энтропия множества вероятностей К.Шеннона, которая слу
жит также и мерой количества информации, передаваемой в виде символь
Научный журнал КубГАУ, №47(3), 2009 года 

http://ej.kubagro.ru/2009/03/pdf/08.pdf

3

ных сообщений по техническим каналам связи [1]. Структурная упорядо
ченность системы, в свою очередь, оценивается также с помощью энтро
пии, но только взятой уже с обратным знаком. Короче говоря, принято 

считать, что хаос (энтропия) и порядок (информация), равны друг другу, 

но противоположно направлены. 

Определяющую роль в таком понимании соотношения между струк
турным хаосом и порядком сыграли высказывания таких известных уче
ных, как физик Э.Шредингер и основоположник кибернетики Н.Винер. – 

Э.Шредингер, рассматривая с физических позиций вопрос о том, что такое 

жизнь, в отношении термодинамической вероятности, фигурирующей в 

формуле энтропии Л.Больцмана, писал: «Если D – мера неупорядоченно
сти, то обратную величину 1/D можно рассматривать как прямую меру 

упорядоченности. Поскольку логарифм 1/D есть то же, что и отрицатель
ный логарифм D, мы можем написать уравнение Больцмана таким обра
зом: 
)
/
1
lg(
)
(
D
k
энтропия =
−
» [1, с.75]. Не приводя более каких-либо 

обоснований, Э.Шредингер делает заключение о том, что «энтропия, взя
тая с обратным знаком, есть сама по себе мера упорядоченности» [2, с.75]. 

Аналогичное мнение, но только уже со стороны своей статистической тео
рии информации, высказал и Н.Винер, говоря, что «понятие количества 

информации совершенно естественно связывается с классическим поняти
ем статистической механики – понятием энтропии. Как количество ин
формации в системе есть мера организованности системы, точно также эн
тропия системы есть мера дезорганизованности системы, одно равно дру
гому, взятому с обратным знаком» [3, с.55].  

Эти заключения известных ученых получили широкое распростра
нение и, найдя поддержку в устоявшемся смысловом дуализме информа
ционно-энтропийной меры К.Шеннона, по существу сформировали энтро
пийную парадигму о соотношении в структуре системы хаоса и порядка, 

Научный журнал КубГАУ, №47(3), 2009 года 

http://ej.kubagro.ru/2009/03/pdf/08.pdf

4

согласно которой хаос и порядок  по своей величине равны друг другу, а 

их общей мерой является энтропия. 

Вместе с тем, анализ состояний системы на рисунке 1 позволяет вы
сказать в адрес данной парадигмы ряд критических замечаний. Эти заме
чания относятся к оценке структурного порядка и сводятся к следующему.  

В состоянии системы на рисунке 1а какая-либо неупорядоченность, 

несогласованность в направлении движения элементов отсутствует и, со
ответственно, энтропия равна нулю. Но, непонятно, почему здесь должна 

быть равна нулю и оценка наблюдаемого идеального порядка? Такое же 

противоречие здравому смыслу, при оценке порядка с помощью энтропии, 

можно видеть и на рисунке 1д, где в движении элементов наблюдается 

полный хаос и энтропия системы является максимальной. О каком отлич
ном от нуля значении порядка мы можем в данном случае вести речь? Бо
лее того, например, при уменьшении общего числа элементов системы бу
дет также уменьшаться и максимальное значение энтропии и, если вста
вать на позиции энтропийной парадигмы, мы каждый раз будем получать 

новые оценки порядка. Но, как можно получать различные оценки того, 

чего просто не существует? 

В добавление к сказанному, отметим также и промежуточные со
стояния системы на рисунках 1б и 1г, в структуре которых наблюдается 

как хаотичность, так и упорядоченность. Невооруженным взглядом видно, 

что здесь, в первом случае, в направлении движения элементов преоблада
ет упорядоченность, а во втором – хаотичность и, соответственно, о каком
либо равенстве значений хаоса и порядка снова говорить не приходится. 

Также следует отметить, что критические замечания в адрес оценки 

упорядоченности систем с помощью энтропии ранее делали и другие ис
следователи. 
Например, 
специалисты 
в 
области 
термодинамики 

А.С.Мещеряков и С.А.Улыбин, отмечая, что «мера упорядоченности до 

сих пор остается дискуссионной, даже в части терминологии», указывают 

Научный журнал КубГАУ, №47(3), 2009 года 

http://ej.kubagro.ru/2009/03/pdf/08.pdf

5

на то, что «для характеристики упорядоченности молекулярного множест
ва разумно было бы вообще отказаться от употребления любого словосо
четания с термином энтропия» [4, с.258]. 

Приведенная критика энтропийной парадигмы оценки хаоса и по
рядка наводит на мысль о том, что хаос и порядок в структуре дискретных 

систем должны оцениваться с помощью различных функций, значения ко
торых отличались бы величиной, а не знаком. Причем эти функции долж
ны быть взаимосвязаны между собой таким образом, чтобы соотношение 

получаемых оценок хаоса и порядка изменялось по принципу сообщаю
щихся сосудов, а не являлось зеркально-симметричным, как в энтропийной 

парадигме Шредингера-Винера. 

Такая дифференцированная оценка структурного хаоса и порядка в 

настоящее время может производиться с помощью синергетической тео
рии информации [5,6,7], предметом познания которой являются информа
ционно-количественные аспекты отражения дискретных систем в плоско
сти признаков их описания. В данной теории, при анализе отражения сис
темы через совокупность своих частей, получены функции отраженной и 

неотраженной информации, с помощью которых в структуре системы 

можно индивидуально оценивать порядок и хаос, соответственно. При 

этом отраженная информация именуется как аддитивная негэнтропия от
ражения, а неотраженная, – как энтропия отражения. Также отмечается, 

что каждая из этих информационных функций имеет свою непосредствен
ную взаимосвязь с энтропией Больцмана, а энтропия отражения, кроме то
го, математически тождественна энтропии Шеннона, но в отличие от по
следней получена аналитическим путем. 

В нижеследующем изложении дается характеристика синергетиче
ской теории информации в формате оценки хаоса и порядка и проводится 

соответствующий структурный анализ дискретных систем различной при
роды. 

Научный журнал КубГАУ, №47(3), 2009 года 

http://ej.kubagro.ru/2009/03/pdf/08.pdf

6

 

Информационно-синергетические функции хаоса и порядка 

В синергетической теории информации установлено, что при отра
жении дискретных систем через совокупность своих частей, происходит 

разделение отражаемой информации 
)
( 0
I
 на отраженную и неотраженную 

части, равные, соответственно, аддитивной негэнтропии 
)
( Σ
I
 и энтропии 

отражения 
)
(S . Формулы этих разновидностей синергетической информа
ции1 имеют вид: 

M
I
2
0
log
=
                                                             (1) 

∑
=

Σ =
N

i

i
i
m
M
m
I

1

2
log
                                                  (2) 

∑
=

−
=
N

i

i
i
M
m
M
m
S

1

2
log
                                                  (3) 

где: M – общее количество элементов в составе системы, N – число частей 

системы, 
i
m  – количество элементов в i-й части. 

Аддитивная негэнтропия (2) и энтропия отражения (3) соотносятся 

между собой таким образом, что чем более хаотичной является структура 

системы, то есть, чем больше частей выделяется в ее составе и чем меньше  

эти части отличаются друг от друга по числу элементов, тем больше эн
тропия отражения и меньше аддитивная негэнтропия. И, наоборот, – чем 

больше порядка в структуре системы, то есть, чем меньше частей в ее со
ставе и чем более доминирует какая-либо часть по числу элементов, тем 

больше аддитивная негэнтропия и меньше энтропия отражения. Например, 

для последовательного нарастания хаоса и уменьшения порядка в структу
ре системы на рисунке 1, по формулам (2) и (3) имеем: 

Состояние системы:  а  б  в  г  д 
                                                
1 Согласно работам [5,6] синергетической является информация, которая существует 
вне связи с управлением. 

Научный журнал КубГАУ, №47(3), 2009 года 

http://ej.kubagro.ru/2009/03/pdf/08.pdf

7

            Аддитивная негэнтропия Σ
I :  4  3  2  1  0 

                      Энтропия отражения S:  0  1  2  3  4 2 

Все это говорит о том, что аддитивная негэнтропия и энтропия отраже
ния являются информационно-синергетическими мерами структурно
го порядка и хаоса. 

По определению, аддитивная негэнтропия и энтропия отражения, как 

отраженная и неотраженная информации, в своей сумме равны информа
ции (1), которую отражает система о самой себе как едином целом: 

0
I
S
I
=
+
Σ
                                                     (4) 

Выражение (4) является инвариантным относительно любых струк
турных преобразований системы и в излагаемом контексте интерпретиру
ется как закон сохранения суммы хаоса и порядка, то есть: 

порядок + хаос = const 

Иначе говоря, чтобы мы ни делали с системой без изменения общего 

количества элементов, на сколько бы частей не разбивали ее по зна
чениям какого-либо признака и в каком бы соотношении по числу 

элементов не находились между собой части, сумма хаоса и порядка в 

структуре системы всегда будет оставаться неизменной. Например, для 

системы на рисунке 1, как это видно из результатов расчета аддитивной 

негэнтропии и энтропии отражения, по всем состояниям имеем: 
4
=
+
Σ
S
I
. 

Хаотичность и упорядоченность в своей совокупности определяют в 

целом структурную организацию системы и, соответственно, для ее коли
чественной характеристики может использоваться та или иная функция, 

аргументами которой являются меры хаоса и порядка. В качестве такой 

функции в синергетической теории информации используется так назы
                                                
2 Здесь и далее, значения аддитивной негэнтропии и энтропии отражения имеют размерность [бит отражения]. Подробнее об этой единице измерения информации  
см. [6]. 

Научный журнал КубГАУ, №47(3), 2009 года 

http://ej.kubagro.ru/2009/03/pdf/08.pdf

8

ваемая R-функция3, представляющая собой отношение аддитивной негэн
тропии к энтропии отражения: 

хаос

порядок

S
I
R
=
=
Σ
                                               (5)  

То есть значения R-функции говорят о том, что и в какой мере преобладает 

в структуре системы: хаос или порядок. Так, если R > 1, то в структуре 

системы преобладает порядок, в противном случае, когда R < 1 – хаос. При 

R = 1 хаос и порядок уравновешивают друг друга, и структурная организа
ция системы является равновесной. Например, для различных структурных 

состояний системы на рисунке 1 значения R-функции равны: 

 Состояние системы:   а   б    в    г      д 

                               Значение R-функции:  ∞   3    1   0.33  0 

Аддитивная негэнтропия Σ
I  и энтропия отражения S, в зависимости 

от общего количества элементов M в составе системы и числа ее частей N, 

могут принимать следующие максимальные и минимальные значения: 

N
S
2

max
log
=
                                                                  (6) 

N
M
I
2
2

min
log
log
−
=
Σ
                                                   (7) 

)1
(
log
1
2
max
+
−
+
−
=
Σ
N
M
M
N
M
I
                                  (8) 

)1
(
log
1
log
2
2
min
+
−
+
−
−
=
N
M
M
N
M
M
S
                  (9) 

На рисунке 2 приведены графики функций (6) – (9) при фиксирован
ном числе элементов M, которые образуют два контура: энтропийный – 

abdefha и негэнтропийный или информационный – cdfghbc. Эти контуры 

локализуют области всех возможных значений аддитивной негэнтропии и 

энтропии отражения и в своей совокупности составляют диаграмму, име
нуемую как информационное поле отражения дискретных систем. 
                                                
3 Название функции дано по первой букве английского слова reflection, что в переводе 
на русский язык означает отражение. 

Научный журнал КубГАУ, №47(3), 2009 года 

http://ej.kubagro.ru/2009/03/pdf/08.pdf

9

max
Σ
I

min
Σ
I

max
S

min
S

S
I ,
Σ

A
I

A
M
1
0

A
M

A
A
M
M
∆
−
2

N

a

b

c

d

e

f

g

max
Σ
I

min
Σ
I

max
S

min
S

S
I ,
Σ

A
I

A
M
1
0

A
M

A
A
M
M
∆
−
2

N

a

b

c

d

e

f

g

h

max
Σ
I

min
Σ
I

max
S

min
S

S
I ,
Σ

A
I

A
M
1
0

A
M

A
A
M
M
∆
−
2

N

a

b

c

d

e

f

g

max
Σ
I

min
Σ
I

max
S

min
S

S
I ,
Σ

A
I

A
M
1
0

A
M

A
A
M
M
∆
−
2

N

a

b

c

d

e

f

g

h

 

Рисунок 2. Информационное поле отражения дискретных систем 
( MA = 118 ) 

 

По пересечению контуров в точках b и f, где наблюдаются равенства 

max
min
S
I
=
Σ
 и 
min
max
S
I
=
Σ
, на горизонтальной оси выделяются три ин
тервала значений  N (левый, центральный, правый) с присущими каждому 

интервалу особенностями взаимоотношений аддитивной негэнтропии (по
рядка) и энтропии отражения (хаоса). При этом значение N, соответст
вующее точке b, является детерминированным и равно 
M  с округлением 

до ближнего большего целого, а значение N, соответствующее точке  f, не 

имеет аналитического выражения и определяется численным путем4, но в 

любом случае не превышает 
2
/
M
. 

                                                
4 Для членов последовательности N = 1, 2, …, M  определяются 
max
Σ
I
 и 
min
S
, и в качестве значения N, соответствующего точке f, принимается то значение, после которого 
max
min
Σ
> I
S
. 

Научный журнал КубГАУ, №47(3), 2009 года 

http://ej.kubagro.ru/2009/03/pdf/08.pdf

10

В левом интервале 
)
1
(
M
N <
≤
 при любом соотношении частей 

системы по числу элементов справедливо неравенство 
S
I
>
Σ
 и, соответ
ственно, структурная упорядоченность системы всегда больше ее хаотич
ности и R > 1. В правом интервале 
)
2
(
M
N
M
M
≤
<
∆
−
 наблюдается про
тивоположная картина, когда при любых структурных преобразованиях 

Σ
> I
S
, что соответствует преобладанию хаоса над порядком и значениям 

R < 1. В центральном интервале 
)
2
(
M
M
N
M
∆
−
≤
≤
 между Σ
I  и S могут 

быть различные взаимоотношения и проявляется тенденция к взаимному 

уравновешиванию в структуре системы хаоса и порядка. R-функция при 

этом может быть как больше, так и меньше единицы, а в ряде случаев (по 

линии bf) имеет место и равенство R = 1. Иначе говоря, в левом интервале 

наблюдается необратимое преобладание в структуре системы порядка 

над хаосом, а в правом интервале наоборот, – необратимое преоблада
ние хаоса над порядком. В центральном интервале, в свою очередь, 

преобладание как порядка над хаосом, так и хаоса над порядком явля
ется обратимым. 

Отмеченные особенности интервалов значений N позволяют все дис
кретные системы, в зависимости от общего количества их элементов и 

числа частей, классифицировать на три типа: 

- упорядоченные (левый интервал); 

- синергетичные (центральный интервал); 

- хаотичные (правый интервал). 

Описанные информационно-синергетические функции хаоса и по
рядка и приведенная классификация имеют универсальный характер и мо
гут использоваться при структурном анализе любых дискретных систем с 

конечным множеством элементов. Продемонстрируем это на примере та
ких различных по своей природе систем, как электронные системы атомов