Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета, 2009, №45

Покупка
Основная коллекция
Артикул: 640711.0001.99
Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета, 2009, вып. №45 - Краснод.:КубГАУ, 2009. - 207 с.:. - Текст : электронный. - URL: https://znanium.com/catalog/product/620773 (дата обращения: 06.05.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.
Научный журнал КубГАУ, №45(1), 2009 года 

http://ej.kubagro.ru/2009/01/pdf/12.pdf

1

УДК 519.7 
 
СИНЕРГЕТИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ 
Часть 2. Отражение дискретных систем в плоскости признаков их описания 
 
Вяткин Виктор Борисович, к.т.н. 
 
Екатеринбург, Россия 
 
Проведён анализ отражения дискретной системы с 
конечным множеством элементов в плоскости 
множества значений произвольного признака. Доказано, что отражаемая системой информация делится на отражённую и неотражённую части и получены соответствующие информационные функции. Установлен структурный закон сохранения 
суммы хаоса и порядка и дана классификация дискретных систем по их структурной организации. 
Показана взаимосвязь синергетической и вероятностной теорий информации. Установлен закон сохранения информации. 
 
Ключевые слова: ТЕОРИЯ ИНФОРМАЦИИ, КОЛИЧЕСТВО 
ИНФОРМАЦИИ, 
АДДИТИВНАЯ 
НЕГЭНТРОПИЯ, 
ЭНТРОПИЯ, 
ОТРАЖЕНИЕ, 
СТРУКТУРА, ЗАКРЫТАЯ СИСТЕМА, ОТКРЫТАЯ СИСТЕМА, ХАОС, ПОРЯДОК, ИНФОРМАЦИОННЫЙ ЗАКОН. 

UDC 519.7 
 
SYNERGETIC  INFORMATION THEORY 
Part 2. Reflection of discrete systems in planes of 
signs of their description 
 
Vyatkin Victor Borisovich. Dr.Sc.(Tech.) 
 
Ekaterinburg, Russia 
 
 
Analysis of reflection of discrete system with final set 
of elements in planes of set of values of any sign is 
leaded. It is demonstrated that information reflected 
with system is divided on reflected and not reflected 
part and relevant information functions are got. Structured law of saving of sum of chaos and order is established and classification of discrete systems on their 
structural organization is given. Interrelation of synergetic and probabilistic information theories is shown. 
Law of information saving is established. 
  
 
 
Keywords: INFORMATION THEORY, QUANTITY 
OF INFORMATION, ADDITIVE NEGENTROPY, 
ENTROPY, 
REFLECTION, 
STRUCTURE, 
CLOSED SYSTEM, OPEN SYSTEM, CHAOS, ORDER, INFORMATION LAW. 

 
 
«Не видно, почему теория информации должна столь 
 существенно основываться на теории вероятностей, 
как это представляется по большинству руководств» 
Колмогоров А.Н. 
 
Введение 

В предыдущей статье автора [1], опубликованной в настоящем изда
нии, был изложен новый – синергетический – подход к определению коли
чества информации и получена формула негэнтропии отражения 
AB
I
, то 

есть количества информации, которую отражают (воспроизводят) друг о 

друге, как о целостном образовании, два пересекающихся конечных мно
жества А и В, таких, что 
K
B
A
=
I
, 
∅
≠
K
. При количестве элементов в 

составе 
каждого 
из 
множеств 
K
B
A
,
,
 
равном, 
соответственно, 

K
B
A
M
M
M
,
,
, формула негэнтропии отражения имеет вид: 

Научный журнал КубГАУ, №45(1), 2009 года 

http://ej.kubagro.ru/2009/01/pdf/12.pdf

2

K

B
A

K
AB
M
M
M
M
I
2

2
log
=
.                                       (1) 

При этом напомним, что гносеологически формула (1) относится к ситуа
ции, когда множества А и В выделены в составе некоторой дискретной 

системы 
}
{d
D =
 при её рассмотрении в соответствующих плоскостях еди
ничных значений признаков 
A
P  и B
P . 

Развивая в настоящей статье синергетический подход к определению 

количества 
информации, 
будем 
считать, 
что 
множество 

)}
(
|
{
)}
(
|
{
d
P
d
a
P
a
A
A
A
=
=
 представляет собой автономную систему (под
систему 
D
A ⊂
), и начнём рассмотрение информационных аспектов её от
ражения через совокупность конечных множеств 
N
B
B
B
...,
,
,
2
1
, выделен
ных 
в 
составе 
системы 
D 
по 
множеству 
значений 
признака 

N
B
B
B
B
P
P
P
P
...,
,
,
2
1
=
 (
i
B
∀
также может рассматриваться в качестве отра
жающей автономной системы). При этом предварительно сделаем сле
дующие замечания. 

1). Будем анализировать только те ситуации, когда отражающие 

множества 
N
B
B
B
...,
,
,
2
1
, 
)}
(
|
{
)}
(
|
{
d
P
d
b
P
b
B
i
B
i
B
i
i
i
=
=
 не пересекаются 

друг с другом и каждый элемент отражаемой системы А характеризуется 

конкретным значением признака 
N
B
B
B
B
P
P
P
P
...,
,
,
2
1
=
(рисунок 1). То есть: 

∅
=
=I
N

i

i
B
1

,    
A
K
N

i

i =
=U

1

 

 

 

и, соответственно: 

A

N

i

B
M
M
i ≥
∑
=1

,   
A

N

i

K
M
M
i =
∑
=1

Научный журнал КубГАУ, №45(1), 2009 года 

http://ej.kubagro.ru/2009/01/pdf/12.pdf

3

а
б

B1   B2 …
…
BN

A
A
D
D
B1   B2 …
…
BN

а
б

B1   B2 …
…
BN

A
A
D
D
B1   B2 …
…
BN

 

а – система А информационно закрыта;   б – система А информационно открыта 

Рисунок 1. Отражение системы 
D
A ⊂
 через совокупность  
конечных множеств 
N
B
B
B
...,
,
,
2
1
 

 

2). Отражаемая система А по отношению к окружающей среде (эле
ментам дополняющего множества 
}
,
{
\
A
d
D
d
A
D
C
∉
∈
=
=
) может быть 

как открытой, так и закрытой в информационном отношении. 

Система А в плоскости признака 
N
B
B
B
B
P
P
P
P
...,
,
,
2
1
=
 является 

закрытой в информационном отношении, если отсутствует её непо
средственная взаимосвязь с окружающей средой (рисунок 1а), то есть: 

A
B
N

i
i =
=U
1
,   
A

N

i

B
M
M
i =
∑
=1

. 

Система А в плоскости признака 
N
B
B
B
B
P
P
P
P
...,
,
,
2
1
=
 является 

открытой в информационном отношении, если наблюдается её непо
средственная взаимосвязь с окружающей средой (рисунок 1б), то есть: 

A
B
N

i
i >
=U
1
,   
A

N

i

B
M
M
i >
∑
=1

 

3). Количество любой информации, измеряемой с помощью двоич
ных логарифмов, традиционно принято выражать в битах (слово бит, как 

сокращённое название двоичной единицы (binary digit), было предложено 

Тьюки [2]). То есть 
2
log
1
2
=
бит
. Так как в развиваемой нами теории, при 

оценке отражаемой информации, могут использоваться только двоичные 

Научный журнал КубГАУ, №45(1), 2009 года 

http://ej.kubagro.ru/2009/01/pdf/12.pdf

4

логарифмы [1], то мы не будем отходить от этой традиции. Вместе с тем, 

если в традиционной теории информации 1бит интерпретируется как мак
симальное количество информации, которое можно получить при выборе 

одной из двух возможностей, то в синергетической теории информации за 

1бит принимается количество информации, самоотражаемой двоичным 

множеством или системой, состоящей из двух элементов. Чтобы отличать 

друг от друга эти численно равные единицы измерения различных видов 

информации (связанной с управлением и существующей независимо от не
го), будем называть их бит управления и бит отражения, соответственно. 

С учётом сделанных замечаний перейдём к непосредственному рас
смотрению особенностей отражения системы А через совокупность конеч
ных множеств (систем) 
N
B
B
B
...,
,
,
2
1
 и начнём со случая, когда отражаемая 

система является закрытой в информационном отношении. 

 

Отражение информационно закрытых систем 

Количество информации 
)
( A
I
, отражаемое системой А, о самой себе, 

как о целостном образовании, согласно работе [1] равно: 

A
A
M
I
2
log
=
                                                   (2) 

По значениям признака 
N
B
B
B
B
P
P
P
P
...,
,
,
2
1
=
 система делится на N 

частей в виде совокупности конечных множеств 
N
B
B
B
...,
,
,
2
1
, каждое из 

которых отражает о системе определённую информацию, численно равную 

негэнтропии отражения (1). Соответственно, общее количество информа
ции о системе А, отражаемое через совокупность её частей, равно аддитив
ной негэнтропии отражения 
)
( Σ
I
, формула которой в условиях информа
ционной закрытости системы 
)
(
i
i
K
B
M
M
=
 имеет вид: 

∑
∑

=
=

Σ
=
=
N

i

K
A

K
N

i

AB
i
i
i
M
M

M
I
I

1

2

1

log
                               (3) 

Научный журнал КубГАУ, №45(1), 2009 года 

http://ej.kubagro.ru/2009/01/pdf/12.pdf

5

При анализе отражения системы А через совокупность своих частей, 

информация A
I
 и аддитивная негэнтропия Σ
I  выступают перед нами в ка
честве отражаемой и отражённой информации, соответственно. Проведём 

их сравнение, для чего правые части выражений (2) и (3) умножим на 
A
M
 

и разделим на 
A
M
2
log
. В результате этой операции для 
1
>
N
 получаем 

очевидное неравенство 

∑
=

>
N

i
A

K
K
A
M

M
M
M
i
i

1
2

2
log

log
, 

из которого следует, что 

Σ
> I
I A
 

Иначе говоря, не вся информация о системе А, как едином целом, от
ражается через совокупность её частей и всегда существует некоторая 

часть информации A
I
, которая остаётся неотражённой. 

Является очевидным, что аддитивная негэнтропия отражения и не
отражённая информация по отношению друг к другу выступают в качестве 

взаимодополняющих противоположностей и характеризуют отражение 

дискретных систем через свои части с различных сторон, – определённо
сти и неопределённости, соответственно. Это позволяет говорить о том, 

что неотражённая информация представляет собой энтропию отраже
ния. Обозначим энтропию отражения символом S и определим её величи
ну как разность между отражаемой и отражённой информациями: 

Σ
−
=
I
I
S
A
                                                   (4) 

В соответствии с формулами (2) и (3) запишем: 

∑
=

−
=
N

i

K
A

K
A
i
i
M
M

M
M
S

1

2
2
log
log
                               (5) 

Умножив и разделив аргумент второго логарифма в выражении (5) на 
A
M
, 

и заменяя при этом логарифм произведения суммой логарифмов, получа
ем: 

Научный журнал КубГАУ, №45(1), 2009 года 

http://ej.kubagro.ru/2009/01/pdf/12.pdf

6

∑
∑

=
=

−
−
=
N

i

N

i
A

K
A
A

K

A

K
A
M

M
M
M

M

M

M
M
S
i
i
i

1
1

2
2
2
log
log
log
 

Так как 
A

N

i

K
M
M
i =
∑
=1

, то из последнего выражения следует: 

∑
=

−
=
N

i
A

K

A

K
M

M

M

M
S
i
i

1

2
log
                                            (6) 

Из выражений (3) и (6) видно, что  при постоянстве 
A
M
 величина 

аддитивной негэнтропии Σ
I  и энтропии отражения S зависит от количест
ва частей системы и их соотношения между собой по числу элементов. 

При этом, чем более раздробленной является структура системы или, что 

то же самое, чем более разнообразны и неупорядочены её элементы по 

значениям признака, в плоскости которого идёт рассмотрение системы, 

тем больше энтропия S и меньше аддитивная негэнтропия Σ
I . И, наоборот, 

– чем меньше частей выделяется в составе системы и, соответственно, чем 

более однообразны и упорядочены её элементы по значениям признака, 

тем больше Σ
I  и меньше S. Так как Σ
I  и S не могут превышать отражае
мую информацию 
A
I
, а число частей системы N не может быть больше 

общего количества её элементов 
A
M
, то сказанное формализуется сле
дующим образом: 

0
,
log
1

log
,0

2

2
→
→
⇒
→

→
→
⇒
→

Σ

Σ
S
M
I
N

M
S
I
M
N

A

A
A
                              (7) 

Иначе говоря, увеличение числа отражающих конечных множеств приво
дит к возрастанию хаотичности, неупорядоченности, неопределённости 

отражения дискретной системы, как единого целого. То есть, чем более не
адекватно отражение, тем больше его энтропия и меньше аддитивная не
гэнтропия. 

Научный журнал КубГАУ, №45(1), 2009 года 

http://ej.kubagro.ru/2009/01/pdf/12.pdf

7

Так как структуру любой системы, в первую очередь, характеризуют 

количество её частей и взаимоотношение последних по числу элементов, 

то также можно утверждать, что аддитивная негэнтропия и энтропия отра
жения, по отношению к структуре отражаемой системы, выступают в ка
честве показателей её упорядоченности и хаотичности или, выражаясь 

другими словами, являются мерами структурного хаоса и порядка, соот
ветственно. Проиллюстрируем это следующим примером. 

На рисунке 2 приведены различные состояния системы, состоящей 

из 16-ти элементов, которые характеризуются признаком «направление 

движения». По значениям этого признака система последовательно при
нимает 5 состояний, которым соответствует её деление на 1, 2, 4, 8, 16 рав
новеликих частей.  

а 
б 
в 
г 
д 

 

Рисунок 2. Деление системы на равновеликие части по признаку  
«направление движения элементов» 

 

В состоянии на рисунке 2а все элементы движутся в одном направ
лении, и в структуре системы наблюдается идеальный порядок. На рисунке 

2д имеем полярную противоположность, то есть каждый элемент системы 

обладает строго индивидуальным направлением движения и структура 

системы является максимально хаотичной. Состояния системы на рисун
ках 2б,в,г занимают промежуточное положение по отношению к состояни
ям на рисунках 2а,д и характеризуются тем, что в их структуре присутст
вует как хаотичность, так и упорядоченность. Рассчитывая для каждого со
Научный журнал КубГАУ, №45(1), 2009 года 

http://ej.kubagro.ru/2009/01/pdf/12.pdf

8

стояния системы по формулам (3) и (6) значения аддитивной негэнтропии 

и энтропии отражения, получаем1: 

Состояние системы:
а 
б 
в 
г 
д 

Количество частей (N):
1 
2 
4 
8 
16

Количество элементов в части (
i
B
M
):
16
8 
4 
2 
1 

Негэнтропия отражения ( Σ
I ):
4 
3 
2 
1 
0 

Энтропия отражения (S):
0 
1 
2 
3 
4 
 
Из приведённых результатов видно, что нарастанию хаоса и уменьшению 

порядка в структуре системы на рисунке 2 соответствует уменьшение зна
чений аддитивной негэнтропии и увеличение значений энтропии отраже
ния. 

Аддитивная негэнтропия 
Σ
I , как отражённая информация, и энтро
пия отражения S, как неотражённая информация, являются составными 

частями отражаемой информации A
I
, в силу чего имеет место равенство 

S
I
I A
+
= Σ
                                                    (8) 

В то же самое время, как было показано, 
Σ
I  и S количественно ха
рактеризуют структуру отражаемой системы со стороны её упорядоченно
сти и хаотичности. Поэтому равенство (8) также показывает, что при фик
сированном числе элементов системы сумма хаоса и порядка в её структу
ре остаётся постоянной величиной. Иначе говоря, чтобы мы ни делали с 

системой без изменения общего количества элементов, на сколько бы 

частей не разбивали её по значениям какого-либо признака и в каком 

бы соотношении по числу элементов не находились между собой час
ти, сумма хаоса и порядка в структуре системы всегда будет оставать
ся неизменной. То есть, можно констатировать, что при любых структур
                                                
1 Здесь и далее, значения аддитивной негэнтропии и энтропии отражения приводятся в 
битах отражения. 

Научный журнал КубГАУ, №45(1), 2009 года 

http://ej.kubagro.ru/2009/01/pdf/12.pdf

9

ных преобразованиях системы, происходящих без изменения числа её эле
ментов, имеет место закон сохранения суммы хаоса и порядка: 

порядок + хаос = const 

Например, для вышеописанной системы на рисунке 2, как это видно из ре
зультатов проведённых расчётов, по всем её состояниям имеем: 
4
=
+
Σ
S
I
. 

Хаотичность и упорядоченность в своей совокупности определяют в 

целом структурную организацию системы и, соответственно, для ее коли
чественной характеристики может использоваться та или иная функция, 

аргументами которой являются меры хаоса и порядка. В качестве такой 

функции структурной организации может использоваться так называемая 

R-функция2, представляющая собой отношение аддитивной негэнтропии к 

энтропии отражения: 

хаос

порядок

S
I
R
=
=
Σ
                                               (9)  

То есть значения R-функции говорят о том, что и в какой мере преобладает 

в структуре системы: хаос или порядок. Так, если R > 1, то в структуре 

системы преобладает порядок, в противном случае, когда R < 1 – хаос. При 

R = 1 хаос и порядок уравновешивают друг друга, и структурная организа
ция системы является равновесной. Например, для различных структурных 

состояний системы на рисунке 2 значения R-функции равны: 

Состояние системы:
а 
б 
в 
г 
д 

Значение R-функции: ∞ 
3 
1 0.33
0 
 
Рассмотрим теперь особенности взаимоотношений аддитивной не
гэнтропии 
Σ
I  и энтропии отражения S при постоянном числе элементов 

системы 
A
M
 и различном количестве частей N, соотносящихся между со
бой по числу элементов 
i
B
M
 произвольным образом. При этом, сначала 

                                                
2 Название функции дано по первой букве англ. слова reflection, что в переводе на русский язык означает отражение. 

Научный журнал КубГАУ, №45(1), 2009 года 

http://ej.kubagro.ru/2009/01/pdf/12.pdf

10

определим максимальные и минимальные значения Σ
I  и S при данном N, 

основываясь на формулах (3) и (6) и выражениях (7) и (8). 

Энтропия отражения является максимальной, когда все части систе
мы представлены одинаковым числом элементов, то есть: 

N
N
N
N
S
2
2
max
log
log
1
=
−
=
                                    (10) 

Соответственно, минимальная величина аддитивной негэнтропии отраже
ния имеет вид: 

N
M
N
M
I
A
A
2
2
2
min
log
log
log
=
−
=
Σ
                            (11) 

Максимальное значение, в свою очередь, аддитивная нгэнтропия бу
дет принимать тогда, когда число элементов в одной части равно 

1
+
− N
M A
, а каждая из остальных 
)1
(
−
N
 частей включает в себя только 

1 элемент, то есть: 

)1
(
log
1
2
max
+
−
+
−
=
Σ
N
M
M
N
M
I
A

A

A
                                 (12) 

Соответственно, минимальная величина энтропии отражения равна: 

)1
(
log
1
log
2
2
min
+
−
+
−
−
=
N
M
M
N
M
M
S
A

A

A
A
                       (13) 

Построим графики 
max
min
max
min
,
,
,
S
S
I
I
Σ
Σ
, как функций от N и 

проведём анализ полученной диаграммы, которую будем называть инфор
мационным полем отражения дискретных систем (рисунок 3). 

Приведённые графики изначально образуют два контура: энтропий
ный – abdefha и негэнтропийный или информационный – cdfghbc, которые 

локализуют соответствующие области всех возможных значений энтропии 

и аддитивной негэнтропии отражения информационно закрытых систем. 

Пересечение этих контуров по точкам b и f, где наблюдаются равенства 

max
min
S
I
=
Σ
 и 
min
max
S
I
=
Σ
, позволяет по их проекциям выделить на гори