Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета, 2008, №44

Покупка
Основная коллекция
Артикул: 640709.0001.99
Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета, 2008, вып. №44 - Краснод.:КубГАУ, 2008. - 196 с.:. - Текст : электронный. - URL: https://znanium.com/catalog/product/620767 (дата обращения: 03.05.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.
Научный журнал КубГАУ, №44(10), 2008 года 
 

http://ej.kubagro.ru/2008/10/pdf/12.pdf

1

УДК 519.7 
 
СИНЕРГЕТИЧЕСКАЯ ТЕОРИЯ 
ИНФОРМАЦИИ 
Часть 1. Синергетический подход к определению 
количества информации 
 
Вяткин Виктор Борисович 
к.т.н. 
 
Екатеринбург, Россия 
 
Излагается новый подход к определению количества информации, в котором за информацию принимаются сведения о конечном множестве как едином 
целом, а мерой информации является средняя длина интегративного кода элементов. Приводятся 
примеры использования этого подхода. 
 
Ключевые слова: НЕГЭНТРОПИЯ, КОЛИЧЕСТВО 
ИНФОРМАЦИИ, ОТРАЖЕНИЕ, КОНЕЧНОЕ 
МНОЖЕСТВО, ЭЛЕМЕНТ, ПРИЗНАК, 
ИНТЕГРАТИВНЫЙ КОД. 

UDC 519.7 
 
SYNERGETIC  INFORMATION THEORY 
Part 1. Synergetic approach to definition of quantity of information 
 
 
Vyatkin Victor Borisovich.  
Cand. Tech.Sci. 
 
Ekaterinburg, Russia 
 
A new approach to definition of quantity of information is stated. According to the approach an information can be defined as data about finite set which is 
considered like integration and information measure is 
average length of integrative code of elements. Examples of use of this approach are given.  
 
Keywords: NEGENTROPY, QUANTITY OF 
INFORMATION, REFLECTION, FINITE SET, 
ELEMENT, SIGN, INTEGRATIVE CODE. 

 

«Практически нас интересует чаще всего 
количество информации в индивидуальном 
объекте x относительно индивидуального 
объекта y» 
Колмогоров А.Н. 
 

Введение 

Исследуя ту или иную дискретную систему, мы, как правило, по от
личительным признакам выделяем в её составе совокупность частей, пред
ставляющих собой конечные множества элементов. В том случае, когда 

какие-либо части системы, выделенные в плоскостях различных призна
ков, имеют непосредственную взаимосвязь друг с другом, наблюдается пе
ресечение соответствующих множеств элементов. При этом является оче
видным, что любые два пересекающихся множества отражают (воспроиз
водят) друг о друге, как о целостном образовании, определённую инфор
мацию, количественная оценка которой представляет практический инте
рес. С гносеологической точки зрения процесс получения этой информа
ции познающим субъектом (аналитической системой) состоит из трёх эта
Научный журнал КубГАУ, №44(10), 2008 года 
 

http://ej.kubagro.ru/2008/10/pdf/12.pdf

2

пов, и на примере произвольной системы D и отличительных признаков 

A
P  и B
P  выглядит следующим образом. 

На первом этапе система D рассматривается в плоскости 
)
( A
P
Ω
 

признака 
A
P  (рисунок 1а) и те элементы 
D
d ∈
, у которых наблюдается 

признак 
A
P , выделяются в виде множества А. На втором этапе идет рас
смотрение системы в плоскости 
)
( B
P
Ω
 признака 
B
P  (рисунок 1б) и анало
гично первому этапу выделяется множество В. 

 

 

D 

A

Ω(PA) 

D 
A
B 
K 

Ω(PA,PB) 

D 
B 
Ω(PB) 

б

а

в

 

 
Рисунок 1. Система D и множества A, B, K  
в плоскостях признаков PA и PB 
 

После завершения операций первых двух этапов познающий субъект 

находится в состоянии неопределенности относительно существования не
посредственной взаимосвязи между множествами А и В. Эта неопределен
ность снимается на третьем этапе после рассмотрения выделенных мно
жеств А и В в совмещённой плоскости 
)
,
(
B
A P
P
Ω
 признаков 
A
P  и 
B
P  

(рисунок 1в). Если при этом выявляется третье (связующее) множество K, 

такое, что 
B
A
K
I
=
, 
∅
≠
K
, то познающий субъект снимает (ликвидиру
ет) свою неопределённость относительно непосредственной взаимосвязи 

Научный журнал КубГАУ, №44(10), 2008 года 
 

http://ej.kubagro.ru/2008/10/pdf/12.pdf

3

множеств А и В и получает информацию ( AB
I
), которую эти множества 

отражают друг о друге. В противном случае, когда 
∅
=
K
, отмеченная не
определённость также снимается, но при этом делается вывод, что между 

множествами А и В существует только косвенная взаимосвязь, заключаю
щаяся в том, что как А, так и В принадлежат одной и той же системе D. 

В настоящее время синонимом неопределённости чего-либо, а также 

отсутствия или недостатка знаний (информации) о чём-либо принято счи
тать энтропию [1,2,3]. Поэтому информацию 
AB
I
, для её отличия от дру
гих видов информации, будем называть негэнтропией отражения (прини
мая при этом во внимание также негэнтропийный принцип Бриллюэна, со
гласно которому «информация представляет собой отрицательный вклад в 

энтропию» [4, с.34] )1. То есть, негэнтропия отражения  представляет 

собой информацию 
AB
I
, которую отражают друг о друге два пересе
кающихся конечных множества А и В. Желая определить, чему равна не
гэнтропия отражения 
AB
I
, поставим задачу по её количественному опре
делению следующим образом. 

Пусть в составе некоторой системы 
}
{d
D =
 (рисунок 2) по отличи
тельным признакам 
A
P  и 
B
P  выделены три конечных множества 

)}
(
|
{
)}
(
|
{
d
P
d
a
P
a
A
A
A
=
=
,
)}
(
|
{
)}
(
|
{
d
P
d
b
P
b
B
B
B
=
=
 и 
B
A
K
I
=
,
∅
≠
K
. 

Количество 
элементов 
в 
составе 
каждого 
из 
множеств 
равно 

K
B
A
M
M
M
,
,
, соответственно. Требуется определить чему равна негэн
тропия отражения 
AB
I
, то есть количество информации, которую отража
ют друг о друге конечные множества А и В. 

 

                                                
1 Общая интерпретация термина негэнтропия дана в приложении 1 к настоящей статье. 

Научный журнал КубГАУ, №44(10), 2008 года 
 

http://ej.kubagro.ru/2008/10/pdf/12.pdf

4

A 

   а 
б 

   в 
   г 

D

B 

K = ∅

D

A
B 
K 

K ≠ ∅ ∧ K ≠ A,B

д 

B
A,K 

D 

A,B,K
A 
B,K 

K = B ⊂ A 
K = A ⊂ B
A = B = K  

D
D

 

а – модель отсутствия взаимосвязи; б, в, г – модель частичной (статистической) взаимосвязи; д – модель полной (взаимно-однозначной) взаимосвязи. 
 
Рисунок 2. Модели взаимосвязи множеств А и В  
в составе системы D 
 

Актуальность количественной оценки негэнтропии отражения во 

многих предметных областях не вызывает сомнений (например, при реше
нии задач, связанных с оценкой информативности признаков). Вместе с 

тем установлено [5], что известные подходы к определению количест
ва информации [6] не позволяют решить поставленную задачу. Более 

того, широко известная информационно-энтропийная мера Шеннона [7] 

при наиболее полной взаимосвязи конечных множеств А и В (см. рисунок 

2д), когда они должны отражать друг о друге максимальное количество 

информации, приводит к нонсенсу, показывая, что 
0
=
AB
I
. Это объясня
ется тем, что математические основы теории информации, начиная с работ 

Хартли [8], традиционно разрабатывались под эгидой того, что информа
ция неразрывно связана с управлением и представляет собой снимаемую 

неопределённость выбора одной из множества возможностей. Другой же 

вид информации, объективно существующий в природе независимо от 

управления и не связанный с выбором [9], при этом остался в тени. К это
му виду информации, по всей видимости, относится и негэнтропия отра
Научный журнал КубГАУ, №44(10), 2008 года 
 

http://ej.kubagro.ru/2008/10/pdf/12.pdf

5

жения, для количественной оценки которой автором статьи разработан но
вый – синергетический – подход к определению количества информации. 

Ниже даётся изложение этого подхода. 

 

Самоотражение конечных множеств 

Анализируя модели взаимосвязи конечных множеств А и В (см. ри
сунок 2), можно утверждать, что при постоянстве 
A
M
 и 
B
M
 негэнтропия 

отражения 
AB
I
 увеличивается по мере роста 
K
M
 и является максималь
ной, когда 
K
B
A
=
=
. В этом случае отражение множеств А и В друг через 

друга не отличается от их самоотражения, то есть отражения через самих 

себя. Соответственно, негэнтропия 
AB
I
 при 
K
B
A
=
=
 равна самоотра
жаемой информации, которую каждое из множеств отражает о самом себе 

как едином целом. Это говорит о том, что негэнтропия отражения и ин
формация, самоотражаемая конечными множествами, имеют одну и ту же 

природу. Поэтому, прежде чем непосредственно решать поставленную за
дачу по оценке негэнтропии отражения, рассмотрим информационные ас
пекты самоотражения конечных множеств. 

Будем исходить из общеупотребительного и наиболее простого оп
ределения информации, как сведений о чём-либо и примем в наших иссле
дованиях за информацию сведения о конечном множестве, как едином це
лом. При этом, используя словосочетание «единое целое», мы имеем в ви
ду, что, во-первых, конечное множество в контексте его отражения являет
ся неделимым, а во-вторых, – элементы множества в своей совокупности 

представляют не механическое собрание предметов, существующих неза
висимо друг от друга, а целостное образование, в составе которого элемен
ты обладают интегративными характеристиками, не присущими им в их 

разобщенном виде. Короче говоря, показателем конечного множества, как 

единого целого, являются интегративные характеристики его элементов. 

Научный журнал КубГАУ, №44(10), 2008 года 
 

http://ej.kubagro.ru/2008/10/pdf/12.pdf

6

Соответственно, наличие у этих характеристик какого-либо числового па
раметра, зависящего от общего числа элементов, может служить основой 

для определения количества информации, самоотражаемой конечным 

множеством. Определим это количество информации, для чего примем 

следующий аксиоматический базис: 

1). Информация представляет собой сведения о конечном множестве 

элементов, как едином целом. 

2). Количество информации 
A
I
, самоотражаемой конечным множе
ством А, является монотонно возрастающей функцией от общего числа его 

элементов 
A
M
 и, соответственно, для любых двух конечных множеств А и 

В с числом элементов 
A
M
 и 
1
+
=
A
B
M
M
 имеет место неравенство 

A
B
I
I
>
                                                      (1) 

3). Показателем конечного множества А, как единого целого, являет
ся интегративный код его элементов, представляющий собой индивиду
альную для каждого элемента последовательность символов какого-либо 

алфавита, число которых 
A
L  (длина кода) является функцией от общего 

количества элементов 
A
M
 в составе множества. 

Рассмотрим процесс увеличения числа элементов 
A
M
, представив 

его в виде роста ориентированного дерева, совокупность висячих вершин 

которого взаимно-однозначно соответствует множеству элементов 
А
а ∈
, а 

максимальное число дуг, выходящих из одной вершины, равно числу сим
волов (n) алфавита, выбранного для составления интегративных кодов. 

При этом каждой из смежных дуг в алфавитном порядке ставится в соот
ветствие свой символ и, как следствие, в качестве индивидуального инте
гративного кода какого-либо элемента выступает последовательность сим
волов, находящихся на пути движения из начальной вершины дерева в со
ответствующую данному элементу висячую вершину. Модель такого дере
ва, которое будем называть деревом кодов, при 
2
=
n
 и использовании в 

Научный журнал КубГАУ, №44(10), 2008 года 
 

http://ej.kubagro.ru/2008/10/pdf/12.pdf

7

качестве алфавита упорядоченной пары символов 
>
<
1,0
 приведена на ри
сунке 3. 

 

 

0 
1 

0 
1 
0 
1 

0 
1 
0 
1 

x 

x + 1 

1         2    3          4 

5               6 

А/

А//

 

Рисунок 3. Модель дерева кодов при n = 2 и MA = 6 
 

 Из приведённой модели дерева кодов видно, что в общем случае 

множество А по длине интегративных кодов его элементов разбивается на 

два подмножества A′ и A′′ , таких, что 
x
LA =
′
 и 
1
+
=
′′
x
LA
, где 

]
[log
A
n M
x =
 – целочисленная часть 
A
n M
log
. То есть 
A
L  не является од
нозначной функцией от 
A
M
. Поэтому будем рассматривать среднюю дли
ну 
)
( A
L
 интегративных кодов 

A

A
A
A
M
M
x
xM
L
′′
′
+
+
=
)1
(
 ,                                        (2) 

и начнем с алфавита с минимальным числом символов 
)
2
( =
n
. 

Из анализа рисунка 3 следует, что при 
2
=
n
 возрастание 
A
M  на еди
ницу обуславливает уменьшение на единицу числа элементов с длиной ко
да x и увеличение числа элементов с длиной кода 
1
+
x
 на два элемента, то 

есть: 

Научный журнал КубГАУ, №44(10), 2008 года 
 

http://ej.kubagro.ru/2008/10/pdf/12.pdf

8

)
2
(
)1
(
1
2
+
∧
−
⇒
+
′′
′
=
A
A
n
A
M
M
M
                          (3) 

Учитывая (3), для определения 
A
M
′  и 
A
M
′′  составим систему урав
нений 

=
+

=
+

+
′′
′

′′
′
1
2
2
x
A
A

A
A
A

M
M

M
M
M
, 

решая которую, получаем: 

−
=

−
=

′′

+
′

)
2
(
2

2
1

x
A
A

A
x
A

M
M

M
M
                                            (4) 

Подставляя значения (4) в выражение (2), и проводя несложные преобра
зования, приходим к следующей формуле средней длины интегративных 

кодов при 
2
=
n
: 

A

x

n
A
M
x
L
1

2
2
2
+

=
−
+
=
                                         (5) 

Полученное выражение (5) удовлетворяет принятым аксиомам и, со
ответственно, может служить мерой количества информации 
A
I
, самоот
ражаемой конечным множеством А. 

Рассмотрим теперь деревья кодов при 
2
>
n
. На рисунке 4 представ
лены такие деревья, когда 
3
=
n
 и 
9
,8
,3
,2
=
A
M
. 

 

 
а 
б 
в 
г 

MA = 2 
MA = 3 

MA = 8 
MA = 9 
 

Рисунок 4. Модели дерева кодов при n = 3 
 

Научный журнал КубГАУ, №44(10), 2008 года 
 

http://ej.kubagro.ru/2008/10/pdf/12.pdf

9

 Из рисунка видно, что при наполнении выходящими дугами началь
ной вершины дерева (см. рисунок 4а,б) и последней из висячих вершин 

(см. рисунок 4в,г) средняя длина кодов 
A
L  не изменяется, то есть 

=
=

=
=

=
=

⇒
=

=
−
=

=
=

=
=

y
L
L

L
L

L
L

n

y
A
M
y
A
M

A
M
A
M

A
M
A
M

A
A

A
A

A
A

3
1
3

9
8

3
2

.............................

2

1

3
 

где 
...
,2
,1
=
y
 

Увеличивая n, приходим к общему выражению случаев постоянства значе
ний 
A
L  при наполнении выходящими дугами последних из висячих вер
шин: 

y
L
L
L
n
y
A
y
A
y
A
n
M
A
n
n
M
A
n
n
M
A
=
=
=
=
⇒
>
=
+
−
=
+
−
=
...
2
3
2
    (6) 

Из выражения (6) следует, что 
A
L  при 
2
>
n
 и 
y

A
n
M
≥
 не менее чем  

в 
y
n
)
2
( −
 случаев противоречит аксиоме (1) монотонного возрастания ин
формации A
I
. Это позволяет сделать принципиально важный вывод: сред
няя длина интегративного кода элементов может выступать в качест
ве меры количества информации только тогда, когда интегративные 

коды составлены с помощью двоичного алфавита. 

Таким образом, мы пришли к тому, что 

2
=
=
n
A
A
L
I
                                                   (7) 

и, соответственно, всё излагаемое ниже будет относиться к 
2
=
n
. 

Проводя анализ формулы (5), нетрудно видеть, что если 
x

A
M
2
=
, то 

A
A
M
L
2
log
=
. В тех же случаях, когда 
1
2
2
+
<
<
x

A

x
M
, наблюдается неко
торое превышение 
A
L  над 
A
M
2
log
, что можно видеть на рисунке 5.  

Научный журнал КубГАУ, №44(10), 2008 года 
 

http://ej.kubagro.ru/2008/10/pdf/12.pdf

10

1,0

2,0

3,0

4,0

5,0

6,0

0
10
20
30
40

A
L
 

A
M
2
log
 

A
A
M
L
2
log
,
 

A
M

 

Рисунок 5. Графики функций 
A
L  и 
A
M
2
log
 

 

Определим максимальную величину этого превышения (Ψ ), как точную 

верхнюю грань отклонения 
A
L  от 
A
M
2
log
: 

)
log
(
sup
2
)
,1
[
A
A
M
M
L

A
−
=
ψ
∞
∈
 

Применяя необходимое условие экстремума функции и, полагая, что 

)
2
,
2
(
1
+
∈
x
x

A
M
, x = const, в соответствии с выражением (5) приходим к 

уравнению 

0
log
2
2

/

2

1
=
−
−
+
+

A
M
A
A

x
M
M
x
, 

которое, после дифференцирования по 
A
M
, приобретает вид 

0
2
ln
1
2
2

1
=
−
+

A
A

x

M
M
 

и после несложных преобразований имеет своим решением: 

2
ln
2
1
+
=
x

A
M
                                                 (8)