Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Информационные технологии в АПК

Покупка
Основная коллекция
Артикул: 622019.01.99
Учебное пособие подготовлено в соответствии с основной образовательной программой подготовки бакалавра по направлению «Электроэнергетика и электротехника» по дисциплине «Информационные технологии в АПК». В учебном пособии доступность изложения материала сочетается с полнотой и системностью освещения следующих вопросов: понятие информации и ее характеристики, основные определения информационных технологий, кодирование информации, количественные характеристики информации, поколения вычислительной техники, основные характеристики персонального компьютера, классификация программного обеспечения, системное программное обеспечение. Курс рассчитан на студентов всех форм обучения и аспирантов, его информационное содержание достаточно для изучения дисциплины в объеме, предусмотренном стандартами высшего профессионального образования.
Шарипов, И.К. Информационные технологии в АПК [Электронный ресурс] : Электронный курс лекций / И.К. Шарипов, И.Н. Воротников, С.В. Аникуев, М.А. Мастепаненко. - Ставрополь, 2014. - 107 с. - Текст : электронный. - URL: https://znanium.com/catalog/product/514565 (дата обращения: 22.11.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов
МИНИСТЕРСТВО СЕЛЬСКОГО ХОЗЯЙСТВА РОССИЙСКОЙ ФЕДЕРАЦИИ

ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ ОБРАЗОВАТЕЛЬНОЕ 

УЧРЕЖДЕНИЕ ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ
СТАВРОПОЛЬСКИЙ ГОСУДАРСТВЕННЫЙ АГРАРНЫЙ УНИВЕРСИТЕТ

ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ В АПК

УЧЕБНОЕ ПОСОБИЕ

Ставрополь 2014

УДК 004.9:631.145
ББК 74.58

Рецензенты:

Доцент кафедры автоматики, электроники и метрологии кандидат 

сельскохозяйственных наук, доцент Габриелян Ш.Ж.

Доцент кафедры применения электрической энергии в сельском хозяйстве 

кандидат технических наук, доцент Антонов С.Н.

Шарипов И.К. Информационные технологии в АПК: Электронный курс 
лекций / и.К. Шарипов, И.Н. Воротников, С.В. Аникуев, М.А.
Мастепаненко – Ставрополь, 2014.

Авторы:

Шарипов И.К. – к.т.н., доцент кафедры «Теоретические основы 

электротехники» СтГАУ;

Воротников И.Н. - к.т.н., доцент кафедры «Теоретические основы 

электротехники» СтГАУ;

Аникуев С.В. - к.т.н., доцент кафедры «Теоретические основы 

электротехники» СтГАУ;

Мастепаненко М.А. - ассистент кафедры «Теоретические основы 

электротехники» СтГАУ.

Учебное пособие подготовлено
в соответствии с основной 

образовательной программой подготовки бакалавра по направлению 
«Электроэнергетика и электротехника» по дисциплине «Информационные 
технологии в АПК». 

В учебном пособии доступность изложения материала сочетается с 

полнотой и системностью освещения следующих вопросов: понятие 
информации 
и 
ее 
характеристики, 
основные 
определения 

информационных технологий, кодирование информации, количественные 
характеристики 
информации, 
поколения 
вычислительной 
техники, 

основные характеристики персонального компьютера, классификация 
программного обеспечения, системное программное обеспечение.

Курс рассчитан на студентов всех форм обучения и аспирантов, его 

информационное содержание достаточно для изучения дисциплины в 
объеме, предусмотренном стандартами высшего профессионального 
образования.

УДК 004.9:631.145
ББК 74.58

Введение

Наиболее эффективный способ развития агропромышленного комплекса 

–
развитие информационных технологий, автоматизации и комплексная 

механизация. Они позволяют с каждой единицы использованных ресурсов 
получить большее количество и разнообразие высококачественных продуктов 
питания.

Развитие агропромышленного комплекса замедляется из-за низкого 

уровня технологической оснащенности, что определяется техническим и 
технологическим уровнем промышленности и низкой квалификацией кадров. 
Сказывается 
отсутствие 
развитой 
инфраструктуры 
информатизации 

отечественного АПК и низкая заинтересованность хозяйств в развитии систем 
информатизации и использовании еѐ продуктов.

Примером интенсивного применения информационных технологий 

являются страны Евросоюза. В них фермер может подключиться к глобальной 
сети из любой точки посредством беспроводных
сетей,
отслеживать

необходимые
параметры
функционирования
объектов фермы, такие
как 

средства механизации
и автоматизации.
Животные
на ферме
снабжены 

системами обработки информации, подключенными к общей сети. Можно
установить различные типы датчиков в технологической цепочке и получить
доступ к данным в любое время.

В 
целом, 
несмотря 
на 
высокую 
долю 
в 
экономике 
России 

производственного сектора, на сегодняшний день уровень информатизации 
организаций и предприятий крайне низкий.

В агропромышленном производстве нашей страны можно выделить три 

уровня компьютеризации: разработку систем автоматизации финансововедомственной 
(АСУ)
и 
управленческой
деятельности; 
систем 

автоматизированного 
проектирования 
(САПР); 
систем 
автоматизации 

технологических процессов (АСУ ТП).

Информатизацию АПК можно определить как процесс создания и 

внедрения новейших средств вычислительной техники, микроэлектроники, 
прикладного программного обеспечения во все сферы производственной, 
организационно-экономической, 
научной 
и 
социальной 
деятельности 

перерабатывающей 
промышленности 
и 
сельского 
хозяйства 
в 
целях 

существенного улучшения условий труда и качества жизни населения [1].

1 ПОНЯТИЕ ИНФОРМАЦИИ

1.1 
Введение. 
Основные 
определения 
информационных 

технологий.

1.2 Понятие информации и ее характеристики. 
1.3 Кодирование информации. Системы счисления.
1.4 Количественные характеристики информации

1.1 Введение. Основные определения информационных технологий

Информационные технологии (ИТ, information technology, IT) –

широкий класс дисциплин и областей деятельности, относящихся к 
технологиям создания, сохранения, управления и обработки данных, в том 
числе с применением вычислительной техники. В последнее время под 
информационными технологиями чаще всего понимают компьютерные 
технологии. В частности, ИТ имеют дело с использованием компьютеров 
и программного обеспечения для создания, хранения, обработки, 
ограничения к передаче и получению информации. Специалистов по 
компьютерной технике и программированию часто называют ИТспециалистами.

Согласно определению, принятому ЮНЕСКО, ИТ – это комплекс 

взаимосвязанных научных, технологических, инженерных дисциплин, 
изучающих методы эффективной организации труда людей, занятых 
обработкой и хранением информации; вычислительная техника и методы 
организации 
и 
взаимодействия 
с 
людьми 
и 
производственным 

оборудованием, их практические приложения, а также связанные со всем 
этим социальные, экономические и культурные проблемы. 

Сами ИТ требуют сложной подготовки, больших первоначальных 

затрат и наукоемкой техники. Их внедрение должно начинаться с 
создания математического обеспечения, моделирования, формирования 
информационных хранилищ для промежуточных данных и решений.

Основные черты современных ИТ:

 Структурированность стандартов цифрового обмена данными 

алгоритмов;

 Широкое 
использование 
компьютерного 
сохранения 
и 

предоставление информации в необходимом виде;

 Передача информации посредством цифровых технологий на 

практически безграничные расстояния.

1.2 Понятие информации и ее характеристики

Термин ―информация‖ происходит от латинского informatio, что 

означает разъяснение, осведомление, изложение. В широком смысле 
информация – это общенаучное понятие, включающее в себя обмен 
сведениями между другими людьми, обмен сигналами между живой и 
неживой природой, людьми и устройствами.

Информация – сведения об объектах и явлениях окружающей 

среды, их параметрах, свойствах и состоянии, которые уменьшают 
имеющуюся о них степень неопределенности, неполноты знаний.

Сведения – это знания выраженные в сигналах, сообщениях, 

известиях, уведомлениях и т.п.

Данные
могут рассматриваться как признаки или записанные 

наблюдения, которые по каким-то причинам не используются, а только 
хранятся. В том случае, если появляется возможность использовать эти 
данные 
для 
уменьшения 
неопределенности 
о 
чем-либо, 
данные 

превращаются в информацию.

Энтропия – мера неопределенности.
В процессе общения с другими людьми человек передает и получает 

информацию. Обмен информацией между людьми может осуществляться 
в различных формах (письменной, устной или с помощью жестов). Для 
обмена информацией всегда используется определенный язык (русский, 
азбука Морзе и т.п.). Для того, чтобы информация была понятна, язык 
должен быть известен всем людям, участвующим в общении. Чем 
большее количество языков вы знаете, тем шире круг вашего общения.

История человеческого общества – это история накопления и 

преобразования информации. Весь процесс познания является процессом 
получения, 
преобразования 
и 
накопления 
информации 
(знаний). 

Полученная информация хранится на носителях информации различных 
типов, в последнее время все больше на электронных носителях 
информации в цифровой форме.

Объединение компьютеров в глобальную сеть Интернет позволило 

обеспечить для каждого человека потенциальную возможность быстрого 
доступа ко всему объему информации, накопленному человечеством за 
всю его историю [2].

1.3 Классификация информации

1. Информация подразделяется по форме представления на 2 вида: 

дискретная 
форма 
представления 
информации 
–
это 

последовательность 
символов, 
характеризующая 
прерывистую, 

изменяющуюся 
величину 
(количество 
дорожно-транспортных 

происшествий, количество тяжких преступлений и т.п.); 


аналоговая 
или 
непрерывная 
форма 
представления 

информации – это величина, характеризующая процесс, не имеющий 
перерывов или промежутков (температура тела человека, скорость 
автомобиля на определенном участке пути и т.п.). 

2. По области возникновения выделяют информацию: 

элементарную (механическую), которая отражает процессы, 

явления неодушевленной природы; 


биологическую, которая отражает процессы животного и растительного 

мира; 


социальную, 
которая 
отражает 
процессы 
человеческого 

общества. 

3. По способу передачи и восприятия различают следующие виды 

информации: 


визуальную, передаваемую видимыми образами и символами; 


аудиальную, передаваемую звуками; 


тактильную, передаваемую ощущениями; 


органолептическую, передаваемую запахами и вкусами; 


машинную, 
выдаваемую 
и 
воспринимаемую 
средствами 

вычислительной техники. 

4. Информацию, создаваемую и используемую человеком, по 

общественному назначению можно разбить на три вида: 


личную, предназначенную для конкретного человека; 


массовую, предназначенную для любого желающего ее 

пользоваться (общественно-политическая, научно-популярная и т.д.) ; 


специальную, предназначенную для использования узким 

кругом лиц, занимающихся решением сложных специальных задач в 
области науки, техники, экономики. 

5. 
По 
способам 
кодирования 
выделяют 
следующие 
типы 

информации: 


символьную, основанную на использовании символов – букв, 

цифр, знаков и т. д. Она является наиболее простой, но практически 
применяется только для передачи несложных сигналов о различных 
событиях. Примером может служить зеленый свет уличного светофора, 
который сообщает о возможности начала движения пешеходам или 
водителям автотранспорта. 


текстовую, 
основанную 
на 
использовании 
комбинаций 

символов. Здесь так же, как и в предыдущей форме, используются 
символы: буквы, цифры, математические знаки. Однако информация 
заложена не только в этих символах, но и в их сочетании, порядке 

следования. Так, слова КОТ и ТОК имеют одинаковые буквы, но содержат 
различную информацию. Благодаря взаимосвязи символов и отображению 
речи человека текстовая информация чрезвычайно удобна и широко 
используется в деятельности человека: книги, брошюры, журналы, 
различного рода документы, аудиозаписи кодируются в текстовой форме. 


графическую, основанную на использовании произвольного 

сочетания в пространстве графических примитивов. К этой форме 
относятся фотографии, схемы, чертежи, рисунки, играющие большое 
значение в деятельности человек [3]. 

1.4 Количественные характеристики информации

Рисунок 1.1 – Классификация мер информации

Свойства информации можно рассматривать в трех аспектах: 

техническом – это точность, надежность, скорость передачи сигналов и 
т.д.; семантическом – это передача смысла текста с помощью кодов и 
прагматическом – это насколько эффективно информация влияет на 
поведение объекта.

Синтаксическая мера информации

Эта мера количества информации оперирует с обезличенной 

информацией, не выражающей смыслового отношения к объекту. На 
синтаксическом 
уровне 
учитываются 
тип 
носителя 
и 
способ 

представления информации, скорость передачи и обработки, размеры 
кодов представления информации.

Объѐм данных (VД) понимается в техническом смысле этого слова 

как информационный объѐм сообщения или как объѐм памяти, 
необходимый для хранения сообщения без каких-либо изменений.

Информационный объѐм сообщения измеряется в битах и равен 

количеству двоичных цифр (―0‖ и ―1‖), которыми закодировано 
сообщение.

В компьютерной практике слово ―бит‖ используется также как 

единица измерения объѐма памяти. Ячейка памяти размером в 1 бит 
может находиться в двух состояниях (―включено‖ и ―выключено‖) и в неѐ 
может быть записана одна двоичная цифра (0 или 1). Понятно, что бит –
слишком маленькая единица измерения информации, поэтому пользуются 
кратными ей величинами. Основной единицей измерения информации 
является байт. 1 байт равен 8 битам. В ячейку размером в 1 байт можно 
поместить 8 двоичных цифр, то есть в одном байте можно хранить 256 = 
28 различных чисел. Для измерения ещѐ бОльших объѐмов информации 
используются такие величины:

1 Килобайт =210 байт =1024 байт
1 Мегабайт =210 Килобайт =1024 Килобайт
1 Гигабайт =210 Мегабайт =1024 Мегабайт
1 Терабайт =210 Гигабайт =1024 Гигабайт

Количество информации I на синтаксическом уровне определяется 

через понятие энтропии системы.

Пусть до получения информации потребитель имеет некоторые 

предварительные (априорные) сведения о системе α. Мерой его 
неосведомленности о системе является функция H(α), которая в то же 
время служит и мерой неопределенности состояния системы.

После получения некоторого сообщения β получатель приобрел 

некоторую дополнительную информацию Iβ(α), уменьшившую его 
априорную неосведомленность так, что неопределенность состояния 
системы после получения сообщения β стала Hβ(α).

Тогда количество информации Iβ(α) в системе, полученной в 

сообщении β, определится как:

Iβ(α)=H(α) – Hβ(α),

т.е. количество информации измеряется изменением (уменьшением) 
неопределенности состояния системы. Если конечная неопределенность 
Hβ(α) обратится в нуль, то первоначальное неполное знание заменится 
полным знанием и количество информации Iβ(α)=H(α). Иными словами, 
энтропия системы Н(а) может рассматриваться как мера недостающей 
информации.

Энтропия системы H(α), имеющая N возможных состояний, согласно 

формуле Шеннона, равна:








N

i

i
i
P
P
H

1

log
)
(
,

где Pi – вероятность того, что система находится в i-м состоянии. Для 
случая, когда все состояния системы равновероятны, т.е. их вероятности 
равны 
Pi
=1/N, 
ее 
энтропия 
определяется 
соотношением 








N

i
N
N
H

1

1
log
1
)
(
.

Пример 1.1 Часто информация кодируется числовыми кодами в той 

или иной системе счисления, особенно это актуально при представлении 
информации в компьютере. Естественно, что одно и то же количество 
разрядов в разных системах счисления может передать разное число 
состояний отображаемого объекта, что можно представить в виде 
соотношения

N = mn,

где N – число всевозможных отображаемых состояний; 

m
–
основание системы счисления (разнообразие символов, 

применяемых в алфавите); 

n – число разрядов (символов) в сообщении. 
Допустим, что по каналу связи передается n-разрядное сообщение, 

использующее m различных символов. Так как количество всевозможных 
кодовых комбинаций будет N=mn, то при равновероятности появления 
любой из них количество информации, приобретенной абонентом в 
результате получения сообщения, будет:

I=log N=n log m – формула Хартли.

Если в качестве основания логарифма принять m, то I = n. В данном 

случае количество информации (при условии полного априорного 
незнания абонентом содержания сообщения) будет равно объему данных I
= VД , полученных по каналу связи.

Семантическая мера информации

Для измерения смыслового содержания информации, т.е. ее 

количества на семантическом уровне, наибольшее признание получила 
тезаурусная мера, которая связывает семантические свойства информации 
со способностью пользователя принимать поступившее сообщение. Для 
этого используется понятие тезаурус пользователя.

Тезаурус –
это совокупность сведений, которыми располагает 

пользователь или система.

В зависимости от соотношений между смысловым содержанием 

информации S и тезаурусом пользователя Sp изменяется количество 
семантической 
информации 
Ic, воспринимаемой 
пользователем 
и 

включаемой им в дальнейшем в свой тезаурус. Рассмотрим два 
предельных случая, когда количество семантической информации Ic равно 
0:

• 
при 
Sp→0 
пользователь 
не 
воспринимает, 
не 
понимает 

поступающую информацию;

• при Sp→ пользователь все знает, и поступающая информация ему 

не нужна.

Одно и то же сообщение может иметь смысловое содержание для 

компетентного пользователя и быть бессмысленным для пользователя 
некомпетентного. Относительной мерой количества семантической 
информации может служить коэффициент содержательности С, который 
определяется как отношение количества семантической информации к ее 

объему: 

Д
V
I
С 
.

Прагматическая мера информации

Эта мера определяет полезность информации (ценность) для 

достижения пользователем поставленной цепи. Эта мера также величина 
относительная, 
обусловленная 
особенностями 
использования 
этой 

информации в той или иной системе.

Ценность информации целесообразно измерять в тех же самых 

единицах (или близких к ним), в которых измеряется целевая функция.

1.5 Системы счисления

Системой счисления называется способ изображения чисел с 

помощью ограниченного набора символов, имеющих определенные 
количественные значения. Систему счисления образует совокупность 
правил и приемов представления чисел с помощью набора знаков (цифр).

Различают позиционные и непозиционные системы счисления. В 

позиционных системах каждая цифра числа имеет определенный вес, 
зависящий от позиции цифры в последовательности, изображающей 
число. Позиция цифры называется разрядом. В позиционной системе 
счисления любое число можно представить в виде: