Теория случайных процессов : преобразование случайных сигналов. Ч. 2
Покупка
Тематика:
Программирование и алгоритмизация
Издательство:
Издательский Дом НИТУ «МИСиС»
Автор:
Шапкарина Галина Григорьевна
Год издания: 2009
Кол-во страниц: 124
Дополнительно
Является продолжением учебного пособия «Теория случайных процессов. Основные понятия и определения теории случайных процессов. Часть 1». Рассмотрены основные характеристики и методы определения корреляционных и спектральных функций случайных процессов. Приведены основные способы временнóго и частотного анализа динамических систем при случайных воздействиях. Предназначено для студентов специальности 220301.
Тематика:
ББК:
УДК:
- 004: Информационные технологии. Вычислительная техника...
- 519: Комбинатор. анализ. Теория графов. Теория вер. и мат. стат. Вычисл. мат., числ. анализ. Мат. кибер..
ОКСО:
- ВО - Бакалавриат
- 15.03.04: Автоматизация технологических процессов и производств
ГРНТИ:
Скопировать запись
Фрагмент текстового слоя документа размещен для индексирующих роботов
№ 433 ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ Кафедра компьютерных информационных и управляющих систем автоматики Г.Г. Шапкарина Теория случайных процессов Преобразование случайных сигналов Учебное пособие Часть 2 Рекомендовано редакционноиздательским советом университета Москва Издательский Дом МИСиС 2009
УДК 519.21 Ш23 Р е ц е н з е н т канд. техн. наук, доц. С.Н. Богданов Шапкарина Г.Г. Ш23 Теория случайных процессов. Преобразование случайных сигналов: Учеб. пособие. Ч. 2. – М.: Изд. Дом МИСиС, 2009. – 124 с. Является продолжением учебного пособия «Теория случайных процессов. Основные понятия и определения теории случайных процессов. Часть 1». Рассмотрены основные характеристики и методы определения корреляционных и спектральных функций случайных процессов. Приведены основные способы временнóго и частотного анализа динамических систем при случайных воздействиях. Предназначено для студентов специальности 220301. © Государственный технологический университет «Московский институт стали и сплавов» (МИСиС), 2009
ОГЛАВЛЕНИЕ 3. Корреляционный анализ случайных процессов в системах управления ................................................................................................4 3.1. Основные свойства корреляционной функции...........................4 3.2 Корреляционная функция бинарного случайного процесса.....21 3.3. Взаимная корреляционная функция ..........................................29 3.4. Корреляционные матрицы выборочных функций....................38 4. Спектральная плотность случайных процессов в системах управления ..............................................................................................44 4.1. Каноническое разложение случайных процессов. Комплексные случайные функции ...................................................44 4.2. Определение спектральной плотности. Основные свойства ...............................................................................................48 4.3. Взаимная спектральная плотность.............................................74 4.4. Измерение спектральной плотности..........................................77 5. Реакция линейных систем управления на воздействие случайных сигналов ...............................................................................93 5.1. Преобразование случайных сигналов линейными системами............................................................................................93 5.2. Анализ линейных систем во временной области ...................103 5.3. Анализ линейных систем в частотной области ......................116 Заключение............................................................................................122 Библиографический список.................................................................123
3. КОРРЕЛЯЦИОННЫЙ АНАЛИЗ СЛУЧАЙНЫХ ПРОЦЕССОВ В СИСТЕМАХ УПРАВЛЕНИЯ 3.1. Основные свойства корреляционной функции Описание случайных процессов в рамках теории вероятностей оказывается наиболее полным, так как в нем учитываются все сведения о случайном процессе; в то же время существует множество технических проблем, при разрешении которых подобная полнота недостижима и, кроме того, в ней нет необходимости. Например, если наиболее важной характеристикой данного случайного процесса является его средняя мощность или распределение этой мощности по частотному спектру, то в создании исчерпывающей вероятностной модели такого процесса нет необходимости; если же распределение вероятностей случайных величин заранее неизвестно, использовать вероятностную модель вообще не представляется возможным. В любом из этих двух случаев частичное статистическое описание, основанное на конкретных средних значениях, может оказаться достаточно приемлемой заменой вероятностного подхода. Введенное ранее определение корреляции дает представление о корреляции как о некотором числе, так как случайные величины не зависят в обязательном порядке от времени. Однако в практических задачах каждая пара случайных величин может быть охарактеризована разделяющим их временным интервалом, при этом корреляция становится функцией этого интервала. Поэтому для исследования случайных сигналов и их математического представления подходит использование корреляционной функции, аргументом которой является временной интервал между двумя случайными величинами. Если эти случайные величины являются выборочными значениями одного и того же случайного процесса, то указанная функция называется автокорреляционной (или просто корреляционной) функцией данного процесса, если же они принадлежат различным случайным процессам – взаимной корреляционной функцией. Если в качестве двух случайных величин выступают выборки случайного процесса в два различных момента времени, то такое математическое ожидание зависит от того, насколько быстро эти функции изменяются во времени. Случайные величины будут сильно коррелированы, когда моменты времени очень близки друг к другу, поскольку случайная величи
на, зависящая от времени, за короткое время не может существенно измениться. В то же время корреляция между двумя выборками, взятыми в далеко отстоящие друг от друга моменты времени, скорее всего весьма мала, так как за такое время случайные величины могут претерпеть практически любые изменения. Поскольку корреляция безусловно зависит от того, насколько быстро меняется во времени случайная величина, можно предположить, что она определяется также и тем, каким образом энергия случайного процесса распределяется по частотному спектру. Данное положение подтверждается тем фактом, что у процесса, быстро изменяющегося во времени, высокочастотные составляющие должны обладать достаточной энергией, чтобы обеспечивать его изменения. Следует напомнить, что корреляционной функцией (к.ф.) 1 2 ( , ) X R t t случайного процесса X(t) называется неслучайная функция, которая для каждой пары значений аргументов t1 и t2 равна корреляционному моменту сечений процесса 1t X и 2t X , соответствую щих этим значениям аргументов, т.е. 1 2 ( ) ( ) 1 2 0 0 1 2 1 1 2 2 1 1 2 2 ( ) ( ) 1 1 2 2 1 2 1 1 2 2 1 1 2 2 1 2 ( , ) ( ) ( ( ))( ( ))d ( , ; , ) ( ( ))( ( )) ( , ); ( ( ))( ( )) ( , ; , )d d , ∈ ∈ ∞ ∞ −∞ −∞ = = − − = ⎧ − − ⎪⎪ = ⎨ ⎪ − − ⎪⎩ ∫ ∑ ∑ ∫ ∫ i j 1 2 X t t X X i j X X ij x N x N X X X R t t M X X x m t x m t F x t x t x m t x m t P t t x m t x m t f x t x t x x где 1 2 ( ) ( ) 1 2 1 2 ( , ) { , }; = = = i j ij t t P t t P X x X x 1 N и 2 N – множества значений сечений 1t X и 2 ; t X 1 1 2 2 ( , ; , ) = Xf u t u t 2 1 1 2 2 1 2 ( , ; , )); ∂ ∂ ∂ X F u t u t u u 0 = i X = − i X ( ), i m t ( 1, 2) = i – центрированные сечения случайного процесса. Приведенное определение означает, что для каждой пары различных сечений случайного процесса значение корреляционной функции равно второму смешанному центральному моменту этих сечений, т.е. их корреляционному моменту. Наряду с корреляционной функцией используется нормированная корреляционная функция 1 2 ( , ) Xr t t , которая для каждой пары аргументов t1 и t2 равна коэффициенту корреляции сечений 1t X и 2t X :
1 2 1 2 1 2 ( , ) ( , ) . ( ) ( ) ρ = X X X X R t t t t D t D t Из равенства Коши – Буняковского следует 1 2 1 2 | ( , ) | ( ) ( ) ≤ X X X R t t D t D t и 1 2 | ( , ) | 1 ρ ≤ X t t . Корреляционная и нормированная корреляционная функции характеризуют корреляционную связь между сечениями случайного процесса. Определенное преимущество второй из этих функций состоит в ее безразмерности. Для описания центрированных случайных процессов используется ковариационная функция случайного процесса: 1 2 ( ) ( ) 1 2 1 2 1 2 1 2 1 2 1 1 2 2 ( ) ( ) 1 2 1 2 1 2 1 1 2 2 1 2 ( , ) d ( , ; , ) ( , ) для дискретного распределения сечений и ; ( , ; , )d d для дискретного распределения сечений i j X t t X i j ij x N x N t t X K t t MX X x x F x t x t x x P t t X X x x f u t u t x x X ∈ ∈ ∞ ∞ −∞ −∞ = = = − = − ∫ ∑ ∑ ∫ ∫ 1 2 и . t t X ⎧ ⎪ ⎪ ⎪⎪⎨ ⎪ ⎪ ⎪ ⎪⎩ На основании очевидных равенств ( ) ( , ), = X X D t R t t 1 2 0 0 1 2 1 2 1 2 1 2 ( , ) (( ( ))( ( ))) ( , ) ( ) ( ) = + + = + X t X t X X X X K t t M X m t X m t R t t m t m t можно сказать, что из рассмотренных выше моментных функций основное внимание следует уделить функции математического ожидания mX(t) и корреляционной функции RX(t1, t2). Таким образом, случайные процессы, обладающие конечной моментной функцией второго порядка (т.е. корреляционной функцией RX(t1, t2)), носят название процессов второго порядка (из существования момента r-го порядка следует существование моментов более низкого порядка; поэтому существование корреляционной функции влечет за собой существование функции математического ожидания). Изучение процессов второго порядка является содержанием
корреляционной теории случайных процессов, основы которой излагаются далее. Целью корреляционного анализа случайных процессов является исследование математического ожидания, дисперсии и корреляционной функции случайного процесса, так как именно дисперсия и корреляционная функция характеризуют собой статистический разброс значений случайного процесса относительно функции математического ожидания, т.е. относительно его среднего значения. Для эргодических процессов любую статистическую характеристику можно оценить по одной реализации бесконечной длины. Однако на практике фактически располагают конечным временем реализации, например, отрезком длины 2T для моментов времени – T ≤ t ≤ T. Но часто удобнее рассматривать лишь положительные значения t, поэтому целесообразнее выбирать отрезок реализации 0 ≤ t ≤ T. Основные погрешности результатов корреляционного анализа вызваны в основном ограниченностью реализации случайного процесса, поэтому снижение их – одна из важнейших задач использования в анализе численных методов. Корреляционный анализ дает возможность установить в сигналах наличие определенной связи изменения значений сигналов по выбранной независимой переменной, т.е. когда большие значения одного сигнала (относительно средних значений сигнала) связаны с большими значениями другого сигнала (положительная корреляция), или, наоборот, малые значения одного сигнала связаны с большими значениями другого (отрицательная корреляция), или значения двух сигналов никак не связаны (нулевая корреляция). Корреляция (correlation) и ее частный случай для центрированных сигналов – ковариация – являются методами анализа сигналов. В функциональном пространстве сигналов эта степень связи может выражаться в нормированных единицах коэффициента корреляции, т.е. в косинусе угла между векторами сигналов, и, соответственно, принимает значения от 1 (полное совпадение сигналов) до –1 (полная противоположность), а также не зависит от значения (масштаба) единиц измерений. В случае автокорреляции (autocorrelation) аналогично производится определение скалярного произведения сигнала x(t) с собственной копией, «скользящей» по аргументу. Автокорреляция позволяет оценить среднестатистическую зависимость текущих значений сигнала от предыдущих и последующих значений (так называемый радиус корреляции значений сигнала), а также выявить в сигнале наличие периодически повторяющихся элементов.
Особое значение методы корреляции приобретают при анализе случайных процессов для выявления неслучайных составляющих и оценки неслучайных параметров этих процессов. Автокорреляционные функции. Пусть X(t) – некоторый случайный процесс, а случайные величины определяются как 1 1 2 2 ( ), ( ), = = X X t X X t тогда по определению автокорреляционная функция соответствует выражению 1 2 1 2 1 1 2 1 2 2 ( , ) [ ] d ( , )d . ∞ ∞ −∞ −∞ = = ∫ ∫ X R t t M X X x x x f x x x (3.1) Это выражение справедливо как для стационарных, так и для нестационарных процессов. Однако в качестве моделей случайных процессов используются в основном стационарные процессы, для которых допустимо упрощение выражения (3.1). Так как для стационарного в широком смысле случайного процесса любое усреднение по ансамблю не зависит от начала отсчета времени, то можно записать: 1 2 1 2 1 2 ( , ) ( , ) [ ( ) ( )]. = + + = + + X X R t t R t T t T M X t T X t T Поскольку это выражение инвариантно по отношению к выбору начала отсчета времени, можно положить T = – t1 и получить 1 2 2 1 2 1 ( , ) (0, ) [ (0) ( )]. = − = − X X R t t R t t M X X t t Очевидно, что это выражение зависит только от промежутка времени (t2 – t1). Вводя обозначение τ = (t2 – t1) и опуская нуль в аргументе RX(0, t2 – t1) можно соотношение (3.1) переписать в следующем виде: 1 1 ( ) [ ( ) ( )]. X R M X t X t τ = + τ (3.2) Это выражение для автокорреляционной функции стационарного случайного процесса зависит только от τ и не зависит от значения t2; поскольку выражение для автокорреляционной функции не зависит от конкретного момента t1, в который произведено усреднение по ансамблю, выражение можно представить в виде ( ) [ ( ) ( )]. X R M X t X t τ = + τ .
В тех случаях, когда корреляционные функции описывают нестационарные процессы, они оказываются зависящими как от момента времени t, в который было осуществлено усреднение по ансамблю, так и от временнóго интервала τ между реализациями и должны записываться как RХ(t1, t2) или RХ(t1, τ). Временнýю автокорреляционную функцию для отдельной реализации х(t) можно определить так: 1 ( ) lim ( ) ( )d ( ) ( ) 2 →∞ − τ = + τ = + τ ∫ T x T T R x t x t t x t x t T . Для эргодического процесса x(t)x(t + τ) является неизменной функцией при любой реализации х(t), равной RХ(τ), т.е. для эргодического процесса справедливо равенство RХ(τ) = RX(τ). Предположение об эргодичности (если оно не противоречит условию) часто упрощает расчет корреляционных функций. Из (3.2) непосредственно следует, что при τ = 0 в силу RХ(0) = = M[X(t1)X(t2)] автокорреляционная функция равна среднему квадрату случайного процесса. При τ ≠ 0 автокорреляционная функция RХ(τ) может интерпретироваться как мера подобия случайных процессов X(t) и X(t + τ). В случае если X (t) – выборочная функция центрированного стационарного случайного процесса, можно образовать новую функцию: Y(t) = X(t) – ρX(t + τ). Значение ρ, при котором величина среднего квадрата случайного процесса Y(t) минимальна, позволяет получить меру подобия случайных процессов X(t + τ) и X(t): 2 2 2 2 2 2 2 2 2 2 2 2 {[ ( )] } { ( ) ( )] } { ( ) 2 ( ) ( ) ( )}; 2 ( ) ; d 2 ( ) 2 0; d ( ). = − ρ + τ = = − ρ + τ + ρ + τ σ = σ − ρ τ + ρ σ σ = − τ + ρσ = ρ τ ρ = σ Y X X X Y X X X X M Y t M X t X t M X t X t X t X t R R R
Из этих выражений следует, что ρ прямо пропорционально RХ(τ) и является коэффициентом корреляции. Коэффициент ρ можно интерпретировать как показатель того, каким образом мощность случайного процесса X(t) изменилась по истечении времени τ. Существенными являются следующие факторы: – величина ρ была определена на основе статистического метода; – коэффициент ρ является показателем того, насколько сохраняется форма случайного процесса X(t) в среднем по ансамблю, и не относится к отдельно взятой выборке (реализации) х(t). Коэффициент корреляции может принимать значения от + 1 до –1. Равенство ρ = 1 указывает, что формы выборочных функций х(t) случайного процесса X(t) идентичны, т.е. полностью коррелированны; при ρ = 0 выборочные функции некоррелированы, т. е. не существует какого-либо фрагмента выборки случайного процесса X(t + τ), который являлся бы частью выборки процесса X(t). Значение ρ = –1 свидетельствует об идентичности форм выборок и противоположности их знаков, а именно: форма выборки процесса X(t + τ) является зеркальным отражением формы выборочной функции процесса X(t). Для эргодического случайного процесса или детерминированных сигналов, приведенных выше, рассуждения применимы не только к средней мощности вместо дисперсии, но и к временнóй корреляционной функции вместо функции корреляции по ансамблю. Поскольку RХ(τ) зависит от коэффициента корреляции ρ и дисперсии 2 X σ случайного процесса X(t), конкретный вид функции RХ(τ) невозможно определить без знания одной из этих величин. Например, если случайный процесс имеет нулевое математическое ожидание и положительную автокорреляционную функцию, то о случайных величинах X(t1) и X(t1 + τ) можно сказать лишь то, что у них, вероятно, одинаковые знаки (при симметричности f(x1) относительно оси x1 = 0). Если автокорреляционная функция отрицательна, то указанные выше случайные величины скорее всего имеют противоположные знаки. Если же она близка к нулю, эти случайные величины могут иметь как разные, так и одинаковые знаки. При решении ряда практических задач возникает необходимость определения автокорреляционных функций сигналов. Понятие автокорреляционных функций сигналов. Автокорреляционная функция (correlation function, CF) сигнала x(t), конечного по энергии, является количественной интегральной характеристикой