|
Повідомлення та відповідні їм сигнали
Джерела та форми повідомлення та відповідні їм сигнали можна поділити на дискретні та неперервні. Дискретними називають повідомлення, що складаються з окремих елементів (символів, букв, імпульсів), які приймають скінченну кількість різних значень. Прикладами дискретних повідомлень є команди в системах керування, вихідна інформація ЕОМ у вигляді кодових груп або масивів чисел, телеграфні повідомлення. Такі повідомлення складаються зі скінченної кількості елементів, що слідують один за одним у деякій послідовності. Набір елементів, з яких складаються повідомлення, як правило, називають алфавітом. Неперервними називають такі повідомлення, які можуть приймати в деяких межах будь-які значення та являються неперервними функціями часу (рис. 1.3). Прикладами таких повідомлень і відповідних їм сигналів є телефонні повідомлення, сигнали телеметрії, відеосигнали, що відображають розподіл яскравості в телевізійному зображенні. У реальних умовах згадані відмінності неперервних та дискретних повідомлень можуть бути непринциповими. Шляхом дискретизації (за часом) та квантування (за рівнем) можна неперервне повідомлення з допустимим степенем наближення замінити дискретним (рис.1.4.). З інформаційної точки зору сигнали можна розділити на детерміновані та випадкові. Детермінованимназивають сигнал, математичним представленням якого є деяка задана функція часу. Це означає, що детермінований сигнал відповідає відомому повідомленню і тому його миттєве значення в будь-який момент часу можна передбачити досить точно. Прикладами детермінованих сигналів є: гармонічний сигнал з відомими амплітудою, частотою та фазою; імпульси або послідовність імпульсів з відомими формою, амплітудою та розташуванням у часі. Випадковимназивають сигнал, математичним представленням якого є випадкова функція часу. Це означає, що точні значення такого сигналу невідомі й можуть бути передбачені лише приблизно, з деякою ймовірністю. Прикладами випадкових сигналів є мовні сигнали, сигнали електрокардіограм, сигнали на вході радіолокаційних приймачів тощо. З точки зору теорії інформації детерміновані сигнали інформації не несуть, тому будь-який сигнал, який несе інформацію, слід розглядати як випадковий. Реальні сигнали поєднують властивості як детермінованих, так і випадкових сигналів. Властивості випадкових сигналів розглядають, використовуючи теорію випадкових процесів, у відповідності з якою реальний сигнал являє собою одну з можливих реалізацій випадкового процесу. Сукупність реалізацій випадкового процесу називають ансамблем, який є множиною реалізацій випадкового процесу {x(t)} (рис. 1.5). Характеристики випадкового процесу визначають у середньому не за одною, а за сукупністю великої кількості реалізацій випадкового процесу. Основними характеристиками є закони розподілу значень випадкового процесу. Одновимірний інтегральний закон розподілу характеризується функцією розподілу F1, що визначають для часового перетину, який відповідає моменту t1
де P[x(t1) ≤ x1] – ймовірність того, що в момент t1 значення випадкового процесу знаходяться в межах xmin < x < x1, де xmin та xmax – межі можливих значень випадкового процесу. Функція F1(x1,t1) може бути знайдена з виразу
де p1(x,t) – одновимірна щільність імовірності випадкового процесу для моменту часу t1. Одновимірна щільність імовірності, так само як і одновимірний закон розподілу, недостатні для повного опису випадкового процесу, оскільки характеризують його лише в окремі моменти часу. Повніше випадковий процес характеризують двовимірні, тривимірні і т. д. закони розподілу, що дають змогу враховувати зв’язок значень випадкового процесу в моменти часу (t1, t2), (t1, t2, t3), (t1, t2…tn), що вибирають довільно. Найбільш повною характеристикою випадкового процесу є n-вимірний закон розподілу. Багатовимірні закони характеризуються багатовимірними функціями розподілу та багатовимірною щільністю ймовірності. Зокрема, двовимірний закон описують функцією розподілу
та характеризують двовимірною щільністю ймовірності P2(x1,t1; x2,t2). Вичерпною характеристикою випадкового процесу є n-вимірний закон розподілу, що описує розподіл значень x(t) для n довільно вибраних моментів часу
Вважають, що випадковий процес X(t) заданий, якщо його n-вимірний розподіл відомий для будь-якої кількості n довільно вибраних моментів часу t1, t2, ... tn. Коли значення випадкового процесу для будь-яких t незалежні, n-вимірну щільність ймовірності pn(x1,t1; x2,t2;...; xn,tn) можна записати у вигляді добутку одновимірних щільностей імовірності
Поряд із законами розподілу випадкові процеси характеризують рядом параметрів, які отримують у загальному випадку шляхом усереднення за множиною реалізацій (усереднення за множиною реалізацій позначено прямою рискою над функцією в (1.6) і далі). Середнє значення – математичне очікування випадкового процесу
де М – символ операції обчислення математичного очікування. Середнє значення квадрата випадкового процесу
Дисперсія – математичне очікування квадрата відхилення випадкового процесу
У даному випадку – середнє квадратичне відхилення. Дисперсія – це міра відхилення випадкового процесу від середнього значення. Якщо , дисперсія дорівнює середньому значенню квадрата випадкового процесу. Наведені параметри характеризують випадковий процес у визначений момент часу t1. Випадковий процес X(t) – mx(t) називають центрованим. Статистичний зв’язок між значеннями випадкового процесу оцінюють функцією кореляції
що являє собою статистично усереднений добуток значень випадкового процесу, які взяті в моменти часу t1 та t2. Статистичний зв’язок між двома випадковими процесами описують взаємною кореляційною функцією
де p2(x1,t1; y2,t2) – двовимірна взаємна щільність імовірності випадкових процесів X(t) та Y(t). Якщо випадкові процеси X(t) та Y(t) статистично незалежні, то p2(x1,t1; y2,t2) = p1(x1,t1)×p1(y2,t2) і тоді функція взаємної кореляції може бути знайдена як добуток середніх значень випадкових процесів, тобто . Відмітимо ще раз, що наведені параметри визначають шляхом статистичного усереднення за множиною реалізацій. Можливе визначення цих параметрів і шляхом усереднення за часом на деякому часовому інтервалі, який принципово можна розширити до нескінченності. Наприклад, середнє за часом (позначають хвилястою лінією зверху)
а середнє значення квадрата випадкового процесу
У загальному випадку середні за ансамблем реалізації та середні за часом не рівні, оскільки середні за ансамблем є функціями моментів часу t1 або t1, t2 (кореляційна функція). Наведені співвідношення надані для неперервного випадкового процесу. Якщо ж випадковий процес є дискретним і є ансамблем випадкових величин xi, то можна записати співвідношення, аналогічні (1.6) – (1.9):
де pi – апріорна ймовірність випадкової величини xi; pi,j – сукупна апріорна ймовірність величин xi та xj; n – кількість значень випадкової величини x.
|
|||||||||||||||||||||||||||||||||
|