Skip to main content
UDHTU

Цифрова обробка сигналів та зображень

ТИПИ СИГНАЛІВ

ТИПИ СИГНАЛІВ

Виділяють наступні|таких| типи|типи| сигналів, яким відповідають певні форми їх математичного опису.

Мал. 1.2.1. Аналоговий сигнал.

Аналоговий сигнал (analog signal) є безперервною функцією безперервного аргументу, тобто визначений для будь-якого значення аргументів. Джерелами аналогових сигналів, як правило, є фізичні процеси і явища, безперервні в динаміці свого розвитку в часі, в просторі або по будь-якій іншій незалежній змінній, при цьому реєстрований сигнал подібний (“аналогічний”) до процесу, що породжує його. Приклад математичного запису сигналу: біля(t)= 4.8 exp[-(t-4) 2/2.8]. Приклад графічного відображення даного сигналу наведений на мал. 1.2.1, при цьому як сама функція, так і її аргументи, можуть набувати будь-яких значень в межах деяких інтервалів y1 біля y2, t1 t t2. Якщо інтервали значень сигналу або його незалежних змінних не обмежуються, то за умовчанням вони приймаються рівними від - до +. Безліч можливих значень сигналу утворює континуум - безперервний простір, в якому будь-яка сигнальна крапка може бути визначена з точністю до нескінченності. Приклади сигналів, аналогових за своєю природою, - зміна напруженості електричного, магнітного, електромагнітного поля в часі і в просторі.

Мал. 1.2.2. Дискретний сигнал

Дискретний сигнал (discrete signal) по своїх значеннях також є безперервною функцією, але визначеною тільки по дискретних значеннях аргументу. По безлічі своїх значень він є кінцевим (рахунковим) і описується дискретною послідовністю відліків (samples) біля(nDt), де y1 біля y2, Dt - інтервал між відліками (інтервал або крок дискретизації, sample time), n = 0, 1, 2...,N. Величина, зворотна кроку дискретизації: f = 1/Dt, називається частотою дискретизації (sampling frequency). Якщо дискретний сигнал отриманий дискретизацією (sampling) аналогового сигналу, то він є послідовністю відліків, значення яких в точності дорівнюють значенням початкового сигналу по координатах nDt.

Приклад дискретизації аналогового сигналу, приведеного на мал. 1.2.1, представлений на мал. 1.2.2. При Dt = const (рівномірна дискретизація даних) дискретний сигнал можна описувати скороченим позначенням біля(n). У технічній літературі в позначеннях дискретизированих функцій інколи залишають колишні індекси аргументів аналогових функцій, беручи останні в квадратних дужок - біля[t]. При нерівномірній дискретизації сигналу позначення дискретних послідовностей (у текстових описах) зазвичай полягають у фігурні дужки - {s(ti)}, а значення відліків приводяться у вигляді таблиць з вказівкою значень координат ti. Для числових послідовностей (рівномірних і нерівномірних) застосовується і наступний числовий опис: s(ti)= {a1, a2 ..., aN}, t = t1, t2 ...,tN. Приклади дискретних геофізичних сигналів - результати вертикального електричного зондування (дискретна величина рознесення струмових електродів), профілі геохімічного випробування, і тому подібне

Цифровий сигнал (digital signal) квантований по своїх значеннях і дискретний по аргументу. Він описується квантованою гратчастою функцією yn = Qk[біля(nDt)], де Qk - функція квантування з числом рівнів квантування до, при цьому інтервали квантування можуть бути як з рівномірним розподілом, так і з нерівномірним, наприклад - логарифмічним. Задається цифровий сигнал, як правило, у вигляді дискретної лави (discrete series) числових даних - числового масиву по послідовних значеннях аргументу при Dt = const, але в спільному випадку сигнал може задаватися і у вигляді таблиці для довільних значень аргументу.

Мал. 1.2.3. Цифровий сигнал

По суті, цифровий сигнал по своїх значеннях (відлікам) є|з'являється| формалізованим різновидом дискретного сигналу при округленні відліків останнього до певної кількості цифр, як це показано на рис 1.2.3. Цифровий сигнал кінцевий|скінченний| по безлічі своїх значень. Процес перетворення безкінечних|нескінченних| по значеннях аналогових відліків в кінцеве|скінченне| число цифрових значень називається квантуванням по рівню, а округлення відліків (відкидані значення), що виникають при квантуванні помилки, – шумами (noise|) або помилками (error|) квантування (quantization|).

У системах цифрової обробки даних і в ЕОМ сигнал завжди представлений|уявляти| з точністю до|із точністю до| певної кількості розрядів, а, отже, завжди є|з'являється| цифровим. З врахуванням|з урахуванням| цих чинників|факторів| при описі цифрових сигналів функція квантування зазвичай|звично| опускається (мається на увазі рівномірною за умовчанням), а для опису сигналів використовуються правила опису дискретних сигналів. Що стосується форми звернення|звертання| цифрових сигналів в системах зберігання, передачі і обробки, то, як правило, вони є комбінаціями коротких одно-| або двуполярных| імпульсів однакової амплітуди, якими в двійковому коді з|із| певною кількістю числових розрядів кодуються числові послідовності сигналів (масивів даних).

Мал. 1.2.4. Дискретно-аналоговий сигнал

В принципі, квантованими по своїх значеннях можуть бути і аналогові сигнали, зареєстровані відповідною апаратурою (мал. 1.2.4), які прийнято називати дискретно-аналоговими. Але|та| виділяти ці сигнали в окремий типу|тип| не має сенсу - вони залишаються аналоговими шматково-безперервними сигналами з|із| кроком квантування, який визначається допустимою похибкою вимірів|вимірювань|.

Більшість сигналів, з|із| якими доводиться мати справу|річ| при обробці геофізичних даних, є|з'являються| аналоговими за своєю природою, дискретизированними| і квантованими через методичні особливості вимірів|вимірювань| або технічних особливостей реєстрації, тобто перетвореними в цифрові сигнали. Але|та| існують і сигнали, які спочатку відносяться до класу цифрових, як, наприклад відліки кількості гамма-квантів|, зареєстрованих по послідовних інтервалах часу.

Перетворення типа сигналів. Форми математичного відображення сигналів, особливо на етапах їх первинної реєстрації (детектування) і в прямих завданнях опису геофізичних полів і фізичних процесів, як правило, відображають їх фізичну природу. Проте останнє не є обов'язковим і залежить від методики вимірів і технічних засобів детектування, перетворення, передачі, зберігання і обробки сигналів. На різних етапах процесів отримання і обробки інформації як матеріальне представлення сигналів в пристроях реєстрації і обробки, так і форми їх математичного опису при аналізі даних, можуть змінюватися шляхом відповідних операцій перетворення типа сигналів.

Операція дискретизації (discretization) здійснює перетворення аналогових сигналів (функцій), безперервних по аргументу, у функції миттєвих значень сигналів по дискретному аргументу. Дискретизація зазвичай проводиться з постійним кроком по аргументу (рівномірна дискретизація), при цьому s(t) Ю s(nDt), де значеннями s(nDt) є відліки функції s(t) в моменти часу t = nDt, n = 0, 1, 2..., N. Частота, з якою виконуються виміри аналогового сигналу, називається частотою дискретизації. У спільному випадку, сітка відліків по аргументу може бути довільною, як, наприклад, s(t) Ю s(tk), k=1, 2 ., K, або задаватися по певному закону. В результаті дискретизації безперервний (аналоговий) сигнал переводиться в послідовність чисел.

Операція відновлення аналогового сигналу з його дискретного уявлення зворотна операції дискретизації і представляє, по суті, інтерполяцію даних.

Дискретизація сигналів може приводити|наводити| до певної втрати інформації про поведінку сигналів в проміжках між відліками. Проте|однак| існують умови, визначені теоремою Котельникова-шеннона, згідно|згідно з| яким аналоговий сигнал з|із| обмеженим частотним спектром може бути без втрат інформації перетворений в дискретний сигнал, і потім|і тоді| абсолютно точно відновлений по значеннях своїх дискретних відліків.

Як відомо, будь-яка безперервна функція може бути розкладена на кінцевому відрізку в лаву Фурье, тобто представлена в спектральній формі - у вигляді суми лави синусоїд з кратними (нумерованими) частотами з певними амплітудами і фазами. Біля щодо гладких функцій спектр швидко убуває (коефіцієнти модуля спектру швидко прагнуть до нуля). Для представлення "порізаних" функцій, з розривами і "зламами", потрібні синусоїди з великими частотами. Говорять, що сигнал має обмежений спектр, якщо після певної частоти F всі коефіцієнти спектру дорівнюють нулю, тобто сигнал представляється у вигляді кінцевої суми лави Фурье.

Теоремою Котельникова-шеннона встановлюється, що якщо спектр сигналу обмежений частотою F, то після|потім| дискретизації сигналу з|із| частотою не менше 2F| можна відновити початковий|вихідний| безперервний сигнал по отриманому|одержувати| цифровому сигналу абсолютно точно. Для цього потрібно виконати інтерполяцію цифрового сигналу "між відліками" спеціальною функцією (Котельникова-шеннона).

На практиці ця теорема має величезне значення. Наприклад, відомо, що діапазон звукових сигналів, що сприймаються людиною, не перевищує 20 кГц|. Отже, при дискретизації записаних звукових сигналів з|із| частотою не менше 40 кГц| ми можемо точно відновити початковий|вихідний| аналоговий сигнал по його цифрових відліках, що і виконується в програвачах компакт-дисків для відновлення звуку. Частота дискретизації звукового сигналу при записі на компакт-диск складає 44100 Гц.

Операція квантування або аналого-цифрового перетворення (АЦП; англійський термін Analog-to-Digital Converter, ADC) полягає в перетворенні дискретного сигналу s(tn) в цифровий сигнал s(n)= sn s(tn), n = 0, 1, 2.., N, як правило, кодований в двійковій системі числення. Процес перетворення відліків сигналу в числа називається квантуванням по рівню (quantization), а втрати інформації, що виникають при цьому, за рахунок округлення – помилками або шумами квантування (quantization error, quantization noise).

При перетворенні аналогового сигналу безпосередньо в цифровий сигнал операції дискретизації і квантування поєднуються.

Операція цифро-аналогового перетворення (ЦАП; Digital-to-Analog Converter, DAC) зворотна операції квантування, при цьому на виході реєструється або дискретно-аналоговий сигнал s(tn), який має ступінчасту форму (мал. 1.2.4), або безпосередньо аналоговий сигнал s(t), який відновлюється з s(tn), наприклад, шляхом згладжування.

Оскільки|тому що| квантування сигналів завжди виконується з|із| певною і неусувною погрішністю (максимум - до половини інтервалу квантування), то операції АЦП і ЦАП не є|з'являються| взаємно зворотними з|із| абсолютною точністю.

Аліасинг. А що станеться, якщо спектр аналогового сигналу був необмеженим або мав частоту, вище за частоту дискретизації?

Мал. 1.2.5. Поява частоти, що здається|видається|, при дискретизації.

Передбачимо, що при записі акустичного сигналу оркестру в приміщенні від якогось пристрою присутній ультразвуковий сигнал з частотою 30 кГц. Запис виконується з дискретизацією сигналу на виході мікрофону з типовою частотою 44.1 кГц. При прослухуванні такого запису з використанням ЦАП ми почуємо шумовий сигнал на частоті 30 – 44.1/2 8 кГц. Відновлений сигнал виглядатиме так, як якби частоти, лежачі вище половини частоти дискретизації, "дзеркально" від неї відбилися в нижню частку спектру і склалися з присутніми там гармоніками. Це так званий ефект появи помилкових (що здаються) частот (aliasing). Ефект аналогічний всім відомому ефекту зворотного обертання коліс автомобіля на екранах кіно і телевізорів, коли швидкість їх обертання зачинає перевищувати частоту зміни кадрів. Природу ефекту можна наочно бачити на мал. 1.2.5. Аналогічно в головний частотний діапазон дискретних сигналів "відбиваються" від частоти дискретизація і всі високочастотні шуми, присутні в початковому аналоговому сигналі.

Для запобігання алиасинга слід підвищувати частоту дискретизації або обмежити спектр сигналу перед оцифровкою фільтрами низьких частот (НЧ-фільтри, low-pass filters), які пропускають без зміни всі частоти, нижче заданою, і пригнічують в сигналі частоти, вище заданої. Ета гранична частота називається частотою зрізу (cutoff frequency) фільтру. Частота зрізу анти-алиасинговых фільтрів встановлюється рівній половині частоти дискретизації. У реальні АЦП майже завжди вбудовується анти-алиасинговый фільтр.

Графічне відображення сигналів загальновідоме і особливих пояснень не вимагає. Для одновимірних сигналів графік – це сукупність пар значень {t, s(t)} в прямокутній системі координат (мал. 1.2.1 – 1.2.4). При графічному відображенні дискретних і цифрових сигналів використовується або спосіб безпосередніх дискретних відрізків відповідної масштабної довжини над віссю аргументу, або спосіб що огинає (плавною або ламаною) по значеннях відліків. Через безперервність геофізичних полів і, як правило, вторинність цифрових даних, що отримуються дискретизацією і квантуванням аналогових сигналів, другий спосіб графічного відображення вважатимемо за основний.

Тестові сигнали (test signal). Як тестові сигнали, які застосовуються при моделюванні і дослідженні систем обробки даних, зазвичай використовуються сигнали простого типа: гармонійні синус-косинусные функції, дельта-функція і функція одиничного стрибка.

Дельта-функція або функція Дірака. За визначенням, дельта-функція описується наступними математичними виразами (в сукупності):

d(t-t)= 0 при t t

d(t-t) dt = 1.

Функція d(t-t) не є такою, що диференціюється, і має розмірність, зворотну розмірності її аргументу, що безпосередньо виходить з безрозмірності результату інтеграції. Значення дельта-функції дорівнює нулю скрізь за винятком точки t, де вона є нескінченно вузьким імпульсом з нескінченно великою амплітудою, при цьому майдан імпульсу дорівнює 1.

Дельта-функція є корисною математичною абстракцією. На практиці такі функції не можуть бути реалізовані з абсолютною точністю, оскільки неможливо реалізувати значення, рівне нескінченності, в точці t = t на аналоговій тимчасовій шкалі, тобто визначеною за часом також з безконечною точністю. Але у всіх випадках, коли майдан імпульсу дорівнює 1, тривалість імпульсу досить мала, а за час його дії на вході якої-небудь системи сигнал на її виході практично не змінюється (реакція системи на імпульс у багато разів більше тривалості самого імпульсу), вхідний сигнал можна вважати за одиничну імпульсну функцію з властивостями дельта - функції.

При всій своїй абстрактності дельта - функція має цілком певний фізичний сенс. Уявимо собі імпульсний сигнал прямокутної форми П(t-) тривалістю, амплітуда якого рівна 1/, а майдан відповідно дорівнює 1. При зменшенні значення тривалості імпульс, скорочувавшись по тривалості, зберігає свій майдан, рівний 1, і зростає по амплітуді. Межа такої операції при 0 і носить назву дельта - імпульсу. Цей сигнал d(t-t) зосереджений в одній координатній точці t = t, конкретне амплітудне значення сигналу не визначене, але майдан (інтеграл) залишається рівним 1. Це не миттєве значення функції в точці t = t, а саме імпульс (імпульс сили в механіці, імпульс струму в електротехніці і тому подібне) – математична модель короткої дії, значення якої дорівнює 1.

Дельта-функція володіє фільтруючою властивістю. Суть його полягає в тому, що якщо дельта-функція d(t-t) входить під інтеграл якої-небудь функції як множник, то результат інтеграції дорівнює значенню подынтегральной функції в точці t розташування дельта-импульса, т.е.:

f(t) d(t-t) dt = f(t).

Інтеграція в цьому виразі може обмежуватися найближчими околицями точки t.

Функція одиничного стрибка або функція Хевісайда інколи називається також функцією включення. Повне математичне вираження функції:

При моделюванні сигналів і систем значення функції стрибка в точці t=0| дуже часто приймають рівним 1, якщо це не має принципового значення.

Функція одиничного|поодинокого| стрибка використовується при створенні|створінні| математичних моделей сигналів кінцевої|скінченної| тривалості. При множенні будь-якої довільної функції, у тому числі періодичною, на прямокутний імпульс, сформований з|із| двох послідовних функцій одиничного|поодинокого| стрибка

s(t)= ((t) - ((t-T|),

з|із| неї вирізується|вирізає| ділянка на інтервалі 0-Т|, і обнуляються значення функції за межами цього інтервалу.

Функція Кронекера. Для дискретних і цифрових систем роздільна здатність по аргументу сигналу визначається інтервалом його дискретизації Dt. Це дозволяє як одиничний імпульс використовувати дискретний інтегральний аналог дельта-функції - функцію одиничного відліку d(kDt-nDt), яка дорівнює 1 в координатній крапці до = n, і нулю в решті всіх крапок. Функція d(kDt-nDt) може бути визначена для будь-яких значень Dt = const, але тільки для цілих значень координат до і n, оскільки інших номерів відліків в дискретних функціях не існує.

Математичні вирази d(t-t) і d(kDt-nDt) називають також імпульсами Дірака і Кронекера. Проте, застосовуючи таку термінологію, не забуватимемо, що це не просто одиничні імпульси в координатних точках t і nDt, а повномасштабні імпульсні функції, що визначають як значення імпульсів в певних координатних крапках, так і нульові значення по решті всіх координат, в межі від - до .

1.3. СИСТЕМИ ПЕРЕТВОРЕННЯ СИГНАЛІВ [1, 9, 14, 18]

Сигнали, в будь-якій формі матеріального уявлення, містять певну корисну інформацію. Якщо при перетвореннях сигналів відбувається порушення укладеної в них інформації (часткова втрата, кількісна зміна співвідношення інформаційних складових або параметрів, і тому подібне), то такі зміни називаються спотвореннями сигналу. Якщо корисна інформація залишається незмінною або адекватною вмісту у вхідному сигналі, то такі зміни називаються перетвореннями сигналу.

Математичні перетворення сигналів здійснюються для того, щоб отримати|одержувати| якусь додаткову інформацію, недоступну в початковому|вихідному| сигналі, або виділити з|із| вхідного сигналу корисну інформацію і зробити її доступнішою для подальшої|дальшої| обробки, вимірів|вимірювань| яких-небудь параметрів, передачі по каналах зв'язку, і ін. Перетворений сигнал прийнято називати трансформантою| початкового.

Будь-які зміни сигналів супроводяться зміною їх спектру, і по характеру цієї зміни розділяються на два види: лінійні і нелінійні. До нелінійних відносять зміни, при яких у складі спектру сигналів з'являються (вводяться) нові гармонійні складові, відсутні у вхідному сигналі. При лінійних змінах сигналів змінюються амплітуди і/або початкові фази гармонійних складових спектру (аж до повного придушення в сигналі певних гармонік). І лінійні, і нелінійні зміни сигналів можуть відбуватися як із збереженням корисної інформації, так і з її спотворенням. Це залежить не лише від характеру зміни спектру сигналів, але і від спектрального складу найкориснішої інформації.

Спільне поняття систем. Перетворення і обробка сигналів здійснюється в системах. Поняття сигналу і системи нерозривні, оскільки будь-який сигнал існує в межах якої-небудь системи. Система обробки сигналів може бути реалізована як в матеріальній формі (спеціальний пристрій, вимірювальний прилад, сукупність фізичних об'єктів з певною структурою взаємодії і тому подібне), так і програмно на ЕОМ або будь-якому другом спеціалізованому обчислювальному пристрої. Форма реалізації системи істотного значення не має, і визначає тільки її можливості при аналізі і обробці сигналів.

Мал. 1.3.1. Графічне представлення системи.

Безвідносно до призначення система завжди має вхід, на який подається зовнішній вхідний сигнал, в спільному випадку багатовимірний, і вихід, з якого знімається оброблений вихідний сигнал. Власне система є системним оператором (алгоритм) перетворення вхідного сигналу s(t) – дії або збудження, в сигнал на виході системи біля(t) – відгук або вихідну реакцію системи. Символічне позначення операції перетворення (трансформації сигналу): біля(t)= T[s(t)].

Системний оператор T - це набір правил перетворення (transformation) сигналу s(t) в сигнал біля(t). Так, наприклад, в найпростішому випадку таким правилом може бути таблиця тієї, що перекодувала вхідних сигналів у вихідні.

Для детермінованих вхідних сигналів співвідношення між вихідними і вхідними сигналами завжди однозначно задається системним оператором. В разі|у разі| реалізації на вході системи випадкового вхідного процесу відбувається|походить| зміна статистичних характеристик сигналу (математичного очікування|чекання|, дисперсії, кореляційній функції і ін.), яке також визначається системним оператором.

Для повного|цілковитого| визначення системи необхідне задання|задавання| характеру, типу|типу| і області допустимих величин вхідних і вихідних сигналів. За типом обробки вхідних сигналів вони зазвичай|звично| підрозділяються на системи безперервного часу для обробки сигналів в процесі вимірів|вимірювань|, і цифрові системи для обробки даних, зареєстрованих на проміжних носіях. Сукупність системного оператора Т і областей вхідних і вихідних сигналів утворює математичну модель системи.

Лінійні і нелінійні системи складають два основні класи систем обробки сигналів.

Термін лінійності (linear|) означає, що система перетворення сигналів повинна мати довільний, але|та| в обов'язковому порядку|порядку| лінійний зв'язок між вхідним сигналом (збудженням) і вихідним сигналом (відгуком) з|із| певною зміною спектрального складу вхідного сигналу (посилення або придушення певних частотних складових сигналу. У нелінійних (nonlinear|) системах зв'язок між вхідним і вихідним сигналом визначається довільним нелінійним законом з|із| доповненням частотного складу вхідного сигналу частотними складовими, відсутніми у вхідному сигналі.

Стаціонарні і нестаціонарні системи. Система вважається за стаціонарну і має постійні параметри, якщо її властивості (математичний алгоритм оператора перетворення) в межах заданої точності не залежать від вхідного і вихідного сигналів і не змінюються ні в часі, ні від яких-небудь інших зовнішніх чинників. Інакше система є нестаціонарною, і називається параметричною або системою із змінними параметрами. Серед останніх велике значення мають так звані адаптивні системи обробки даних. У цих системах проводиться, наприклад, оцінювання певних параметрів вхідних і вихідних сигналів, за результатами порівняння яких здійснюється підстроювання параметрів перетворення (перехідної характеристики системи) так, щоб забезпечити оптимальні по продуктивності умови обробки сигналів або мінімізувати погрішність обробки.

Основні системні операції. До базових лінійних операцій, з яких можуть бути сформовані будь-які лінійні оператори перетворення, відносяться операції скалярного множення, зрушення і складання сигналів:

у(t)= з s(t), у(t)= s(t-Dt), у(t)= а(t)+b(t).

Для нелінійних систем виділимо важливого|поважного| типа|тип| безінерційнних| операцій нелінійної трансформації сигналу, результати якої залежать тільки|лише| від його вхідних значень. До них відносяться, наприклад, операції квадратувания| і логарифмування сигналу:

у(t)= [s(t)]2, у(t)= log[s(t)].

Лінійні системи. Система вважається за лінійну, якщо її реакція на вхідні сигнали аддитивна (виконується принцип суперпозиції сигналів) і однорідна (виконується принцип пропорційної подібності). Іншими словами, відгук лінійної системи на зважену суму вхідних сигналів має дорівнювати зваженій сумі відгуків на окремі вхідні сигнали незалежно від їх кількості і для будь-яких вагових коефіцієнтів, у тому числі комплексних.

При програмній|програмовій| реалізації лінійних систем на ЕОМ особливої скрути|утруднення| із|із| забезпеченням лінійності в розумних межах значень вхідних і вихідних сигналів, як правило, не виникає. При фізичній (апаратною) реалізації систем обробки даних діапазон вхідних і вихідних сигналів, в якому забезпечується лінійність перетворення сигналів, завжди обмежений і має бути спеціально обумовлений.

Інваріантність систем до зрушення. Система називається інваріантною до зрушення, якщо зрушення вхідного сигналу по аргументах (часу, координатам простору і тому подібне) викликає відповідне зрушення вихідного сигналу:

у(x,t)= T[s(x,t)], T[s(x-Dx,t-Dt)]= у(x-Dx,t-Dt).

Це означає, що форма вихідного сигналу залежить тільки|лише| від вхідного сигналу, і не залежить від часу надходження|вступу| сигналу на вхід системи. Інваріантність системи до зрушення|зсуву| є|з'являється| одним з підтверджень постійності|незмінності| її параметрів.

Лінійні системи, інваріантні до зрушення. Лінійність і інваріантність до зрушення є незалежними властивостями систем і не визначають один одного. Так, наприклад, операція квадратирования сигналу інваріантна до зрушення, але нелінійна.

У теорії аналізу і обробки даних основне місце займають|позичають| системи, лінійні і інваріантні до зрушення|зсуву| (ЛІС - системи). Вони володіють досить|достатньо| широкими практичними можливостями|спроможностями| при відносній простоті математичного апарату. Надалі, якщо це спеціально не обмовляється, матимемо на увазі саме| такі системи.

Перевага, яка віддається ЛІС, - системам в методах обробки інформації, базується на можливості|спроможності| розкладання вхідного сигналу будь-який, скільки завгодно складної форми, на складові простих форм, відгук системи на яких відомий і добре вивчений, з|із| подальшим|наступним| обчисленням|підрахунком| вихідного сигналу у вигляді суми відгуків на всі складові вхідного сигналу. Як прості форми розкладання сигналів використовуються, як правило, одиничні|поодинокі| імпульси і гармонійні складові. Розкладання по одиничних|поодиноких| імпульсах застосовується при динамічному представленні сигналу залежно від реальних фізичних аргументів (часу, координат і ін.) і використовує операцію згортки. Розкладання на гармонійні складові використовує спектральне (частотне) представлення сигналу і перетворення Фурье.

З'єднання ЛІС - систем. При послідовному (каскадному) з'єднанні систем вихідний сигнал однієї системи служить вхідним сигналом для другої і так далі залежно від кількості систем каскаду, що становлять. По відношенню до спільної системної операції перетворення лад з'єднання вхідних в неї систем значення не має. Так, для двох послідовно сполучених систем на мал. 1.3.2:

Мал. 1.3.2 З'єднань|сполуки| систем.

у(t)= T2[T1[s(t)]]= T1[T2[s(t)]].

При паралельному з'єднанні|сполуці| вхідний сигнал поступає|надходить| одночасно на входи всіх систем, що становлять, а вихідні сигнали систем підсумовуються:

у(t)= T1[s(t)]+ T2[s(t)]+ ... + TN[s(t)].

Утворювані в результаті|внаслідок| з'єднань|сполук| системи в цілому|загалом| також є|з'являються| ЛІС - системами, якщо лінійні і інваріантні до зрушення|зсуву| системи, в них що входять.

Узагальнена схема системи цифрової обробки сигналів на мал. 1.3.3 приведена як приклад.

Мал. 1.3.3. Структурна схема системи диференціювання сигналів.

1.4. ІНФОРМАЦІЙНА ЄМнІСТЬ|місткість| СИГНАЛІВ [10,12,28]

Об'єм|обсяг| інформації, що знаходиться|перебуває| в обігу і необхідної для функціонування і розвитку сучасного суспільства|товариства|, наростає приблизно пропорційно квадрату розвитку продуктивних сил. У передових по науково-технічному розвитку країнах світу частка|доля| робочої сили, зайнятої|заклопотаної| питаннями збору|збирання|, обробки і забезпечення інформацією, перевищує частку|долю| робочої сили у сфері матеріального виробництва. Вживання|застосування| методів і засобів автоматизації на всіх етапах звернення|звертання| інформації, ефективна організація її зберігання, обробки і обміну, набувають всього більшого значення як основну умову успішного функціонування економіки країн.

Поняття інформації. В даний час немає загальноприйнятого і однозначного розуміння терміну "Інформація". Спектр існуючих понять вельми широкий, від спільного філософського - інформація є віддзеркалення реального миру, до вузько практичного - інформація є відомості, зберігання, що є об'єктом, передачі і перетворення. Розбіжності існують і з питання місця інформації на матеріальному світі. Це властивість індивідуальних об'єктів або результат їх взаємодії? Чи властива інформація всім видам матерії або лише певним чином організованій матерії?

У інформатиці під інформацією розуміється, як правило, сукупність відомостей смислового вмісту|змісту|, які можна збирати, обробляти, передавати і тому подібне|тощо| Причому саме відомостей в початковому сенсі|змісті| латинського слова informatio|, а не даних або сигналів, які є|з'являються| носіями цих відомостей. У такому розумінні процеси витягання|видобування| відомостей з|із| даних і їх інтерпретації нерозривно пов'язані з розумом, а кінцевим|скінченним| результатом обробки і сприйняття інформації за допомогою розуму є|з'являється| розкриття невизначеності знань про який-небудь об'єкт, явище або процес. Але|та| при такому підході розмивається само поняття розуму.

З одного боку, існування будь-якої жвавої|живої| істоти підтримується до тих пір, поки діють його органи чуття (датчики), що перетворюють фізичні дії навколишнього світу в певним чином організовані сигнали, які в матеріальній формі відображують|відображають| дані про ці дії. Дані збираються і інтерпретуються певною системою, яку в найзагальнішій формі ми називаємо "розумом", із|із| спільної|загальної| суми даних витягуються певні відомості, ступінь|міра| невизначеності відомостей про навколишнє оточення знижується, і ... лиса розплутує заячий слід. Жвава|жива| істота існує до тих пір, поки здатне|здібне| сприймати і обробляти зовнішні і внутрішні дії. Немає сумнівів і в тому, що в колективних співтовариствах|спілках| його члени не лише|не тільки| здатні|здібні| збирати і обробляти інформацію, але і передавати її іншим членам співтовариства|спілки|, як, наприклад, в бджолиній сім'ї точний шлях|дорога| до продуктивного квіткового масиву. Інформаційний танець|танок| бджоли в цьому відношенні по компактності вмісту|змісту| нічим не поступається телеграфному повідомленню. Природно, в прийнятій у бджіл символьній формі.

З іншого боку, якщо інформація нерозривно пов'язана з "розумом", то в цьому випадку не можна відмовити в "розумі" і електронній обчислювальній машині, що обіграє в шахи чемпіона світу, а рівно і будь-яким пристроям|устроям| технічної кібернетики будь-якого рівня, оскільки|тому що| всі вони мають певні системи збору|збирання|, передачі, накопичення, зберігання і обробки інформації того або іншого ступеня|міри| складності, і на основі цієї інформації здатні|здібні| формувати сигнали зворотного зв'язку для управління певними процесами.

У технічних галузях знань, де питання співвідношення інформації з|із| розумом не стоять на першому місці, переважає розуміння інформації у вигляді відображення такої загальної властивості матерії, як різноманітність, як характеристики внутрішньої організованості матеріальних систем, процесів або явищ по безлічі станів|достатків|, які для них можливі. У такому трактуванні інформація існує незалежно від того, сприймається вона яким-небудь "розумом" або ні|чи ні|, і є|з'являється| одним з властивостей матеріальних об'єктів. "Інформація є інформація, а не матерія і не енергія" (Норберт Вінер). Це властивість в якійсь мірі має потенційний характер. Інформація може проявляти|виявляти| себе тільки|лише| при взаємодії об'єктів або процесів, може виникати (створюватися) і зникати (знищуватися).

Але і в такому трактуванні виникає дуже багато питань, на які важко дати однозначні відповіді. Комаха третинного періоду, невідома в даний час|нині| ученим, прилипнула до краплі|краплини| смоли хвойного дерева. Новий шар смоли закрив|зачиняв| комаху. Дерево впало, і його занесло піском. Смола перетворилася на янтар. Янтар в потенціалі містить|утримує| повну|цілковиту| інформацію про комаху, тому як в нім десятки тисяч фрагментів ДНК - інформація, достатня для відновлення ДНК і відтворення комахи, якщо не в даний час|нині|, то в найближчому майбутньому. Але|та| коли вона виникла? У момент появи комахи з|із| його ДНК? У момент прилипання до смоли? У момент каменіння? Чи можна говорити про появу інформації, якщо ще не існував суб'єкт, здатний|здібний| витягувати і використовувати цю інформацію? Нарешті|урешті|, янтар з|із| комахою знайдений і потрапив на очі палеонтолога. Визначений новий вигляд комахи. З'явилася|появлялася| перша часткова інформація? Так може бути, інформація з'являється|появляється| тільки|лише| при активній і цілеспрямованій дії на об'єкт досліджень? А якщо янтар виявився непрозорим, і його переплавили? Чи зникла інформація? І чи можна вважати|лічити|, що вона взагалі була?

Відповіді на цих і подібні ним питання тяжіють до двох полюсів, а по суті, до двох діаметрально протилежним філософським позиціям.

Прихильники|прибічники| першої позиції вважають|лічать|, що інформація властива тільки|лише| певним чином організованим об'єктам або процесам, і розуміють під інформацією тільки|лише| те, що може сприйматися, оброблятися, осмислюватися і використовуватися, тобто є|з'являється| продуктом цілеспрямованого процесу збору|збирання|, організації, систематизації і використання відомостей про матеріальні об'єкти і процеси.

Протилежна позиція, це поняття інформації як властивості об'єктів і процесів сприймати і переробляти внутрішній стан|достаток| і зовнішню дію навколишнього середовища, зберігати його результати і передавати їх іншим об'єктам. З цієї позиції всі матеріальні об'єкти і процеси є|з'являються| джерелами, носіями і споживачами інформації, на основі якої і йде розвиток реального світу. По суті, це відповідає ухваленню|прийманню| матеріальності інформації і інформаційної основи всесвіту|світобудови|.

При невизначеності самого поняття інформації можна досить|достатньо| обгрунтовано вважати|лічити|, що інформація виявляється, зберігається і передається від одного об'єкту до іншого в матеріально - енергетичній формі у вигляді сигналів. Сигналом, як матеріальним носієм інформації, може бути будь-який фізичний процес (електричний, магнітний, оптичний, акустичний і ін.), певні параметри якого (амплітуда, частота, енергія, інтенсивність і ін.) однозначно відображують|відображають| інформаційні дані (повідомлення).

Кількісна міра інформації. Теорія будь-якого явища починається з появи кількісних взаємин між об'єктами досліджень, тобто при встановленні принципів вимірюваної яких-небудь властивостей об'єктів. Одиницю кількісної міри інформації - БІТ (скорочення binary digit - двійкова цифра), вперше запропонував Р. Хартлі в 1928 році. 1 біт - це інформація про два можливі рівноімовірні стани об'єкту, невизначеність вибору з двох рівноімовірних подій. Математично це відображується станом 1 або 0 одного розряду двійкової системи числення. Кількість інформації Н (у бітах), необхідна і достатня для повного зняття невизначеності стану об'єкту, який має N равновозможных станів, вимірюється як логарифм по підставі 2 з числа можливих станів:

H = log 2 N. (1.4.1)

Відповідно, двійковий числовий інформаційний код один з N можливих станів|достатків| об'єкту займає|позичає| Н двійкових розрядів.

Якщо в наведеному прикладі|зразку| на поверхах є|наявний| по 4 квартири з|із| нумерацією на кожному поверсі 0-3 (М=4), то при адресації вантажу|тягаря| в квартиру буде потрібно ще 2 біта інформації. Такий же результат отримаємо, якщо замість незалежної нумерації поверхів і квартир на поверхах (два джерела невизначеності) ми матимемо тільки|лише| крізну нумерацію квартир (одне узагальнене джерело):

H = log 2 N + log 2 M = log 2 16 + log 2 4 = 6 log 2 (N  M) = log 2 64 = 6

тобто кількість інформації відповідає вимозі аддитивності: невизначеність об'єднаного|з'єднаного| джерела дорівнює сумі неопреділених| початкових|вихідних| джерел, що відповідає інтуїтивній вимозі до інформації: вона має бути однозначною, а її кількість має бути одним і тим же незалежно від способу завдання|задавання|.

Підстава логарифма не має принципового значення і визначає тільки масштаб або одиницю невизначеності. Так, якщо за одиницю невизначеності прийняти три рівноімовірні стани, то для визначення, наприклад, однієї фальшивої золотої монети (легшою) з 27 зовні невідмітних монет буде потрібно тільки H = log 3 27 = 3, тобто три зважування на равноплечных вагах. Логікові числення зважувань пропонується визначити самостійно.

Двійкова міра інформації отримала|одержувала| спільне|загальне| визнання|зізнання| у зв'язку з простотою реалізації інформаційної техніки на елементах з|із| двома стійкими станами|достатками|. У десятковому численні|обчисленні| одиницею інформації є|з'являється| один десятковий розряд - ДІТ.

Ентропія джерела інформації. Ступінь невизначеності стану об'єкту (або так званого джерела інформації) залежить не лише від числа його можливих станів, але і від вірогідності цих станів. При нерівноімовірних станах свобода вибору для джерела обмежується. Так, якщо з двох можливих станів вірогідність одного з них рівна 0.999, то вірогідність іншого стану відповідно дорівнює 1-0.999 = 0.001, і при взаємодії з таким джерелом результат практично вирішений наперед.

У спільному випадку, відповідно до теорії вірогідності, джерело інформації однозначно і повно характеризується ансамблем станів U = {u1, u2..., uN} з вірогідністю станів відповідно { р(u1), р(u2)..., р(uN)} за умови, що сума вірогідності всіх станів дорівнює 1. Міра кількості інформації, як невизначеності вибору дискретним джерелом складається з ансамблю U, запропонована К. Шенноном в 1946 році і отримала назву ентропії дискретного джерела інформації або ентропії кінцевого ансамблю:

H(U)= -pn log2 pn. (1.4.2)

Вираження Шеннона збігається з вираженням Больцмана для ентропії фізичних систем при оцінці ступеня різноманітності їх станів. Міра ентропії Шеннона є узагальненням міри Хартлі на випадок ансамблів з нерівноімовірними станами, в чому неважко переконатися, якщо у вираженні (1.4.2) значення pn замінити значенням p=1/N для ансамблю рівноімовірних станів. Ентропія кінцевого ансамблю H(U) характеризує невизначеність, що доводиться в середньому на один стан ансамблю.

Враховуючи, що надалі у всіх математичних виразах, що стосуються ентропії, ми використовуватимемо тільки|лише| двійкову основу|заснування| логарифма, індекс 2 основи|заснування| логарифма у формулах матимемо на увазі за умовчанням.

Основні властивості ентропії:

1. Ентропія є величиною речовою і ненегативною, оскільки значення вірогідності pn знаходяться в інтервалі 0-1, значення log pn завжди негативні, а значення -pn log pn  в (1.4.2) відповідно позитивні.

2. Ентропія - величина обмежена, оскільки при pn  0 значення -pnlog pn також прагне до нуля, а при 0 < pn 1 обмеженість суми всіх доданків очевидна.

3. Ентропія дорівнює 0, якщо вірогідність|ймовірність| одного із станів|достатків| джерела інформації рівна 1, і тим самим стан|достаток| джерела повністю|цілком| визначений (вірогідність|ймовірність| решти станів|достатків| джерела дорівнює нулю, оскільки сума вірогідності|ймовірності| має дорівнювати 1).

4. Ентропія максимальна при рівній імовірності всіх станів|достатків| джерела інформації:

Hmax(U)= -(1/N) log (1/N) = log N.

Мал. 1.4.1.

5. Ентропія джерела з двома станами u1 і u2 при зміні співвідношення їх вірогідності p(u1)=p і p(u2)=1-p визначається вираженням:

H(U)= -[p log| p + (1-p|) log| (1-p|)]

і змінюється від 0 до 1, досягаючи максимуму при рівності вірогідності|ймовірності|. Графік зміни ентропії приведений на мал. 1.4.1.

6. Ентропія об'єднаних|з'єднаних| статистично незалежних джерел інформації дорівнює сумі їх ентропій.

Розгледимо цю властивість на двох джерелах інформації u і v. При об'єднанні джерел отримуємо узагальнене джерело інформації (u,v), яке описується вірогідністю p(unvm) всіх можливих комбінацій станів un джерела u і vm джерела v. Ентропія об'єднаного джерела при N можливих станах джерела u і М можливих станах джерела v:

H(UV)= -p(unvm) log p(unvm)

Джерела статистично незалежні один від одного, якщо виконується умова:

p(unvm)= p(un)p(vm).

З використанням цієї умови відповідно маємо:

H(UV)= -p(un) p(vm) log [p(un) p(vm)] =

= -p(un) log p(un)p(vm) -p(vm) log p(vm)p(um).

З урахуванням того, що p(un)= 1 іp(vm)= 1, отримуємо:

H(UV|)= H(U)+ H(V). (1.4.3)

7. Ентропія характеризує середню невизначеність вибору того, що одного складається з ансамблю, повністю ігноруючи змістовну сторону ансамблю. З одного боку, це розширює можливості використання ентропії при аналізі самих різних явищ, але, з іншого боку, вимагає певної додаткової оцінки виникаючих ситуацій. Як це витікає з мал. 1.4.1, ентропія станів може бути неоднозначною, і якщо в якому-небудь економічному почині дія u з вірогідністю pu=p приводить до успіху, а дія v з вірогідністю pv=1-p до банкротства, то вибір дій за оцінкою ентропії може опинитися і прямо протилежним, оскільки ентропія при pv=p дорівнює ентропії при pu=p.

Ентропія безперервного джерела інформації має бути безконечна, оскільки невизначеність вибору з нескінченно великого числа можливих станів нескінченно велика.

Розіб'ємо діапазон зміни безперервної випадкової величини U на кінцеве число n малих інтервалів Du. При реалізації значень u в інтервалі (un, un+Du) вважатимемо, що реалізувалося значення un дискретної випадкової величини U', вірогідність реалізації якої:

p(un<u<un+Du)=p(u) du p(un) Du.

Ентропія дискретної величини U':

H(U')= -p(un) Du log (p(un) Du).

Замінюваний log (p(un) Du) = log p(un)+log Du, беремо до уваги, що сума p(un)Du по всіх можливих значеннях un дорівнює 1, і отримуємо:

H(U')= -p(un) Du log p(un) – log Du. (1.4.4)

У межі, при Du 0, отримуємо вираження ентропії для безперервного джерела:

H(U)= -p(u) log p(u) du. (1.4.5)

Значення ентропії в (1.4.5), як і очікувалося, прагне до нескінченності за рахунок другого члена вираження. Для отримання кінцевої характеристики інформаційних властивостей безперервних сигналів використовують тільки перший член вираження (1.4.5), що отримав назву диференціальної ентропії. Її можна трактувати, як середню невизначеність вибору довільної випадкової величини в порівнянні з середньою невизначеністю вибору випадкової величини U', що має рівномірний розподіл в діапазоні (0-1). Дійсно, для такого розподілу p(un)= 1/N, Du = 1/N, і при N з (1.4.4) слідує:

H(U')= - (log N)/N - log Du -.

Відповідно, різниця ентропій дає диференціальну ентропію:

h(U)= H(U) – H(U')= - p(u) log| p(u) du|. (1.4.6)

Диференціальна ентропія не залежить від конкретних значень величини U:

h(U+a|)= h(U), а = const|

але|та| залежить від масштабу її уявлення|вистави|:

h(kU|)= h(U)+ log| до.

Практика аналізу і обробки сигналів зазвичай|звично| має справу|річ| з|із| сигналами в певному інтервалі [а, b] їх значень, при цьому максимальною диференціальною ентропією володіє рівномірний розподіл значень сигналів:

h(U)= - p(u) log| p(u) du| = log| (b-a|).

У міру звуження щільності розподілу значення h(U) зменшується, і в межі при p(u) d(u-c), a<c<b прагне до нуля.

Інформаційна ємкість сигналів істотно залежить від типа сигналів і визначає вимоги до каналів передачі даних, так само як і технічні характеристики каналів зв'язку обмежують інформаційну ємкість сигналів, що передаються по цих каналах.

Для каналів передачі дискретних сигналів (дискретні каналу зв'язку) використовують поняття технічної і інформаційної швидкості передачі даних.

Під технічною швидкістю передачі мають на увазі число елементарних сигналів (символів), що передаються по каналу в одиницю часу. Простий елементарний символ – однополярный електричний імпульс тривалістю t на тактовому інтервалі T. У дискретних каналах використовують, як правило, двуполярные імпульси, позитивні на першій половині інтервалу Т і негативні на другій половині. Це дозволяє підтримувати нульовий потенціал кабелю і виконувати тактову синхронізацію приемо-передачи сигналів. Одиницею виміру технічної швидкості Vt = 1/T служить БОД – один символ в секунду. Смуга пропускання каналу зв'язку обмежується граничною частотою Fпред по рівню загасання сигналу до рівня статистичних перешкод, при цьому значення технічної швидкості передачі даних не може бути вище Fпред без спеціальних пристроїв виділення інформаційних сигналів.

При відомій технічній швидкості Vt швидкість передачі інформації вимірюється в бітах в секунду і задається співвідношенням:

Vh = Vt H(s)

де H(s) – ентропія символу. Для двійкових дискретних символів [0, 1] при постійній амплітуді імпульсів значення H(s) дорівнює 1. При числі L можливих рівноімовірних рівнів амплітуди імпульсів (рівень перешкод менше різниці рівнів амплітуд імпульсів) значення H(s) рівне log| L.

Інформаційна ємність|місткість| сигналу або повна|цілковита| кількість інформації в сигналі S (повідомленні, кодовій послідовності/слові) визначається повною|цілковитою| кількістю N = t/T ентропії символів в бітах на інтервалі завдання|задавання| сигналу t:

It(S) = N log L = (t/T) log L. (1.4.7)

Збільшення числа рівнів L збільшує пропускну спроможність каналів зв'язку, але|та| ускладнює апаратуру кодування даних і знижує перешкодостійкість зв'язку.

Для безперервних сигналів передача по каналах зв'язку можлива тільки за умови, що максимальна інформаційна частота в сигналі Fmax не перевищує граничної частоти Fпред передачі сигналів каналом зв'язку. Для оцінки інформаційної ємкості безперервного сигналу виконаємо його дискретизацію з інтервалом Dt = 1/2Fmax. Як встановлене Котельниковим і Шенноном, по миттєвих відліках безперервного сигналу з таким інтервалом дискретизації аналоговий сигнал може бути відновлений без втрати інформації. При повній тривалості сигналу Ts число відліків:

N = Ts/Dt = 2Fmax Ts.

Визначимо максимально можливе число вибірок в кожному відліку за наявності шуму в каналі з середньою потужністю Рш = d2. При середній потужності сигналу Ps = s2:

L = = .

Інформаційна ємність|місткість| сигналу:

I(S)= 2Fmax Ts log L. (1.4.8)

Інформаційні можливості|спроможності| сигналу зростають з|із| розширенням його спектру і перевищенням його рівня над рівнем перешкод.


  1. Course Number

    UDHTU_KT
  2. Classes Start

Enroll