Сигналы и кодирование

Автор работы: Пользователь скрыл имя, 08 Января 2011 в 22:37, реферат

Краткое описание

Сигнал является материальным носителем информации (кодированной определённым способом), которая передается от источника к потребителю. Он может быть дискретным и непрерывным (аналоговым).

Содержимое работы - 1 файл

Сигнал.doc

— 42.50 Кб (Скачать файл)

Сигнал  является материальным носителем информации (кодированной определённым способом), которая передается от источника к потребителю. Он может быть дискретным и непрерывным (аналоговым).

 

Аналоговый  сигнал — сигнал данных, у которого каждый из представляющих параметров описывается функцией времени и непрерывным множеством возможных значений. 

Большинство сигналов имеют аналоговую природу, то есть изменяются непрерывно во времени и могут  принимать любые значения на некотором  интервале. Аналоговые сигналы описываются некоторой математической функцией времени. 

Пример АС —  гармонический сигнал — s(t) = A·cos(ω·t + φ). 

Аналоговые сигналы  используются в телефонии, радиовещании, телевидении. Ввести такой сигнал в  компьютер и обработать его невозможно, так как на любом интервале времени он имеет бесконечное множество значений, а для точного (без погрешности) представления его значения требуются числа бесконечной разрядности. Поэтому необходимо преобразовать аналоговый сигнал так, чтобы можно было представить его последовательностью чисел заданной разрядности. 

Дискретизация аналогового сигнала состоит в том, что сигнал представляется в виде последовательности значений, взятых в дискретные моменты времени. Эти значения называются отсчётами. Δt называется интервалом дискретизации. 

Цифровой  сигнал --- сигнал данных, у которого каждый из представляющих параметров описывается функцией дискретного времени и исчисляемым (конечным) множеством возможных значений. 

Информация  - сведения об объектах живой или неживой природы, их свойствах и взаимном влиянии друг на друга. 

Информацио́нная энтропи́я — мера хаотичности информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения. 

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения. 
 

Количество энтропии не всегда выражается целым числом бит.

Математические  свойства

Неотрицательность: I>=0

Ограниченность: I=<Log₂lXlРавенство, если все элементы из X равновероятны. 

 

Количество информации. Формулы Хартли и Шеннона 

Р. Хартли предложил  научный подход к оценке сообщений. Предложенная им формула имела следующий  вид:  

            I = log2 K ,

Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое  из К событий произошло. Тогда K=2I.

Иногда формулу  Хартли записывают так:  

            I = log2 K = log2 (1 / р) = - log2 р,

т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.  

   Задача.

   Шарик  находится в одной из трех  урн: А, В или С. Определить  сколько бит информации содержит  сообщение о том, что он находится  в урне В. 

   Решение. 

   Такое  сообщение содержит I = log2 3 = 1,585 бита информации.  

   Но не  все ситуации имеют одинаковые  вероятности реализации. Существует  много таких ситуаций, у которых  вероятности реализации различаются.  Например, если бросают несимметричную  монету или "правило бутерброда". 

К Шеннон предложил  формулу для вычисления количества информации для событий с различными вероятностями.

Если I - количество информации,

         К - количество возможных событий,

         рi - вероятности отдельных событий,

то количество информации для событий с различными вероятностями можно определить по формуле:  

            I = - Sum рi log2 рi,

где i принимает  значения от 1 до К.  

   Формулу  Хартли теперь можно рассматривать  как частный случай формулы  Шеннона:  

            I = - Sum 1 / К log2 (1 / К) = I = log2 К.  

   При равновероятных событиях получаемое количество информации максимально.  

   Задачи.

1. Определить  количество информации, получаемое  при реализации одного из событий,  если бросают

а) несимметричную четырехгранную пирамидку;

б) симметричную и однородную четырехгранную пирамидку. 

Решение.

а) Будем бросать  несимметричную четырехгранную пирамидку.

Вероятность отдельных  событий будет такова:

р1 = 1 / 2,

р2 = 1 / 4,

р3 = 1 / 8,

р4 = 1 / 8,

тогда количество информации, получаемой после реализации одного из этих событий, рассчитывается по формуле:

I = -(1 / 2 log2 1/2 + 1 / 4 log2 1/4 + 1 / 8 log2 1/8 + 1 / 8 log2 1/8) = 1 / 2 + 2 / 4 + + 3 / 8 + 3 / 8 = 14/8 = 1,75 (бит).

б) Теперь рассчитаем количество информации, которое получится  при бросании симметричной и однородной четырехгранной пирамидки:

I = log2 4 = 2 (бит).

2. Вероятность  перового события составляет 0,5, а второго и третьего 0,25. Какое  количество информации мы получим  после реализации одного из  них?

3. Какое количество  информации будет получено при игре в рулетку с 32-мя секторами?

4. Сколько различных  чисел можно закодировать с  помощью 8 бит?

Решение: I=8 бит, K=2I=28=256 различных чисел.  

   Физиологи  и психологи научились определять  количество информации, которое  человек может воспринимать при помощи органов чувств, удерживать в памяти и подвергать обработке. Информацию можно представлять в различных формах: звуковой, знаковой и др. рассмотренный выше способ определения количества информации, получаемое в сообщениях, которые уменьшают неопределенность наших знаний, рассматривает информацию с позиции ее содержания, новизны и понятности для человека. С этой точки зрения в опыте по бросанию кубика одинаковое количество информации содержится в сообщениях "два", "вверх выпала грань, на которой две точки" и в зрительном образе упавшего кубика.  

   При передаче  и хранении информации с помощью  различных технических устройств  информацию следует рассматривать  как последовательность знаков (цифр, букв, кодов цветов точек изображения), не рассматривая ее содержание.  

    Считая, что алфавит (набор символов  знаковой системы) - это событие,  то появление одного из символов  в сообщении можно рассматривать  как одно из состояний события.  Если появление символов равновероятно,  то можно рассчитать, сколько бит информации несет каждый символ. Информационная емкость знаков определяется их количеством в алфавите. Чем из большего количества символов состоит алфавит, тем большее количество информации несет один знак. Полное число символов алфавита принято называть мощностью алфавита.  

    Молекулы  ДНК (дезоксирибонуклеиновой кислоты)  состоят из четырех различных  составляющих (нуклеотидов), которые  образуют генетический алфавит.  Информационная емкость знака  этого алфавита составляет:  

            4 = 2I, т.е. I = 2 бит.  

   Каждая  буква русского алфавита (если  считать, что е=е) несет информацию 5 бит (32 = 2I).  

   При таком  подходе в результате сообщения  о результате бросания кубика , получим различное количество  информации, Чтобы его подсчитать, нужно умножить количество символов на количество информации, которое несет один символ.  

   Количество  информации, которое содержит сообщение,  закодированное с помощью знаковой  системы, равно количеству информации, которое несет один знак, умноженному  на число знаков в сообщении.

Информация о работе Сигналы и кодирование