Контрольная работа по "Риторике"

Автор работы: Пользователь скрыл имя, 11 Октября 2011 в 15:29, контрольная работа

Краткое описание

Какое количество информации несет буква Я в русском алфавите (33 буквы)?
Вероятность первого события составляет 0,2, а второго и третьего 0,4. Чему для такого распределения равна информационная энтропия.

Содержимое работы - 1 файл

ы.doc

— 33.50 Кб (Скачать файл)

  Вариант 1.

  1. Какое количество информации несет буква Я в русском алфавите (33 буквы)?
 

N — количество  знаков в алфавите, I — количество  информации. 
Так, количество информации буквы «Я» в русском алфавите составляет:    

N=2(в степени i), N=33 следовательно I равно примерно 5. 

  1. Вероятность первого события  составляет 0,2, а второго  и третьего 0,4. Чему для такого распределения  равна информационная энтропия.
 

I=p1*log2(1/ p1)

I=0.2*log2(1/0.2) + 0.4*log2(1/0.4) + 0.4*log2(1/0.4) = 0.2*2.5 + +0.4*1.25 + 0.4*1.25 = 0.5 + 0.5 + 0.5 = 1.5 бит

Ответ: информационная энтропия равна 1.5 бит  

  1. Вот список сотрудников  некоторой организации:
    • Год рождения Фамилия Имя
      1950 Звягина Татьяна
      1970 Иванова Марина
      1970 Иванова Наталья
      1970 Петрова Татьяна
      1970 Звягина Ирина

    Определите  количество информации, недостающее для  того, чтобы выполнить следующие просьбы:

    1. Пожалуйста, позовите к телефону Иванову.
    2. Меня интересует одна ваша сотрудница, она 1970 года рождения.

     
     

    А) I = log2(Nдо/Nпосле) = log2(5/2) = 1.32 бит

    I недостающие = log2(5)– 1.32 = 2.32 – 1.32 = 1 бит

    Б) I = log2(Nдо/Nпосле) = log2(5/4) = 0.32 бит

    I недостающие = log2(5)– 0.32 = 2.32 – 0.32 = 2 бит  

    Ответ: а) недостающие = 1 бит б) недостающие = 2 бит. 
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     

Информация о работе Контрольная работа по "Риторике"