Введение в информатику. Понятие информации

Автор работы: Пользователь скрыл имя, 24 Января 2012 в 14:09, лекция

Краткое описание

История развития информатики.
Основные объекты и методы изучения науки информатики.
Роль и место информации в современной естественнонаучной картине мира.
Основные подходы к феномену информации в современной науке.
Основные подходы к определению понятия «информация».
Носители информации. Виды и свойства информации.
Измерение информации.

Содержимое работы - 1 файл

ТЕМА 1.doc

— 118.00 Кб (Скачать файл)
align="center">hi = log2 (1/pi) = - log2 pi,

где pi - вероятность появления в сообщении i-го символа алфавита. 

     Удобнее в качестве меры количества информации пользоваться не значением hi , а средним значением количества информации, приходящейся на один символ алфавита

H = S pi hi = - S pi log2 pi

Значение  Н достигает максимума при  равновероятных событиях, то есть при  равенстве всех pi

pi = 1 / N.

В этом случае формула Шеннона превращается в формулу Хартли.

      Интересный  факт.

      На  памятнике немецкому ученому  Л. Больцману высечена формула, выведенная в 1877 году и связывающая вероятность  состояния физической системы и  величину энтропии этой системы. Энтропия (греч. en - в, внутрь; trope - превращение, буквально смысловой перевод: то, что внутри, неопределенно) - физическая величина, характеризующая тепловое состояние тела или системы, мера внутренней неупорядоченности системы. Так вот, формула для энтропии Больцмана совпадает с формулой, предложенной Шенноном для среднего количества информации, приходящейся на один символ в сообщении. Совпадение это произвело столь сильное впечатление, что Шеннон назвал количество информации негэнтропией. С тех пор слово “энтропия” стало чуть ли не антонимом слова “информация”.

     Чем больше энтропия системы, тем больше степень ее неопределенности. Поступающее  сообщение полностью или частично снимает эту неопределенность. Следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после поступления сообщения. Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком. Уменьшая неопределенность, мы получаем информацию, в этом весь смысл научного познания. 

Информация о работе Введение в информатику. Понятие информации