Способы измерения информации

Автор работы: Пользователь скрыл имя, 31 Октября 2012 в 17:45, реферат

Краткое описание

Решая различные задачи, человек вынужден использовать информацию об окружающем нас мире. И чем более полно и подробно человеком изучены те или иные явления, тем подчас проще найти ответ на поставленный вопрос. Так, например, знание законов физики позволяет создавать сложные приборы, а для того, чтобы перевести текст на иностранный язык, нужно знать грамматические правила и помнить много слов.
Часто приходится слышать, что сообщение или несет мало информации или, наоборот, содержит исчерпывающую информацию. В информатике используются различные подходы к измерению информации. Задача данного реферата – осветить основные подходы к измерению информации.

Содержимое работы - 1 файл

Способы измерения информации.docx

— 37.03 Кб (Скачать файл)

Способы измерения информации

 

Введение      

Решая различные задачи, человек вынужден использовать информацию об окружающем нас мире. И чем более полно  и подробно человеком изучены  те или иные явления, тем подчас проще найти ответ на поставленный вопрос. Так, например, знание законов физики позволяет создавать сложные приборы, а для того, чтобы перевести текст на иностранный язык, нужно знать грамматические правила и помнить много слов.   
     Часто приходится слышать, что сообщение или несет мало информации или, наоборот, содержит исчерпывающую информацию. В информатике используются различные подходы к измерению информации. Задача данного реферата – осветить основные подходы к измерению информации. 

 
Глава 1. Объемный способ измерения информации    

Технический способ измерения количества информации (или, точнее, информационного объема сообщения) основан на подсчета количества символов, из которых образовано сообщение. При этом не учитывается смысловое содержание сообщения. Например, многократное повторение одного и того же текста не несет новой информации, однако в результате занимает больший объем памяти, требует большего времени для передачи и т.п. Поэтому этот способ удобен в технических расчетах     

За 1 бит  в этом случае принимается один двоичный символ в сообщении.     

Информационный  объем сообщения (информационная емкость сообщения) - количество информации в сообщении, измеренное в битах, байтах или производных величинах . 

Исходное  сообщение 

Количество информации

На  языке 

в машинном представлении 

(КОИ-8)

в символах

в битах 

в байтах

Рим

11110010 11101001 11101101

3

24

3

Мир

11101101 11101001 11110010

3

24

3

Миру  мир!

11101101 11101001 11110010

11110101 00100000 11101101

1110101 11110010 00100001

9

72

9

(** */

00101000 00101010 00101010

00100000 00101010 00101111

6

48

6



 

 

Таб. 1 пример объемного измерения 

 

Единицы измерения информации в вычислительной технике

1 бит

   

1 байт

8 бит

 

1 Кбайт  ( килобайт)

1024 байта

1 тыс. байт

1 Мбайт  (мегабайт)

1024 Кбайта

1 млн. байт

1 Гбайт  (гигабайт)

1024 Мбайта

1 млрд.байт



Таб.2 Единицы измерения  информации в вычислительной технике 

 

 

 Глава 2. Алфавитный подход     

Алфавитный  подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. С позиций computer science носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, а определяется минимально необходимым количеством символов для ее кодирования. Алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение. Смысл сообщения учитывается на этапе выбора алфавита кодирования либо не учитывается вообще.     

Алфавитный  подход является объективным способом измерения информации в отличие  от субъективного, содержательного, подхода.     

При алфавитном подходе к измерению  информации количество информации зависит от т объёма текста и от мощности, а не от содержания.     

Мощность  алфавита — полное число символов алфавита (N). Каждый символ несёт i бит  информации; число i можно определить из уравнения: 2= N.     

Количество  информации, содержащееся в символьном сообщении, равно К х i, где К – число символов в тексте сообщения а i – информационный вес символа, который находится из уравнения 2= N, где N – мощность используемого алфавита.     

Применение  алфавитного подхода удобно при  использовании технических средств работы с информацией. 

 

Глава3. Вероятностный подход к измерению  информации

 

 

     Формулу для вычисления количества информации, учитывающую неодинаковую вероятность событий, предложил К. Шеннон в 1948 году. Количественная зависимость между вероятностью события р и количеством информации в сообщении о нем x выражается формулой: x=log(1/p). Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить следующим образом - чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.     

Рассмотрим  некоторую ситуацию. В коробке  имеется 50 шаров. Из них 40 белых и 10 черных. Очевидно, вероятность того, что  при вытаскивании "не глядя" попадется  белый шар больше, чем вероятность попадания черного. Можно сделать заключение о вероятности события, которые интуитивно понятны. Проведем количественную оценку вероятности для каждой ситуации. Обозначим pч - вероятность попадания при вытаскивании черного шара, рб - вероятность попадания белого шара. Тогда: рч=10/50=0,2; рб40/50=0,8. Заметим, что вероятность попадания белого шара в 4 раза больше, чем черного. Делаем вывод: если N - это общее число возможных исходов какого-то процесса (вытаскивание шара), и из них интересующее нас событие (вытаскивание белого шара) может произойти K раз, то вероятность этого события равна K/N. Вероятность выражается в долях единицы. Вероятность достоверного события равна 1 (из 50 белых шаров вытащен белый шар). Вероятность невозможного события равна нулю (из 50 белых шаров вытащен черный шар).     

Количественная  зависимость между вероятностью события р и количеством информации в сообщении о нем x выражается формулой: . В задаче о шарах количество информации в сообщении о попадании белого шара и черного шара получится: .     

Рассмотрим  некоторый алфавит из m символов: и вероятность выбора из этого алфавита какой-то i-й буквы для описания (кодирования) некоторого состояния объекта. Каждый такой выбор уменьшит степень неопределенности в сведениях об объекте и, следовательно, увеличит количество информации о нем. Для определения среднего значения количества информации, приходящейся в данном случае на один символ алфавита, применяется формула . В случае равновероятных выборов p=1/m. Подставляя это значение в исходное равенство, мы получим     

Рассмотрим следующий  пример. Пусть при бросании несимметричной четырехгранной пирамидки вероятности выпадения граней будут следующими: p1=1/2, p2=1/4, p3=1/8, p4=1/8, тогда количество информации, получаемое после броска, можно рассчитать по формуле:     

Для симметричной четырехгранной пирамидки количество информации будет :H=log24=2(бит).     

Заметим, что для  симметричной пирамидки количество информации оказалось больше, чем  для несимметричной пирамидки. Максимальное значение количества информации достигается  для равновероятных событий.

Буква

Частота

Буква

Частота

Буква

Частота

о

0.090

к

0.028

ь (ъ), б 

0.014

е (ё)

0.072

м

0.026

ч

0.013

а, и 

0.062

д

0.025

й

0.012

т, н 

0.053

п

0.023

х

0.009

с

0.045

у

0.021

ж, ю, ш 

0.006

р

0.040

я

0.018

ц, щ, э 

0.003

в

0.035

ы, з 

0.016

ф

0.002



Таб.3 Частотный словарь русского языка 

 

Глава 4. Теория разнообразия Р. Эшби

 

 

     Рассмотрим пример Р. Эшби. Заключенного должна навестить жена Сторож знает, что она хочет сообщить мужу, пойман ли его сообщник. Ей не разрешено делать никаких сообщений. Но сторож подозревает, что они договорились о каком-то условном знаке. Вот она просит послать мужу чашечку кофе. Как сторож может добиться, чтобы сообщение не было передано? Он рассуждает так: может быть, она условилась передать ему сладкий чай или несладкий кофе, тогда я могу помешать им, добавив в кофе сахару и сказав об этом заключенному. Может быть, она условилась послать или не послать ему ложку, тогда я могу изъять ложку и сказать ему, что передача ложек воспрещена. Она может послать ему не кофе, а чай, но все знают, что в это время выдается только кофе. И сторож, стремясь пресечь всякую возможность связи, сводит все возможности к одной – только кофе, только с сахаром, только без ложки. Если все возможности сведены к одной, связь прерывается, и посылаемый напиток лишен возможности передать информацию.     

Р. Эшби осуществил переход от толкования информации как «снятой» неопределенности к «снятой» неразличимости. Он считал, что информация есть там, где имеется (дано или выявляется) разнообразие, неоднородность. В данном случае единицей измерения информации может быть элементарное различие, т.е. различие между двумя объектами в каком-либо одном фиксированном свойстве. Чем больше в некотором объекте отличных (в строго определенном смысле) друг от друга элементов, тем больше этот объект содержит информации. Информация есть там, где имеется различие хотя бы между двумя элементами. Информации нет, если элементы неразличимы.     

В середине 50-х годов, используя материал статистической теории информации, Р. Эшби изложил концепцию разнообразия, согласно которой под разнообразием следует подразумевать характеристику элементов множества, заключающуюся в их несовпадении. Так, множество, в котором все элементы одинаковы (допустим , это последовательность а, а, а, и т.д.), по мнению Эшби, не имеет «никакого» разнообразия, ибо все его элементы одного типа. Если разнообразие его измерить логарифмически, то получим логарифм единицы (единица означает однотипность элементов множества) – нуль. Множество с таким разнообразием соответствует единичной вероятности выбора элемента, т.е. какой элемент множества не был бы выбран, он будет одного и того же типа. Суть концепции разнообразия, по Эшби, заключается в утверждении, что теория информации изучает процессы «передачи разнообразия» по каналам связи, причем «информация не может передаваться в большем количестве, чем это позволяет количество разнообразия».     

Исходя из идей основоположника  кибернетики Н. Винера и результатов, полученных К. Шенноном, Эшби открыл закон, названный законом необходимого разнообразия, который так же, как закон Шеннона для процессов связи, может быть общим для процессов управления. Суть этого закона состоит в следующем. Для управления состоянием кибернетической системы нужен регулятор, ограничивающий разнообразие возмущений, которые могут разрушить систему. При этом регулятор допускает такое их разнообразие, которое необходимо и полезно для системы.     

При допустимом разнообразии состояний кибернетической системы  Ри разнообразии возмущений Рв количество разнообразия регулятора Ррвc. Эта формула является одной из количественных форм выражения закона необходимого разнообразия. В логарифмической форме этот закон имеет вид     

log P= log Рвили log P= log Рв – log Рc.     

Обозначив соответствующие  логарифмы разнообразия как информационные содержания систем, получим Iв = Iр + Iс. Из формулы следует, что сумма информационных содержаний системы и регулятора равна информационному содержанию внешних возмущений. 

 

Глава 5. Алгоритмический подход А. Н. Колмогорова

 

 

     Отличный от взглядов Хартли, Шеннона, Винера и Бриллюэна  подход к определению понятия "количество информации", был предложен в 1965 году академиком А.Н. Колмогоровым, который  он назвал алгоритмическим.     

Исходя из того, что "по существу наиболее содержательным является представление о количестве информации "в чем-либо" (Х) и "о чем-либо" (Y)", А.Н. Колмогоров для оценки информации в одном конечном объекте относительно другого конечного объекта предложил использовать теорию алгоритмов. За количество информации при этом, принимается значение некоторой функции от сложности каждого из объектов и длины программы (алгоритма) преобразования одного объекта в другой.     

Решение задачи определения  количества информации в алгоритмическом подходе имеет общий вид и схематично выглядит следующим образом.     

"Относительной  сложностью" объекта Y при заданном Х будем считать минимальную длину "программы" Р получения Y из Х. Сформулированное так определение зависит от "метода программирования". Метод программирования есть не что иное, как функция , ставящая в соответствие программе Р и объекту Хобъект Y".      

Так как каждый из объектов может быть бесконечно сложным, то доказывается теорема, согласно которой  относительной сложности  объекта Y, при заданном методе программирования, может быть поставлена в соответствие иная относительная сложность, полученная при другом методе программирования, такая, что выполняется неравенство,

где - некоторая постоянная программирования, не зависящая от X и Y.

Учитывая, что при любых Х и Y относительная сложность является конечной величиной, а можно считать просто сложностью объекта Y, А.Н. Колмогоров для оценки алгоритмического количества информации в объекте X относительно объекта Y предложил использовать формулу: (22 )

причем  и, соответственно.     

Алгоритмическая информация (22) может принимать как  положительные, так и отрицательные  значения. В связи с этим А.Н. Колмогоров делает два замечания. Во-первых, " не меньше некоторой отрицательной константы C, зависящей лишь от условностей избранного метода программирования". Во-вторых, "вся теория рассчитана на применение к большим количествам информации, по сравнению с которыми будет пренебрежимо мал".     

Алгоритмический подход к измерению количества информации, в силу ряда объективных причин, не нашел широкого практического применения. Во-первых, как писал сам А.Н. Колмогоров, "на пути его формализации встает очевидная трудность: то, что просто описывается на одном языке, может не иметь простого описания на другом, и непонятно, какой способ описания выбрать". То есть алгоритмическая оценка информации зависит от выбранного метода программирования, а такой выбор, в свою очередь, по сути дела всегда имеет субъективный характер. Во-вторых, практическое использование формулы (22) возможно лишь применительно к весьма простым объектам, имеющим математическое описание, в то время как отсутствие последнего является характерной и обязательной чертой сложных объектов. Кроме того, понятие "сложность" само по себе является относительным и зависит от уровня рассмотрения объектов. И, наконец, в-третьих, в соответствии с теоремой Геделя о неполноте формальных систем, нельзя доказать, что минимальная длина программы преобразования X в Y, составленная на каком-либо языке программирования, действительно является объективно минимальной.      

Информация о работе Способы измерения информации