Измерение и представление информации

Автор работы: Пользователь скрыл имя, 26 Июня 2013 в 18:14, лекция

Краткое описание

Для измерения информации вводятся два параметра: количество информации I и объём данных Vg . Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности.
Рассмотрим подробнее меры информации.

Содержимое работы - 1 файл

Izmerenie_i_predstavlenie_informacii.doc

— 69.00 Кб (Скачать файл)


Лекция "Измерение  и представление информации"

 

С позиций материалистической философии информация есть отражение реального мира с помощью сведений (сообщений). Сообщение – это форма представления информации (речь, текст, изображение, цифровые данные, графики, таблицы и так далее).

При работе с информацией всегда имеется её источник и потребитель. Пути и процессы, обеспечивающие передачу сообщений от источника информации к её потребителю, называется информационными коммуникациями.

Для потребителя информации очень важной характеристикой является её адекватность.

Адекватность информации – это определённый уровень соответствия создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению и тому подобное.

В реальной жизни нельзя рассчитывать на полную адекватность информации, так как всегда присутствует некоторая степень неопределённости. От степени адекватности информации реальному состоянию объекта или процесса зависит правильность принятия решения.

Адекватность информации может  выражаться в трёх формах: семантической, синтаксической, и прагматической.

  1. Синтаксическая адекватность отображает формально – структурные характеристики информации  и не затрагивает её смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надёжность и точность преобразования этих кодов и так далее.
  2. Семантическая (смысловая) адекватность определяет степень соответствия образа объекта и самого объекта.
  3. Прагматическая (потребительская) адекватность отражает отношение информации и её потребителя, соответствие информации цели управления, которая на её основе реализуется. Прагматический аспект связан с ценностью, полезностью информации при принятии решения.

Для измерения информации вводятся два параметра: количество информации I и объём данных Vg . Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности.

 

 

 

 

 

 

 

Рассмотрим подробнее меры информации.

 


Синтаксическая мера информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объём данных Vg в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных.

Например: одно и тоже число может быть записано различными способами

“двадцать один”

21

XXI

11001

Таким образом, объёмная мера информации чувствительна к форме представления информации. В вычислительной технике вся обрабатываемая и хранимая информация (вне зависимости от природы) представлена в двоичной форме (с использованием алфавита, состоящего из 2-х символов: 0 и 1). Такая стандартизация позволила ввести две единицы измерения – бит и байт.

Количество информации I на синтаксическом уровне измеряется с помощью энтропийного подхода. Такой способ измерения исходит из следующей модели. Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе или объекте α. Эти сведения в общем случае недостоверны и выражаются вероятностями наступления того или иного события. Общая мера неопределённости (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей H(α). После получения некоторого сообщения β потребитель приобрёл некоторую дополнительную информацию Iβ (α), уменьшившую его априорную неосведомлённость. Следовательно, апостериорная неопределённость состояния системы выражается мерой H(β). Тогда количество информации о системе может быть найдено по формуле:

Iβ (α) = H (α) – H (β)

то есть количество информации в сообщении определятся тем, насколько уменьшится мера неопределённости после получения сообщения.

Например: имеется колода 32 карт. Возможность выбора одной карты из колоды – 32. Априори полагаем, что шансы выбрать конкретную карту одинаковы для всех карт колоды. Произведя выбор, мы устраняем эту априорную неопределённость.

Нашу априорную неопределённость можно было бы охарактеризовать количеством возможных равновероятных выборов. Если теперь определить количество информации как меру устранённой неопределённости, то и полученную в результате выбора информацию можно охарактеризовать числом 32. Однако, в теории информации получила использование другая оценка: H = log2 m, где m – число возможных равновероятных исходов.  

H = log2 32 = log2 52 = 5

Полученная оценка имеет  интересную интерпретацию: она характеризует  число двоичных вопросов, которые  нужно задать для выбора конкретной карты.

К. Шеннону принадлежит  обобщение энтропии H на случай, когда мера неопределённости зависит не только от числа m возможных состояний, но и от вероятностей возможных выборов этих состояний (в частности, для сообщения – вероятности выбора символов).

Для количества собственной (индивидуальной) информации  он предложил соотношение:

hi = log = - log Pi

где Pi - вероятность того, что система находится в i – м состоянии.

Более удобно пользоваться средним значением количества информации, приходящимся на  i – ое состояние:

При равновероятных событиях и мы получим

H (α) = log m

Часто информация кодируется числовыми кодами в той или  иной системе счисления (особенно это актуально для персональных компьютеров). Одно и то же количество разрядов в разных системах счисления может передать разное количество состояний отображаемого объекта:

N = mn

где N – число возможных состояний

      m – основание системы счисления (количество символов)

      n – число символов в сообщении

Например: по каналу связи  передаётся n – разрядное сообщение, использующее m символов. Тогда количество информации, получаемой потребителем, будет (в случае равновероятности) I = log N = log mn = n log m – формула Хартли. Если в качестве основания log взять m, то I = n, то есть количество информации (при условии полного незнания получателем содержания сообщения) будет равно объёму данных I = Vg , полученных по каналу связи. Для неравновероятных состояний системы всегда I<Vg = n

Можно ввести ещё одну характеристику коэффициент (степень) информативности (лаконичность).

   ,        0<y<1

С увеличением Y уменьшаются объёмы работы по преобразованию информации в системе, поэтому стремятся к повышению информативности, для чего разрабатывают специальные методы оптимального кодирования.                            


Семантическая мера информации.

Для измерения смыслового содержания информации, то есть его  количества на семантическом уровне, наибольшее признание получила тезаурусная мера.

Тезаурус – это полный систематизированный набор данных, о какой – либо области знаний, позволяющий человеку или вычислительной машине в ней ориентироваться.

В зависимости от соотношения между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус

 


Ic

                                                                 зависимость семантической                                                                                    

                                                                           информации, воспринимаемой

                                                                      потребителем Ic = f (Sp)

 

 

 

   Sp 

                 Sp опт.

       

при Sp - пользователь не понимает

       Sp    - уже всё знает

Максимальное количество семантической информации Ic потребитель приобретает при согласовании её смыслового содержания S со своим тезаурусом Sp = Sp опт., то есть когда поступающая информация понятна пользователю и несёт ему новые сведения. Следовательно, количество семантической информации в сообщении – величина относительная. Относительной мерой количества семантической информации может служить коэффициент содержательности

                     

    


Прагматическая мера информации.

Эта мера определяется полезностью информации для достижения поставленной цели. Эта мера также является величиной относительной, зависящей от особенностей использования информации в той или иной системе.

Например, в экономической  системе ценность информации можно  определить приростом экономического эффекта функционирования системы

Iβ (γ) = П (γ / β) – П (γ)

где Iβ (γ) – ценность сообщения β для системы управления γ

П (γ) – ожидаемый эффект функционирования системы управления γ.

П (β / γ) – ожидаемый  эффект при условии, что для управления будет использована информация, содержащаяся в сообщении β.

 

Качество информации.

Возможность и эффективность  использования информации обуславливаются следующими потребительскими показателями качества:

  1. репрезентативность – правильность отбора и формирования в целях адекватного отражения свойств объекта.
  2. содержательность информации – отражает семантическую ёмкость . С увеличением содержательности информации растёт семантическая пропускная способность информационной системы, так как для получения одних и тех же сведений требуется преобразовать меньший объём данных.
  3. достаточность (полнота) – то есть информация должна содержать минимальный, но достаточный для принятия правильного решения набор показаний.
  4. доступность обеспечивается выполнением соответствующих процедур её получения и преобразования.
  5. актуальность информации определяется степенью сохранения ценности информации для управления в момент её использования и зависит от динамики изменения её характеристик и от интервала времени, прошедшего с момента возникновения данной информации.
  6. своевременность – то есть информация должна поступать не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи.
  7. точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса.
  8. достоверность информации определяется её свойствами отражать реально существующие объекты с необходимой точностью. Измеряется доверительной вероятностью необходимой точности.
  9. устойчивость информации отражает её способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость и репрезентативность обусловлена выбранной методикой отбора и формирования.        

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

          




Информация о работе Измерение и представление информации