Введение в информатику. Понятие информации

Автор работы: Пользователь скрыл имя, 24 Января 2012 в 14:09, лекция

Краткое описание

История развития информатики.
Основные объекты и методы изучения науки информатики.
Роль и место информации в современной естественнонаучной картине мира.
Основные подходы к феномену информации в современной науке.
Основные подходы к определению понятия «информация».
Носители информации. Виды и свойства информации.
Измерение информации.

Содержимое работы - 1 файл

ТЕМА 1.doc

— 118.00 Кб (Скачать файл)

2. Информация  достоверна, если она отражает истинное положение дел.

Недостоверной информация может быть по следующим причинам:

- преднамеренное  искажение (дезинформация);

- искажение  в результате воздействия помех  (“испорченный телефон”);

- в случае, когда значение реального факта  приуменьшается или преувеличивается (слухи, “рыбацкие истории”, реклама, политические дебаты).

3. Информация  полна, если ее достаточно для понимания и принятия решения.

Неполная информация может привести к ошибочному выводу или решению. Не зря русская пословица гласит: “Недоученный хуже неученого”.

Избыток информации может быть также вреден при принятии решения, как и ее недостаток, поскольку для анализа и обработки дополнительной информации требуется время. А время для человека - один из самых дефицитных и дорогостоящих “ресурсов” его жизни, не говоря уже об экстремальных ситуациях, когда от быстроты принятия решения может зависеть очень многое.

4. Информация  актуальна (своевременна), если она важна, существенна для настоящего времени. Только вовремя полученная информация может принести необходимую пользу.

Неактуальной  информация может быть по трем причинам, она может быть:

  • устаревшей (прошлогодняя газета);
  • преждевременной (прогноз погоды на лето, данный  в январе);
  • незначимой, ненужной (например, сообщение о  том, что в Италии снижены цены на проезд в транспорте на 5%).

5. Информация может быть полезной или бесполезной (ценность информации).

Но, так  как четкой границы между этими  понятиями нет, то следует говорить о степени полезности применительно  к нуждам конкретных людей. Полезность информации оценивается по тем задачам, которые мы можем решить с ее помощью. Оценка полезности информации всегда субъективна. То, что полезно для одного человека, может быть совершенно бесполезно для другого.

6. Информация  понятна, если она выражена на языке, доступном для получателя.

     Социальная  информация обладает еще и дополнительными свойствами.  А именно.

7. Имеет  семантический (смысловой) характер. Как правило, содержание, смысл для человека важнее, чем форма представления информации.

8. Имеет  языковую природу. Одно и то же содержание может быть выражено на разных естественных (разговорных) либо специальных языках.

9. С  течением времени количество  информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации (кумуляция - от латинского cumulatio - увеличение, скопление).

10. Свойство старения информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю информацию. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) - медленнее.

11. Логичность, компактность, удобная форма представления информации облегчает понимание и усвоение информации.

Пример. Грамотное, доказательное выступление, когда оратор логично переходит  от одного вопроса (факта, предположения) к другому, воспринимается лучше, чем  сумбурная речь. Использование схем нередко лучше проясняет принцип  работы технического устройства, чем многостраничные описания.

12. При  восприятии и понимании текстов  человеком важным свойством информации  оказывается ее определенность (однозначность).

Пример. "И вскрикнул внезапно ужаленный  князь!" Внезапно вскрикнул или  внезапно ужаленный? "Сережа встретил Свету на поляне с цветами". С цветами был Сережа или с цветами была Света? А, может быть, цветы росли на поляне? 
 

7. ИЗМЕРЕНИЕ  ИНФОРМАЦИИ.

Прежде, чем измерять значение какой-либо физической величины, надо ввести единицу измерения. У информации тоже есть такая единица - бит, но смысл ее различен при измерении информации в рамках разных подходов к определению понятия “информация”.  

I ПОДХОД. Неизмеряемость информации в быту (информация как новизна для получателя)

     Вы  получили некоторое сообщение, например, прочитали статью в журнале. В этом сообщении содержится какое-то количество новых для Вас сведений. Как оценить, сколько информации Вы получили? Другими словами, как измерить информацию? Можно ли сказать, что чем больше статья, тем больше информации она содержит?

      Разные  люди, получившие одно и то же сообщение, по-разному оценивают его новизну  и информационную ёмкость. Это происходит оттого, что  знания людей о событиях, явлениях, о которых идет речь в  сообщении, до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, могут сказать, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя. В таком случае, количество информации в одном и том же сообщении должно определяться отдельно для каждого получателя, то есть иметь субъективный характер. Но субъективные вещи не поддаются сравнению и анализу, для их измерения трудно выбрать одну общую для всех единицу измерения. Таким образом, с точки зрения информации как новизны, мы не можем однозначно и объективно оценить количество информации, содержащейся даже в простом сообщении. Что же тогда говорить об измерении количества информации, содержащейся в научном открытии, новом музыкальном стиле, новой теории общественного развития. Поэтому, когда информация рассматривается как новизна сообщения для получателя, вопрос об измерении количества информации не ставится.

 

II ПОДХОД - технический или объемный.

      В технике, где информацией считается  любая хранящаяся, обрабатываемая или  передаваемая последовательность знаков, сигналов, часто используют простой  способ определения количества информации, который может быть назван объемным. Он основан на подсчете числа символов в сообщении, то есть связан только с длиной сообщения и не учитывает его содержания.

      Длина сообщения зависит от числа знаков, употребляемых для записи сообщения. Например, слово “мир” в русском  алфавите записывается тремя  знаками, в английском - пятью (peace), а в ДКОИ-8 (двоичный код обмена информацией длиной 8) - двадцатью четырьмя битами (111011011110100111110010). 

В вычислительной технике применяются две стандартные  единицы измерения: бит (англ. binary digit - двоичная цифра) и байт (byte) и производные от них единицы - килобайт (Кб), мегабайт (Мб), гигабайт (Гб), тетрабайт (Тб).

1 бит  – минимально возможный хранимый  и передаваемый сигнал. Условно  два его возможных состояния  обозначаются 0 и 1. В действительности  эти состояния могут иметь различную физическую природу: для оперативной памяти это наличие или отсутствие напряжения в электронной схеме;  для компакт-дисков это выступ или впадина на поверхности и т.д.

Исторически сложилось так, что 1 байт равен 8 битам. Именно восемью битами кодировался один символ в программах для первых ЭВМ.

Обычно  приставка “кило” означает тысячу, а приставка “мега” - миллион, но в вычислительной технике все  “привязывается” к принятой двоичной системе кодирования.

В силу этого один килобайт равен не тысяче байт, а 210 = 1024 байт.

Аналогично, 1 Мб = 210 Кб = 1024 Кб = 220 байт = 1 048 576 байт.

            1 Гб = 210 Мб = 220 Кб = 230 байт = 1 073 741 824 байт. 

III ПОДХОД - вероятностный. Измерение информации в теории информации, когда информация определяется как  снятая неопределенность.

     Получение информации (ее увеличение) одновременно означает увеличение знания, что, в свою очередь, означает уменьшение незнания или информационной неопределенности. Говорят, что сообщение, которое уменьшает неопределенность, существовавшую до его получения, ровно в 2 раза, несет 1 бит информации. По сути, 1 бит информации соответствует выбору одного из двух равновероятных сообщений.

ПРИМЕРЫ.

Книга лежит на одной из двух полок - верхней  или нижней. Сообщение о том, что  книга лежит на верхней полке, уменьшает неопределенность ровно вдвое и несет 1 бит информации.

Сообщение о том, как упала монета после  броска - “орлом” или “решкой”, несет один бит информации.

В соревновании участвуют 4 команды. Сообщение о  том, что третья команда набрала большее количество очков, уменьшает первоначальную неопределенность ровно в четыре раза (дважды по два) и несет два бита информации. 

      Очень приближенно можно считать, что  количество информации в сообщении  о каком-то событии совпадает  с количеством вопросов, которые необходимо задать и ответом на которые могут быть лишь “да” или “нет”, чтобы получить ту же информацию. Причем событие, о котором идет речь, должно иметь равновероятные исходы. Именно поэтому, если число равновероятных исходов события, о котором идет речь в сообщении, кратно степени числа 2 (4 = 22, 8=23, 32 = 25), то сообщение несет целое количество бит информации. Но в реальной практике могут встречаться самые разные ситуации. Например, сообщение о том, что на светофоре красный сигнал, несет в себе информации больше, чем бит.

      С точки зрения на информацию как на снятую неопределенность количество информации зависит от вероятности получения данного сообщения. Причем, чем больше вероятность события, тем меньше количество информации в сообщении о таком событии.  Иными словами, количество информации в сообщении о каком-то событии зависит от вероятности свершения данного события.

     Научный подход к оценке сообщений был  предложен еще в 1928 году Р.Хартли. Расчетная формула имеет вид:

I = log2 N   или   2I = N,

где  N - количество равновероятных событий (число возможных выборов),

      I - количество информации.

Если N = 2 (выбор из двух возможностей), то I = 1 бит. 

     Бит выбран в качестве единицы количества информации потому, что принято считать, что двумя двоичными словами исходной длины k или словом длины 2k можно передать в 2 раза больше информации, чем одним исходным словом. Число возможных равновероятных выборов при этом увеличивается в 2k раз, тогда как I удваивается.

     Иногда  формула Хартли записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность  p = 1 / N, то N = 1 / p и формула имеет вид

I = log2 (1/p) = - log2 p

     Познакомимся  с более общим случаем вычисления количества информации в сообщении  об одном из N, но уже неравновероятных событий. Этот подход был предложен К.Шенноном в 1948 году.

Пусть имеется текст, содержащий тысячу букв. Буква “о” в тексте встречается  примерно 90 раз, буква ”р” ~ 40 раз, буква  “ф” ~ 2 раза, буква “а” ~ 200 раз. Поделив 200 на 1000, мы получим величину 0.2, которая представляет собой среднюю частоту, с которой в рассматриваемом тексте встречается буква “а”. Вероятность появления буквы “а” в тексте (pa)можем считать приблизительно равной 0.2. Аналогично, pр = 0.04, pф = 0.002, ро = 0.09.

     Далее поступаем согласно К.Шеннону. Берем  двоичный логарифм от величины 0.2 и  называем то, что получилось, количеством  информации, которую переносит одна единственная буква “а” в рассматриваемом  тексте. Точно такую же операцию проделаем для каждой буквы. Тогда количество собственной информации, переносимой одной буквой равно

Информация о работе Введение в информатику. Понятие информации