Информатика

© Христо Тужаров, 2007

КОЛИЧЕСТВО ИНФОРМАЦИЯ

 

[Home] [Асеневци] [Инфопедия] [За проекта] [Начало на книгата] [Карта на книгата]

ИНФОРМАЦИЯ

ХАРАКТЕРИСТИКИ НА ИНФОРМАЦИЯТА

АТРИБУТИ НА ИНФОРМАЦИЯТА

СВОЙСТВА НА ИНФОРМАЦИЯТА

ПАРАМЕТРИ НА ИНФОРМАЦИЯТА

КОЛИЧЕСТВО ИНФОРМАЦИЯ

НОСИТЕЛИ НА ИНФОРМАЦИЯ

 

 

 

Количество информация (information content)

  • Мярка за информация, характеризираща появата на събитие с определена вероятност;

  • Мярка за оценка на информация , съдържаща се в едно съобщение;

  • Мярка, характеризираща намаляването на неопределеността, съдържаща се в една случайна величина относно друга.

Съществуват различни подходи за оценка количеството информация.

 

Количество информация

 

Теория на кодиране и предаване на съобщения

 

Количество информация - количеството кодирани, предавани или съхранявани символи.

  • Бит - двоичен знак от двоичния  алфавит {0, 1}. Явява се минимална единица за информация.

  • Байт - осем разряден двоичен код, с помощта, на който може да се представи един символ.

Информационен обем на съобщението - количеството информация в съобщението, измервано в битове, байтове или производните им единици (Кбайт, Мбайт и т.д.).

 

Информатика

 

Адекватност на информацията -  определено ниво на съответствие на създавания с помощта на получената информация образ на реалния обект, процес, явление и т.н.

Практически пълна адекватност не съществува, като винаги присъства някаква степен на неопределеност. 

 

             Параметри за измерване на информацията:

Количество информация – число, характеризиращо разнообразието (структурираност, определеност, външна среда и т.н.) в оценяваната система.  Определя се най-често в байтове информация, класифицирана по значимост.

 

              Обем на данните – определя от количеството съхранявани в информационната система данни, изразени в байтове.

 

Основни съотношения между единиците за измерване на информация:

1 бит (binary digit – двоична единица) = 0 или 1;

1 байт. = 8 бит;

1 килобайт (1К) = 213 бит,

1 мегабайт (1М) = 223 бит,

1 гигабайт (1Г) = 233 бит,

1 терабайт (1Т) = 243 бит,

1 петабайт (1П) = 253 бит,

1 екзабайт (1Е) = 263 бит.

 

Примери:

20 Гбайт - запис на съчиненията на Бетовен.

2 Тбайт - крупна академична библиотека;

2 Пбайта - всички академични библиотеки на САЩ.

 

             Видове мерки за информация

  • Синтаксическа мярка за информация - общото количество информация, без да се търси смисленото и отношение към обекта.

  • Семантическа мярка за информация  - количеството информация, което има смислено значение

  • Тезаурусна мярка за информация - свързва семантичните свойства на информацията със способностите на потребителя да възприеме полученото съобщение.

                           Тезаурус  - съвкупност от сведения, с които разполага потребителя или системата.

  •          Прагматична мярка за  информация - определя полезността (ценността) на  информацията за достигане от потребителя на поставена цел. Ценността на информацията е целесъобразно да се измерва в същите единици (или близки до тях), в които се измерва една  целева функция.                                     

Теория на информацията

 

Количество информация -  числова характеристика на сигнала, която не зависи от формата и съдържанието му и характеризира неопределеността, която изчезва след получаване на съобщението.  В този случай количеството информация зависи от вероятността да се получи съобщение за  едно или друго събитие.

В по-общ случай количеството информация зависи от вероятността за един или друг изход от дадено събитие.

 

Пример на разсъждение:

  • Явявайки се на изпит студент може да получи една от петте оценки,  т.е това събитие има пет изхода;.

  • Вероятността за получаване на определена оценка ще зависи от знанията на студента;

  • Сумата от вероятностите на всички изходи винаги е равна на единица.

  • Когато събитието има само един изход, вероятността е равна на 1 и количеството информация за това събитие е равна на 0.

Следователно, колкото е по малко вероятен е изхода от едно събитие, толкова е по-голямо количеството информация, което носи съобщението за него.

 

Извод:

Количество информация - това е мярка за намаляване на неопределеността в конкретна ситуация. Намалявайки неопределеността се получава информация и в това е смисълът на научното познание.