Алфавитный подход к измерению информации  
 

Любое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита.

Компьютерный алфавит составляет 256 символов. В кодировке ASCII на каждый символ отводится 8 битов, а в кодировке Unicode — 16 битов.

Информативность последовательности символов не зависит от содержания сообщения, а определяется минимально необходимым для её кодирования количеством символов.

Алфавитный подход к измерению количества информации основан на подсчёте числа символов в сообщении.

Формула для определения количества информации в текстовом сообщении выглядит следующим образом:
I=k·i, где I — искомое количество информации, k — количество символов в сообщении, i — информационный вес символа, то есть количество битов, использованное для его кодирования.

Информационный вес символа i находится из формулы Хартли 2i=N, где N — мощность алфавита (количество символов этого алфавита).

Чтобы стандартизировать измерение количества информации, было принято за единицу измерения брать бит (от английского binаrу digit) — количество информации, которое можно передать в сообщении, состоящем из одного двоичного знака (0 или 1).

1 байт = 8 битов.
1 килобайт (Кбайт) = 1024 байта = 210 байта.
1 мегабайт (Мбайт) = 1024 Кбайта = 220 байта.
1 гигабайт (Гбайт) = 1024 Мбайта = 230 байта.
1 терабайт (Тбайт) = 1024 Гбайта = 240 байта.
1 петабайт (Пбайт) = 1024 Тбайта = 250 байта.

Следующий урок