Javascript must be enabled in your browser to use this page.
Please enable Javascript under your Tools menu in your browser.
Once javascript is enabled Click here to go back to �нтеллектуальная Кобринщина

Количество информации в компьютерной технике

Теория информации – это один из разделов математики. Поэтому одной из проблем связанных с информацией является измерение ее количества. Однако, само понятие информации можно определить по-разному. Следовательно, можно и по-разному измерить ее количество. Для определения количества информации наиболее распространены формулы Хартли и Шеннона.

В мире компьютеров количество информации определяется с помощью битов, байтов, килобайтов, мегабайтов, гигабайтов и т.д.

Бит – это наименьшая единица измерения информации в компьютерной технике. Можно сказать, это ячейка, которая может находиться в двух состояниях: либо 0, либо 1.

В одном бите можно зафиксировать лишь два состояния.

В двух битах уже четыре состояния.

В трех – 8.

В четырех битах – 16.


Легко заметить, что количество состояний (N) системы определяется формулой N = 2a, где a – это количество бит. Так 28 = 256. Т.е используя 8 бит, мы можем зафиксировать 256 различных состояний (таблица состояний по понятным причинам не приводится).

В компьютерной технике 8 бит называются байтом. Почему именно восемь бит в байте? Ну, отчасти из-за того, что 256 состояний достаточно, чтобы закодировать алфавит того или иного языка мира. Т.е. на каждую букву отводится 1 байт, который может быть в соответствующем букве состоянии.

1 килобайт = 1024 байта (или 210),1 мегабайт = 1024 килобайта и т.д.