Иллюстрированный самоучитель по цифровой графике

Понятие бита

Пример

Когда-то и нас с вами учили считать "на пальцах" или "на яблоках": детское мышление конкретно (кстати, и обывательское – тоже). Но постепенно мы с вами забыли о яблоках и научились писать числа самым "абстрактным" образом. Например, когда мы вычисляем "2 + 2", уже не играет роли, что мы имеем в виду (те же яблоки или, например, доллары), нас интересуют только чисто количественные отношения.

Также можно абстрагироваться от "качества" информации (качественного содержания информации) и считать ее не как конкретные "яблоки", всякий раз вспоминая о том, какой была конкретная информация – а просто как количество, независимо от ее содержания.

В таком случае мы получаем колоссальную свободу в формальных операциях.

Пример

Если бы люди каждый раз для выполнения счета рисовали яблоки, человечество бы никогда не дошло до высшей математики. Потому что с их помощью невозможно решать какие бы то ни было математические задачи. Ученые, создав формальный способ, с его помощью решают математические проблемы вполне успешно.

И таким же образом, как в математике рассматривается количество безотносительно качества, так же с точки зрения теории информации исключается качественное содержание информации и учитывается только количественное. Скажем, когда упоминаемых выше Коли (или Оли) не оказывается дома, этот факт может быть для нас весьма огорчительным, но формальное количество информации (в абстрактном смысле) от этого не меняется ("да" или "нет" – это всегда один бит информации).

Следовательно, бит – это абстрактное понятие, которое обеспечивает количественное измерение информации. Так вот, когда мы переходим от естественного языка "да – нет" к математике, компьютерным технологиям, то там эти два состояния тоже придется обозначать математически.

Важная мысль

Бит– это абстрактное понятие, которое обеспечивает количественное измерение информации, доступное компьютерным системам.

Математически нам проще всего "битовую информацию" описывать числовыми методами, а именно двоичными числами, которые составляются из цифр "0" и "1".

Замечание
Очень часто люди гуманитарного склада "попадаются" на том, что считают ноль "пустым местом", ведь, как правило, ноль "ничего не значит". На самом деле, ноль это такая же полноправная цифра или число (в данном случае это и число и цифра)
.

Справка
Кстати, слово "ноль" происходит от латинского слова "nullus", что переводится как "никакой". Оно действительно мало, что значит, только в одном случае: от прибавления (или вычитания) ноля к любому числу последнее не меняется. Зато ноль всемогущ в умножении: произведение любого числа на ноль дает ноль, а деление на ноль вообще невозможно. Последнее свойство вызывает фатальную ошибку в работе компьютера, если программист не предусмотрел специальную защиту
.

И в этой связи обнаруживается, что двоичная система счисления, которая подробно обсуждалась выше, идеально совпадает с понятием бита в теории информации. Сколько передается "ноликов" или "единичек" – столько передается битов информации (современные объемы характеризуются объемами в килобайтах, мегабайтах, гигабайтах и даже терабайтах).

Информацию о двоичной системе счисления смотрите в разд. "Двоичная система счисления" данной главы.

А поскольку один бит и единицы двоичной системы счисления удачно совпали, это дает возможность передавать информацию, одновременно ее учитывая.

Важная мысль

Совпадение единицы информации "бит" и двоичной системы счисления обеспечивает возможность передачи информации одновременно с ее учетом.

Замечание
Попутно напомним, что аналоговая система передачи информации не обладает таким свойством: мы не можем, передавая сигнал, вместе с ним передавать как бы его идеальное состояние
.

Если Вы заметили ошибку, выделите, пожалуйста, необходимый текст и нажмите CTRL + Enter, чтобы сообщить об этом редактору.