Назад (Информатика).

Понятие информации

Термин информация ведет свое происхождение от латинского слова informatio, означающего разъяснение, изложение, осведомленность. Информация способствует увеличению знаний людей об окружающем мире. Окружающий мир познается в процессе получения информации.

Сами по себе речь, текст, цифры не являются информацией. Чертежи и музыкальные произведения, книги и картины, спектакли и кинофильмы - все это формы представления информации. Все формы представления информации можно разделить на непрерывные и дискретные.

Информация, в какой бы форме она ни предоставлялась, является отражением окружающего мира с помощью знаков и сигналов. Стоит отметить, что абсолютно точное определение информации дать невозможно, это такое же первичное понятие, как точка или плоскость в геометрии.

Непрерывная информация

Объекты и явления характеризуются значениями физических величин. Например, массой тела, его температурой, расстоянием между двумя точками, длиной пути [пройденного движущимся телом], яркостью света и т.д. Природа некоторых величин такова, что величина может принимать любые значения в каком-то диапазоне. Эти значения могут быть сколь угодно близки друг к другу, но все-таки различаться, а количество значений, которое может принимать такая величина, неограниченно. Такие величины называются непрерывными величинами, а информация, которую они несут в себе, непрерывной информацией.

Слово "непрерывность" отчетливо выделяет основное свойство таких величин - отсутствие разрывов, промежутков между значениями, которые может принимать величина. Масса тела - непрерывная величина, принимающая любые значения от 0 до бесконечности. То же самое можно сказать о многих других физических величинах - расстоянии между точками, площади фигур, напряжении электрического тока.

Дискретная информация

Кроме непрерывных существуют иные величины, например, количество людей в комнате, количество электронов в атоме и т.д. Такого рода величины могут принимать только целые значения, например, 1, 2, 3, ..., и не могут иметь дробных значений. Величины, принимающие не всевозможные, а лишь вполне определенные значения, называют дискретными. Для дискретной величины характерно, что все ее значения можно пронумеровать натуральными числами 1, 2, 3, ...

Взаимосвязь форм представления

В качестве простого примера рассмотрим пружинные весы. Масса тела, измеряемая на них, - величина непрерывная по своей природе. Представление о массе (информацию о массе) содержит в себе длина отрезка, на которую перемещается указатель весов под воздействием массы измеряемого тела. Длина отрезка - тоже непрерывная величина.

Чтобы охарактеризовать массу, в весах традиционно используется шкала, отградуированная, например, в граммах. Пусть, например, шкала конкретных весов имеет диапазон от 0 до 50 граммов.

При этом масса будет характеризоваться одним из 51 значений: 0, 1, 2, ..., 50, т.е. дискретным набором значений. Таким образом, информация о непрерывной величине, массе тела, приобрела дискретную форму.

Любую непрерывную величину можно представить в дискретной форме. И механизм такого преобразования очевиден.

Можно ли по дискретному представлению восстановить непрерывную величину? И ответ будет таким: да, в какой-то степени можно, но сделать это не так просто, и восстанавливаемый образ может отличаться от подлинника.

Для иллюстрации сказанного рассмотрим пример преобразования изображения в дискретную форму. Оригинальное изображение передает информацию в непрерывной форме. Разобьем изображение на L равных прямоугольников, выровненных по вертикали и горизонтали. Каждому прямоугольнику поставим в соответствие значение цвета из заданной палитры M цветов. Здесь L и M - натуральные числа. Полученное таким образом изображение будет состоять из L прямоугольников, каждый из которых закрашен одним из M цветов, т.е. будет иметь дискретную форму. Чем больше значения L и M, тем ближе будет дискретное изображение к оригиналу, но при любых сколь угодно больших L и M полученное изображение и оригинал будут различаться.

Количество информации

Информация уменьшает степень неопределенности наших знаний. Одни сведения могут содержать в себе мало информации, а другие - много. Разработаны различные способы оценки количества информации. В технике чаще всего используется способ оценки, предложенный в 1948 году основоположником теории информации Клодом Шенноном.

Как было отмечено, информация уничтожает неопределенность. Степень неопределенности принято характеризовать с помощью понятия "вероятность".

Вероятность - величина, которая может принимать значения в диапазоне от 0 до 1. Она может рассматриваться как мера возможности наступления какого-либо события, которое может иметь место в одних случаях и не иметь места в других.

Если событие никогда не может произойти, его вероятность считается равной 0. Так, вероятность события "Завтра будет 5 августа 1832 года" равна нулю в любой день, кроме 4 августа 1832 года. Если событие происходит всегда, его вероятность равна 1.

Количество информации I, характеризующей состояние, в котором пребывает объект, можно определить, используя формулу Шеннона:

I = - ( p1*log2p1 + p2*log2p2 + ... + pn*log2pn )

где n - число возможных состояний; p1, ..., pn - вероятности отдельных состояний. При фиксированном количестве состояний количество информации достигает максимума, когда все состояния равновероятны, т.е. p1=p2=...=pn=1/n.

В этом случае, для оценки количества информации используют формулу Хартли:

I = log2(n), которая является частным случаем формулы Шеннона.

Единица информации называется битом. Термин "бит" предложен как аббревиатура от английского словосочетания "Binary digiT", которое переводится как "двоичная цифра".

Для измерения количества информации часто применяется более крупная, чем бит, единица - байт, равная восьми битам. Широко используются также еще более крупные производные единицы информации:

1 Килобайт (Кбайт) 1024 байт 210 байт
1 Мегабайт (Мбайт) 1024 Кбайт 220 байт
1 Гигабайт (Гбайт) 1024 Мбайт 230 байт
1 Терабайт (Тбайт) 1024 Гбайт 240 байт
1 Петабайт (Пбайт) 1024 Тбайт 250 байт

Подробнее об информации, ее представлении, способах измерения можно узнать из статьи Информация и информационные процесы.