Что такое данные сигналы

Что такое информация, сообщение, сигнал в системах связи: определения

Понятия информации, сообщения, сигнала

В теории и технике электрической связи существует ряд основополагающих, фундаментальных понятий, к числу которых, в первую очередь, относятся понятия информации, сообщения и сигнала.

Рассмотрим эти понятия, использовав рекомендации сборника научно-технической терминологии в области теории передачи информации, разработанного Академией наук СССР.

Что такое информация?

Под «информацией» (от лат. informatio — изложение, разъяснение) принято понимать сведения о событиях, явлениях, предметах, являющихся объектом ряда операций: передачи, распределения, преобразования, хранения или непосредственного использования.

Во всем многообразии окружающего нас мира мы постоянно сталкиваемся с информацией и процессами ее передачи и хранения. Так, органы чувств человека занимаются сбором информации об окружающем внешнем мире, а его нервная система передает эту информацию в головной мозг, который ее перерабатывает, а затем рассылает (распределяет) в виде «приказов», также являющихся информацией, по нервным волокнам (линиям связи) в мышцы.

Аналогично информация передается в любой организации, где совместно трудится множество людей, в виде приказов, распоряжений и других указаний, т. е. без чего невозможна деятельность большого коллектива. Перечень подобных примеров можно продолжать и дальше. Однако и так ясно, что задачи сбора, передачи, преобразования информации очень важны в различных областях человеческой деятельности, в том числе в системах электросвязи (телекоммуникаций).

В ряде случаев понятие информации отождествляется с понятием «данные», что находит широкое применение в системах цифровой связи.

В целом информацию можно трактовать как совокупность знаний человека об окружающем его мире.

Системы электросвязи предназначены для передачи информации от источника сообщений, находящегося в некоторой точке пространства, потребителю (получателю) сообщения, который находится в другой точке. Использованное в этом определении понятие сообщения наряду с понятием информации широко применяется в теории электрической связи.

Что такое сообщение?

Обычно под «сообщением» (message) понимают форму представления информации в целях ее хранения, обработки, преобразования или непосредственного применения. При этом используются различные знаки и символы, например, определенные слова и фразы в человеческой речи, рисунки, математические знаки, виды колебаний и т.п.

Сообщения могут быть функциями времени, как, например, речь в телефонной связи, программа новостей, передаваемая по телевидению и др. Однако в ряде случаев сообщения не являются функциями времени, например, текст телеграммы или неподвижное изображение для передачи средствами факсимильной связи. Различают также дискретные и непрерывные сообщения. К дискретным сообщениям относятся текст, цифровые данные, а к непрерывным — речь, телевизионное изображение, температура или давление при передаче телеметрических данных и т. д.

Фактически человек всегда имел дело не с абстрактной информацией, а с конкретными сообщениями, которые вырабатываются источниками в целях последующей передачи в системе электросвязи. Под «источником сообщений» (message source) принято понимать устройство, которое в каждый момент времени выбирает некоторое сообщение из множества (ансамбля) сообщений. Если имеется вероятностная модель, с помощью которой можно дать полное описание процесса появления сообщений на выходе источника, считают, что источник сообщений задан. Например, в качестве источника сообщений можно рассматривать оператора, работающего на телеграфном аппарате. При этом должны быть известны вероятности появления отдельных сообщений, буквенных сочетаний, слов, предложений. Иначе говоря, для любых n = 1, 2, … и i = 0, ±1, ±2, … и любой последовательности сообщений (Формула), выбираемых из множества сообщений X, определена вероятность (Формула) появления этой последовательности.

Устройство, для которого предназначено сообщение, вырабатываемое источником, называется «получателем сообщений». Получателем может быть человек-оператор или различные регистрирующие устройства, в том числе электронно-вычислительные машины (ЭВМ).

По виду источника и получателя сообщений принято различать системы электросвязи, осуществляющие передачу:

Для передачи сообщений на определенное расстояние используются различные материальные носители (бумага, магнитный диск и др.) или некоторый физический процесс (звуковые волны, электромагнитные волны и т.д.). В системах электросвязи для передачи сообщений применяются различные сигналы.

Что такое сигнал?

«Сигналом» (от лат. signum — знак) принято называть физический процесс, например в виде тока или напряжения, отображающий передаваемое сообщение. Сигнал всегда является функцией времени, если даже сообщение, которое он переносит, не описывается временной функцией. Сигнал в системах электрической связи в простейшем случае обозначается

Что такое данные сигналы. Смотреть фото Что такое данные сигналы. Смотреть картинку Что такое данные сигналы. Картинка про Что такое данные сигналы. Фото Что такое данные сигналы

ui (t, A, ω, φ), t1 ≤ t ≤ t2,

где i — номер сигнала; t2 — t1= T — интервал определения сигнала во времени; Α, ω, φ — параметры, т.е. соответственно амплитуда, частота и фаза сигнала.

В зависимости от множества возможных значений параметров и области определения во времени различают следующие виды сигналов:

Примеры различных видов сигналов представлены на рис. 1.1.

Так, речевой сигнал является непрерывным и во времени, и по уровню, а датчик, определяющий значение температуры через каждые 5 мин, выдает сигналы непрерывные по значению (амплитуде), но дискретные во времени.

Передаваемое сообщение и соответствующий ему сигнал не должны быть детерминированными, т.е. заранее полностью известными и предсказуемыми. В этом случае передача сообщений не имеет никакого смысла, так как при отсутствии неопределенности значений сигналов получателю не будет доставляться новая информация. Только случайная величина или случайная функция может быть носителем информации. Обычно это реализуется посредством избрания из некоторого множества вариантов (реализаций) какого-то одного. При этом выбор осуществляется с некоторой вероятностью. Например, из множества значений температуры, выдаваемых датчиком, в текущий момент времени предпочтение отдается только одному из них.

Что такое данные сигналы. Смотреть фото Что такое данные сигналы. Смотреть картинку Что такое данные сигналы. Картинка про Что такое данные сигналы. Фото Что такое данные сигналы

Рис. 1.1. Примеры основных видов сигналов:
а — непрерывный и по уровню, и во времени; б — непрерывный по уровню, но дискретный во времени; в — дискретный по уровню, но непрерывный во времени; г — дискретный и по уровню, и во времени

Сообщения, сигналы их отображающие, а также помехи, искажающие сигнал, имеют случайный характер. Поэтому в теории электрической связи для объяснения ряда понятий широко используются теория вероятностей, а также теория случайных процессов и математической статистики. На их основе рассматриваются свойства сигналов, свойства среды их распространения, методы обработки сигналов и количество информации, передаваемой от источника сообщений к получателю.

В теории электрической связи сигнал принято отождествлять с объектом транспортирования. Следовательно, аппаратура связи по существу является техникой транспортирования или передачи сигналов по каналам телекоммуникаций.

Определим параметры сигнала, которые являются основными при его передаче. К числу таких параметров обычно относятся: длительность, динамический диапазон, ширина спектра.

Любой сигнал, являющийся функцией времени, имеет начало и конец. Следовательно, «длительность» (Т) определяет интервал времени, в пределах которого сигнал существует.

«Динамическим диапазоном» (D) называется отношение наибольшего значения мгновенной мощности к ее наименьшему значению, при котором обеспечивается заданное качество передачи информации. Иногда под динамическим диапазоном понимается отношение мощностей сигнала и помехи. Динамический диапазон определяется в децибелах. В системах радиовещания отношение сигнал/шум составляет порядка 50… 60 дБ при передаче музыкальных программ и 30 дБ — при передаче речевых сигналов, а в системах телевидения это отношение равно 60 дБ.

Под «шириной спектра» (F) сигнала принято понимать диапазон (полосу) частот, в пределах которого сосредоточена его основная мощность. Спектр сигнала в принципе может быть неограниченным, однако его сознательно сокращают с учетом ограниченных возможностей техники связи.

Так, при телефонной связи речевой сигнал передают в полосе частот от 300 до 3 400 Гц, т. е. ширина спектра сигнала в этом случае F = 3,1 кГц. Этого диапазона частот оказывается вполне достаточно для обеспечения разборчивости речи и узнаваемости абонентов по голосу.

При передаче телевизионного сигнала важнейшим требованием является четкость принимаемого изображения. При стандарте в 625 строк верхняя частота сигнала составляет примерно 6 МГц, т. е. спектр сигнала видеоизображения занимает значительно более широкую полосу частот, чем спектр сигнала звукового сопровождения.

При телеграфной связи ширина спектра сигнала, определяемая скоростью его передачи (телеграфирования), составляет (1,5… 3,0) v, где v — скорость передачи, измеряемая в бодах и равная числу электрических посылок, передаваемых в 1 с. Обычно v = 50 Бод, тогда F ≈ 75 Гц.

В заключение можно ввести общую характеристику: «объем сигнала» Vc = FcTcDc, которая дает наиболее полное представление о возможностях сигнала как переносчика информации. Чем больше объем, тем большее количество информации может перенести сигнал, но с другой стороны тем труднее такой сигнал передавать по каналу с необходимым качеством.

Источник

Сообщения, данные, сигналы

ОГЛАВЛЕНИЕ

ЛЕКЦИЯ 1. ИНФОРМАЦИЯ И ФОРМЫ ЕЕ ПРЕДСТАВЛЕНИЯ.. 5

1.1. Сообщения, данные, сигналы. 5

1.2. Меры и единицы представления, измерения и хранения информации.. 7

1.3. Виды и свойства информации.. 8

ЛЕКЦИЯ 2. ОБЩАЯ ХАРАКТЕРИСТИКА ПРОЦЕССОВ СБОРА, ОБРАБОТКИ, ПЕРЕДАЧИ И НАКОПЛЕНИЯ ИНФОРМАЦИИ.. 11

2.1. Измерение информации.. 11

2.2. Восприятие информации.. 11

2.3. Сбор информации.. 12

2.4. Передача информации.. 13

2.5. Обработка информации.. 14

ИНФОРМАЦИОННО-ЛОГИЧЕСКИЕ ОСНОВЫ ЭВМ. 15

2.6. Системы счисления. 15

2.7. Позиционные системы счисления. 15

ЛЕКЦИЯ 3. ИНФОРМАЦИОННО-ЛОГИЧЕСКИЕ ОСНОВЫ ЭВМ (ОКОНЧАНИЕ) 18

3.1. Системы счисления (окончание) 18

3.1.1. Двоичная система счисления. 18

3.1.2. Другие позиционные системы счисления. 18

3.1.3. Смешанные системы счисления. 19

ИНФОРМАТИКА КАК НАУКА.. 20

3.2. Предметная область информатики как науки.. 20

3.3. Краткая история развития информатики.. 21

3.4. Понятие об информационном обществе. 23

3.5. Цель и задачи курса «информатика».. 24

ЛЕКЦИЯ 4. ЭВМ КАК СРЕДСТВО ОБРАБОТКИ ИНФОРМАЦИИ.. 25

4.1. История развития ЭВМ. 25

4.2. Основные характеристики ЭВМ. 28

4.3. Классификация ЭВМ. 31

ЛЕКЦИЯ 5. ЭВМ КАК СРЕДСТВО ОБРАБОТКИ ИНФОРМАЦИИ (ОКОНЧАНИЕ) 33

5.1. Общие принципы построения современных ЭВМ. 33

5.2. Программное обеспечение ЭВМ и его функции.. 36

5.3. Состав и назначение основных элементов ПК, их характеристики.. 38

5.3.1. Общие сведения о ПЭВМ и их классификация. 38

5.3.2. Структурная схема ПЭВМ. 39

5.3.3. Внешние устройства ПЭВМ. 40

5.3.4. Запоминающие устройства ПЭВМ. 42

ЛЕКЦИЯ 6. ОПЕРАЦИОННЫЕ СИСТЕМЫ. ГРАФИЧЕСКАЯ ОПЕРАЦИОННАЯ СРЕДА WINDOWS.. 43

6.1. Операционная система MS DOS.. 43

6.2. Оболочка Norton Commander. 44

6.3. Основные технологические механизмы Windows. 45

6.4. Создание объектов, управление объектами, свойства объектов. 46

6.5. Навигация по файловой системе. Операции с файлами. Поиск файлов. Настройка параметров работы операционной системы. 47

6.6. Обзор приложений Windows. Совместная работа приложений.. 49

6.7. Программы обслуживания дисков. Архивация данных. Программы-архиваторы 50

6.8. Оболочка Far Manager. 52

ЛЕКЦИЯ 7. ПРОГРАММНЫЕ СРЕДСТВА ОБРАБОТКИ ИНФОРМАЦИИ.. 56

7.1. Понятие системного и служебного (сервисного) программного обеспечения. 56

7.2. Операционные системы. Файловая организация данных. Каталоги.. 58

ЛЕКЦИЯ 8. ПРОГРАММНЫЕ СРЕДСТВА ОБРАБОТКИ ИНФОРМАЦИИ (ОКОНЧАНИЕ) 64

8.1. Прикладные программы. 64

8.2. Системы программирования. 64

8.3. Классификация программного обеспечения. 65

8.4. Проблемно-ориентированные ППП. 67

8.5. Интегрированные ППП. 69

ЛЕКЦИЯ 9. ОСНОВЫ ТЕКСТОВОЙ И ТАБЛИЧНОЙ ОБРАБОТКИ ИНФОРМАЦИИ 71

9.1. Текстовый процессор Microsoft Word.. 71

9.1.1. Запуск и завершение работы с Word.. 71

9.1.2. Главное меню и панели инструментов. 72

9.1.3. Открытие и сохранение документов. 74

9.1.4. Форматирование документов. 74

9.1.5. Печать документа. 75

9.2. Табличный процессор Microsoft Excel 75

9.2.1. Основные понятия электронных таблиц.. 75

9.2.2. Интерфейс табличного процессора MS Excel. Основные различия между Word и Excel 77


ЛЕКЦИЯ 1. ИНФОРМАЦИЯ И ФОРМЫ ЕЕ ПРЕДСТАВЛЕНИЯ

Понятие информация является основополагающим понятием информатики. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса.

В рамках науки информация является первичным и неопределяемым понятием. Оно предполагает наличие материального носителя информации, источника информации, передатчика информации, приемника и канала связи между источником и приемником. Понятие информации используется во всех сферах: науке, технике, культуре, социологии и повседневной жизни. Конкретное толкование элементов, связанных с понятием информации, зависит от метода конкретной науки, цели исследования или просто от наших представлений.

Более узкое определение дается в технике, где это понятие включает в себя все сведения, являющиеся объектом хранения, передачи и преобразования информации.

Наиболее общее определение имеет место в философии, где под информацией понимается отражение реального мира. Информацию как философскую категорию рассматривают как один из атрибутов материи, отражающий ее структуру.

В эволюционном ряду веществоэнергияинформация каждое последующее проявление материи отличается от предыдущего тем, что людям было труднее его распознать, выделить и использовать в чистом виде. Именно сложность выделения различных проявлений материи обусловила, наверное, указанную последовательность познания природы человечеством.

Сообщения, данные, сигналы

С понятием информации связаны такие понятия, как сигнал, сообщение и данные.

Сигнал (от латинского signum – знак) представляет собой любой процесс, несущий информацию.

Различают две формы представления информации – непрерывную и дискретную. Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические процессы различной природы. Информация представляется (отражается) значением одного или нескольких параметров физического процесса, либо комбинацией нескольких параметров.

Сигнал называется непрерывным, если его параметр в заданных пределах может принимать любые промежуточные значения. Сигнал называется дискретным, если его параметр в заданных пределах может принимать определенные фиксированные значения.

Сообщение – это информация, представленная в определенной форме и предназначенная для передачи.

С практической точки зрения информация всегда представляется в виде сообщения. Информационное сообщение связано с источником сообщения, получателем сообщений и каналом связи.

Сообщение от источника к приемнику передается в материально-энергетической форме (электрический, световой, звуковой сигналы т.д.). Человек воспринимает сообщения посредством органов чувств. Приемники информации в технике воспринимают сообщения с помощью различной измерительной и регистрирующей аппаратуры. В обоих случаях с приемом информации связано изменение во времени какой-либо величины, характеризующей состояние приемника. В этом смысле информационное сообщение можно представить функцией x(t), характеризующей изменение во времени материально-энергетических параметров физической среды, в которой осуществляются информационные процессы.

Функция x(t) принимает любые вещественные значения в диапазоне изменения времени t. Если функция x(t) непрерывна, то имеет место непрерывная или аналоговая информация, источником которой обычно являются различные природные объекты (например, температура, давление, влажность воздуха), объекты технологических производственных процессов (например, нейтронный поток в активной зоне, давление и температура теплоносителя в контурах ядерного реактора) и др. Если функция x(t) дискретна, то информационные сообщения, используемые человеком, имеют характер дискретных сообщений (например, сигналы тревоги, передаваемые посредством световых и звуковых сообщений, языковые сообщения, передаваемые в письменном виде или с помощью звуковых сигналов; сообщения, передаваемые с помощью жестов, и др.).

В современном мире информация, как правило, обрабатывается на вычислительных машинах. Поэтому информатика тесно связана с инструментарием – вычислительной машиной.

Компьютер – устройство преобразования информации посредством выполнения управляемой программой последовательности операций. Синоним компьютера – вычислительная машина, чаще электронная вычислительная машина (ЭВМ).

Данные – это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например, ЭВМ. Поэтому наряду с терминами ввод информации, обработка информации, хранение информации, поиск информации используются термины ввод данных, обработка данных, хранение данных и т. п.

Источник

Сигналы и данные

Теперь перейдем к рассмотрению наших вопросов.

Термин «информатика» происходит от французского слова Informatique и образован из двух слов: информация и автоматика. Термин информация произошел от латинского слова informatio — разъяснение, осведомление. Этот термин введен во Франции в середине 60—х лет XX ст., когда началось широкое использование вычислительной техники. Тогда в англоязычных странах вошел в употребление термин «Computer Science» для обозначения науки о преобразовании информации, которая базируется на использовании вычислительной техники.

Предмет информатики как науки составляют:

· аппаратное обеспечение средств вычислительной техники; (периферийные устройства: устройства ввода и вывода)

· программное обеспечение средств вычислительной техники;

· средства взаимодействия аппаратного и программного обеспечения; ; (Как взаимодействует железо и программа? – посредством драйвера)

· средства взаимодействия человека с аппаратными и программными средствами. (т.е., чтобы ПК понимал человека? – существуют операционные системы, например, Windows)

Задачи информатики как науки составляют:

· изучить структуру, общие свойства информации, исследовать законы и методы создания, преобразования, накопления, передачи и использования информации.

· систематизировать приемы и методы работы с аппаратными и программными средствами вычислительной техники. Цель систематизации состоит в том, чтобы выделять, внедрять и развивать передовые, более эффективные технологии автоматизации этапов работы с данными, а также методически обеспечивать новые технологические исследования.

Мы живем в материальном мире. Все, что нас окружает и с чем мы сталкиваемся ежедневно, относится либо к физическим телам, либо к физическим полям. Из курса физики мы знаем, что состояния абсолютного покоя не существует и физические объекты находятся в состоянии непрерывного движения и изменения, которое сопровождается обменом энергии и ее переходом из одной формы в другую.
Все виды энергообмена сопровождаются появлением сигналов, то есть все сигналы имеют в своей основе материальную энергетическую природу.

Сигнал – это изменяющийся во времени физический процесс.
Такой процесс может содержать различные характеристики.

Характеристика, которая используется для представления данных, называется параметром сигнала.

Если параметр сигнала – принимает ряд последовательных значений и их конечное число, то сигнал называется дискретным.

Если параметр сигнала – непрерывная во времени функция, то сигнал называется непрерывным.

При взаимодействии сигналов с физическими телами в последних возникают определенные изменения свойств — это явление называется регистрацией сигналов. Такие изменения можно наблюдать, измерять или каким-либо образом фиксировать — при этом возникают и регистрируются новые сигналы, то есть образуются данные.

Данные — это зарегистрированные сигналы.

Обратим внимание на то, что данные несут в себе информацию о событиях, произошедших в материальном мире, поскольку они являются регистрацией сигналов, возникших в результате этих событий. Однако данные не тождественны информации. Наблюдая излучения далеких звезд, человек получает определенный поток данных, но станут ли эти данные информацией, зависит еще от очень многих обстоятельств. Рассмотрим на примере.

Прослушивая передачу радиостанции на незнакомом языке, мы получаем данные, но не получаем информацию в связи с тем, что не владеем методом преобразования данных в известные нам понятия. Если эти данные записать на лист бумаги или на магнитную ленту, изменится форма их представления, произойдет новая регистрация и, соответственно, образуются новые данные. Такое преобразование можно использовать, чтобы все-таки извлечь информацию из данных путем подбора метода, адекватного их новой форме. Для обработки данных, записанных на листе бумаги, адекватным может быть метод перевода со словарем, а для обработки данных, записанных на магнитной ленте, можно пригласить переводчика, обладающего своими методами перевода, основанными на знаниях, полученных в результате обучения или предшествующего опыта.

Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет

Источник

Философия информации, глава 2. Существование информации

Что такое данные сигналы. Смотреть фото Что такое данные сигналы. Смотреть картинку Что такое данные сигналы. Картинка про Что такое данные сигналы. Фото Что такое данные сигналы

Глава 2. Существование информации

Сигналы и контексты

Нам нужно научиться избавляться от иллюзии того, что информация содержится в книгах, на жёстких дисках, в кабелях, радиоволнах и прочих объектах, из которых мы привыкли её «извлекать». Если мы окончательно приняли, что реификация понятия «информация» недопустима, то мы просто вынуждены признать, что, например, читая книгу, мы обретаем информацию, но в том предмете, который мы для этого обязаны использовать, её нет. Предмет обязательно должен присутствовать (читать книгу, не имея её, невозможно), но содержать в себе информацию физический объект не может.

Давайте внимательно проанализируем, что происходит, когда мы читаем книгу. Безусловно имеет место некоторый физический процесс, и некоторые этапы чтения книги удобнее всего описывать именно в физических терминах. В частности, если читаем глазами бумажную книгу, то она должна существовать как материальный предмет, и должен быть обеспечен некоторый приемлемый уровень освещённости. Оптическая система «глаза» тоже должна быть, и она должна быть исправна. Использование других способов чтения (Брайль, озвучивающие программы) ситуацию меняют не особо, и в этих случаях тоже имеет смысл говорить о некоторой материальной составляющей, которая также обязана быть.

О том, что у нас, читателей, происходит в мозгу после того, как контент каким-то способом доставлен, тоже можно пытаться говорить в физических терминах, но это малоперспективно. Что-то, конечно, происходит. Материальная составляющая, вне всякого сомнения, имеет место, но способов перевести в материальные термины такую, например, простую и очевидную ситуацию, как «удивился неожиданному повороту сюжета», мы сейчас не имеем. Нельзя исключить того, что такого способа мы не будем иметь никогда. Хотя бы потому, что в разных головах механизм удивления неожиданному повороту сюжета может быть реализован по-разному.

Специфика информационных процессов, в отличие от материальных, заключается в том, что один и тот же информационный процесс может быть реализован «в материи» принципиально разными способами, но при этом оставаться самим собой. Например, сумму двух чисел можно найти при помощи электронного калькулятора, деревянный счёт, счётных палочек, листочка бумаги и ручки, или вообще в уме. Смысл и результат действия останутся одними и теми же. Книгу можно получить в бумажном виде по почте или в электронном виде по электронной почте. Способ реализации, конечно, влияет на многие нюансы, но суть и смысл происходящего остаются без изменений. Любая попытка «заземлить» информационный процесс в материальную составляющую («удивление – это не что иное, как внутренняя секреция дофамина», «восторг – не что иное, как внутренняя секреция эндорфинов») сродни тому, как если бы мы сказали, что сложение двух чисел – это не что иное, как перемещение деревянных костяшек по железным направляющим. Материальная реальность тотальна, поэтому любой информационный процесс обязан иметь материальный аспект, но к нему одному происходящее не может и не должно сводиться, иначе сложение чисел обязано будет стать монопольной прерогативой деревянных счёт. Переходя к рассмотрению информационного аспекта происходящего нужно уметь абстрагироваться от материального аспекта, при этом, естественно, понимая, что он безусловно есть, но каков он конкретно, нам не очень существенно.

Продолжим рассмотрение процесса чтения книги, абстрагировавшись от деталей материальной реализации происходящего. Для того чтобы читатель успешно прочитал текст, доставленный на его рецепторы, должен выполниться ряд условий. Во-первых, он должен знать язык, на котором она написана. Во-вторых, он должен уметь читать. В-третьих, он должен понимать, почему именно это занятие для него сейчас предпочтительнее всех остальных. Нетрудно заметить, что во всех перечисленных условиях речь идёт о наличии у читателя информации, ведь и «знание», и «умение», и «понимание» – это всё синонимы понятия «информация». Таким образом, для чтения книги мы имеем два комплекса условий успешного протекания процесса: наличие каким-либо способом доставляемого текста и предварительная подготовленность читателя. Условие доставки текста обозначим как требование наличия сигнала. Условие подготовленности читателя обозначим как требование наличия контекста.

Что важно, эти же два комплекса условий наблюдаются в любом процессе, который мы можем идентифицировать как обретение информации. Даже если рассмотреть такую простую штуку, как радиоуправляемый автомобильчик, получение им команд возможно только тогда, когда, во-первых, всё в порядке с доставкой радиосигнала (антенна не сломана и автомобильчик не укатился слишком далеко от пульта) и, во-вторых, блок управления автомобильчика «понимает» команды, посылаемые пультом. Получается, что даже несмотря на то, что всё, казалось бы, происходит в надёжно детерминированной «железке», всё равно важнейшим компонентом, обеспечившим успешное получение приёмником данных от передатчика, оказались знания, которые проектировщик приёмника получил от проектировщика передатчика. Именно эти знания обеспечили то, что приёмник стал материальным объектом, в котором атомы расположились не как попало, а вполне конкретным особым образом. Пришедшая на антенну радиоволна – отнюдь не вся информация, зашедшая в приёмник. Был ещё, возможно, электронное письмо, полученное разработчиком блока управления автомобильчика от коллеги, разрабатывавшего пульт.

Обе составляющие – и сигнал, и контекст – мы можем рассматривать и в материальном аспекте, и в информационном. Но если от информационного аспекта сигнала иногда можно абстрагироваться (особенно, когда ширина канала заведомо избыточна), то от информационного аспекта контекста, по своей сути являющего способностью интерпретировать сигнал, абстрагироваться невозможно. Контекст – это информация о том, как можно интерпретировать сигнал, и поэтому мы обязаны рассматривать как нематериальную сущность.

Может показаться, что в переносе загадочной нематериальности в этот какой-то загадочный «контекст» есть некоторый элемент жульничества. Но нетрудно заметить, что воспринимаемая информация и информация, составляющая контекст – это разные информации. Сюжет книги и знание языка, на котором она написана – это разные знания. Если получившаяся рекурсивность конструкции (для существования контекста второго порядка нужен контекст третьего порядка, и так далее вглубь, в бесконечность) вызывает некоторое беспокойство, то сразу, забегая немножко вперёд, замечу, что это не есть дефект сигнал-контекстной конструкции, а, наверно, самое ценное её свойство. Мы к этой теме вернёмся в пятой главе чтобы через рекурсивность сигнал-контекстной конструкции доказать чрезвычайно полезную теорему.

Для решения наших метафизических задач существенная выгода рассмотрения информации как того, что случается на сочетании сигнала с контекстом, заключается в том, что такая конструкция как раз получается тем самым мостиком между мирами, которого нам так не хватало. Если в какой-то конкретной ситуации нам удалось абстрагироваться от информационных аспектов сигнала (что чаще всего не составляет особого труда), мы получаем возможность рассуждать об участии материальных объектов в информационном процессе. Если при этом нам удалось ещё и контекст рассмотреть во всей полноте его двойственной природы (в наш век информационных технологий это обычное дело), то в результате мы имеем для конкретной ситуации полноценный мостик между материальным и информационным мирами. Надо сразу отметить, что наличие мостика по-прежнему не даёт нам права реифицировать информацию. Сигнал, если он рассматривается как материальный объект, может быть реифицирован (файл записан на флешке, флешка в кармане), но контекст, то есть способность интерпретации сигнала, реифицирован быть не может.

Когда рассматривается классическая с точки зрения теории информации ситуация передачи данных, мы имеем в наличии передатчик, «помещающий» информацию в сигнал и приёмник, «извлекающий» из него информацию. Возникает стойкая иллюзия того, что информация – это нечто, существующее внутри сигнала. Но нужно понимать, что интерпретация специально подготовленного сигнала – далеко не единственный сценарий обретения информации. Обращая внимание на происходящее вокруг, мы получаем очень много той информации, которую нам никто не посылал. Кресло не посылает нам информацию о том, что оно мягкое, стол не посылает информацию о том, что он твёрдый, чёрная краска на странице книги не посылает нам информацию об отсутствии фотонов, выключенное радио не посылает информацию о том, что оно молчит. Мы умеем разбираться в окружающих нас материальных явлениях, и информацией они для нас становятся потому, что у нас заранее есть контекст, позволяющий интерпретировать происходящее. Проснувшись ночью, открыв глаза и ничего не увидев, мы информацию о том, что ещё не рассвело, извлекаем не из присутствующего физического явления, а из его отсутствия. Отсутствие ожидаемого сигнала – тоже сигнал, и его тоже можно интерпретировать. А вот отсутствие контекста не может быть каким-то таким особым «нулевым» контекстом. Если нет контекста, то информации негде возникнуть, сколько бы ни пришло сигнала.

Мы все прекрасно знаем, что такое информация (у существ, обитающих в информационном скафандре, по-другому быть не может), но привыкли считать информацией только ту её часть, которая здесь обозначена как «сигнал». Контекст – штука для нас как-бы сама собой разумеющаяся, и поэтому мы её привычно выносим за скобки. А вынеся за скобки контекст, мы вынуждены всю «информацию» поместить исключительно в сигнал и, таким образом, её немилосердно реифицировать.

Нет ничего сложного в том, чтобы избавиться от реификации «информации». Нужно просто научиться вовремя вспоминать о том, что кроме сигнала всегда есть ещё и контекст. Сигнал – всего лишь сырьё, обретающее смысл (ценность, полезность, значимость и, да, информативность) только при попадании в подходящий контекст. А контекст – это штука, о которой в обязательном порядке следует говорить в нематериальных терминах (иначе это говорение точно не будет иметь смысла).

Давайте вкратце вспомним тему «свойства информации» и оценим, как эти свойства укладываются в двухкомпонентную конструкцию «сигнал-контекст».

Сигнал-контекстная конструкция – не совсем новость для мировой философии. Ещё 250 лет тому назад Иммануил Кант писал о том, что «наше знание (информация?) хоть и проистекает из опыта (сигнал?), но совершенно невозможно без наличия у познающего субъекта априорного знания (контекст?)».

Измерение информации

Измерение информации в битах – любимое дело. Невозможно отказать себе в удовольствии порассуждать об этом, попутно примерив методику подсчёта к ставшей нам известной и, надеюсь, понятной сигнал-контекстной конструкции.

Если вспомнить классическую теорию информации, то обобщённая формула, по которой вычисляется количество информации (в битах), выглядит следующим образом:

Что такое данные сигналы. Смотреть фото Что такое данные сигналы. Смотреть картинку Что такое данные сигналы. Картинка про Что такое данные сигналы. Фото Что такое данные сигналы

где n – количество возможных событий, а pn – вероятность n-го события. Давайте подумаем, что в этой формуле к чему с точек зрения приёмника и передатчика. Передатчик может рапортовать, например, о ста событиях, из которых первое, второе и третье имеют вероятность по 20%, а оставшиеся 40% равномерно размазаны по остальным девяноста семи событиям. Нетрудно посчитать, что количество информации в рапорте об одном событии с точки зрения передатчика равно примерно 4.56 бит:
I = — (3 × 0.2×log2(0.2) + 97 × (0.4/97)×log2(0.4/97)) ≈ — (-1,393156857 — 3,168736375) ≈ 4.56

Не удивляйтесь, пожалуйста, дробному результату. В технике, конечно, в таких случаях приходится округлять в большую сторону, но точная величина тоже часто бывает интересна.

Если приёмник ничего не знает о распределении вероятностей (а откуда ему знать?), то с его точки зрения количество получаемой информации равно 6.64 бит (это тоже можно легко посчитать по формуле). Теперь представим себе ситуацию, что для нужд приёмника интересны только события номер 1 («казнить»), 2 («помиловать») и 100 («наградить орденом»), а всё остальное – это не интересное «прочее». Допустим, у приёмника уже есть статистика по предыдущим эпизодам, и он раскладки вероятностей знает: казнить – 20%, помиловать – 20%, наградить орденом – 0.4%, прочее – 59.6%. Считаем, получаем 1.41 бит.

Разброс получился существенный. Давайте поищем объяснение этому феномену. Если вспомнить, что информация – это не есть только лишь один объективно существующий сигнал, а сочетание «сигнал + контекст», то становится совсем не удивительно, что количество информации, возникающей при получении сигнала, также должно получаться контекстно-зависимым. Таким образом, имеем неплохое согласование сигнал-контекстной концепции с математической теорией информации.

Величина «I», вычисляемая через рассмотренную формулу, обычно используется для решения следующих задач:

Энтропийная трактовка природы информации вызывает больше вопросов, чем даёт ответов. Даже с чисто житейской точки зрения мы видим, что минимальная неопределённость наблюдается у тех сограждан, которые не прочитали ни одной книжки, и все познавательные контакты которых с внешним миром ограничиваются просмотром телесериалов и спортивных передач. Эти уважаемые субъекты пребывают в полной счастливой определённости по всем мыслимым вопросам мироздания. Неопределённость появляется только с расширением кругозора и приобретением пагубной привычки задумываться. Ситуация, когда получение информации (чтение хороших умных книжек) увеличивает неопределённость, невозможна с точки зрения энтропийной теории информации, но с позиций сигнал-контекстной теории это вполне рядовое явление.
Действительно, если результатом принятия сигнала становится формирование нового контекста, то для его прокорма нам нужны всё новые и новые сигналы, которые удовлетворят этот контекст, но побочным действием могут сформировать новый первозданно голодный контекст. Или даже несколько.

Не меньше удивления вызывают рассуждения о том, что информация может быть как-то связана с упорядоченностью (если энтропия – это мера хаоса, то негэнтропия, то есть информация, должна быть мерой упорядоченности). Давайте рассмотрим следующие последовательности нулей и единиц:

Шестым пунктом, кстати, представлено слово «Order» (то есть «порядок») в восьмибитном ACSII-коде.

Получается, что информации нет ни в идеальном порядке, ни в идеальном беспорядке. Или всё-таки есть? Представьте себе, что идеально беспорядочная последовательность нулей и единиц (№4), получена путём бросания монетки не мной, а сотрудником шифровального центра вражеской армии, и сейчас используется как кусок секретного ключа, которым шифруются депеши. В этом случае эти нолики и единички сразу перестают быть бессмысленным цифровым хламом, и сразу становятся суперважной информацией, за которую дешифровальщики будут готовы продать душу. Ничего удивительного: сигнал обрёл контекст, и, таким образом, стал весьма информативным.

У меня нет ни малейшего желания утверждать, что энтропийная теория информации полностью не верна. Есть ряд узкоспециальных применений, в которых она даёт адекватный результат. Нужно просто чётко понимать границы её применимости. Можно предположить, что одним из ограничений должно стать требование, чтобы принимаемый сигнал не приводил к формированию контекста. В частности, этому критерию соответствует большинство средств связи. О выделении сигнала из шума действительно можно говорить как о борьбе с энтропией.

Измерение информации имеет ещё один аспект, о котором лучше не забывать. Результатом любого единичного измерения является число. В нашем случае это биты, байты, гигабайты. Получив число, мы обычно рассчитываем на то, что дальше сможем им привычным нам образом оперировать. Сравнивать на «больше/меньше», складывать, умножать. Рассмотрим два примера применения операции «сложение» к количествам информации:

Таким образом, с количеством информации получается очень странная ситуация. Можно сказать, что количество информации – условно-аддитивная величина. То есть в некоторых случаях мы имеем право складывать имеющиеся числа, а в некоторых – нет. Когда речь идёт о ёмкости канала передачи данных (в частности, флешка вполне может рассматриваться как канал передачи данных из прошлого в будущее), то сложение корректно, а при «взвешивании» конкретного сигнала мы получаем величину, возможность сложения которой с другими ей подобными величинами определяется внешними факторами, о существовании которых мы можем даже не знать. Например, об информационной ёмкости генома человека (ДНК можно рассматривать как среду передачи данных, и, насколько мне известно, есть группы исследователей, пытающиеся сконструировать накопители на основе ДНК) говорить можно, и она равна примерно 6.2 Гбит, но любой ответ на вопрос «сколько информации записано конкретно в моём геноме?» будет бессмысленным. Максимум, что можно утверждать – это то, что какая бы методика подсчёта ни была применена, результат не может превышать те самые 6.2 Гбит. Или, если реальность вдруг такова, что нужно учитывать не только последовательность нуклеотидных оснований, то может. Если же говорить об общем количестве информации, содержащейся в живой клетке, то, по-видимому, ответ на этот вопрос вообще не может быть получен в силу хотя бы того, что сама по себе клетка является живым существом, а не средой передачи данных.

В завершение темы «измерение информации» хотелось бы ввести понятие «класс информативности», позволяющий оценить объём информации если не количественно, то хотя бы качественно:

Несмотря на кажущуюся запредельность, нет никаких фундаментальных причин тому, чтобы с развитием технологий мы не обрели средства, позволяющие работать с бесконечными информативностями.

«Информация» в физике

Исторически связь темы «информация» с темой «энтропия» возникла из рассуждений о демоне Максвелла. Демон Максвелла – фантастическое существо, сидящее возле дверцы в стенке, разделяющей две части камеры с газом. Когда слева прилетает быстрая молекула, он дверцу открывает, а когда медленная – закрывает. А если справа прилетает быстрая, он дверцу закрывает, но если медленная – открывает. В результате слева скапливаются медленные молекулы, а справа – быстрые. Энтропия замкнутой системы растёт, и на генерируемой демоном разнице температур мы к своему удовольствию можем запустить вечный двигатель второго рода.

Вечный двигатель невозможен, и поэтому для того, чтобы привести ситуацию в соответствие с законом сохранения энергии, а заодно в соответствие с законом неубывания энтропии, пришлось рассуждать следующим образом:

Норберт Винер, рассматривая демона Максвелла («Кибернетика») пишет, что вечный двигатель собрать на этой штуке не получится, потому что рано или поздно возрастающая энтропия демона достигнет критического предела, и демон испортится. В принципе, это логично, но вряд ли порчу демона следует объяснять тем, что он раздаст свою изначальную мудрость молекулам, и сам станет глупым. С информационной точки зрения работа демона очень простая и нудная. Ни о какой «растрате душевных сил» говорить не приходится. Точно так же мы не говорим, что, например, каждый пропускаемый через программу архиватора файл увеличивает энтропию архиватора и тем самым постепенно снижает его способность сжимать данные. Скорее всего, невозможность вечного двигателя на демоне Максвелла должна объясняться не информационно-технологическими соображениями, а тем, что энергетический выигрыш от манипулирования молекулой не может превышать энергетические затраты на выяснение параметров подлетающей молекулы плюс затраты на манипулирование дверцей.

Формулы, по которым считаются термодинамическая и информационная энтропии в целом похожи. Термодинамическая энтропия (сравните с формулой (1) выше):

Что такое данные сигналы. Смотреть фото Что такое данные сигналы. Смотреть картинку Что такое данные сигналы. Картинка про Что такое данные сигналы. Фото Что такое данные сигналы

Что такое данные сигналы. Смотреть фото Что такое данные сигналы. Смотреть картинку Что такое данные сигналы. Картинка про Что такое данные сигналы. Фото Что такое данные сигналы

Что такое данные сигналы. Смотреть фото Что такое данные сигналы. Смотреть картинку Что такое данные сигналы. Картинка про Что такое данные сигналы. Фото Что такое данные сигналы

Что такое данные сигналы. Смотреть фото Что такое данные сигналы. Смотреть картинку Что такое данные сигналы. Картинка про Что такое данные сигналы. Фото Что такое данные сигналы

Таким образом, если верно предположение о том, что операция интегрирования здесь уместна (а для этого достаточно всего лишь того, чтобы хотя бы одна из физических величин обладала свойством непрерывности), то «информационная» ёмкость практически любой (т.е. кроме вырожденных случаев) материальной системы оказывается неограниченной. Это уничтожает любой смысл приравнивать информационную энтропию термодинамической. Похожесть формул можно списать на то, что в нашем мире есть много принципиально разных вещей, выражаемых похожими формулами. Есть и другие аргументы в пользу соответствия термодинамической и информационной энтропий, но, насколько мне известно, они либо никогда не подвергались экспериментальной проверке, либо (как, например, принцип Ландауэра) сами выведены из предположения о равенстве энтропий.

Говоря о связи темы «информация» с физикой, нельзя не упомянуть о понятии «квантовая информация». Законы квантовой механики таковы, что в некоторых случаях, описывая происходящее, действительно имеет смысл пользоваться информационными терминами. Например, согласно принципу неопределённости Гейзенберга, мы можем узнать точно либо импульс частицы, либо её положение. Из этого возникает иллюзия, что, проводя измерение, мы можем получить не больше некоего максимального объёма информации. Из этого как-бы автоматически следует вывод, что внутри частицы может существовать информация, притом её объём строго лимитирован. Ничего не могу сказать о продуктивности или контрпродуктивности такого использования информационных понятий, но есть сильное подозрение, что протянуть мостик между сугубо физическим понятием «квантовая информация» и той информацией, которой мы оперируем на макро-уровне (например, «Гамлетом»), не просто трудно, а вовсе невозможно.

Для передачи нашей макро-информации мы используем не только физические предметы и явления, но также и их отсутствие. Текст в книге кодируется не только веществом краски, но и неокрашенными промежутками (с равномерно окрашенного листа ничего прочитать невозможно). Можно также легко придумать массу ситуаций, когда очень важный сигнал передаётся не энергетическим воздействием, а его отсутствием. Я ещё готов представить себе, что внутри частицы содержится некая загадочная субстанция, которая и является информацией, но представить себе, что внутри отсутствия частицы тоже содержится информация – это что-то совсем противологичное.

На текущем уровне развития знаний о том, как устроен наш мир, мне кажется, что к понятию «квантовая информация» следует относиться примерно так же, как к понятию «цвет», используемому применительно к кваркам. То есть да, «квантовую информацию» вполне можно и нужно признать ценной концепцией, но при этом следует чётко понимать, что к той «информации», о которой мы говорим во всех остальных случаях, она может иметь только косвенное отношение. Возможно, конфликт можно разрешить тем соображением, что физика вполне может продуктивно изучать материальную основу передаваемого сигнала (в частности, давать ответ о максимально возможной ёмкости канала передачи данных), но наличие сигнала – хоть и необходимое, но не достаточное условие того, чтобы мы имели право говорить о том, что в рассматриваемом объекте присутствует информация.

Нужно чётко понимать, что физическую основу информации (некий аналог флогистонной теории, но только применимый не к теплоте, а к информации) мы не имеем не потому, что ещё не всё знаем, а потому, что её в принципе быть не может. Одним из самых существенных требований естественнонаучного метода, наиболее чётко и последовательно применяемого именно в физике, является изгнание из изучаемого явления наделённого свободой воли действующего субъекта. Субъект (так называемый «имплицитный наблюдатель»), конечно, должен быть рядом с рассматриваемым явлением, но он не в праве ни во что вмешиваться. Механистичность исследуемых явлений, то есть тотальное отсутствие целенаправленной деятельности – это то, что делает физику физикой. Но как только мы начинаем говорить об информации, мы никак не можем уйти от того, что получаемые субъектом сигналы являются сырьём для принятия решений. Имплицитному наблюдателю физических явлений должно быть всё равно, что наблюдать, а действующему субъекту, живущему одновременно и в материальном мире, и в информационной реальности, «всё равно» быть в принципе не может. Из этой диаметральной противоположности требований, предъявляемых к субъекту, помещаемому внутрь исследуемых явлений, следует, что явление «информация» не может быть сведено ни к каким физическим явлениям, включая даже те, которые ещё не открыты.

Что особенно удивительно, у материалистов с идеалистами достигнут прекрасный консенсус по вопросу о необходимости существования глубинной физической «информации». Материалистам это на руку тем, что физика таким образом достигает тотальности описания реальности (не остаётся ничего, что не является физической реальностью). А идеалисты празднуют победу потому, что таким образом их «дух» официально признаётся основой мироздания. Оба издавна враждующих лагеря празднуют победу, но скорее не друг над другом, а над здравым смыслом. И материалисты, и идеалисты весьма агрессивно реагируют на любую попытку связать материальный и идеальный миры любым альтернативным банальной реификации способом.

Данные

Как говорилось выше, сигнал можно рассматривать не только материальный объект, но и объект нематериальный. Согласно принципу тотальности физической реальности, сигнал, конечно, обязан иметь физическое воплощение, но сплошь и рядом случаются ситуации, когда физическая сторона сигнала нас вообще не интересует, а интересует лишь нематериальная составляющая. В таких случаях мы полностью абстрагируемся от физики сигнала, и в результате для дальнейших рассуждений у нас остаётся весьма странный предмет. Физику мы отбросили, а о наличии внутри этого предмета информации по-прежнему говорить нельзя, поскольку это всего лишь сигнал, и для того, чтобы возникла информация, для него нужен контекст. Такие объекты будем называть данными. Данные – это нематериальный сигнал. Нематериальный он не потому, что имеет какую-то потустороннюю природу и путешествует через тонкие астральные сущности, а потому, что в данном конкретном случае нам оказалось не важно, как именно он путешествует. Например, томик «Гамлета» в красивом переплёте, да её и какого-нибудь раритетного издания – это сигнал, в котором нам интересна и материальная, и нематериальная составляющие. Но если нужно просто освежить в памяти монолог «быть или не быть», то мы ищем текст, и нам не важно, где его найдём. Годится и бумажная книжка, и файл на флешке, и сервис сетевой библиотеки. Текст «Гамлета» – это данные, а томик подарочного издания «Гамлета» – уже не только они.

Особый интерес представляет случай объекта, для которого не только физика не существенна, но ещё и подходящий контекст отсутствует. Представьте себе надпись на незнакомом языке (я китайского не знаю, поэтому пусть это будет китайский). Мне хочется узнать, что эта надпись означает, и поэтому я беру листочек и аккуратно перерисовываю иероглифы. Просто копирую все чёрточки и закорючки. Для меня это всё именно чёрточки и закорючки. Смысл изображённого появится только после того, как я покажу этот листочек тому, кто владеет китайским языком, и он переведёт надпись на какой-нибудь более понятный мне язык. А пока этого не случилось, я на листочке имею информационный объект, который определённо есть сигнал, но сигнал для отсутствующего в данный момент контекста.

В случае с копированием китайских иероглифов я мог бы не утруждать себя перерисовыванием данных (это именно данные) на бумажку, а сфотографировать на телефон и послать своему знакомому по почте. По ходу путешествия этого сигнала к моему другу отсутствие контекста для интерпретации этой надписи наблюдалось бы не только у меня, но и у программного обеспечения телефона, почтовой программы и всего того великолепия протоколов Интернета, которые поучаствовали бы в передаче данных. Можно было бы сказать, что вообще такая вещь, как понимание, свойственно исключительно нам, сверхсложным существам из плоти и крови, но это будет не совсем правда. Например, при передаче картинки с иероглифами транспортный уровень сети дополнит передаваемые данные своими служебными данными, которые понятны (то есть будут правильно проинтерпретированы) тем механизмам, которая реализует транспортный уровень сети передачи данных. Если предположить, что понимание – это совсем не обязательно что-то загадочное и высокое, проникновенным взором усматривающее самую суть явлений, а всего лишь наличие адекватного контекста (в случае транспортного уровня сети этот контекст формируется тем, что разработчики сетевой инфраструктуры чтут протокол TCP), то можно уверенно говорить о том, что технические системы у нас тоже наделены способностью к пониманию. Да, это понимание не очень похоже на наблюдаемую нами изнутри самих себя нашу способность ухватывать суть явлений, но дела это не меняет.

Понятие «данные» хоть и не привносит ничего принципиально нового в метафизику информации, но, тем не менее, с практической точки зрения оказывается на редкость полезным. Двухкомпонентная конструкция «сигнал-контекст» хоть и обладает полнотой (третья компонента не нужна), но при попытке применить её в повседневной жизни, сразу возникает масса неудобств. Источник неудобств – в том, что понятие «сигнал» чётко ассоциируется с материальной стороной процесса, а когда материальную сторону приходится игнорировать, «заземляющая» сила «сигнала» начинает сильно мешать. Представьте себе, что ваш товарищ собирается совершить путешествие в Бремен и спрашивает вас, как бы ему можно было узнать побольше об этом городе. Первое, что вам приходит на ум – это Википедия. Посмотрев по разным языковым разделам, вы замечаете, что русскоязычная статья хоть и хорошая, но очень маленькая, а англоязычная хоть и значительно длиннее, но всё же уступает статье на немецком языке (что ничуть не удивительно). Теперь вам нужно сказать своему товарищу, что в англоязычной статье информации больше, чем в русскоязычной, но тут вы, вспомнив философию информации, понимаете, что информации не может быть ни в каком из разделов. Статья в Википедии – это сигнал, который становится информацией, когда попадает в контекст. Проблема. «Сигнал, записанный на жёстких дисках англоязычных серверов Википедии при попадании в контекст твоего восприятия…» – фу, жуть какая. Как товарищу добраться своим контекстом до этих жёстких дисков? «Сигнал, доставленный через Wi-Fi с англоязычных серверов…» – тоже что-то не то. При чём здесь Wi-Fi, если товарищ с таким же успехом может пойти в Википедию через мобильный Интернет? При замене понятия «сигнал» синонимом «данные» (в данном случае получается именно синоним) все неудобства исчезают. «Можешь посмотреть в Википедии, но имей в виду, что в английской, и особенно в немецкой статье данных про Бремен значительно больше». Воспользовались тем, что хоть, как мы теперь знаем, информации в статье быть не может, но данные – это, собственно, и есть статья. Сигнал, физическая реализация которого в данном конкретном случае нам не важна.

По своей практике скажу, что, поэкспериментировав с переходом на корректную терминологию в повседневной жизни и профессиональной деятельности (информационные технологии), я ни разу не столкнулся с тем, чтобы кто-то из моих собеседников вообще заметил, что что-то поменялось. Единственное, что теперь приходится обращать внимание на то, о чём идёт речь – о данных, или всё же об информации. Например, в базе данных теперь хранится не информация, а именно данные, но пользователи, занося эти данные в базу, таким образом обмениваются информацией. Система по-прежнему остаётся информационной, но функционирует на основе накапливаемых данных.

С развитием сетей передачи у нас появился достаточно простой критерий, позволяющий определить, имеем ли мы право полностью абстрагироваться от физики конкретного объекта и, в результате, говорить о нём как об информационном объекте (то есть о данных). Критерий такой: если предмет мы можем передать через Интернет, значит, мы имеем полное право говорить об этом объекте как об объекте информационном.

Обращаю внимание на то, что рассмотренное простое эмпирическое правило идентификации информационного объекта имеет структуру «если-то», и поэтому работает только в одну сторону. То есть из того, что мы что-то никак не можем передать через Интернет, вовсе не следует того, что объект не является информационным. Например, мы не можем в «живом» виде (то есть в виде последовательности цифр) передать число пи. Мы можем передать рецепт приготовления этой «котлеты» (то есть программу, последовательно вычисляющую знаки после запятой числа пи), можем передать картинку с обозначением, но саму эту «котлету» – не можем.

Информация в числе пи

Коль скоро зашла речь о числе пи, имеет смысл разобрать один забавный кейс, связанный с этой штукой.

Поговаривают, что среди цифр, составляющих бесконечно длинный хвост числа пи теоретически можно отыскать любую наперёд заданную последовательность цифр. Если быть совсем точными, то это пока всего лишь гипотеза, не доказанная и не опровергнутая. Существуют действительные числа, обладающие свойством содержать в себе любую конечную последовательность цифр (они называются «нормальными»), но гипотеза о том, что число пи является нормальным, пока не доказана. В частности, нормальное число, содержащее любую последовательность нулей и единиц, можно получить, последовательно дописывая в хвост после десятичной точки переборы всех комбинаций, постепенно наращивая разрядность. Вот так:
0,(0)(1)(00)(01)(10)(11)(000)(001)(010)(011)(100)(101)(110)(111)(0000)… и так далее.

В десятичном виде получится число чуть больше 0.27638711, и в этом числе гарантированно присутствует содержимое любого файла с вашего жёсткого диска, даже того, который вы ещё туда не записали.

Но мы зажмуримся на то, что нормальность числа пи не доказана, и будем в своих рассуждениях считать его нормальным. Число пи покрыто массой историй, загадок и предрассудков, и поэтому о нём рассуждать интереснее, чем о какой-то немудрёной алгоритмической выдаче. Если вам доставляет неудобство допущенная математическая погрешность, просто считайте, что дальше здесь я говорю не о числе пи, а о любом нормальном по основанию 2 числе.

Получается весьма величественная картина. Представьте себе, что вы на склоне лет сядете, напишете свою подробную биографию, и запишете её в файл. Так вот, выходит, что в числе пи эта последовательность нулей и единиц есть уже сейчас. А также есть такая же последовательность, но дополненная точной датой и обстоятельствами вашей смерти. Вот уж поистине получается книга судеб, не правда ли?

Начало нашей книги судеб (целая часть и первые 20 знаков бесконечного хвоста) выглядит так:
11.00100100001111110110…

Давайте подумаем, как такую книгу судеб можно было бы прочитать. Допустим, я написал свою биографию вплоть до текущего момента, взял вычислитель фантастической мощности и заставил его найти имеющееся начало моей биографии среди знаков числа пи. Глупо рассчитывать на то, что первое попавшееся вхождение имеет осмысленное продолжение. Скорее всего, там дальше идёт бессмысленная мешанина нулей и единиц. Немножко поколдовав над алгоритмом вычислителя, я научил его находить не только вхождения известной части биографии, но и анализировать, является ли продолжение осмысленным текстом, написанным примерно в том же стиле. И вот наконец мой вычислитель нашёл такой фрагмент. Уж не знаю, обрадует он меня или опечалит, но я не буду останавливать вычислитель. Пусть он продолжит свою работу. Через какое-то время он меня завалит ворохом найденных в числе пи версий моей дальнейшей биографии. Некоторые будут вполне обычными («работал, вышел на пенсию тогда-то, состарился, болел тем-то, умер тогда-то»), но остальные будут намного интереснее. Например, в одной из версий будет о том, что завтра, не раньше ни позже, случится глобальный зомби-апокалипсис, и меня растерзают кровожадные мертвецы. А в другой обязательно (в числе ведь есть все комбинации ноликов и единичек) будет написано, что я обрету бессмертие и всемогущество, и стану повелителем Вселенной. И ещё бесконечное множество вариантов, нескончаемым потоком выползающих из вычислителя. Какой из этих версий верить? Может быть, самой первой? А почему именно ей?

Для того чтобы упростить себе задачу, попробуем погадать на числе пи немножко попроще. Зададим ему простой бинарный вопрос. Например, выгодно ли мне будет именно сегодня прикупить присмотренный пакет акций? Если первой в дробной части числа пи найдётся единичка, то, значит, всеведущий оракул ответил мне, что выгодно. Если нолик, то это значит, что нужно подождать. Смотрим. Нолик встретился прямо в первой позиции, а единичка, вон, аж даже не во второй, а в третьей. Ой, что-то мне подсказывает, что с таким оракулом я в своей жизни ни одной акции не куплю. К этому бы оракулу ещё бы приложить какого-нибудь дополнительного оракула, который подсказывает, в какую позицию следует смотреть.

Получается, что для извлечения информации из данных книги судеб нам не хватает самой малости – ключика, который подскажет, с какой конкретно позиции следует эту книгу читать. А без ключика единственная информация, которая для нас содержится в бесконечном хвосте цифр числа пи – это отношение длины окружности к диаметру. Как-то даже грустно получается…

Итоги главы

В этой главе при помощи двухкомпонентной конструкции «сигнал-контекст» мы научились не только избавляться от реификации «информации», но и получили инструмент, позволяющий без задействования мистических практик протягивать мостик между материальным и нематериальным аспектами реальности.

Основные рассмотренные понятия и концепции:

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *