Закон сохранения информации

Мы знаем законы сохранения энергии, импульса и т.д. Но до сих пор не можем сформулировать закон сохранения информации. А ведь именно он должен стать отправной точкой для количественного изучения каких-либо природных информационных процессов.

В информатике количественное изучение информации существует, и оно осуществляется благодаря преобразованию в двоичный код и вычислению информационного веса одного символа.

Как вычисляется информационный вес символа? Он зависит от мощности алфавита. Мощность алфавита – это не обязательно количество символов в алфавите какого-то языка. Под этим значением можно понимать любое конечное количество возможных состояний системы.

Допустим, система может принимать 64 состояния. В переводе на двоичный код это 2 в 6 степени. Поэтому считается, что 6 – это информационный вес одного состояния (символа). Т.е. каждое состояние можно закодировать с помощью шестизначного двоичного кода.

Но ведь в природе существует огромное множество систем, и каждая имеет свой «алфавит», т.е. свой набор возможных и различимых им самим состояний. Как же в таком случае возможен информационный обмен? Как сравнивать количество информации в них?

В информатике считается, что информационный объем сообщения I равен количеству символов, умноженному на информационный вес одного символа: I = K*i

Если имеются два текста с одинаковым количеством символов, но составленных на разных языках, с разной мощностью алфавита, то по данной формуле получается, что объем информации будет больше в том тексте, где используется язык с большим алфавитом.

В переводе на нормальный язык это означает, что система, имеющая меньшее количество возможных состояний, для передачи сообщения использует меньшее количество символов, чем система с большим набором состояний. Вторая система многословнее, но информационно богаче. Первая система лаконичнее, но точнее. Примером таких систем могут служить математический язык и литературный. Но можно ли вот так однозначно сказать, что поэт обладает большей информацией о мире, чем математик?

И вот тут необходимо прийти к единому мнению об общем количестве информации в мире. Обозначим это количество каким-либо символом (например, С) и будем считать его константой, т.е. неким постоянным значением.

Тогда любая система обладает не просто каким-то набором своих произвольных внутренних состояний, но эти состояния являются отражением его взаимодействий с миром.

Чем богаче набор возможных состояний, тем богаче его внутренний мир и его возможности по взаимодействию с окружающим миром.  Чем беднее набор возможных состояний, тем ограниченнее самосознание и возможности взаимодействия с миром.

Рассмотрим систему, которая может принимать лишь два значения: отдавать и получать, например. Такая система есть воплощение двоичного кода. Она одинока, т.к. различает лишь себя и внешний мир (Я и НЕ-Я).

Если система различает не только себя, но и другие системы вокруг, то она уже имеет большее количество возможных состояний: не просто отдала и получила, но и отдала кому-то и зачем-то, получила от кого-то и почему-то. Появляется большее количество направлений взаимодействия, расширяется кругозор, появляется пространство. Есть возможность влиять на какие-то процессы, выбирать направление развития, создавать сложные структуры и взаимодействия. Появляется причинность и время.

Но при этом не стоит забывать о том, что как бы высоко ни была развита система, общее количество информации в мире – это константа.  И все системы равны перед этой константой. Иными словами – мир един. Понимание этого дает возможность лучше осознавать суть информационных взаимодействий в природе, свою собственную суть.

Человек, как высокоразвитая система, способен различать большое количество своих состояний (эмоциональных, физических, ментальных). Поэтому ему дана возможность наиболее полного самосознания и познания мира. Но надо понимать, на чем основано это богатство, каким великим эволюционным путем оно было достигнуто. И все это информационное наследие хранится в нас в настоящий момент. И благодаря ему мы являемся теми, кто мы есть. И презрение к простейшим формам жизни – есть крайняя степень невежества, непонимания своей непосредственной зависимости от них, своей принадлежности к ним.

Закон сохранения информации позволяет понять еще одну важную деталь. Это касается количественных характеристик различных систем. Не все системы (не все алфавиты) можно преобразовать в двоичный код. Например, 65 нельзя представить в виде 2 в целой степени. Если система имеет 65 возможных состояний, то она не будет понята системой, состоящей из 64 «символов», но будет понята системой из 128 символов. Иными словами, не все соотношения, не все взаимодействия возможны в природе. Но те системы, которые признают закон сохранения информации, способны прийти к общему знаменателю, способны найти общий язык.