Информация и аутформация
Информация - это кодовое представление структуры, - структуры события (феномена, ноумена), позволяющее запомнить (зафиксировать) это событие в форме удобной для реализации последующих коммуникативных взаимоотношений организации с другими организациями. При отсутствии памяти и языка кодирования, информация существовать не может. С философской точки зрения, понятие информации - категориальное звено для связи ментального и физического. Здесь мы, вспоминая математику, можем усмотреть замену конструктивного определения структуры события на определение дескриптивное. Но такая замена возможна, если получатель располагает моделью событий данного типа. Используя в качестве аналогии представление структуры аналогового сигнала его кодом в соответствии теоремой Котельникова, можно сказать: информация - это оцифрованная структура. Информация в себе – это структура. Информация - это снятое разнообразие структуры и не более того. Эти определения избавляют нас от необходимости делить информацию на типы (смысловая, ценная и т. п.). Информационные процессы – это распространение (модификация) структур, они идут под аккомпанемент энергетических преобразований. Общим же аккомпанементом для энергетических преобразований является энтропия. Путать (что часто происходит) информацию с информационным процессом нельзя. Это как перепутать процесс роста растения с самим растением. Известно, что количество типов структур конечно. Интересно, что, несмотря на разнообразие генетических программ, генетический код (язык, на котором «написаны» генетические программы) один и тот же у всех организмов. Дополнительным примером к раскрытию понятия информации может стать пример сопоставления некой территории и карты этой территории. Характер территориальных структур в кодовом представлении отражен на карте. Будь территория абсолютно ровной (бесструктурной), то нечего было бы кодировать. Нет разнообразия для снятия, - информация отсутствует. Однако в нашем сознании находится (если не следовать Беркли) не сама территория, а тоже только ее «карта». Насколько честным топографом является наше сознание - ещё тот (кантовский) вопрос. Тем не менее, говоря об информации, всегда следует иметь в виду триаду - территория, карта, сознание. Конечно, кодовое представление структуры (информация), в свою очередь, имеет структуру, но эта структура построена уже по единой для всех карт системе. Здесь уместно применить термин - организация информации. Вот мы загнали и саму информацию в триаду - организация, структура, система.Хотя здесь правильнее говорить лишь о данных. Можно увидеть и иную более динамичную триаду:
«Аутформация, Информация, Идентификация» ==>> «Трансляция»,
ведь, согласно Шопенгауэру, мир не только представление (in), но ещё и воля (out).
Разумеется, существует множество разных систем для организации информации и, соответственно, встаёт проблема перекодирования, но это уже чисто техническая проблема. Однако неполнота переноса структур «территории» на экран сознания таким «топографом» как наше сознание приводит к проявлению просто мистического феномена, наличию ошибок в действиях человека (организма). Можно ли это оправдать? Да. Уж слишком обширна «наша территория» и безмерно сложен ее рельеф. Не вмещаемся мы в законы природы, а вот элементарные частицы безошибочно следуют законам природы без видимого напряжения. Действуют по предписанию. Похоже, что функциональная «территория», на которой они «прописаны», достаточно компактна и однородна. У них территория «совпадает» с картой. Они не изменяются, это следует из их идентичности (все электроны, например, одинаковы). Т. е. они вневременные и, следовательно, полностью вписываются в три известных пространственных измерения.
Загадочным представляется такое явление, как практически одинаковое восприятие разными (различными) людьми одного и того же объекта. Такое могло бы быть реализовано через единый для всех (и единственный) механизм восприятия, а иное «техническое решение» и представить невозможно.
Количество информации
В работе Бреммермана есть формула, увязывающая количественно выраженную массу тела с количеством информации, которое может быть обработано физическим телом с указанной массой за единицу времени. Подставляя в указанную формулу значение массы электрона, в результате получаем: количество обрабатываемой электроном за секунду информации (в шенноновском смысле) превосходит количество информации, хранимой во всех библиотеках мира. Это говорит о наличии у электрона сложной организационной структуры и, соответственно, способности к непростому (т. е. к далеко не всегда предсказуемому) поведению. Что и наблюдается на самом деле.
Говоря об информации, нельзя не упомянуть о распространенном термине «количество информации», тем более, что мы уже его только что применяли. С этим термином связана некоторая неясность, ибо, зачастую предполагается, что если известно, что такое количество информации, то должно быть ясно, что такое информация. По аналогии можно было бы сказать: раз мы умеем измерять жидкости и сыпучие материалы ведрами, то и о самих жидкостях и сыпучих материалах знаем все. На понятии «количество информации», возможно (как сказал бы Ницше), проявляется победа научного метода над наукой в интересах техники и, поэтому, представляется интересным сделать короткий поход в малоинтересную область техники. По пути, проанализируем технический подход к информации, представляя, что имеем дело с материалом конструкции сообщения (агрегатом различий, кодом) которым могут репрезентатироваться свежие новости о структуре организации, пославшей это сообщение. То есть, по сути, будем иметь дело не с информацией, а с ее переносчиками. Если применить медицинскую аналогию, то мы имеем дело не дизентерией, а с ее переносчиками, например,- туристами.
Касаясь технического аспекта информации надо отметить, что мера количества может быть как абсолютной, так и относительной.
Такое обычное разделение мер в теории измерений похоже не находит понимания при оценках количества информации и, как следствие, приводит к приписыванию шенноновской мере информации исключительных свойств - единственной непротиворечивой меры информации. Обычно информацию отождествляют с мерой снятой неопределенности, т. е. с количеством неопределенности, которую она устраняет. Короче - информацию определяют через дезинформацию. Мы же, придерживаясь подхода к информации как к потоку разнообразия порождаемому структурами и активизирующему их, будем понимать информацию как меру снятого разнообразия. Посмотрим, с какими предположениями и ограничениями имеет право на существование формула количества информации Шеннона.
Абсолютное количество информации определяется только числом различных элементов N, т. е.
I = N.
В зависимости от носителя информации и принятого порога различимости в качестве N, например, могут быть приняты числа принятых импульсов, переданных букв, используемых дискет, листов текста и т. д. Относительное же количество информации характеризует связь между Nи каким-либо базисом, относительно которого определяется количество информации. В качестве такого базиса может служить базисное число различимых единиц информации Nб или какой-то показатель качества функционирования y, например вес «ущерба», степень достижения цели. Тогда в первом случае относительное количество информации будет находиться из выражения
I = N - Nб
или I = N/ Nб,
а во втором случае - из выражения
I = fy(N),
где fy - функция приведения N к некоторому показателю y. Если функция fyимеет логарифмический вид, т. е. I = logN, то получим известное выражение Хартли. В общем случае может иметь место двойное приведение N к Nб и к y, т. е.
I = fy(N, Nб).
Два последних выражения характеризуют относительное количество информации, когда аргументом является число различимых единиц информации и при этом различимость элементов информации рассматривается только сточки зрения определения их числа, а между собой они никак не различаются. Поскольку аргументом может быть не только N, а сопутствующие этим элементам признаки x(например, априорная вероятность появления событий или величина рассогласования по отношению к цели), то следует уже говорить о косвенном относительном количестве информации. Это количество информации будет функцией от каких-то показателей качества x, присущих всем различимым элементам информации. Именно показатели xобеспечивают различие между элементами информации, т. е. имеет место следующая совокупность:
1, 2, . . . , N
X1, X2, . . . , XN
Для такой совокупности косвенное относительное количество информации в предположении аддитивности ее элементов будет находиться из зависимости
I = Sfy(xi, xб), i от 1 до N.
Если в качестве xiвзять априорную вероятность pi появления события А, которое идентифицируется i-м элементом информации, а xб принять равным 1 и предположить, что fyимеет логарифмический вид, то получим формулу Шеннона, характеризующую математическое ожидание относительно количества информации, заключенного в Nэлементах информации:
IA =S pi logpi , i от 1 до N
Вот, вроде, все время внимательно «следили за руками» выводящими формулу, а в результате видим - под знаком суммирования сплошные вероятности. Но, на самом деле, экономика вероятности отличается от экономики энергии или денег тем, что вероятность, будучи отношением, не подлежит сложению или вычитанию, а подвержена только мультипликативным процессам, - например дроблению. Кажется, шенноновское определение количества информации является сильно специализированным (коммерческим), удобным (выгодным) для еще большего накручивания прибыли провайдерами услуг связи. Из-за него и происходят и «глобальные финансовые кризисы». Они проявляются во времена активной телефонизации. Кстати, обратите внимание, шенноновское количество информации представляется безразмерной величиной. Здесь мы ничего не измеряем, а только подсчитываем некие различия. Информация – средство адекватной интерпретации данных.
Остаются вопросы:
- Как структуры для действия, становятся действующими структурами?
- Как энергетизируется мысль?
- Какие силы удерживают наши мысли в порядке? Почему мы не сходим с ума?
Но читатель легко ответит на них самостоятельно, наблюдая как нематериальная, чисто логическая программа компьютера, двигает вполне материальные детали принтера.
Комментарии