Измерение информации
Что означает фраза «количество информации»? Что значит «много информации» или «мало информации»? Какое количество информации является достаточным? Бывает ли она избыточной?
Когда речь идет о материи или энергии, мы говорим о количестве неких отдельных частиц (штук, квантов и т.д.). Чем точнее мы знаем количество этих частиц, тем лучше. Но можно ли таким же образом измерить информацию?
Изучая какой-либо объект, мы анализируем его, раскладываем на отдельные составляющие, изучаем его части и их взаимодействия, проводим классификацию, различные вычисления, измерения, сравнения и т.д. При этом количество полученной информации растет, но возрастает и НЕОПРЕДЕЛЕННОСТЬ («Чем больше я знаю, тем меньше понимаю»).
Именно поэтому при получении информации нас интересует не только количество, но и ОДНОЗНАЧНОСТЬ, ТОЧНОСТЬ, которая воспринимается нами как некая ПОЛНОТА знания. И когда мы от неё удаляемся, углубляясь вглубь материи, возрастает неопределенность, мешающая за деревьями видеть лес.
Именно поэтому при измерении информации важно соблюдать некую МЕРУ, оптимальное соотношение количества и однозначности, позволяющее нам получать объективную картину реальности.
Получение информации можно сравнить с работой весов или фокусировкой зрения. Таким же образом важно уметь фокусировать мысль на изучаемом объекте или явлении.
Таким образом, полнота информации – это не количественная характеристика (когда чем больше, тем лучше), а некая золотая пропорция, соотношение между целым и частями. Причем, в обе стороны от объекта (по отношению объекта к его внутренним частям, и отношению объекта к внешнему миру, окружающим частям).
Найдя эту пропорцию в себе, человек способен видеть её и вокруг себя, гармонизируя пространство, очищая его от лишней (ложной) информации.
Комментарии
А смысл никакому измерению не поддается. Информация же есть объективное свойство, не зависящее от того, воспринимает ее кто то или нет. Информация измеряется в битах, так же, как энергия измеряется в квантах. Если Вы не знаете, 1.бит — это двоичный логарифм вероятности равновероятных событий. Информация не единственная величина, измеряемая вероятностью. Возможно Вам известно, что координаты квантовых объектов тоже вероятностны.
- энергия НЕ измеряется в квантах,
- информация НЕ измеряется вероятностью.
Стоит ли использовать термины, если Вы не понимаете их значения?
Что касается информации, то я написал, что она измеряется в битах, а не вероятностью. А вот бит (единица измерения, а не само природное явление) есть логарифм вероятности. Это просто его определение. Точно так же расстояние измеряется в метрах, который есть не более, чем известной точностью (или неточностью) определенная 1/40.000.000 часть Парижского меридиана. Т.е. достаточно вольно взятая единица.
или как?
никогдат не достигает ... идеала
приходим опять к относительности сущего
Попытка изобрести велосипед контрпродуктивна...
А насчет того, что его формулы проверены практикой, еще можно поспорить. Скорее практика подогнана под его формулы. Сейчас это часто делается в науке.
Вы знаете только О теории Шеннона (понаслышке), а я знаю саму проблему, которую данная теория пытается решить. И ищу лучший вариант, способный пояснить феномен информации и его связь с материальным миром.
а) слегка повысить свое образование,
б) внести ясность в свои интуитивные, бытовые представления
Вот один из подходов к определению количества информации:
Если переменная x способна принимать значения из некого множества X,
которое состоит из N элементов, то говорят, что энтропия Н(х) этого переменного определяется так: H(x) = log2 N. (и тут не надо верить или не верить в энтропию :) - просто нужно знать)
Если мы сообщаем, что х = а, то снимаем существовавшую неопределенность (передаем некое количество информации) в значении х. При этом, количество переданной информации равно I = log2 N
… есть и другие подходы к определению термина «количество информации»
2. "...его физический смысл, с точки зрения теории информации?" - лишь вопросительный знак в этом предложении хоть что-то значит. А так, это просто бессмысленный набор терминов, а не вопрос.
3. см. п.! (в школе уже информатику изучают)
4. см. пп. 3 и 1
5. см. п.3
В моей роятся голове...
(такое впечатление, что наш разум пытаются усыпить :):):) )
А когда читаю материалы макспарка, думаю себе, а чего это почти все абсолютно уверены в своей правоте? У них что, есть неограниченный доступ к информации?
Нет. Это всё им только кажется. На самом-то деле всё как на картинке.
Количество информации, если грубо, определяется сигналами - байтами.
Предлагается:
1. Принять за первичное понятие (кирпичик, не определяемый через другие понятия) слово информация.
2. Ввести З постулата:
- Всё сущее - информация.
- Способ существования сущего - обмен информацией.
- Смысл существования сущего - создание новой информации.
Информация существует в трёх видах:
ощущение, сообщение, отношение.
Высший вид - ОТНОШЕНИЕ, поскольку не требует материализации предмета отношения. Высшее отношение - Любовь (желание блага предмету отношения).
принимаю всю информацию, а выделяю Истину:
принимаю сообщения, ощущения, и отношения, а выделяю ТОЛЬКО желание блага (Любовь).
Следствие 1:
Субъективизация этого закона не требует учёта и контроля отношения к этому закону возможных участников информационного обмена, поскольку принять его за основу может только такой разум, который понимает о чём собственно идёт речь.
Следствие 2:
Если предмет отношения невозможен, его надо создать для реализации основного закона распределения информации.
1. "Что означает фраза «количество информации»? "
Галя, Вы наверное в школе не учились.....
Какое у Вас образование?
Для справки: Количество информации измеряется - в битах, байтах, килобайтах, мегабайтах, гигабайтах.
Знаете ли Вы о алгебре Буля?
2." Что значит «много информации» или «мало информации»? "
Это означает - бессмыслица. Информации бывает столько, сколько Вы наберете ее в различных источниках и собственных экспериментах. И когда Вы ее проанализируете, поймете, и обобщите, тогда и только тогда Вы сделаете правильные выводы.
Другой человек может провести анализ бОльшего объема информации и сделать другой вывод, это называется научным мышлением и выражается в развитии науки, появлением новых научных знаний. Но самое главное - это поступательное движение в развитии человеческих знаний.
Вы Галя стучитесь в открытую дверь.
Проблему определения информации я знаю изнутри. Поэтому не надо мне тут банальности рассказывать. Это мне не интересно.
..."физфак" - знаю, "мехмат" - тоже, "факультет кибернетики" - тоже существует. А "физмат" - где? (спрашиваю без всякого подвоха и иронии - просто пытаюсь восполнить пробел в личных знаниях)
Сто лет назад вообще не было понятия "информация", и ничего, наука обходилась без этого.
Попросту: информация - это вероятностная характеристика, означает снижение у читателя первоначальной неопределенности относительно возможности осуществления важного для читателя события. При этом, чем ниже ожидание случившегося события, тем больше информации.
Но в последующий период этот же термин стал использоваться а иных областях техники, в областях передачи символов, слов, битов.
Началась большая путаница. Один и тот же термин стал определять совершенно разные вещи. Информацией становится и обычные сведения о неизвестном, они важны только для человека, жаждущему этих сведений, и простой технический объем переданных символов, который для человека, не связника, совсем не важный.
Надо учитывать сложившуюся путаницу.
Другое - чисто техническое, инженерное.
Достоверной и полной информацией мы никогда обладать не сможем, в силу ограниченности органов ощущений, приборов, методологической ограниченности в понимании сути происходящего.
Именно осознание этого - и есть самое главное.
А вот чисто человеческие качества это стыд, душевность, сострадание к незнакомым людям, совесть.
Один, погладив мощный бок, изрек: «Ты, зверь – стена!»
«Сей зверь – похожий на копьё, а ты – дурак и лжец», –
Держась за бивень, возразил ему другой слепец.
А третий, хобот ухватив и страху не тая,
Заголосил, что было сил, что перед ним – змея!
Четвертый тёрся у ноги могучего слона
И утверждал, что перед ним вздымается сосна!
Слоновье ухо теребя, мудрец очередной
Кричал: «На веер зверь похож, он плоский и складной!»
Шестой, подёргивая хвост, смеялся: «Ну и ну,
Они веревочку принять готовы за сосну…»
Слон убежал, а мудрецы одни в пыли толклись,
Бранились с пеною у рта и… чуть не подрались.
И разошлись, не кончив спор, не ведая про то,
Что каждый был частично прав… и – не был прав никто!