Автор: Фоменкистадор (---.p3.col.ru)
Дата: 12-02-04 16:44
BAPBAP Написал:
> Влюбленный в традиционную историю, разумеется.
Итак, Вы настаиваете. А суть то проблемы, поставленной Pirx'ом помните, или нет?
А то ведь пока у нас с Вами, не смотря на Ваше знание теоремы Шеннона, получается по известной поговорке - "в огороде бузина, а в Киеве - дядька". Как бы я Вас не призывала быть повнимательнее.
Итак, я предупредила. Продолжим. Если Вам в очередной раз объяснить ничего не удастся, может другим кое-что из этого сгодится. В плане заявленной (Pirx'ом) темы, конечно.
> Напомню, что вопрос "чем и как мерять информацию ?" поставил(а)
> Фоменкистадор для некоторых господ критиков ТИ.
Я надеюсь, что Вы не возражаете против такой постановки вопроса в принципе? Впрочем, вопрос этот правомочен только в том случае, если Вы помните из-за чего, собственно, мои вопросы к зачинателям дискуссии возникли. А тут у меня сомнения…..
> Я откликнулся и
> предложил самоё простое и широко используемое - биты, байты,
> боды, что собствено нас окружает в сети. На что получил
> интересный ответ:
Н-да.... Ну если это Вас в сети окружает (в смысле осмысленной информации), то разговаривать трудновато будет дальше, но все-таки попробуем.
Так вот, ответ был не просто интересный (благодарю за комплимент), а совершенно адекватный в той постановке вопроса, которую зачавший обсуждение предложил.
> "Я же и говорю - детский сад.
> Если хотите пользоваться терминологией не магазина по продаже
> компьютеров, а теории информации и кодирования, то для начала
> давайте-ка с Вами повторим теорему Шеннона о количестве
> информации, вспомним её, информации по Шеннону (но не по Вам,
> изззните), свойства, вспомним формулы для энтропии и подставим
> их в вывод теоремы Шеннона. Ну, то есть, сделаем, как нас об
> том предупредила наука, а не Пиркс"
Я так и не поняла - Вы повторили теорему Шеннона и вспомнили свойства информации по Шеннону? И как, подходит все это к нашей, обсуждаемой в теме информации, а не к тому, что Вас окружает в сети?
> Видимо Фоменкистадор не в курсе, что еще в 17-ом веке Лейбниц
> сформулировал принципы двоичного счисления, т.е. именно те
> самые "биты" (двоичные цифры, буквально). Ему (Лейбницу),
> видимо, приснился сон, в коотром он увидел Фоменкистадора,
> покупающего новый пентиум "в магазине по продаже компьютеров" и
> он понял, что биты - это хорошо.
> Г-н Шеннон, о котором речь, сформулировал свои теории к концу
> 40-ых годов 20-го века (48-49 вроде). А уже к середине 50-ых с
> легкой руки IBM термин "байт" вошел в моду.
Фоменкистадор в курсе, но только Фоменкистадор Вас не зря в детский сад отсылал, образованный Вы наш. Ну если не совсем уж в детский сал, то туда, где можно ПОЧИТАТЬ хотя бы первую лекцию курса не по ИНФОРМАТИКЕ,
а по ТЕОРИИ ИНФОРМАЦИИ.
Информатика, знаете ли, с ее байками про IBM и Лейбница на первом уроке - это для начальной школы, общий свист, что-то типа "дети, информация
передаётся по сетям (и окружает ВАРВАРов : -)) и обрабатывается компьютерами с клавиатурой, мышами и дисплеями", а теория информации - это уже для второго-третьего курса ВУЗа и вот там уже не только ставится проблема, но и отстраиваются ограничения применимости получаемых рез-тов.
Я же что Вам предлагала припомнить? Если конечно же есть Вам что вспоминать…. Свойства информации я Вам предлагала припомнить, и именно так, как они в ТИ (у нас здесь это будет не Трад. история, в которую я влюблена, а Теория Информации, в которую мне влюбиться много лет тому назад пришлось). Ну теперь вместе придется вспоминать (Вы уж поднапрягитесь, почитайте сей текст - он не от меня, от мужчин исходит....):
"Информация наряду с материей и энергией является первичным понятием нашего мира и поэтому в строгом смысле не может быть определена. Можно лишь перечислить ее основные свойства, например такие как:
1) информация приносит сведения, об окружающем мире которых в рассматриваемой точке не было до ее получения;
2) информация не материальна, но она проявляется в форме материальных носителей дискретных знаков или первичных сигналах;
3) знаки и первичные сигналы несут информацию только для получателя, способного ее распознать.
При этом в узком практическом смысле под информацией обычно понимают совокупность сведений об окружающем мире являющихся объектом хранения, передачи и преобразования.
Знаки или первичные сигналы, организованные в последовательности несут информацию не потому, что они повторяют объекты реального времени, а по общественной договоренности об однозначной связи знаков и объектов, например: предметы и слова для их обозначения. …
Информация, основанная на однозначной связи знаков или
сигналов с объектами реального мира, называется семантической или смысловой.
Информация, заключенная в характере (порядке и взаимосвязи) следования знаков сообщающей называется синтаксической.
Также в общей науке о знаках (семиотики) кроме перечисленных выделяют сигматический и прагматический аспекты информации.
В первом случае изучается вопрос о выборе знаков для обозначения объектов реального мира, во втором случае - о ценности информации для достижения поставленных целей.
Очевидно, что наибольший практический интерес представляют смысловой или семантический и прагматический аспекты.
Однако до сих пор не определены объективные количественные критерии меры ценности и полезности информации.
В курсе теории информации изучаются проблемы синтаксического уровня, касающиеся создания теоретических основ построения систем связи, основные показатели функционирования которых были бы близки к предельно возможным.
Иначе говоря, рассмотрению подлежат вопросы доставки получателю информации как совокупности из знаков. При этом последовательностью игнорируются смысловое и прагматическое ее содержание.
Ну, поняли Вы наконец, какую информацию мы тут в дискуссии в виду имеем и что Вы своими байтами/битами измерять собираетесь? Полегчало Вам от этого? Еще раз - измерение смысла информации и искажения этого смысла при передаче
никогда не являлось объектом изучения теории информации, а только
стат. закономерности передачи кодов, знаков. Ну и считайте, сколько знаков дошло до нас в списке Гомеровского эпоса, хоть до посинения. Как дойдете вместе с Пирксом до проблемы выяснения - сколько смысла по дороге затухло, а сколько преобразилось до неузнаваемости - продолжим читать вместе вторую лекцию по ТИ.
Ну не претендует ТИ на то, чтобы статистические выводы по каналам связи распространять на оценки смысла переданной информации. За это даже проблематика Искусственного Интеллекта не берётся, разве что цивилизаторы отважатся….. Ну так и цена этим отважным попыткам прогнозируема.
Правда, если мы дальше поцитируем одну из лекций по теории информации, то Вы могли бы ухватиться со своей мерой вот за этот вот тезис:
"Синтаксическая мера информации имеет практическую ценность потому, что интересующая в конечном итоге получателя семантическая информация заключена в заданной последовательности знаков или первичных сигналов. Чем больше знаков передаются в определенный интервал времени, тем в среднем больше передается и смысловой информации."
Однако буду вынуждена Вас разочаровать - нет теоретических положений о том, как рассчитать зависимость между кол-вом достоверно переданных/полученных сигналов и кол-вом (неизвестно в чём измеренных) хотя бы семантической информации. Про прогматическую умолчим. Тут вот Пиркс недавно ввел понятие - сложности информации.... А Вы - биты с байтами.
Вы поняли, наконец, что ТИ и не занимается семантикой, только синтаксисом, да и то - статистически, не "в цифрах"?
>
> Ну да ладно. У нас все как в поговорке "Я те про Фому, а ты мне
> про Ерему". Я говорил об ИЗМЕРЕНИИ информации, а не о затухании
> и энтропии, т.к. в промежутке дискуссий возник именно такой
> вопрос.
Замечательно! Только зачем говорить о том, что совершенно непригодно в плане именно той темы, которой дискуссия и посвящена. Т.е исследованию - а каким таким образом затухает информация в исторических источниках в процессе их передачи из века в век и каким образом можно было бы этот процесс смоделировать, описать, ну что бы потом утверждать, что без затухания информация может дойти до получателя только за n веков. Понятно Вам наконец, об чем мы тут с Пирксом толкуем? Я вот берусь утверждать, что адекватной модели с привлечением тех теорий, о которых здесь идет (ключевое слово - статистические теории), нереально.
> Но самое интересное, что говоря о Шенноне, Фоменкистадор не
> хочет даже почитать его теоремы, где четко речь идет о сигналах
> в еденицу времени ("бодах") и самих сигналах ("битах"). Видимо,
> Шеннону тоже приснился тот же сон, что и Лейбницу, и он понял -
> это хорошо и стало так.
Да Вы литератор, ВАРВАР! Бросьте плохо поддающуюся Вам ТИ применительно к области задач ТИ (а то бы Вы такого после прочтения теоремы Шеннона, применительно к исторической информации не написали бы) - займитесь сочинительством. Только графоманом не становитесь. Тенденция просматривается, скажу Вам по секрету.
>
> Остальное разбирать неохота - времени жаль и кушать хочется :-)
С самого начала так бы и действовали, в самом деле. Ко всеобщему удовольствию. Уж к Вашему - точно.
> Если есть интерес продолжить в этих терминах развивать изустную
> традицию, вперед.
Интереса нет никакого, поскольку в этих терминах продолжить развивать изустную традицию невозможно.
>
> P.S.: Как похожее происходит в быту - анекдот.
> Услышал историю от человека, торгующего книгами. Говорил он с
> покупателем о Ремарке, и тут какая-то женщина, стоявшая рядом,
> вмешалась в разговор, примерно так: "Какая хорошая
> писательница, эта Ремарк". На ответ моего знакомого, что
> вобще-то Ремарк - мужчина, тётка отреагировала: "Вы что, ведь
> МАРИЯ (!) Ремарк! Знать надо свой товар!" :-))
> А вы - Шеннон, Шеннон...
Вот-вот, позору публичного Вы лично не боитесь: " Если боишься - ничего не делай, если делаешь - ничего не бойся."
>
|
|