А Вы мне приписываете приписывание странных мыслей
. Я нигде не утверждал, что ход Ваших мыслей приводит к отождествлению пня и записки, автомобиля и книги его описывающей. Речь шла об отождествлении записки и информации. Впрочем, к делу.
1) Сколько информации содержится в книге? Вы согласились с определением Шеннона. Можно еще привести определение из глоссария по информатике: "Информация – сведения об окружающем мире, которые повышают уровень осведомленности человека" но это одно и то же.
Итак, ситуация. Перед нами лежит книга, и мы знаем, что в ней на всех 100 страницах напечатано либо 10 000 единиц, либо столько же нулей . Вопрос 1 (очень прошу ответить): сколько информации мы получим открыв эту книгу? По теории информации - 1 бит, по Вашему способу (Один символ или знак можно принять за единицу информации) - 10 000 бит (столько же сколько в полноценной книге).
Теперь представим, что мы точно знаем о том, что в книге 10 000 нулей. Вопрос 2: сколько информации мы получим открыв книгу теперь? По теории вероятности - 0, потому что не будет снята никакая неопределенность, и наша осведомленность не увеличится.
По поводу книги пока все. Подожду ответов, чтобы лучше разобраться в Ваших аргументах. Но обязательно продолжу
.
2) Вы как молитву повторяете: "Я считаю, что в этом определении имеется в виду неопределённость по отношению к общему количеству возможных сочетаний, которые в принципе можно закодировать данным количеством символов средствами данной системы счисления, данного алфавита, данного языка"
Но ответьте на вопрос 3: ПОЧЕМУ объем информации зависит от количества сочетаний которые возможны в принципе? Что за блажь такая?
И потом если это - неопределенность, то снять ее невозможно. Даже если Вы прочитаете книгу количество этих "в принципе возможных сочетаний" не изменится. Поэтому если Вы действительно согласны с определением Шеннона, то введя такую "неопределенность" Вы должны согласиться и с тем, что, вообще, никакая книга не несет информации. Вопрос 4: Согласны ли Вы с тем, что ту неопределенность, которую Вы представили как принципиальную возможность различных сочетаний, нельзя снять?
Очень прошу ответить на эти 4 вопроса, мне так будет проще разобраться. Под конец приведу отрывок из учебника:
"В теории информации количеством информации называют числовую характеристику сигнала , которая не зависит от его формы и содержания и характеризует неопределенность, которая исчезает после получения сообщения в виде данного сигнала . В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.
Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество информации в сообщении о нем равно 0. Чем невероятнее событие, тем большее количество информации несет сообщение о нем. Лишь при равновероятных ответах ответ “да” или “нет” несет один бит информации.
Количество информации при вероятностном подходе можно вычислить, пользуясь следующими формулами:
1). Формула Хартли.
I = log2 N или 2I = N,
где N - количество равновероятных событий (число возможных выборов),
I - количество информации.
2). Модифицированная формула Хартли.
I = log2 (1/p) = - log2 p ,
где p - вероятность наступления каждого из N возможных равновероятных событий.
3). Формула Шеннона.
H = S pi hi = - S pi log2 pi ,
где pi - вероятность появления в сообщении i-го символа алфавита;
hi = log2 1/pi = - log2 pi - количество собственной информации, переносимой одним символом;
Н - среднее значением количества информации."