Послесловие для любителей информации и другой живности!
Поскольку естествоиспытатели понятия информации исчезли с горизонта, хочу дать еще несколько разъяснений по поводу понятия информации. Речь идет о строго научном понятии этого явления.
Основоположники формулы вычисления информации Шеннон и Уивер прежде всего занимались математической теорией связи, поэтому их интересовали пропускная способность линий связи, борьба с помехами и прочие технические проблемы.
Шеннон оставил лишь такое мнение о свойствах информации: информация уменьшает неопределенность выбора из нескольких равновероятных ситуаций нужного решения.
Это означает, что информация проявляется там, где есть неопределенность, которую информация уменьшает. Если нет неопределенности, то нет и информации. Отсюда следует, что если передатчик гонит по линии связи мегабиты сигнала, но нужное решение уже давно принято, то нет никакой информации в этом процессе. Но есть линия связи, которая обладает некоторой пропускной способностью.
Это хороший пример для понимания того, что любая математическая формула есть некая абстракция, которая сама по себе физического смысла не имеет. Поэтому в любом применении математической формулы надо разбираться с физическим смыслом.
Кстати, можно информацию вычислять и другим способом. Если мы будем измерять информацию, допустим, в "чурках", когда 1 чурка = одному значению двочного выражения. Например, когда имеется 2 равновероятных исхода, то такая ситуация сооветствует 0 и 1, то есть 2 чуркам. Для 4 равновероятных ситуаций инфор. = 4 чуркам. Для 20 разных аминокислот - количество чурок = 20. И т. д. Логарифмическая функция уменьшает рост цифр, соответственно: 1, 2, 4,32 и проч.
Любители измерять информационность всего мира живого и неживого утверждают, что информация есть в любой молекуле, в любом объеме газа. Там информации нет, поскольку неопределенность проявляется лишь из-за неумение человека оценивать сложные системы. А то что человек придумал характерировать такие системы вероятностными оценками, не дает основания полагать, что там появилась информация.
Нет информации при формирования кристалла, поскольку молекулы в кристалле занимают места в кристаллической решетке не под воздействием других управляющих объектов, а в силу своих физико-химических свойств.
Если мы поместим рибосому с РНК в раствор аминокислот, то некоторое время будет синтезироваться цепочка белка. Но и этом процессе нет информации, т. к. молекулы этой системы тоже взаимодействуют в силу своих физико-химических свойств.
А вот если живая клетка в питательном растворе воспроизведет саму себя, то есть синтезирует свою копию, то тут появляется информация, поскольку клетка внесла определенность во взаимодействия питательных веществ и синтезировала свою копию, то есть создала структуру, которая тоже имеет способность самовоспроизводиться. Мера определенности этого процесса и есть информация.
Можно ли использовать темродинамические, энтропийные определения информации? Конечно, можно. Но результаты применения их будут мизерные. А вот понимание того, что информация - это мера определенности процессов взаимодействия в живых структурах, позволяет получить много важных решений. Только на основе такого понимания информации можно сформулировать исчерпывающее определение жизни, можно научно решить проблемы смысла жизни, происхождения нравственности, мировоззрений (и религиозных) и многие другие важные задачи. Об этом написано в книге "Ковчег жизни" (
http://vicoruc.narod.ru/).
С наилучшими пожеланиями,
07.08.03 Александр Викорук