Меню
Поиск



рефераты скачать Энтропия. Теория информации

Критики теории Дарвина утверждали, что случайная изменчивость способна только нарушить изначальную целостность организма как слаженно функционирующей системы. В результате снижается их адаптация по отношению к условиям существования, а следова­тельно, уменьшаются шансы на закрепление эти случай­но возникших признаков в последующих поколениях.

В ответ на подобную критику и сам Дарвин, и его последователи обычно ссылались на длительность сроков биологической эволюции, которая, по их утверждениям, исчисляется миллиардами лет. Неубедительность подобной аргументации можно проиллюстри­ровать следующим наглядным примером.

Представим себе, что некий доморощенный «изобретатель», не имеющий никаких представлений ни о принципах телевиде­ния, ни о схеме имеющейся в его распоряжении конкретной модели, решил, что он сможет получить дополнительные те­леканалы путем случайной перепайки концов внутренних про­водов. Чем больше времени будетдлиться подобная процедура, тем труднее будет возвратить в рабочее состояние телевизор, над которым произведен подобный эксперимент.

А ведь не только телевизор, но даже и самый совершенный из современных компьютеров в отношении сложности не может идти ни в какое сравнение с представителями даже самых простейших биологических форм. Ведь не случайно даже самый сложный компьютер после отказа поддается восстановлению, а любой живой организм после нарушения его жизненных функций еще никто из людей не сумел «оживить».

Длительный срок эволюции не может служить аргументом, под­тверждающим возможность случайного возникновения ни новых полезных признаков, ни, тем более, новых сложных и совершенных биологических форм.

Биосистемы на­столько сложны по своей структуре и функциям, что есть все осно­вания предполагать, что все иерархические уровни их структуры могут вносить свою лепту в процессы упорядоченного функциони­рования и адаптационных изменений этих систем.

Об этом свидетельствуют, в частности, результаты новейших исследований в области неравновесной термодинамики, исследующей механизмы процессов самоорганизации неорга­нических систем.

Оказалось, что в системе, еще находящейся в состоянии равновесия, которому соответствует предельный хаос движения молекул и атомов, уже заложены потенциально так называемые атракторы – различные варианты структур. Реализация этих структур произойдет только в том случае, если какие-то внешние факторы заставят систему отклониться от равновесного состояния, а затем случайные флуктуации направят процесс по одному из заранее обусловленных путей .

И тут опять возникает вопрос, на который рациональная наука не в состоянии дать ответ: кем же выбраны именно эти структуры? Кто запретил в точках так называемых бифуркаций одни варианты формирующейся структуры, но разрешил другие? Кто заложил структурные признаки симметрии и асимметрии, одни и те же, или весьма сходные и для неорганических, и для живых систем ?

Еще раз подчеркнем, что, проводя исследования на различных иерархических уровнях информационно-энтропийной спирали (т.е. на уровне неорганических, биологических, интеллектуальных сис­тем), наука способна фиксировать лишь сами процессы функциони­рования различных информационных структур, оставляя за скобками вопросы о том, почему они функционируют именно так, а не иначе, где и как формируются правила, согласно которым в результате координированного взаимодействия всех структурных уровней иерархической спирали функционирует сложнейшая сис­тема -живой организм.

Сам собой напрашивается вывод, что эти правила могут формироваться только на уровне Логоса, откуда они транслируются на все нижележащие уровни и обеспечивают их согласованное функционирование и ту гармонию, которой обладает всякий живой организм.

В поисках истоков этой гармонии некоторые ученые-эволюцио­нисты готовы признать правомерность телеологических эволюционных концепций . Но если у эволюции биологических форм есть какие-то конечные цели, то они были заданы изначально не кем иным, как Творцом не только всех биологических форм, но и всей биосферы как цельного, гармонично функционирующего компонента земного мира.

Не находит в науке ответа также вопрос о том, что может служить стимулом самопроизвольного усложнения организмов, то есть движения по ступеням иерархической лестницы от однокле­точных к многоклеточным, от прокариот к эукариотам, от беспозвоночных к позвоночным и т.д. Борьба за существование не может служить объяснением подобных тенденций, поскольку в отношении выживаемости постейшие организмы не уступают сложнейшим. Здесь приходится согласиться с известным англий­ским публицистом Сэмом Батлером, сказавшим однажды, что ни одна теория эволюции не отвечает на вопрос, почему развитие биосистем должно идти в направлении не от слона к амебе, а от амебы к слону.

ЭТАПЫ РАЗВИТИЯ ТЕОРИИ ЭНТРОПИИ

. Функция энтропии была введена в термодинамику Р.Клаузиусом, предложившим исчислять превращение энтропии по формуле:

D S =

DQ

(1.1)

T

 

где S - энтропия ;

Q - количество тепла ;

Т - абсолютная температура .

При передаче тепла D Q от более разогретого тела с температу­рой Т1 к менее разогретому телу с температурой Т2 превращение

энтропии D S равно:

D S =

- DQ

+

+DQ

(1.2)

T1

T2

 

Из формулы (1.2) с учетом условия T1  > T2 следует вывод :

D S > 0

(1.3)

 

Поскольку во всех физических процессах тепло перетекает самопроизвольно от более разогретых к менее разогретым телам, условие (1.3) приобретает силу физического закона, получившего название Второго начала термодинамики.

Пока существует разность температур T1  – T2, часть теплового потока может быть преобразована в полезную (антиэнтропийную) энергию либо в естественно протекающих процессах (например, биологических), либо с помощью тепловых машин.

При условии T1 = T2 энергия полностью утрачивает свои антиэнтропийные свойства. Этот вывод был положен в основу теории тепловой смерти Вселенной.

Заметим, что сам термин «энтропия» был введен Клаузиусом, образовавшим его от корня греческого слова «тропе», означающего «превращение» с добавлением заимствованной из слова «энергия» приставки «эн-».

. Предложенная Клаузиусом формула энтропии (1.1) не раскрывала внутренних механизмов процессов, приводящих к воз­растанию энтропии.Эта задача была решена Л.Больцманом, предложившим исчислять энтропию идеального газа по формуле :

S = K H

(1.4)

где K= 1,38 · 10 -16 эрг/градус – коэффициент Больцмана

Н - математическая энтропия.

Согласно Больцману, величина H определяется так :

H = ln

N !

(1.5)

N1 ! N2 ! … Nk !

где N - общее число молекул газа, находящегося в рассматриваемом объеме.

Ni - число молекул, движущихся со скоростями, соответствующими i-ой ячейке условного пространства скоростей.

При этом 1= 1,2, ... К                                                                           ( 1.6)

Условие (1.6) означает, что все N молекул распределены по соответствующим ячейкам пространства скоростей, в количествах N1, N2, … Nk,, учитываемых уравнением (1.5)

Согласно (1.5) перестановка молекул, находящихся внутри каждой из ячеек, не влияет на величину Н . Отсюда следует, что подсчитанная по формуле (1.5) величина Р соответствует числу возможных микросостояний системы (в частности газа), при ко­тором макросостояние системы остается неизменным.

. М.Планк преобразовал формулу Больцмана (1.5), исполь­зовав для этого математическую формулу Стирлинга, справедливую для больших значений N :

ln(N !) = Nln N – N

       (1.7)

В результате подстановки (1.7) в (1.5) получается соотношение :

H  = Nln N – N –(S Ni ln Ni  – S Ni)


i


i


С учетом условия S Ni = N, выражение для Н приводится к виду:

H = Nln N –S Ni ln Ni 

(1.8)


i


Далее Планк ввел в рассмотрение вероятности различных сос­тояний молекул, определив их как :

pi =

Ni

(1.9)

N

При этом второе слагаемое в правой части (1.8) можно пред­ставить как:

S  Ni ln Ni =S pi N ( ln pi + ln N ) = N S pi ln pi + N ln N Si pi

(1.10)

i

 

i

 

i

 

i

 


С учетом известного из теории вероятностей условия норми­ровки S pi = 1, подстановка (1.10) в (1.8) приводит выражение для Н к окончательному виду :

H = –S pi ln pi 

(1.11)


i



Проделанные Планком с помощью формулы Стирлинга чисто формальные преобразования не только позволили получить новое выражение для исчисления энтропии, но помогли более глубоко осознать смысл вычисляемой величины Н . Выражение (1.11) позволяет сделать два важных вывода :

1. Введение в формулу энтропии значений вероятностей расширило рамки применимости этой формулы далеко за пределы исследуемых термодинамикой молекулярных систем. Символ pi может обозначать вероятность не толь­ко тех или иных состояний молекул, но и различных сост­ояний элементов любых систем (в частности, вероятностей появления букв текста или других символов пер­едаваемых сообщений).

2. Выражение (1.11) соответствует полной энтропии системы. Поделив подсчитанную по формуле (1.11) величину на Ni , можно определить усредненную величину энтропии Н , относящуюся к одному элементу рассматриваемой системы, т.е.




(1.8)

  H = –S pi ln pi 


i


Именно в таком виде использовал функцию энтропии Шеннон для определения среднего значения энтропии одной буквы текста (опуская при этом знак усреднения).

. Согласно Шеннону, средняя энтропия одной буквы текста вычисляется по формуле (1.2) путем суммирования слагаемых pi log pi , в которых символом pi , обозначены вероятности соот­ветствующих букв. Таким образом :


i=я


(1.13)

H = –S pi ln pi  = - (pа log pа + pб log pб +…+  pя log pя)


i=а


Для удобства исчисления энтропии сообщений, передаваемых двоичным кодом, Шеннон заменил используемый термодинамикой натуральный логарифм ln двоичным логарифмом log2.

МЕТОДЫ ИСЧИСЛЕНИЯ КОЛИЧЕСТВА СТРУКТУРНОЙ ИНФОРМАЦИИ И ИНФОРМАЦИОННОЙ ЭНТРОПИИ ТЕКСТОВ

До опубликования созданной К.Шенноном теории Р.Хартли предложил определять количество информации по формуле :

I = log2 N

(2.1)

где I - количество информации ;

N - число возможных (ожидаемых) сообщений.

Для учета различной степени неожиданности (вероятности) сообщений К.Шеннон предложил использовать заимствованную из статистической физики вероятностную функцию энтропии, приве­денную к виду (1.13)

В случае равной вероятности появления любой из N букв алфавита выполняется условие:

Pа = Pб = Pв = … = Pя = 1/N

(2.2)

В результате подстановки (2.2) в (2.1) и с учетом того, что:

- log1/N = + log N

получаем :

H = – (

1

log

1

)=log N

(2.3)

N

N

Сопоставляя (2.1) и (2.3), приходим к выводу, что количество информации, вычисляемое по формуле Хартли, соответствует ус­транению неопределенности Н при получении сообщения об одной из букв алфавита, при условии равной вероятности появления любой из букв (условие 2.2).

При равных вероятностях появления всех букв алфавита текст становится наиболее хаотичным. Подсчитанная по формуле (2.3) величина информационной энтропии достигает максимальной ве­личины :

Hmax = log N

(2.4)

За единицу количества информации принята величина ин­формации, содержащейся в сообщении об одном из двух равновероятных событий.

До получения сообщения выполняются условия :

P1 = P2 =

Страницы: 1, 2, 3, 4, 5




Новости
Мои настройки


   рефераты скачать  Наверх  рефераты скачать  

© 2009 Все права защищены.