Статистические закономерности в природе

Автор работы: Пользователь скрыл имя, 29 Декабря 2010 в 00:26, контрольная работа

Краткое описание

Впервые в естествознании термин «статистические закономерности» прозвучал в XIX веке. В отличие от динамических, в статистических законах фигурируют не значения величин, а распределения вероятностей того, что рассматриваемые величины принимают те или иные значения. Сами величины являются случайными.

Первые статистические закономерности вводились на основе динамических (например, описание поведения газа на основе ньютоновских уравнений движения, записанных для каждой частицы, в принципе возможно, однако из-за большого числа частиц практически мы не можем проследить за поведением каждой из них, поэтому мы вынуждены пользоваться статистическими закономерностями).

Содержимое работы - 1 файл

КСЕ.doc

— 82.00 Кб (Скачать файл)

Введение

      О статистических закономерностях являются очень важными для современных  естественных наук.

      Сам термин «статистический» часто применяется  в естественных науках (статистическая механика, статистическая термодинамика, статистическая физика, статистическое наблюдение, статистическая оценка и т.д.).

      Дело  в том, что в естественных науках изучаются два типа закономерностей: динамические и статистические. Динамические закономерности позволяют делать абсолютно точные предсказания поведения природных объектов, статистические - вероятностные.

      Впервые в естествознании термин «статистические  закономерности» прозвучал в  XIX веке. В отличие от динамических, в статистических законах фигурируют не значения величин, а распределения вероятностей того, что рассматриваемые величины принимают те или иные значения. Сами величины являются случайными.

      Первые  статистические закономерности вводились  на основе динамических (например, описание поведения газа на основе ньютоновских уравнений движения, записанных для  каждой частицы, в принципе возможно, однако из-за большого числа частиц практически мы не можем проследить за поведением каждой из них, поэтому мы вынуждены пользоваться статистическими закономерностями).

      Очень быстро статистическое описание распространилось на механику и электродинамику.

      Но  в настоящее время преобладает  точка зрения, что статистические закономерности являются на самом деле более глубокими, более фундаментальными, чем динамические. Оказывается, вероятностное  поведение на микроскопическом уровне свойственно не только большим коллективам объектов, но и отдельным частицам (атомам, молекулам, элементарным частицам). 

      Точка зрения, что статистическое поведение  отдельных систем объясняется лишь наличием скрытых (непознанных) параметров, которые динамически описывают систему на более глубоком уровне,  находит все меньшее число сторонников.

      Статистический  смысл приобретают и законы сохранения. Эти законы представляют собой определенные запреты, налагаемые на процессы, протекающие  в природе. На их основании делают определенные выводы о том, что вероятность протекания некоторых природных процессов равна нулю.

      Важное  значение статистические закономерности приобретают в биологии, например, закономерности случайного комбинирования генов при скрещивании. Кроме  того, изучение наследственных изменений (мутаций) в целом ряде случаев позволяет сделать вывод о существовании вероятностных закономерностей. Генетика - принципиально статистическая теория.

     Эволюционные  законы являются статистическими. Познавая их, мы решаем такие важные проблемы, как возникновение и развитие жизни на Земле, изменение численности популяций, моделирование процессов, протекающих в живом организме и т.д. 
 
 
 
 
 
 
 
 
 
 
 

1. Особенности описания состояний объектов в статистических теориях

     Согласно  общепринятой терминологии под динамическими закономерностями (или теориями) понимаются закономерности, в которых связи всех физических величин однозначны. В статистических закономерностях (или теориях) однозначно связаны только вероятности определенных значений тех или иных физических величин, а связи между самими величинами неоднозначны. Общность этих теорий проявляется, прежде всего, в том, что все они вводят в качестве основного понятия состояние физической системы. Различие же между ними - в определении этого состояния. Например, в классической механике, являющейся динамической теорией, состояние задается координатами и импульсами материальных точек. В другой динамической теории - классической (феноменологической, эмпирической) термодинамике - состояние системы определяется давлением, объемом и температурой некоторой массы вещества. Эволюция этих состояний описывается соответствующими уравнениями - уравнением движения (в форме второго закона Ньютона) в механике и уравнениями переноса в термодинамике неравновесных процессов.

     В статистической механике состояние  системы определяется совершенно иначе: не положениями и импульсами частиц, а вероятностями того, что та или  иная частица имеет координаты и  импульсы в определенном диапазоне  возможных значений. Чтобы лучше  представить себе специфику такого подхода, рассмотрим конкретный пример. Пусть в результате многократного измерения координаты x некоторой частицы получено N значений, в общем случае отличающихся друг от друга,x1, x2, ..., xN . (1. 1)

     Чтобы наглядно представить эти значения, строят ступенчатый график, который называется гистограммой (рис.1). Для этого интервал [x min,       x max] на оси абсцисс, в который попадают все значения серии (1. 1), разбивают на k одинаковых по ширине интервалов x i, (i =1, 2 ..., k) и на каждом из них строят прямоугольник, высота которого равна относительному числу Ni/N значений из (1.1), попавших в соответствующий интервал, деленному на ширину интервала x. Тогда при достаточно больших Ni и N площадь каждого прямоугольника будет равна вероятности

     Pi = Ni / N

попадания результатов измерения (1. 1) в соответствующий интервал x i. 
Если теперь устремить N к бесконечности и одновременно ширину интервалов x - к нулю, то ступенчатый график - гистограмма - перейдет в плавную кривую r (x) (рис. 1), которая называется плотностью вероятности (или функцией распределения) случайной величины x. Смысл этой функции остается прежним: ее значение в той или иной точке x определяет вероятность dP того, что измеренное значение случайной величины x попадет в малый интервал [x, x + x]

     dP = r(x) dx . (1. 2)

     Таким образом, если в классической механике состояние N материальных точек (являющихся, например, теоретической моделью  идеального газа) задается значениями N радиус-векторов ri и N импульсов pi, то в статистической механике состояние тех же N материальных точек определяется функцией распределения r (r1, p1; r2, p2; ... rN, pN; t),  

        

     Рис.1. Гистограмма и плотность распределения вероятности случайной величины X 

с помощью, которой можно вычислить вероятность  того, что координаты и импульсы этих N точек находится между r1 и r1+dr1, p1 и p1+dp1, ..., rN и rN+drN, pN и pN +dpN.

     Эволюция  состояния в фундаментальных  статистических теориях определяется уравнениями движения, так же как и в динамических теориях. По заданному статистическому распределению в начальный момент времени однозначно определяется распределение в любой последующий момент времени. Никакого отличия в этом отношении от динамических теорий нет. В частности, в классической статистической механике эволюция функции распределения r (r1, p1; r2, p2; ...; rN, pN; t) со временем описывается с помощью уравнения Лиувилля, точное решение которого - практически недостижимая задача, так как число входящих в него переменных огромно. Поэтому используются приближенные статистические описания с помощью более простых функций распределения. Например, если система состоит из N одинаковых слабо взаимодействующих частиц, то состояние такой системы можно описать с помощью так называемой одночастичной функции распределения r (r, p, t), которая определяет среднее число частиц с определенными значениями координат и импульсов. Эта одночастичная функция распределения подчиняется гораздо более простому, чем уравнение Лиувилля, уравнению Больцмана. Главной особенностью статистических уравнений движения (Лиувилля, Больцмана и др.) является то, что их решения соответствуют необратимой трансформации функции распределения r к некоторому равновесному значению. Это означает, что какой бы ни была начальная функция распределения частиц (например, она может соответствовать ситуации, когда все частицы сосредоточены в каком-то определенном месте объема), в конце концов эта функция распределения, постепенно изменяясь, станет равновесной (в частности, будет соответствовать равномерному распределению частиц по объему). Таким образом, статистическая механика позволяет адекватно описать необратимое поведение системы, состоящей из большого числа частиц. 
 
 
 
 
 
 
 
 
 
 
 

     2. Энтропия и второе начало термодинамики

     Второе  начало термодинамики является фундаментальным законом природы. Оно охватывает самый широкий круг природных явлений и указывает направление, в котором самопроизвольно протекают термодинамические процессы.

     Второе начало термодинамики, как и первое, имеет несколько формулировок.

     Невозможен  круговой процесс, единственным результатом  которого является превращение теплоты, полученной от нагревателя, полностью  в работу.

     Невозможен  круговой процесс, единственным результатом которого является передача теплоты от менее нагретого тела к более нагретому.

     Эти формулировки показывают, что тепловые процессы являются необратимыми. Мерой  необратимости процесса, мерой хаотичности  является энтропия.

     К определению энтропии S можно прийти на основе анализа работы тепловых машин. Если система получает тепло или отдает тепло , то состояние ее меняется. Тогда, при изменении состояния системы, можно найти не саму энтропию, а только ее изменение, т. е.

     

               2.1.

     Для тепловой машины изменение энтропии нагревателя и холодильника равны:

     

     Формула справедлива для изотермического процесса и представляет собой термодинамическое определение энтропии. Энтропией называется термодинамическая величина, изменение которой в системе пропорционально ее тепловой энергии, деленной на абсолютную температуру. Для любого процесса можно найти бесконечно малое изменение энтропии, т. е. ее дифференциал

     dS = δQ / T             2.2.

     где - элементарная теплота

     В интегральной форме для любого процесса изменение энтропии равно 

     

     Найдем  изменение энтропии за один цикл для тепловой машины. Полное изменение энтропии за цикл больше или равно нулю

     ∆S = ∆S2-∆S1 ≥ 0           2.4.

     Знак  равенства ΔS = 0 относится к обратимым процессам, которые являются бесконечно медленными процессами.

     Знак  неравенства ΔS > 0 относится к необратимым процессам. В реальных системах все процессы необратимы. Например, расширение газа, выравнивание температуры.

     Таким образом, второе начало термодинамики  формулируется и как закон  возрастания энтропии (2.4).

     Во  всех необратимых процессах в  замкнутой системе энтропия всегда возрастает.

     Возрастание энтропии сопровождается выравниванием  температуры или плотности газа. Это можно связать с порядком и беспорядком. Под порядком будем понимать сосредоточение частиц или энергии в определенном месте пространства, а под беспорядком (хаосом) - равномерное распределение их во всем объеме. Тогда возрастание энтропии при совершающихся без внешних воздействий необратимых процессах отражает природное стремление систем переходить от состояния, более упорядоченного в состояние менее упорядоченное. Этот процесс сопровождается рассеянием (или диссипацией) энергии.

     Как мы видим, второе начало термодинамики  определяет направленность тепловых процессов в изолированных системах, они всегда протекают в сторону роста энтропии, в сторону увеличения беспорядка. Капелька туши растворяется во всем объеме, колечко сигаретного дыма тает, огонь костра гаснет, разрушаются горы, гаснут звезды и т. д. Вся практическая деятельность людей как в технике, так и в сельском хозяйстве, представляет собой не что иное, как создание из природных материалов искусственных структур, т. е. в том или ином смысле борьбу с самопроизвольным ростом энтропии.

     Возникновение упорядоченных структур возможно только в незамкнутых, т. е. в открытых системах. Открытой системой называется система, которая обменивается энергией и веществом с окружающей средой. В открытых системах энтропия может как возрастать, так и убывать в зависимости от знака .

     Трудами Ильи Пригожина (датский физик русского происхождения) строго доказано, что  в открытых системах, находящихся  в неравновесном состоянии, при  определенных условиях из хаоса может возникать порядок. Процесс возникновения из хаоса упорядоченных структур называется самоорганизацией. Процессы самоорганизации являются общими для живой и неживой природы.

     Феномен жизни является примером сохранения и увеличения упорядоченности и, следовательно, уменьшения энтропии. Жизненный цикл наблюдается только в открытых системах. Он включает в себя три стадии: рождение, развитие, смерть. На первых двух стадиях энтропия понижается, возникает и развивается структура. На этих стадиях живой организм поддерживает связь с окружающей средой. На третьей стадии система становится замкнутой, энтропия возрастает и достигает максимума. В этом смысле жизнь - это борьба с возрастанием энтропии. Человек существует, пока он активно поддерживает связь с окружающим миром, обменивается с ним энергией, веществом и информацией.  
 
 
 
 
 

Информация о работе Статистические закономерности в природе