Математические основы теории надёжности информационных систем

Автор работы: Пользователь скрыл имя, 09 Апреля 2012 в 18:29, реферат

Краткое описание

Событие – всякий факт, который в результате опыта может произойти или не произойти.
Если в результате опыта непременно должно появиться хотя бы одно из нескольких событий, то эти события образуют полную группу событий.

Содержимое работы - 1 файл

Математические основы теории надёжности информационных систем.docx

— 62.61 Кб (Скачать файл)

Математические  основы теории надёжности информационных систем

3.1. Основные  понятия, аксиомы и теоремы  из теории вероятностей

Событие – всякий факт, который в результате опыта может произойти или не произойти.

Если в результате опыта непременно должно появиться  хотя бы одно из нескольких событий, то эти события образуют полную группу событий.

Суммой нескольких событий А1, А2, А3,…, Аназывается событие В, состоящее в появлении хотя бы одного из этих событий:

B=А123+…+Аn. (3.1)

Произведением нескольких событий А1, А2, А3,…, Аназывается событие С, состоящее в совместном появлении всех событий:

С=А1×А2×А3×…×А, (3.2)

Каждому случайному событию А поставлено в соответствие неотрицательное число Р(А), называемое его вероятностью.

Вероятность события  представляет собой численную меру степени объективной возможности (частоты) появления этого события.

В качестве единицы  измерения принимают вероятность  достоверного события. Все другие события – возможные, но недостоверные – будут характеризоваться вероятностями, меньшими единицы, составляющими какую-либо долю единицы.

Вероятность события А, вычисленная при условии, что имело место другое событие В, называется условной вероятностью события А и обозначается как

Русл(А)=Р(А/В)=РВ(А). (3.3)

Теорема сложения вероятностей: для произвольных событий А и В вероятность суммы этих событий выражается формулой

Р(А+В)=Р(А)+Р(В)–Р(А×В). (3.4)

Теорема умножения  вероятностей: вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную  при условии, что первое имело  место:

Р(А×В)=Р(А)Р(В/А)=Р(В)Р(А/В). (3.5)

Из этой теоремы  вытекают два следствия:

если событие А не зависит от события В, то событие В не зависит от события А;

вероятность произведения двух независимых событий равна  произведению вероятностей этих событий.

Формула полной вероятности: если событие В может осуществляться с одним из n несовместимых событий А1, А2, А3,…Аn, образующих полную группу и обычно называемых гипотезами, то полная вероятность события В определяется формулой

. (3.6)

Формула Бернулли: если произошло последовательно n независимых опытов, в каждом из которых событие А может произойти с одной и той же вероятностью q, то вероятность того, что событие А произойдет ровно m раз, определяется по формуле Бернулли или по биноминальному распределению:

, (3.7)

где

. (3.8)

Случайной величиной Х называется величина, которая в результате опыта может принять то или иное значение, причем неизвестно заранее, какое именно.

Дискретная случайная  величина – величина, принимающая только отделенные друг от друга значения, которые можно заранее перечислить.

Непрерывная случайная  величина – величина, возможные значения которой непрерывно заполняют некоторый промежуток.

Если дискретная случайная величина Х принимает значения х1, х2, х3,…, хс заданными вероятностями Р1, Р2, Р3,…, Рm, то соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями, называется законом распределения.

Непрерывная случайная  величина имеет бесчисленное множество  возможных значений, сплошь заполняющих  некоторый промежуток. А так как  сумма вероятностей отдельных значений случайной величины равна единице, то вероятность каждого значения должна стремиться к нулю. Поэтому вводится другая количественная характеристика – функция распределения, показывающая невероятность события Х=хкак закон распределения, а вероятность события Х < х, где х – некоторая текущая переменная.

. (3.9)

Функция F(x) существует как для прерывных, так и непрерывных случайных величин. Она является неубывающей, т.е.

, (3.10)

, (3.11)

, (3.12)

. (3.13)

Плотность распределения:

. (3.14)

Элемент вероятности dP – вероятность того, что случайная величина Х попадает на интервал dx около значения х:

dP = f(x)dx. (3.15)

Наибольшее применение в практических задачах надежности находят показательные (экспоненциальные) и нормальные теоретические функции  распределения для непрерывных  случайных величин и закон  Пуассона для дискретных случайных  величин.

Показательное (экспоненциальное) распределение имеет следующий  вид:

(3.16)

.

Нормальное распределение:

;

(3.17)

.

Закон Пуассона позволяет  определить вероятность того, что  случайная величина, значениями которой  могут быть только целые неотрицательные  числа, примет определенное значение

. (3.18)

Математическое  ожидание (среднее значение) случайной  величины Х, принимающей дискретные значения х1, х2, х3,…, xn, с вероятностями Р1, Р2, Р3,…, Рn определяется как

. (3.19)

Для непрерывной  случайной величины математическое ожидание определяется как

. (3.20)

Так, имеем

для экспоненциального  распределения:

; (3.21)

для нормального:

, (3.22)

для закона Пуассона:

. (3.23)

Основные свойства математического ожидания:

–математическое ожидание постоянной С равно этой же постоянной:

М[С] = С; (3.24)

–постоянный множитель выносится за знак математического ожидания:

М[СХ] = СМ[Х]; (3.25)

–математическое ожидание суммы любых случайных величин (как угодно связанных) равно сумме их математических ожиданий:

М[Х+Y] = M[X]+M[Y]; (3.26)

–математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий:

М[ХY] = M[X]M[Y]. (3.27)

Дисперсия определяется как математическое ожидание квадрата уклонения случайной величины от ее математического ожидания:

; (3.28)

дисперсия экспоненциального  распределения:

; (3.29)

нормального распределения:

; (3.30)

закона Пуассона:

D= a. (3.31)

Основные  свойства дисперсии:

1) дисперсия постоянной С равна нулю:

; (3.32)

2) постоянный множитель выходит за знак дисперсии в квадрате:

; (3.33)

3) дисперсия суммы попарно независимых случайных величин равна сумме дисперсии слагаемых:

. (3.34)

Среднеквадратичное  отклонение случайной величины определяется как

. (3.35)

Если произведена  серия из n независимых опытов, в каждом из которых могло появиться или не появиться некоторое событие A, то отношение числа опытов m, в которых появилось событие A, к общему числу произведенных опытов называется частотой события А или статистической вероятностью события А:

. (3.36)

Оценку математического  ожидания, удовлетворяющую условию  состоятельности и несмещенности, можно произвести по формуле

. (3.37)

Дисперсия, удовлетворяющая  этим же условиям, оценивается по формуле

. (3.38)

Центральная предельная теорема позволяет определить закон  распределения случайной величины, которая может быть представлена как сумма других величин. Согласно этой теореме, если исследуемая случайная  величина может быть представлена в  виде суммы достаточно большого числа  независимых или слабо зависимых  элементарных слагаемых, каждое из которых  в отдельности сравнительно мало влияет на сумму, то закон распределения  этой случайной величины приближается к нормальному при увеличении числа слагаемых.

Практически центральной  предельной теоремой можно пользоваться и тогда, когда имеет место  сумма сравнительно небольшого числа  случайных величин. Опыт показывает, что когда число слагаемых  порядка десяти (а часто и меньше), закон распределения суммы обычно может быть заменен нормальным.

 

тема 5 

 

5.1. Аналитические  методы расчета надежности систем

Рассмотрим классификацию  и дадим краткую характеристику аналитических методов инженерной оценки надежности системы.

Решение задачи оценки надежности системы при использовании  любого аналитического метода включает три этапа:

1) составление формальной  модели исследуемой системы;

2) анализ модели  и составление расчетных формул;

3) выполнение вычислений, приводящих к искомому результату.

Аналитические методы оценки надежности систем отличаются главным образом видом используемых формальных моделей и математическим аппаратом, применяемым для их анализа  и получения расчетных формул. При классификации аналитических  методов используют два признака:

1) наличие или  отсутствие методической погрешности;

2) применяемый математический  аппарат.

По первому признаку аналитические методы подразделяются на два класса:

1) точные методы;

2) приближенные  методы.

В свою очередь точные методы разделены на две группы:

- методы, использующие  математический аппарат случайных  величин и случайных событий ;

- методы, использующий  математический аппарат теории  случайных процессов.

В первую группу входят два метода на основе аппарата случайных  событий (классический и логико-вероятностный  методы) и два метода, использующие аппарат случайных величин (W-метод и l-метод).

В основе классического  метода заложен вероятностный аппарат  теории случайных событий. Искомая  характеристика надежности (вероятность  отказа P(t) или безотказной работыQ(t) за время (0, t). Затем, применяя основные теоремы теории вероятностей, мы делаем переход к вероятностной мере.

Основу логико-вероятностного метода составляет объединение аппарата теории случайных величин с элементами алгебры логики. Искомая характеристика записывается в виде логического  выражения, над которым по правилам алгебры логики проводятся логические преобразования. Затем, как и в  классическом методе, осуществляется переход к вероятностному выражению.

В отличие от классического и логико-вероятностного методов, W-метод основан на аппарате теории случайных величин и теории функций случайных аргументов.

Искомая характеристика надежности представляется в виде распределения  некоторой случайной величины, имеющей  размерность времени, как функция  некоторого набора других случайных  величин. После этого осуществляется переход к выражению для искомой  характеристики надежности системы. К  основным недостаткам перечисленных  выше методов относится ограниченность их применения в случаях, когда:

1) существуют последействия  отказов;

2) элементы в  системе могут находиться более  чем в двух состояниях;

3) в определении  состояний системы играют роль  временные соотношения;

4) в системе имеются  комбинации видов технического  обслуживания;

5) число состояний  в системе велико.

Вторую группу образуют два метода, использующие аппарат  теории марковских процессов (МП-метод и топологический метод), и два метода, основанные на аппарате полумарковских процессов.

МП-метод и топологический метод просты в обращении и  позволяют получать надежностные характеристики и показатели в явном виде как на начальном (длящемся от момента включения системы до первого отказа), так и на стационарном (потоки отказов и восстановлений системы считаются установившимися) участках функционирования системы. Различие этих методов заключается в том, что топологический метод в ряде случаев позволяет вычислять показатели надежности системы, не прибегая к составлению дифференциальных уравнений, а непосредственно по графу состояний.

Основными недостатками методов, основанных на этом математическом аппарате, является то, что:

1) существуют жесткие  ограничения на законы распределения  времени безотказной работы и  времени восстановления (они должны  быть экспоненциальными);

2) решение на  начальном участке функционирования  системы получается только в  виде преобразования Лапласа,  что исключает возможность дальнейшего  использования результатов в  практике.

ПМП-метод основан  на математическом аппарате теории полумарковских процессов с конечным множеством состояний и является обобщением МП-метода.

Анализ надежностных свойств системы этим методом проводится в предположении произвольности одного из законов распределения: времени безотказной работы или времени восстановления. В этом состоит основное отличие ПМП-метода от МП-метода.

Информация о работе Математические основы теории надёжности информационных систем