Всяко случайно събитие може да се характеризира чрез някаква величина, която получава в резултат на настъпването му една от възможните си стойности. Тъй като при всяка реализация на един експеримент със случаен изход тази величина приема различни стойности (които са неизвестни отнапред), тя се нарича случайна. Случайните величини се делят на дискретни или непрекъснати според типа на множествата от стойности, които могат да заемат.
В абстрактната теория
на вероятностите случайните величини се дефинират като функции Х,
дефинирани в пространството на елементарните събития , чиито стойности са реални числа,
определени по такъв начин, че за всяко реално число х множеството от
елементарни събития w, за които
е събитие, т.е. елемент
от алгебрата на събитията в
.
Така дефинираните функции обаче са сложни за практическо използуване, понеже нямат аналитични свойства. Поради тази причина вместо самите случайни величини се разглеждат други функции, свързани с тях - т.нар. функции на разпределение. Това е едно от главните различия между стохастиката и традиционния математичен анализ - в анализа функциите се разглеждат сами по себе си, а тук свойствата на случайните величини (които са функции), се разглеждат с помощта на други функции - функциите на разпределение. Оказва се, че познаването на вида на функцията на разпределение на една случайна величина позволява да бъдат изучени всички нейни свойства, и в този смисъл функциите на разпределение са предмет на централен интерес в стохастиката.
Функцията на разпределение се определя така:
ако е случайна величина и
е реално число, то вероятността за
събитието (
) е функция на
и се нарича функция на
вероятностното разпределение на случайната величина
:
. (1)
Чрез последователното
увеличаване на аргумента се обхващат последователно
все повече елементарни събития от пространството
.
Поради това, ако
е
дискретна случайна величина,
е
стъпаловидна функция, която се изменя със скок всеки път когато се включи ново
събитие от
. В общия случай
е монотонно нарастваща функция, т.е.
за всяко
е в сила:
(спомнете си следствието в раздел
2.2: Ако
, то
!).
От определението следва:
(2)
Специален интерес
представлява не само (и не толкова) функцията ,
а нейната производна по аргумента й (разбира се, ако такава съществува):
, (3)
която се нарича плътност
на вероятностното разпределение (вероятностна плътност) на случайната
величина . Тя е
пропорционална на вероятността за събитието
-
т.е. след експеримента случайната величина
да
се окаже в един безкрайно малък интервал около числото
. Очевидно:
(4)
(5)
В частност:
(6)
Често ние се интересуваме освен от дадена случайна величина още и от някакви други величини, които са нейни функции. Всяка функция на една случайна величина е също случайна величина, доколкото също заема различни стойности при различни реализации на един и същ експеримент (в абстрактната теория на вероятностите това твърдение се доказва последователно за сума от случайни величини, умножение на сл.величина с число и т.н.). Следователно тя има също вероятностна функция на разпределение, както и вероятностна плътност.
Средна стойност
(математическо очакване) на една дискретна случайна величина се нарича сумата от всевъзможните
стойности на тази величина, умножени по съответните им вероятности:
(1)
Средната стойност на
случайната величина обаче не е случайна величина. Тя всъщност не
зависи от , тъй като в (1) се сумира
по всички възможни стойности на случайната величина. Средната стойност
не е функция, а функционал на
, т.е.
правило, по което на една функция (случайната величина
), се съпоставя едно число – нейното
математическо очакване.
Ако е някаква зададена функция на
случайната величина
, средната стойност
на функцията
се определя така:
(2)
При непрекъснати случайни величини тези формули се обобщават непосредствено:
(3)
(4)
Сега ще разгледаме една функция от специален вид:
(5)
Нейното математическо очакване:
(6)
се нарича момент
от ранг к на случайната величина спрямо
точката
.
Особен интерес представляват моментите спрямо средната стойност на случайната величина:
(7)
Те се наричат централни
моменти на случайната величина .
Причината за специалното предпочитание към централните моменти се основава на
обстоятелството, че функцията
има
минимум при
поне при
.
Очевидно, винаги е в
сила: . Следователно,
е най-низшият по порядък централен
момент, който има нетривиална стойност. Той съдържа информация за отклонението
на случайната величина от средната й стойност. Централният момент от втори
порядък
се нарича дисперсия
(variance) на случайната величина
.
Ето няколко синонимни означения, използувани в различни книги:
Моментите на случайните величини имат и физична интерпретация:
При множество
измервания на една и съща случайна величина резултатите се групират предимно
около една “истинска” стойност на тази величина. Или, казано по-точно,
по-вероятно е да се получат (и по-често се получават) стойности близо до
някакво число (напр. ), отколкото
такива, които са далеч от него. Вероятностната плътност на случайната величина
тогава ще има типичната и често срещана камбановидна форма. Математическото
очакване може да се интерпретира като оценка за действителната стойност на
измеряемата величина. Изразът за него прилича на този за координатите на
центъра на масите на едно (едномерно) тяло. Дисперсията пък в такъв случай може
да се интерпретира като израз за инерчния момент на такова тяло (относно
центъра на масите му), и тя е мярка за разсейването на резултатите от
измерванията около средната им стойност. Ако дисперсията е малка, измерванията
могат да се разглеждат като по-точни (тъй като по-голяма част от тях са близо
до средната стойност).
Дисперсията е
квадратична мярка (тя има размерността на квадрата на изследваната случайна
величина). Затова се използува величината ,
която се нарича средноквадратично (стандартно) отклонение на
случайната величина
. Обикновено
именно тази величина се посочва като мярка за грешката
(правилният термин е статистическата неопределеност) на
и се пише:
.
В много случаи математическото очакване и дисперсията не дават достатъчна информация за изследваните случайни величини; затова за по-пълното им характеризиране се използуват и моменти от по-висок ред.
Третият централен
момент характеризира
несиметричността на вероятностното разпределение около математическото
очакване. Прието е безразмерната величина
(8)
да се използува за
количествена характеристика на различията между относителния дял на
положителните и отрицателните отклонения от средната стойност. Тази величина се
нарича асиметрия (skew) на разпределението на случайната
величина. За симетрични разпределения (които се представят с четни функции на
вероятностната плътност) .
Четвъртият централен
момент определя характера на
максимума в точката на математическото очакване при симетрични разпределения.
За количествена характеристика се приема безразмерната величина
(9)
която се нарича ексцес (kurtosis).
Величините асиметрия и
ексцес са въведени чрез равенствата (8) и (9) така, че за най-често срещаното
разпределение - нормалното - те да са нули: ,
. При
по-голямата
част от вероятностното разпределение се намира вдясно от математическото
очакване (респ. обратното). При
пък
максимумът на вероятностната плътност е по-остър от този при нормалното
разпределение с параметри като в равенството (9), съответно при
максимумът на разпределението е
по-тъп от този на нормалното разпределение.
По-висшите моменти на
разпределенията рядко се използуват. Трябва да се отбележи, че колкото по-голям
е рангът на даден момент, толкова
по-голям е приносът на отдалечените от средната стойност участъци от функцията
на вероятностната плътност (тъй наречените "опашки" на разпределението)
при определянето на к-ия момент.
Освен важността на отделните моменти, съществено теоретично значение има и пълният набор от всички моменти (централни или нецентрални) на даденото разпределение. Нецентралните моменти се дефинират така:
(10)
Доказва се (това ще видим малко по-нататък), че при много общи условия (които са изпълнени за всички разпределения, представляващи практически интерес) съвкупността от всички моменти напълно определя вероятностното разпределение. Има случаи, когато е по-лесно да се построят моментите на едно неизвестно разпределение, отколкото самото разпределение (т.е. вероятностната му плътност). Това позволява тогава да се построи и самото разпределение чрез неговите моменти.
В сила е по-конкретно следното твърдение (теорема):
Ако и
са
две вероятностни плътности, всичките съответни нецентрални моменти на които са
равни, и ако разликата
е разложима в
степенен ред, то
.
Ние ще установим верността на това твърдение. Нека означим:
и нека моментите на двете функции са
съответно
Тогава:
откъдето следва, че (тъй като подинтегралната функция е
неотрицателна и тогава горният интеграл е 0 тогава и само тогава, когато самата
подинтегрална функция е тъждествено равна на нула).
При зададена
вероятностна плътност пресмятането на
моментите
не представлява проблем.
Проблем представлява обаче често самото намиране на вероятностната плътност,
която да описва адекватно процеса на измерването на изучаваната случайна
величина.
1. Ако , то:
(1)
(2)
От последното равенство следва:
(3)
2. Разглеждаме функцията
(4)
Тази функция е също случайна величина. Нейното математическо очакване е:
(5)
Дисперсията на случайната величина (4) е:
(6)
Така определената
функция се нарича приведена
(стандартизирана, нормирана) случайна величина. Такива величини са
удобни с това, че математическото им очакване е винаги нула, а дисперсията -
винаги единица. Таблиците и процедурите за компютърни пресмятания на
статистическите разпределения като правило се дават именно за нормираните
случайни величини. Самите случайни величини (ненормираните) се получават от
нормираните чрез прости линейни трансформации (решавайки ур.(4) спрямо
).
Ето някои други мерки за характеристика на местоположението в статистическите разпределения:
мод, мода (mode)
се нарича стойността на аргумента,
която съответствува на максималната вероятност:
.
Тя може да се определи чрез диференциране на вероятностната плътност по
аргумента. Разпределенията с един максимум се наричат унимодални.
Такива са почти всички разпределения, които представляват интерес във физиката;
медиана (median)
се нарича стойността на аргумента, която
съответствува на
. Медианата дели
дефиниционната област на вероятностната плътност на две части, във всяка от
които случайната величина попада с равна вероятност (т.е. това са две
равноплощни части на разпределението). За симетричните разпределения
математическото очакване, модата и медианата съвпадат;
по-общо квантил (quantile) на ниво ,
се
нарича стойността на аргумента
, за
която:
. Така че медианата е
квантилът на ниво 1/2. Квантилите на нивата 1/4, 2/4, 3/4 се наричат квартили
, на нивата 0.1, 0.2,...0.9 се наричат децили, а на
нивата 0.01, 0.02,..., 0.99 - процентили. За често използуваните
разпределения най-важните квантили са дадени в таблици и има готови
изчислителни процедури за тяхното пресмятане.