Teoria probabilităților
Calitatea informațiilor sau a exprimării din acest articol sau secțiune trebuie îmbunătățită. Consultați manualul de stil și îndrumarul, apoi dați o mână de ajutor. Acest articol a fost etichetat în iunie 2014 |
Acest articol sau această secțiune are bibliografia incompletă sau inexistentă. Puteți contribui prin adăugarea de referințe în vederea susținerii bibliografice a afirmațiilor pe care le conține. |
Teoria probabilităților este o ramură a matematicii care studiază modul în care se desfășoară fenomenele aleatoare, opuse celor numite deterministe. În lumea înconjurătoare, fenomenele deterministe ocupă doar o mică parte. Imensa majoritate a fenomenelor din natură și societate sunt stocastice (aleatoare). Studiul acestora nu poate fi făcut pe cale deterministă și, de aceea, știința hazardului a apărut ca o necesitate.
Aplicarea matematicii la studierea fenomenelor aleatoare se bazează pe faptul că, prin repetarea de mai multe ori a unui experiment, în condiții practic identice, frecvența relativă a apariției unui anumit rezultat (raportul dintre numărul experimentelor în care apare rezultatul și numărul tuturor experimentelor efectuate) este aproximativ același, oscilând în jurul unui număr constant. Dacă acest lucru se întâmplă, atunci unui eveniment dat i se poate asocia un număr, anume probabilitatea sa. Această legătură între structura unui câmp de evenimente și număr este o reflectare în matematică a transformării calității în cantitate. Problema convertirii în număr a unui câmp de evenimente revine la a defini o funcție numerică pe această structură, care să fie o măsură a posibilităților de realizare a evenimentelor. Realizarea unui eveniment fiind probabilă, această funcție se numește probabilitate.
Scurt istoric
Începuturile teoriei probabilităților sunt legate de numele matematicienilor Blaise Pascal și Pierre Fermat în secolul al XVII-lea, ajungând la probleme legate de probabilitate datorită jocurilor de noroc. Dezvoltarea teoriei probabilităților și cercetarea unor probleme nelegate de jocurile de noroc sunt legate de matematicienii: Abraham Moivre, Pierre-Simon Laplace, Carl Friedrich Gauss, Simon-Denis Poisson, Pafnuti Lvovici Cebîșev, Andrei Andreevici Markov în secolul XIX, iar în secolul al XX-lea Andrei Nikolaevici Kolmogorov și al lui Alexandr Iakovlevici Hincin.
Teoria probabilităților a fost aplicată și la studiul dinamicii particulelor microscopice ale sistem termodinamic de Maxwell și Boltzmann, în teoria cinetică a gazelor[1].
Probabilitatea evenimentelor aleatoare
Clasificarea evenimentelor
a) sigur - evenimentul apariției uneia din fețele 1,2,3,4,5,6 ale unui zar;
b) imposibil- evenimentul apariției feței 7 la aruncarea unui zar;
c) aleator - evenimentul apariției feței 3 la aruncarea unui zar.
Frecvența unui eveniment
- = , unde m reprezintă numărul de apariții E în cazul a n încercări.
Probabilitatea unor evenimente aleatoare
În cazul unui număr n suficient de mare de experimente în care evenimentul E apare de m ori, frecvența relativă m/n poate fi socotită ca valoarea probabilităților. Această valoare se numește probabilitatea (statistică a) evenimentului E și se notează P(E); .
Evenimente incompatibile, contrare
- Evenimente incompatibile - evenimentele nu se produc simultan.
- Evenimente contrare - producerea unuia înseamnă nerealizarea celorlalte.
Regula de adunare și cea de înmulțire
- Regula de adunare
Probabilitatea reuniunii unui număr de evenimente incompatibile este egală cu suma probabilităților acestor evenimente:
P(EEEE...
E)=P(E)+P(E)+P(E)+
P(E)+...+P(E).
- Regula de înmulțire
- pentru evenimente independente: P(EF)=P(E) P(F)
- pentru evenimente condiționate: P(EF)=P(F) P(E/F) Ex:· Fie A și B dou ă evenimente: Pr(A ∩B) = Pr(A)·Pr(B|A) •Evenimente independente Pr(B|A) = Pr(B) A = {TAS mam ă > 140 mmHg}, Pr(A) = 0,10 • B = {TAS tat ă > 140 mmHg}, Pr(B) = 0,20 • Pr(A ∩B) = 0,05 • Evenimentele A Și B sunt dependente sau independente? Pr(A ∩B) = Pr(A)·Pr(B) – evenimente independente 0,05 ≠ 0,10·0,20 → evenimente dependent
Câmp de evenimente. Câmp Borel de evenimente
- Mulțimea S e un element a lui B.
- Dacă două mulțimi E și E sunt elemente ale lui B atunci EE, EE sunt elemente ale lui B.
- Dacă mulțimile E, E, ..., E, ... sunt elemente ale lui B, atunci EE...E... și EE...E sunt de asemenea elemente ale lui B.
- Câmp de evenimente - condițiile 1 și 2
- Câmp Borel de evenimente - condițiile 1, 2, 3.
Sistemul de axiome Kolmogorov
Axioma 1. Fiecărui eveniment aleator E din câmpul de evenimente îi este atașat un număr real nenegativ P(E) numit probabilitatea lui E.
Axioma 2. Probabilitatea evenimentului sigur S P(S)=1.
Axioma 3. Dacă evenimentele E, E sunt incompatibile două câte două, atunci P(EE...
E)=P(E)+P(E)+...+P(E)
Axioma de adunare extinsă. Dacă apariția unui eveniment E echivalentă cu apariția unui oarecare eveniment E,..., E, ... incompatibile două câte două, atunci P(E)=P(E)+P(E)+...+P(E)+...
Variabile aleatoare și repartiții
Variabilă aleatoare: variabila ia valori diferite în cazul mai multor experimente efectuate în aceleași condiții.
Variabila aleatoare discretă: poate lua un număr finit de valori.
Variabila aleatoare continuă: poate lua un număr infinit de valori.
Repartiția: mulțimea, a cărei elemente sunt perechile formate din valorile pe care poate să le ia variabila și probabilitatea corespunzătoare.
Valoarea medie și dispersia
Valoarea medie
Variabila aleatoare X ce ia valorile x și probabilitățile corespunzătoare p
=
Variabila continuă X și f(x) - densitatea de repartiție continuă
=
Valorile medii ale sumelor și produselor de variabile aleatoare
Valoarea medie a sumei a două variabile aleatoare este egală cu suma valorilor medii a celor două variabile aleatoare M(Z)=M(X)+M(Y), unde Z=X+Y, tot variabilă aleatoare. Valoarea medie a produsului a două variabile aleatoare independente este egală cu produsul valorilor medii ale variabilelor aleatoare M(Z)=M(X)×M(Y).
Dispersia pentru o variabilă aleatoare discretă
Dispersia σ² sau D(x) este o măsură pentru devierea de la medie. Se obține prin însumarea produselor dintre pătratul devierii de la medie (x - μ) și probabilitatea corespunzătoare.
Dispersia pentru o variabilă aleatoare continuă
Dispersia σ² sau D(x) este o măsură pentru devierea de la medie. Se obține prin integrarea de la - ∞ la + ∞ a produsului dintre pătratul abaterii de la medie (x-μ) și densitatea de repartiție f(x).
Dispersia sumei a două variabile aleatoare independente
Dispersia unei sume de două variabile aleatoare independente este egală cu suma dispersiilor celor două variabile σ²=σ²+σ²
Inegalitatea lui Cebîșev
Fie X o variabilă discretă sau continuă cu valorile x, valoare medie μ și dispersia σ². Probabilitatea ca modulul diferenței (x-μ) să fie mai mare sau egal cu un număr oarecare ε>0 este mai mică sau egală cu câtul dintre dispersia σ² și pătratul lui ε.
Legea numerelor mari
- Jakob Bernoulli
Probabilitatea ca modulul diferenței dintre frecvența relativă a evenimentului E în cazul a n experimente (n suficient de mare) și probabilitatea p a evenimentului E să fie mai mic ca ε pozitiv, arbitrar de mic e aproximativ egală cu unu.
- Pafnuti Cebîșev
Probabilitatea ca modulul diferenței dintre media aritmetică A a valorilor medii a n variabile aleatoare independente (n suficient de mare) și media aritmetică a variabilelor aleatoare să fie mai mică decât ε e aproximativ egală cu unu. .
Repartiții
- Repartiția binomială (Bernoulli)
- Legea de repartiție:
- Media: μ = np
- Dispersia: σ² = np(1-p)
- Formula de recurență:
- Repartiția Poisson
Este asemănătoare cu cea binomială, deosebindu-se prin faptul că n poate fi foarte mare (n-> ∞) și p foarte mic (p->0).
- Legea de repartiție:
- Media: a
- Dispersia: a
- Formula de recurență:
- Repartiția Gauss (normală)
- Densitatea de repartiție:
- Media: μ=b
- Dispersia: σ²=a²
- Repartiția normală redusă
- Densitatea de repartiție:
- Media: μ=0
- Dispersia: σ²=1
Cu ajutorul substituției λ=(x-μ)/σ și se face pentru a înlesni calculele.
- Funcția de repartiție (integrala lui Gauss)
Teoreme limită pentru sume de variabile aleatoare independente
Teorema Moivre-Laplace
Unde n reprezintă experimentele, p probabilitatea ca E să apară și q=1-p probabilitatea ca E să nu apară.
->
Teorema limită centrală
Dacă variabilele aleatoare independente două câte două x, x, ..., x au aceeași repartiție și dacă μ=M(x) și σ²=Δ²(x)>0 atunci variabila aleatoare urmează o repartiție normală redusă.
Bibliografie
- Mică enciclopedie matematică, Ed Tehnică, București (1980)
- Nicolae Mihăileanu, Istoria matematicii, Editura Științifică și Enciclopedică, București, 1981
Legături externe
Vezi și
- ^ * Nicolae N. Mihăileanu, vol. 2, (1981), p. 451