Sari la conținut

Teoria probabilităților

De la Wikipedia, enciclopedia liberă

Teoria probabilităților este o ramură a matematicii care studiază modul în care se desfășoară fenomenele aleatoare, opuse celor numite deterministe. În lumea înconjurătoare, fenomenele deterministe ocupă doar o mică parte. Imensa majoritate a fenomenelor din natură și societate sunt stocastice (aleatoare). Studiul acestora nu poate fi făcut pe cale deterministă și, de aceea, știința hazardului a apărut ca o necesitate.

Aplicarea matematicii la studierea fenomenelor aleatoare se bazează pe faptul că, prin repetarea de mai multe ori a unui experiment, în condiții practic identice, frecvența relativă a apariției unui anumit rezultat (raportul dintre numărul experimentelor în care apare rezultatul și numărul tuturor experimentelor efectuate) este aproximativ același, oscilând în jurul unui număr constant. Dacă acest lucru se întâmplă, atunci unui eveniment dat i se poate asocia un număr, anume probabilitatea sa. Această legătură între structura unui câmp de evenimente și număr este o reflectare în matematică a transformării calității în cantitate. Problema convertirii în număr a unui câmp de evenimente revine la a defini o funcție numerică pe această structură, care să fie o măsură a posibilităților de realizare a evenimentelor. Realizarea unui eveniment fiind probabilă, această funcție se numește probabilitate.

Scurt istoric

[modificare | modificare sursă]

Începuturile teoriei probabilităților sunt legate de numele matematicienilor Blaise Pascal și Pierre Fermat în secolul al XVII-lea, ajungând la probleme legate de probabilitate datorită jocurilor de noroc. Dezvoltarea teoriei probabilităților și cercetarea unor probleme nelegate de jocurile de noroc sunt legate de matematicienii: Abraham Moivre, Pierre-Simon Laplace, Carl Friedrich Gauss, Simon-Denis Poisson, Pafnuti Lvovici Cebîșev, Andrei Andreevici Markov în secolul XIX, iar în secolul al XX-lea Andrei Nikolaevici Kolmogorov și al lui Alexandr Iakovlevici Hincin.

Teoria probabilităților a fost aplicată și la studiul dinamicii particulelor microscopice ale sistem termodinamic de Maxwell și Boltzmann, în teoria cinetică a gazelor[1].

Probabilitatea evenimentelor aleatoare

[modificare | modificare sursă]

Clasificarea evenimentelor

[modificare | modificare sursă]

a) sigur - evenimentul apariției uneia din fețele 1,2,3,4,5,6 ale unui zar;
b) imposibil- evenimentul apariției feței 7 la aruncarea unui zar;
c) aleator - evenimentul apariției feței 3 la aruncarea unui zar.

Frecvența unui eveniment

[modificare | modificare sursă]
= , unde m reprezintă numărul de apariții E în cazul a n încercări.

Probabilitatea unor evenimente aleatoare

[modificare | modificare sursă]

În cazul unui număr n suficient de mare de experimente în care evenimentul E apare de m ori, frecvența relativă m/n poate fi socotită ca valoarea probabilităților. Această valoare se numește probabilitatea (statistică a) evenimentului E și se notează P(E); .

Evenimente incompatibile, contrare

[modificare | modificare sursă]
  • Evenimente incompatibile - evenimentele nu se produc simultan.
  • Evenimente contrare - producerea unuia înseamnă nerealizarea celorlalte.

Regula de adunare și cea de înmulțire

[modificare | modificare sursă]
  • Regula de adunare

Probabilitatea reuniunii unui număr de evenimente incompatibile este egală cu suma probabilităților acestor evenimente:
P(EEEE... E)=P(E)+P(E)+P(E)+ P(E)+...+P(E).

  • Regula de înmulțire
  • pentru evenimente independente: P(EF)=P(E) P(F)
  • pentru evenimente condiționate: P(EF)=P(F) P(E/F) Ex:·         Fie A și B dou ă evenimente: Pr(A ∩B) = Pr(A)·Pr(B|A) •Evenimente independente Pr(B|A) = Pr(B) A = {TAS mam ă > 140 mmHg}, Pr(A) = 0,10 • B = {TAS tat ă > 140 mmHg}, Pr(B) = 0,20 • Pr(A ∩B) = 0,05 • Evenimentele A Și B sunt dependente sau independente? Pr(A ∩B) = Pr(A)·Pr(B) – evenimente independente 0,05 ≠ 0,10·0,20 → evenimente dependent

Câmp de evenimente. Câmp Borel de evenimente

[modificare | modificare sursă]
  1. Mulțimea S e un element a lui B.
  2. Dacă două mulțimi E și E sunt elemente ale lui B atunci EE, EE sunt elemente ale lui B.
  3. Dacă mulțimile E, E, ..., E, ... sunt elemente ale lui B, atunci EE...E... și EE...E sunt de asemenea elemente ale lui B.
  • Câmp de evenimente - condițiile 1 și 2
  • Câmp Borel de evenimente - condițiile 1, 2, 3.

Sistemul de axiome Kolmogorov

[modificare | modificare sursă]

Axioma 1. Fiecărui eveniment aleator E din câmpul de evenimente îi este atașat un număr real nenegativ P(E) numit probabilitatea lui E.

Axioma 2. Probabilitatea evenimentului sigur S P(S)=1.

Axioma 3. Dacă evenimentele E, E sunt incompatibile două câte două, atunci P(EE... E)=P(E)+P(E)+...+P(E)
Axioma de adunare extinsă. Dacă apariția unui eveniment E echivalentă cu apariția unui oarecare eveniment E,..., E, ... incompatibile două câte două, atunci P(E)=P(E)+P(E)+...+P(E)+...

Variabile aleatoare și repartiții

[modificare | modificare sursă]

Variabilă aleatoare: variabila ia valori diferite în cazul mai multor experimente efectuate în aceleași condiții.
Variabila aleatoare discretă: poate lua un număr finit de valori.
Variabila aleatoare continuă: poate lua un număr infinit de valori.
Repartiția: mulțimea, a cărei elemente sunt perechile formate din valorile pe care poate să le ia variabila și probabilitatea corespunzătoare.

Valoarea medie și dispersia

[modificare | modificare sursă]

Valoarea medie

[modificare | modificare sursă]

Variabila aleatoare X ce ia valorile x și probabilitățile corespunzătoare p
=
Variabila continuă X și f(x) - densitatea de repartiție continuă
=

Valorile medii ale sumelor și produselor de variabile aleatoare

[modificare | modificare sursă]

Valoarea medie a sumei a două variabile aleatoare este egală cu suma valorilor medii a celor două variabile aleatoare M(Z)=M(X)+M(Y), unde Z=X+Y, tot variabilă aleatoare. Valoarea medie a produsului a două variabile aleatoare independente este egală cu produsul valorilor medii ale variabilelor aleatoare M(Z)=M(X)×M(Y).

Dispersia pentru o variabilă aleatoare discretă

[modificare | modificare sursă]

Dispersia σ² sau D(x) este o măsură pentru devierea de la medie. Se obține prin însumarea produselor dintre pătratul devierii de la medie (x - μ) și probabilitatea corespunzătoare.

Dispersia pentru o variabilă aleatoare continuă

[modificare | modificare sursă]

Dispersia σ² sau D(x) este o măsură pentru devierea de la medie. Se obține prin integrarea de la - ∞ la + ∞ a produsului dintre pătratul abaterii de la medie (x-μ) și densitatea de repartiție f(x).

Dispersia sumei a două variabile aleatoare independente

[modificare | modificare sursă]

Dispersia unei sume de două variabile aleatoare independente este egală cu suma dispersiilor celor două variabile σ²=σ²+σ²

Inegalitatea lui Cebîșev

[modificare | modificare sursă]

Fie X o variabilă discretă sau continuă cu valorile x, valoare medie μ și dispersia σ². Probabilitatea ca modulul diferenței (x-μ) să fie mai mare sau egal cu un număr oarecare ε>0 este mai mică sau egală cu câtul dintre dispersia σ² și pătratul lui ε.

Legea numerelor mari

[modificare | modificare sursă]
  • Jakob Bernoulli

Probabilitatea ca modulul diferenței dintre frecvența relativă a evenimentului E în cazul a n experimente (n suficient de mare) și probabilitatea p a evenimentului E să fie mai mic ca ε pozitiv, arbitrar de mic e aproximativ egală cu unu.

  • Pafnuti Cebîșev

Probabilitatea ca modulul diferenței dintre media aritmetică A a valorilor medii a n variabile aleatoare independente (n suficient de mare) și media aritmetică a variabilelor aleatoare să fie mai mică decât ε e aproximativ egală cu unu. .

  • Repartiția binomială (Bernoulli)
Legea de repartiție:
Media: μ = np
Dispersia: σ² = np(1-p)
Formula de recurență:
  • Repartiția Poisson

Este asemănătoare cu cea binomială, deosebindu-se prin faptul că n poate fi foarte mare (n-> ∞) și p foarte mic (p->0).

Legea de repartiție:
Media: a
Dispersia: a
Formula de recurență:
  • Repartiția Gauss (normală)
Densitatea de repartiție:
Media: μ=b
Dispersia: σ²=a²
  • Repartiția normală redusă
Densitatea de repartiție:
Media: μ=0
Dispersia: σ²=1

Cu ajutorul substituției λ=(x-μ)/σ și se face pentru a înlesni calculele.

  • Funcția de repartiție (integrala lui Gauss)

Teoreme limită pentru sume de variabile aleatoare independente

[modificare | modificare sursă]

Teorema Moivre-Laplace

[modificare | modificare sursă]

Unde n reprezintă experimentele, p probabilitatea ca E să apară și q=1-p probabilitatea ca E să nu apară.
->

Teorema limită centrală

[modificare | modificare sursă]

Dacă variabilele aleatoare independente două câte două x, x, ..., x au aceeași repartiție și dacă μ=M(x) și σ²=Δ²(x)>0 atunci variabila aleatoare urmează o repartiție normală redusă.

  • Mică enciclopedie matematică, Ed Tehnică, București (1980)
  • Nicolae Mihăileanu, Istoria matematicii, Editura Științifică și Enciclopedică, București, 1981

Legături externe

[modificare | modificare sursă]
  1. ^ * Nicolae N. Mihăileanu, vol. 2, (1981), p. 451