Ocw Uc3m TC Diapos t2 Ruido 2p

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 44

Teorı́a de la Comunicación

Grado en Ingenierı́a en Tecnologı́as de Telecomunicación

C AP ÍTULO 2
RUIDO EN LOS SISTEMAS DE COMUNICACIONES

Marcelino Lázaro

Departamento de Teorı́a de la Señal y Comunicaciones


Universidad Carlos III de Madrid

Creative Commons License

1 / 88

Índice de contenidos
Revisión de conceptos de probabilidad
I Variable aleatoria
I Procesos aleatorios
Caracterización del ruido en sistemas de comunicaciones
I Procesos blancos
I Procesos gausianos
I Suma de procesos aleatorios
I Modelo estadı́stico del ruido térmico
I Relación señal a ruido

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 2 / 88


Variable aleatoria (Real)
Función que asigna un valor numérico (real) a la salida de un
experimento aleatorio
..........................................................
............. ........
........
...... .....

q q
.... .... ⌦
.... ...
.... ...

q q
.. 2 4 ...
..
.. .... ....... .............................
⌦ ! IR .
... ...1...... ...
... .
...
.........................
.....
3
..........................
..... .
.. .........
.
..
.
.......
....
....
... . ......... ........ . ....
..... .
. ........ .
..... .. . ...
2 ⌦ ! X( ) 2 IR ......... .. .
.................
.. ..
.....
.
....
... ..........................................................
...... .................
. ..
.
.
...
.
...
...
..
.. ... ... ..
. ... ... ..
... ..
? ..
. ? ..
.. ? ..
..
. ?
..
.. -
X( 2 ) X( 1 ) X( 3 ) X( 4 ) R
I

Rango de X: RangoX = {x 2 IR : 9 2 ⌦, X( ) = x}
I V.a. discreta: rango formado por conjunto discreto de valores
I V.a. continua: rango continuo de valores
Descripción (probabilı́stica):
I Función de distribución: FX (x)
I Función densidad de probabilidad: fx (x)

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 3 / 88

Función de distribución
Definición
FX (x) = P(X  x)
Interpretación frecuencial (probabilı́stica)
nx
FX (x) = P(X  x) = lı́m
n!1 n

n : número de realizaciones de la variable aleatoria X


nx : número de resultados en las n realizaciones con X  x
1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 2 4 6 8 −5 0 5
Valores de la v.a.X Valores de la v.a.X

(a) Discreta (b) Continua

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 4 / 88


Estima de la función de distribución
4 1

3
0.8
2

1 0.6
0

−1 0.4

−2
0.2 Teórica
−3 Estimada

−4 0
0 100 200 300 400 500 −3 −2 −1 0 1 2 3
Realizaciones de la v.a. X Valores de la v.a.X

(a) Realizaciones (b) Estima de FX (x)

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 5 / 88

Propiedades de la función de distribución


1 0  FX (x)  1
2 x1 < x2 ! FX (x1 )  FX (x2 ) (FX (x) es no decreciente)
3 FX ( 1) = 0 y FX (1) = 1 ( lı́m FX (x) = 0, lı́m FX (x) = 1)
x! 1 x!1

4 FX (x+ ) = FX (x) (FX (x) es continua por la derecha)


5 FX (b) FX (a) = P(a < X  b)

P(a  X  b) = FX (b) FX (a )
P(a < X < b) = FX (b ) FX (a)
P(a  X < b) = FX (b ) FX (a )

6 P(X = a) = FX (a) FX (a )
7 P(X > x) = 1 FX (x)

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 6 / 88


Función densidad de probabilidad
Definición
d
fX (x) = FX (x)
dx

I V.a. discreta: puntos de masa pi = P(X = xi )


I Notación v.a. discreta: pX (xi ) = pi
Interpretación frecuencial (probabilı́stica)

P(x  X  x + x)
fX (x) = lı́m
x !0 x

1 nx
fX (x) = lı́m lı́m
x !0 x n!1 n

n : número de realizaciones de la variable aleatoria X


nx : número de resultados en las n realizaciones con x  X  x + x

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 7 / 88

Estima de la f.d.p.
4 0.5

3
0.4
2

1 0.3
0

−1 0.2

−2
0.1
−3

−4 0
0 100 200 300 400 500 −5 0 5
Realizaciones de la v.a. X Valores de la v.a.X

(a) Realizaciones (b) Estima de fX (x)

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 8 / 88


Propiedades de fX (x)
1 fX (x) 0
Z 1
2 fX (x) · dx = 1
1
Z b+
3 fX (x) · dx = P(a < X  b)
a+
Z
4 En general, P(X 2 A) = fX (x) · dx
A
Z x+
5 FX (x) = fX (u) · du
1

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 9 / 88

Variable aleatoria de Bernoulli


Variable aleatoria discreta con RangoX = {0, 1}
Parámetro: p = P(X = 1)
8
< 1 p, x = 0
fX (x) = p, x=1
:
0, en otro caso

Ejemplos de aplicación en comunicaciones


I Generador de datos binario
I Modelo de errores

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 10 / 88


Variable aleatoria Binomial
Número de 1’s en n experimentos de Bernoulli (indep.)
Parámetros: n, p.
RangoX = {0, 1, · · · , n}
⇢ n
· px · (1 p)n x , 0  x  n y x 2 Z
fX (x) = x
0, en otro caso

Ejemplo de aplicación en comunicaciones


I Número total de bits recibidos con error

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 11 / 88

Variable aleatoria uniforme


Variable aleatoria continua de parámetros a y b
I Notación: U (a, b)

⇢ fX (x) 6
1
b a, a<x<b
fX (x) =
0, en otro caso 1
b a
-
a b x
Ejemplo aplicación en comunicaciones
I Fase aleatoria en una sinusoide: v.a. uniforme entre 0 y 2⇡

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 12 / 88


Variable aleatoria gausiana (normal)
Parámetros: media (µ), y varianza ( 2 )
I Notación: N (µ, 2)

6f
X (x)
p1 ......
2⇡ .... ....
.
1 (x µ)2 .... .....
.
fX (x) = p ·e 2 2 .. ...
2⇡ .. ...
..... ...
...
..... ...
...
..
. . .....
......................... ........................ -
µ x
Ejemplo de aplicación en comunicaciones
I Modelado del ruido térmico

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 13 / 88

Interpretación de la función densidad de probabilidad


La f.d.p. indica cómo se distribuyen los valores que toma
una variable aleatoria
Rangos donde fX (x) toma valores elevados indican una
probabilida alta de que la variable aleatoria tome valores en
ese rango
I Por esta razón esta función puede utilizarse para el cálculo
de probabilidades sobre los posibles valores de una variable
aleatoria
Una f.d.p. se puede interpretar como un histograma llevado
al lı́mite
A continuación se muestran varios ejemplos
I Variable aleatoria uniforme
I Variable aleatoria gausiana

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 14 / 88


Realizaciones de una variable aleatoria uniforme

.u ..u ....u
u..u .u
..u ...uu
1
....u
. .
..... ...... ....u....
....... ....u....u.... .........
. . .
. ...... ...
....u .u
. .
...... .....u ................. .... ....
. .
.... .u ........ .... .
u
0.8
...u.....u.... u...u ......... ...... .... .... ........ .... ......... ...... .....u.... ......... ...u
. . . .
. . .
. ..
........
....... ....... ........ .... ............ ....u
0.6 ....... ........ .......... .... ... .... .. . . . .. .. . . . . .
......... ...u..u........ .... ...u.... .... .... ..u........ .... .... ...... ........ ........ ........ ..... .... ........ .......
u... .. ..
........ ... ........ ....u..... .... .... .... .u ..................... .... ................. .... .... ............ .... .... ....u .... ....u ............ .... ......... ........u......... ....u... ......... .... .....
0.4 .
.. . ...
. . . . . .u . . . ... . . . . . . . .. . . . . . . . . . . .u. . . . . . .
.... ....u...... .......... .... ..... ..... .... .... .... .......... ......... .... ..... .u.... .... ....u.... ......... ..... ..... ..... ...u .... .... ....uu.... .... .... .... .... .... ....u ...... ..... ...u.... .....
. .u . . . . . . .. u. .
0.2
.... ..u......... ....u..... ..... ........ ..... ...u.... ...u ..... .....u .... ......... ....u ..... ..... .... ......... ..... ..... ..... ..... ....u..... ..... ........ .... ........ ...u .... .....
. . . . . . .. . . . . .. . .. . .
..... ... ... ... ....... .. ... ..... ... ... u... ...... ...u.. ... ...u..u... .u...u.. ... ... ... .. ......u ..... ... ..... .... ...u...
0
...... ..... ... ..... ... ... ..... .. ... ... .. ..... ...... ... .. ...u... ...... ... .. ...u... ..u ...... ... ........ .... ..
.
....
...... ...... ... ... ... ...u ......... ... ... ..... ... ..... ...... ...u... ...u...... ... ..u... ... ... ... ...u... ....... ......
.......u .....
-0.2 .
.... ...... ... ... ...... u
...... .. .. ........... .. ..... .. .. .... ... ...... ... ...... ..u ... ... ...... ......
-0.4 .u... ... .
. . . . . . .
. .
..... ...u.. ..........
. . . . . .
.... ..... . .
. .u ... ......... ...... ..... .. ....
u....
... .. ... .. .....
... ..
... ..u .u .
.
.u .
. .
. . .
. .
. . . .
... .. ..... .... .
...u .u
.
..
. .
. .
. .
..
. ...u ...... ...u .....
...u
u
-0.6 . ..... ... .
..... .... .. ..... . ... .. ..... . . ......
. . . ... ..... ..u..
. . . . ....
......u... .u
... .. ... .. ...
......u
.....
.... ... ...... ... ..u
.u .u .u .. u ....u..u
-0.8
. .
-1 .u
0 20 40 60 80 100
Realización
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 15 / 88

Histograma con las 100 realizaciones de la variable aleatoria


uniforme
Histograma de la señal aleatoria xu(t). (100 puntos)
16

14

12

10

0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 16 / 88


Histograma con 10000 realizaciones de una variable
aleatoria uniforme

Histograma de la señal aleatoria xu(t). (10000 puntos)


250

200

150

100

50

0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 17 / 88

Realizaciones de una variable aleatoria gausiana


3
..u
......u .......
.....u ...u .........u .......
...u
2
......... u ....u .... .... ..u ..u ...u...... ....u uu u
.
........
...... ....... .....u.... ...u ....... .... ....
. . .
.
uu
......
.... ... ... .u .u...
..... ...... ....... .... ...
u. .
.. ...
......u.... .u ..... ....u.....u....u.... ..... ....u.... ....
. .
........ ...........u.... ..... .u.... .u.... ...u ....u.... ......... ......... ........ ..... ..... ....u
1 . . . .
.. . .
. . ... . . . . ... .. .. . .. .....
.. ....u ....... ... ........... .... .... ... ....... ..... u....u.u..u....u ..u .... .... .... .u........ .... ......u ..u.u.... ... .... .............u....... ....u.........u..u........ ... ....u
...u.u..u ......u.u... .. ..u...u ...... .. .. ... ..... ...... ..... ..... ... .. ..... .. ... ...u..u .... .. ..
. ... ... ... .. ...u...... ......... .. .. .... ..... ...
u u
.
..u..u.... .. .. .. ... .. ..... ........ ......... ...u.... .. ....u ... .u..
0
.....u..u.u..... ..u..u...... ......... ...u......
.
... .... .. . .. . .
. . . . . . .. ... . .. . . .. . . . . . . ... ... ...... ..... ........... ......... ... .. ...
... ...... ..... ....u .... ... ..u... .... ...u.. ..u.. ...u
...... ..... ..... .u ... ..u .u....u ... ...u..u.u ... .... ..u
u
........ .. .. .
..u.......
.... .u ...... ...u .... .u... ... ......
..... . .. ..... ..... ... ... .. .....
u
-1 ..... ..... . .
.u ...... ......
.... ...... ..... . ..... .
u
... ...... ......
u
... ....
.u .... .... ...... ......
-2 .u ... ...... ...
...... ...
.u
...
.... ..u
u
...
-3
0 20 40 60 80 100
Realización
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 18 / 88
Histograma con las 100 realizaciones de la variable aleatoria
gausiana
Histograma de la señal aleatoria xg(t). (100 puntos)
40

35

30

25

20

15

10

0
−3 −2 −1 0 1 2 3

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 19 / 88

Histograma con 10000 realizaciones de una variable


aleatoria gausiana

Histograma de la señal aleatoria x (t). (10000 puntos)


g
700

600

500

400

300

200

100

0
−4 −3 −2 −1 0 1 2 3 4

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 20 / 88


Función Q(x)
Función tabulada calculada numéricamente relacionada con la integral
de una distribución gausiana
Definición: probabilidad de que una variable aleatoria gausiana de
media nula y varianza unidad tome valores mayores que su argumento
1 x2
Si X ⇠ N (0, 1) ! fX (x) = N (0, 1) = p e 2 ! Q(x) = P(X > x)
2⇡
Z +1 Z +1
1 z2
Q(x) = fX (z) dz = p e 2 dz
x x 2⇡
Interpretación gráfica
I Sólo se tabula para x 0
I Para x < 0, dada la simetrı́a de f (x): Q( x) = 1 Q(x)
X

N (0, 1) x>0 x<0

µ=0 x x µ=0
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 21 / 88

Función Q(x) - Propiedades


Relación con la función de distribución de una v.a.
gausiana (con µ = 0, 2 = 1)
Z x
1 t2
FX (x) = P(X  x) = p · e 2 dt
1 2⇡
2
Función Q(x) = 1 FX (x) = P(X > x) para µ = 0, =1
Algunas propiedades de la función Q(x)
I Q( x) = 1 Q(x)
I Q(0) = 12
I Q(1) = 0

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 22 / 88


2
Integrales sobre distribuciones gausianas N (µ, )
2
Si la distribución gausiana tiene media µ y varianza
✓ ◆
x µ
P(X > x) = Q

Interpretación gráfica (considerando definición y simetrı́a)


2 x µ d
N (µ, ) Q =Q

d d

µ x x µ

x µ d d
Q =Q =1 Q
2
N (µ, )

d d

x µ µ x
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 23 / 88

2
Integrales sobre N (µ, ) en intervalos
En general se pueden escribir como sumas o diferencias de diferentes
términos involucrando integrales desde un punto a ±1, que ya hemos
visto como se obtienen utilizando la función Q(x)
Un ejemplo ilustrativo
2
N (µ, )

d1 d2

x1 µ x2
R x2 2
R1 2
R1 2
⇥ d1
⇤ ⇥ d2

x1
N (µ, )= x1
N (µ, ) x2
N (µ, )= 1 Q Q

d1 d2

x1 µ µ x2
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 24 / 88
Funciones de una variable aleatoria
Una función Y = g(X) de una v. a. es una variable aleatoria.
Función de distribución

FY (y) = P(Y  y) = P(g(X)  y)

FY (y) = P(x 2 BgX (y)), BgX (y) = {x 2 IR : g(x)  y}


Función densidad de probabilidad

XNr
fX (xi )
fY (y) =
i=1
|g0 (xi )|

I {xi }: raı́ces de la ecuación y = g(x)


I g0 (x): derivada de la función g(x)
I Condiciones: número finito de raı́ces, Nr y g(xi ) 6= 0 8xi

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 25 / 88

Momentos estadı́sticos
Valor esperado (media, o esperanza matemática)
Z 1
mX = E[X] = x · fX (x) dx
1

Valor esperado de una función de X (g(X))


Z 1
E[g(X)] = g(x) · fX (x) dx
1

Momento de orden n
Z 1
mnX = xn · fX (x) dx
1

Varianza
Z 1
2
⇥ 2

X = E (x mX ) = (x mX )2 · fX (x) dx
1
h i
NOTA: X2 = E (x mX )2 = E[X 2 ] (E[X])2 = E[X 2 ] (mX )2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 26 / 88


Propiedades de los momentos
E[X + Y] = E[X] + E[Y] = mX + mY (Operador lineal)
E[c] = c (para cualquier constante c)
E[c · X] = c · E[X]
E[X + c] = E[X] + c
Var(c) = 0
Var(c · X) = c2 · Var(X)
Var(X + c) =Var(X)

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 27 / 88

Variables aleatorias multidimensionales


Se puede trabajar de forma conjunta con dos variables
aleatorias definidas sobre el mismo espacio muestral ⌦
Modelado probabilı́stico conjunto
I Función de distribución conjunta

FX,Y (x, y) = P(X  x, Y  y)

I Función densidad de probabilidad conjunta

@2
fX,Y (x, y) = FX,Y (x, y)
@x@y

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 28 / 88


Propiedades de FX,Y (x, y) y fX,Y (x, y)
FX (x) = FX,Y (x, 1)

FY (y) = FX,Y (1, y)


Z 1
fX (x) = fX,Y (x, y) dy
1
Z 1
fY (y) = fX,Y (x, y) dx
1
Z 1 Z 1
fX,Y (x, y) dx dy = 1
1 1
Z Z
P((X, Y) 2 A) = fX,Y (x, y) dx dy
(x,y)2A
Z x Z y
FX,Y (x, y) = fX,Y (u, v) du dv
1 1

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 29 / 88

Función densidad de probabilidad condicionada


Conocimiento del valor de una variable modifica las
probabilidades de la otra
(
fX,Y (x,y)
, fX (x) 6= 0
fY|X (y|x) = fX (x)
0, en otro caso

Definición de independencia estadı́stica:

fY|X (y|x) = fY (y)

fX|Y (x|y) = fX (x)

I Implicación: para variables aleatorias independientes

fX,Y (x, y) = fX (x) · fY (y)

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 30 / 88


Momentos estadı́sticos
Valor esperado de una función g(X, Y)
Z 1 Z 1
E[g(X, Y)] = g(x, y) · fX,Y (x, y) dx dy
1 1

Casos particulares
I Correlación: g(X, Y) = X · Y
I Covarianza: g(X, Y) = (X mX ) · (Y mY )

Implicación de independencia: si g(X, Y) = g1 (X) · g2 (Y)

E [g1 (X) · g2 (Y)] = E [g1 (X)] · E [g2 (Y)]

NOTA: Sólo bajo independencia !!!!

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 31 / 88

Incorrelación
Coeficiente de correlación
Cov(X, Y)
⇢X,Y = , 0  |⇢X,Y |  1
X · Y

I Si ⇢X,Y = 0: v.a.’s incorreladas


F Independencia implica incorrelación
F Incorrelación no implica independencia
I Si ⇢X,Y = ±1: Y = aX + b
⇢X,Y = +1 ! a > 0; ⇢X,Y = 1!a<0
Incorrelación sólo implica independencia para variables
aleatorias conjuntamente gausianas
NOTA: Salvo este caso, en general, incorrelación no implica
independencia !!!

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 32 / 88


Funciones de variables aleatorias
Funciones de variables aleatorias: Z = g(X, Y), W = h(X, Y)

Z = g(X, Y)
W = h(X, Y)

Función de distribución conjunta, FZ,W (z, w)


⇣ ⌘
g,h
FZ,W (z, w) = P(Z  z, W  w) = P (x, y) 2 BX,Y (z, w)

Bg,h 2
X,Y (z, w) = {(x, y) 2 IR : g(x, y)  z, h(x, y)  w}

Función densidad de probabilidad conjunta


" @z(x,y) @z(x,y)
#
X fX,Y (xi , yi )
fZ,W (z, w) = , J(x, y) = @x
@w(x,y)
@y
@w(x,y)
|detJ(xi , yi )|
i @x @y

I {xi , yi }: raı́ces del sistema de ecuaciones z = g(x, y), w = h(x, y)


I Número finito de raı́ces y determinante no nulo para todas ellas

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 33 / 88

Variables aleatorias conjuntamente gausianas


Dos variables, X, Y: caracterizadas por una f.d.p. conjunta
0 1
1 (x µX )2 (y µY )2 ⇢(x µx )(y µY )
@ + A
1 (1 ⇢2 ) 2 X2 2 Y2 X Y
fX,Y (x, y) = p e
2⇡ X Y 1 ⇢2

Para n variables aleatorias X = X1 , X2 , · · · , Xn

1
1 (x µ)C 1 (x µ)T
fX (x1 , x2 , · · · , xn ) = p ·e 2
(2⇡)n det(C)

I Vector de medias: µ = [µ1 , µ2 , · · · , µn ]T


I Matriz de covarianzas: C, dada por

Ci,j = Cov(Xi , Xj ) = ⇢i,j · i · j

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 34 / 88


Propiedades de v.a.’s conjuntamente gausianas
Completamente caracterizadas por µ y C (estadı́sticos de 2o orden)
Si n variables aleatorias son conjuntamente gausianas, cualquier
subconjunto también está distribuido de forma conjuntamente
gausiana. En particular, todas las variables individuales son gausianas
Cualquier subconjunto de v.a. conjuntamente gausianas, condicionadas
a otro subconjunto de las mismas v.a. conjuntamente gausianas
originales, tiene una distribución conjuntamente gausiana
Cualquier conjunto de combinaciones lineales de (X1 , X2 , · · · , Xn ) es
conjuntamente gausiano. En particular, individualmente cualquier
combinación lineal Yi es gausiana
Dos variables incorreladas son independientes
Si las variables están incorreladas, ⇢i,j = 0 8i 6= j, C es una matriz
diagonal

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 35 / 88

Suma de variables aleatorias


Ley de los grandes números (débil): Si (X1 , X2 , · · · , Xn ) están
incorreladas y todas tienen la misma media mX y varianza
2
X < 1, independientemente de su distribución, para cualquier
" > 0,
n
1X
si Y = Xi , lı́m P(|Y mX | > ") = 0
n n!1
i=1

Teorema del lı́mite central: Si (X1 , X2 , · · · , Xn ) son


independientes con medias m1 , m2 , · · · , mn , y varianzas
2 2 2
1 , 2 , · · · , n , entonces la distribución de
n
1 X Xi mi
Y=p
n i
i=1
converge a una distribución gausiana de media 0 y varianza 1
1 y2
fY (y) = p e 2 ⌘ N (0, 1)
2⇡

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 36 / 88


Suma de variables aleatorias (II)
Caso particular: variables independientes e idénticamente
distribuidas (i.i.d.), es decir, que todas tengan la misma
distribución con la misma media m y la misma varianza 2 ;
el promedio
n
1X
Y= Xi ,
n i=1
2
converge a una distribución N (m, n ). Esto es ası́ aunque la
distribución original no sea gausiana.
Recordatorio: condiciones a satisfacer
I Ley de los grandes números (débil): incorrelación
I Teorema del lı́mite central: independencia

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 37 / 88

Realizaciones 1 variable aleatoria gausiana


Variable aleatoria gausiana: media mX = 1, varianza 2 =1
X

Señal 1 de 10
4 600

3
500

400
1

0 300

−1
200

−2

100
−3

−4 0
0 100 200 300 400 500 600 700 800 900 1000 −4 −3 −2 −1 0 1 2 3 4

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 38 / 88


Promedio de 2 variables aleatorias gausianas (realizaciones)
Variables aleatorias gausianas: media mX = 1, varianza 2 =1
X

Promedio de 2 señales
4 700

3 600

2
500

1
400

300
−1

200
−2

100
−3

−4 0
0 100 200 300 400 500 600 700 800 900 1000 −4 −3 −2 −1 0 1 2 3 4

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 39 / 88

Promedio de 5 v. a. gausianas (realizaciones)


Variables aleatorias gausianas: media mX = 1, varianza 2 =1
X

Promedio de 5 señales
4 700

3 600

2
500

1
400

300
−1

200
−2

100
−3

−4 0
0 100 200 300 400 500 600 700 800 900 1000 −4 −3 −2 −1 0 1 2 3 4

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 40 / 88


Promedio de 10 v. a. gausianas (realizaciones)
Variables aleatorias gausianas: media mX = 1, varianza 2 =1
X

Promedio de 10 señales
4 700

3 600

2
500

1
400

300
−1

200
−2

100
−3

−4 0
0 100 200 300 400 500 600 700 800 900 1000 −4 −3 −2 −1 0 1 2 3 4

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 41 / 88

Promedio de 20 v. a. gausianas (realizaciones)


Variables aleatorias gausianas: media mX = 1, varianza 2 =1
X

Promedio de 20 senales
4 700

3 600

2
500

1
400

300
−1

200
−2

100
−3

−4 0
0 100 200 300 400 500 600 700 800 900 1000 −4 −3 −2 −1 0 1 2 3 4

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 42 / 88


Promedio de 50 v. a. gausianas (realizaciones)
Variables aleatorias gausianas: media mX = 1, varianza 2 =1
X

Promedio de 50 senales
4 700

3 600

2
500

1
400

300
−1

200
−2

100
−3

−4 0
0 100 200 300 400 500 600 700 800 900 1000 −4 −3 −2 −1 0 1 2 3 4

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 43 / 88

Promedio de 100 v. a. gausianas (realizaciones)


Variables aleatorias gausianas: media mX = 1, varianza 2 =1
X

Promedio de 100 señales


4 700

3 600

2
500

1
400

300
−1

200
−2

100
−3

−4 0
0 100 200 300 400 500 600 700 800 900 1000 −4 −3 −2 −1 0 1 2 3 4

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 44 / 88


Promedio de 500 v. a. gausianas (realizaciones)
Variables aleatorias gausianas: media mX = 1, varianza 2 =1
X

Promedio de 500 señales


4 700

3 600

2
500

1
400

300
−1

200
−2

100
−3

−4 0
0 100 200 300 400 500 600 700 800 900 1000 −4 −3 −2 −1 0 1 2 3 4

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 45 / 88

Realizaciones de 1 variable aleatoria uniforme


Variable aleatoria uniforme entre 0 y 2

Señal 1 de 10
400
2

350
1.8

1.6 300

1.4
250
1.2

200
1

0.8 150

0.6
100

0.4

50
0.2

0 0
0 50 100 150 200 250 300 350 400 450 500 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 46 / 88


Promedio de 2 variables aleatorias uniformes (realizaciones)
Variables aleatorias uniformes entre 0 y 2.

Promedio de 2 señales
700
2

1.8 600

1.6
500
1.4

1.2 400

1
300
0.8

0.6 200

0.4
100
0.2

0 0
0 50 100 150 200 250 300 350 400 450 500 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 47 / 88

Promedio de 5 v. a. uniformes (realizaciones)


Variables aleatorias uniformes entre 0 y 2.

Promedio de 5 señales
900
2

800
1.8

700
1.6

1.4 600

1.2 500

1
400

0.8
300
0.6

200
0.4

100
0.2

0 0
0 50 100 150 200 250 300 350 400 450 500 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 48 / 88


Promedio de 10 v. a. uniformes (realizaciones)
Variables aleatorias uniformes entre 0 y 2.

Promedio de 10 señales
1200
2

1.8
1000

1.6

1.4 800

1.2

600
1

0.8
400
0.6

0.4
200

0.2

0 0
0 50 100 150 200 250 300 350 400 450 500 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 49 / 88

Promedio de 20 v. a. uniformes (realizaciones)


Variables aleatorias uniformes entre 0 y 2.

Promedio de 20 señales
1200
2

1.8
1000

1.6

1.4 800

1.2

600
1

0.8
400
0.6

0.4
200

0.2

0 0
0 50 100 150 200 250 300 350 400 450 500 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 50 / 88


Promedio de 50 v. a. uniformes (realizaciones)
Variables aleatorias uniformes entre 0 y 2.

Promedio de 50 señales
1200
2

1.8
1000

1.6

1.4 800

1.2

600
1

0.8
400
0.6

0.4
200

0.2

0 0
0 50 100 150 200 250 300 350 400 450 500 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 51 / 88

Promedio de 100 v. a. uniformes (realizaciones)


Variables aleatorias uniformes entre 0 y 2.

Promedio de 100 señales


1200
2

1.8
1000

1.6

1.4 800

1.2

600
1

0.8
400
0.6

0.4
200

0.2

0 0
0 50 100 150 200 250 300 350 400 450 500 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Variable Aleatoria 52 / 88


Procesos aleatorios
Extensión de v.a. incluyendo dependencia temporal
I Variable aleatoria
2 ⌦ ! X( )
I Proceso aleatorio
2 ⌦ ! X(t, )
Particularizaciones
I X(ti , j ): realización individual
I X(t, i ): señal temporal asociada a i , xi (t)
I X(ti , ): variable aleatoria (X( ))
Notación: X(t) o X[n]
Interpretación: Conjunto indexado de variables aleatorias
I Índice continuo (t 2 IR): Proceso aleatorio continuo
I Índice discreto (n 2 Z): Proceso aleatorio discreto

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 53 / 88

Descripción de un proceso aleatorio


Descripción analı́tica

X(t) = f (t, ✓)

✓ = {✓1 , ✓2 , · · · , ✓n }: vector de variables aleatorias


I Ecuación f (t, ✓) y descripción estadı́stica de ✓

Descripción estadı́stica
I Completa: 8 (t1 , t2 , · · · , tn ) 2 IRn , 8 n

fX(t1 ),X(t2 ),··· ,X(tn ) (x1 , x2 , · · · , xn )

I De orden M: 8 n  M, 8 (t1 , t2 , · · · , tn ) 2 IRn

fX(t1 ),X(t2 ),··· ,X(tn ) (x1 , x2 , · · · , xn )

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 54 / 88


Esperanzas de los procesos (promedios estadı́sticos)
Media de un proceso
Z 1
mX (t) = E[X(t)] = x · fX(t) (x)dx
1

Función de autocorrelación de un proceso

RX (t1 , t2 ) = E[X(t1 ) · X(t2 )]


Z 1Z 1
RX (t1 , t2 ) = x1 · x2 · fX(t1 ),X(t2 ) (x1 , x2 ) · dx1 · dx2
1 1

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 55 / 88

Estacionariedad y cicloestacionariedad
Estacionariedad en sentido estricto: 8 (t1 , t2 , · · · , tn ), 8n, 8

fX(t1 ),X(t2 ),··· ,X(tn ) (x1 , x2 , · · · , xn ) =


fX(t1 + ),X(t2 + ),··· ,X(tn + ) (x1 , x2 , · · · , xn )

I Estacionariedad de orden M: para n  M

Estacionariedad en sentido amplio


1 mX (t) = mX (no depende de t)
2 RX (t1 , t2 ) = RX (t1 t2 ) = RX (⌧ ) (definiendo ⌧ = t1 t2 )
También se suele denotar RX (t + ⌧, t) = RX (⌧ )

Cicloestacionariedad
1 mX (t + To ) = mX (t)
2 RX (t + ⌧ + To , t + To ) = RX (t + ⌧, t), para todo t y ⌧

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 56 / 88


Autocorrelación de procesos estacionarios
La función de autocorrelación de un proceso estacionario X(t),
RX (⌧ ), tiene las siguientes propiedades:
Es una función par

RX ( ⌧ ) = RX (⌧ )

El máximo en módulo se obtiene en ⌧ = 0

|RX (⌧ )|  RX (0)

Si para algún To se cumple RX (To ) = RX (0), entonces para


todo entero k
RX (kTo ) = RX (0)
Es una función semidefinida positiva (se verá más tarde)

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 57 / 88

Ergodicidad
Promedios para un proceso X(t) y una función g(x):
1 Promedio estadı́stico
Z 1
E[g(X(t))] = g(x) · fX(t) (x) · dx
1

Este valor es, en general, dependiente de t.


2 Promedio temporal de x(t, !i )
Z T
1 2
< g(x) >i = lı́m g(x(t, !i )) · dt
T!1 T T
2

Independiente de t, pero en general dependiente de !i


X(t) estacionario es ergódico, si 8 g(x) y 8 !i 2 ⌦
Z T
1 2
lı́m g(x(t, !i )) · dt = E[g(X(t))]
T!1 T T
2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 58 / 88


Potencia y Energı́a
Energı́a del proceso aleatorio X(t), EX
Z 1
EX = E[EX ], EX = X 2 (t) · dt
1

Potencia del proceso aleatorio X(t), PX


Z T
1 2
PX = E[PX ], PX = lı́m X 2 (t) · dt
T!1 T T
2

I Un proceso aleatorio es de energı́a si EX < 1


I Un proceso aleatorio es de potencia si 0 < PX < 1

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 59 / 88

Potencia y energı́a (II)


Z 1 Z 1 Z 1
2 2
EX = E X (t) · dt = E[X (t)] · dt = RX (t, t) · dt
1 1 1

" Z T
#
1 2
PX = E lı́m X 2 (t) · dt
T!1 T T
2
Z T Z T
1 2 1 2
= lı́m E[X 2 (t)] · dt = lı́m RX (t, t) · dt
T!1 T T T!1 T T
2 2

Para procesos aleatorios estacionarios RX (t, t) = RX (0)


Z 1
PX = RX (0), EX = RX (0) · dt
1

Procesos estacionarios de interés: de potencia

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 60 / 88


Procesos aleatorios multidimensionales (múltiples)
Independencia: X(t) e Y(t) son independientes si 8 t1 , t2 ,
X(t1 ) y Y(t2 ) son independientes
Incorrelación: X(t) e Y(t) están incorreladas si 8 t1 , t2 , X(t1 ) y
Y(t2 ) están incorreladas
Función de correlación cruzada

RX,Y (t1 , t2 ) = E[X(t1 ) · Y(t2 )]

En general
RX,Y (t1 , t2 ) = RY,X (t2 , t1 )
Estacionariedad conjunta: X(t) e Y(t) son conjuntamente
estacionarios si
I Ambos son individualmente estacionarios
I RX,Y (t1 , t2 ) = RX,Y (⌧ ), con ⌧ = t1 t2
F Notación alternativa: RX,Y (t + ⌧, t) = RX,Y (⌧ )

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 61 / 88

Procesos aleatorios en el dominio de la frecuencia


Espectro de una de las señales del proceso aleatorio
Z 1
xi (t) = X(t, i ) ! Xi (j!) = T F{xi (t)} = xi (t) · e j!t · dt
1

I No todas las señales tienen definida una transformada de


Fourier
Definición de señales truncadas de duración T

[T] xi (t), |t| < T/2
xi (t) =
0, en otro caso
Las señales truncadas sı́ tienen definida la transformada
n o Z 1
xi (t) · e j!t · dt
[T] [T] [T]
Xi (j!) = T F xi (t) =
1
Z T
2
j!t
= xi (t) · e · dt
T
2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 62 / 88


Densidad espectral de potencia
Proceso aleatorio truncado de duración T
[T]
X [T] (t): Proceso cuyas señales son X [T] (t, i ) = xi (t) (truncadas)

Proceso aleatorio truncado en el dominio de la frecuencia


[T] [T]
X [T] (j!): Proceso cuyas señales son las TF de xi (t), i.e., Xi (j!)

Densidad espectral de potencia de X(t)


" # h i
2
def X [T] (j!)
2 E X (j!)
[T]

SX (j!) = E lı́m = lı́m


T!1 T T!1 T

Representación del comportamiento medio del módulo al cuadrado de la tranformada de


Fourier de todas las señales que componen el proceso aleatorio (con el “truco” de truncar
para asegurar la existencia de dicha transformada de Fourier para todas las señales, y
llevando la longitud de truncado al lı́mite)

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 63 / 88

Teorema de Wiener-Khinchin
Si para cualquier valor finito ⌧ y cualquier intervalo A, de
longitud |⌧ |, la autocorrelación del proceso aleatorio cumple
Z
RX (t + ⌧, t)dt < 1
A

la densidad espectral de potencia de X(t) es la transformada de


Fourier del promedio temporal de la función de autocorrelación

SX (j!) = T F{< RX (t + ⌧, t) >}

siendo el promedio temporal de la función de autocorrelación


Z T/2
1 def
< RX (t + ⌧, t) > = lı́m RX (t + ⌧, t) dt
T!1 T T/2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 64 / 88


Teorema de Wiener-Khinchin - Corolarios
Corolario 1: Si X(t) es un proceso estacionario y
⌧ · RX (⌧ ) < 1 para todo ⌧ < 1, entonces

SX (j!) = T F[RX (⌧ )]

Corolario 2: Si X(t) es ciclostacionario y se cumple que


Z To
RX (t + ⌧, t) · dt < 1
0

entonces
eX (⌧ )]
SX (j!) = T F[R
donde Z
eX (⌧ ) = 1
R RX (t + ⌧, t) · dt
To To

y To es el perı́odo del proceso cicloestacionario


c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 65 / 88

Potencia de un proceso aleatorio


En el dominio de la frecuencia
Z 1
1
PX = SX (j!) d!
2⇡ 1

En el dominio del tiempo


I Proceso estacionario

PX = RX (0)

I Proceso cicloestacionario

PX = R̃X (0)

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 66 / 88


Procesos aleatorios estacionarios y sistemas lineales

X(t) - Y(t) -
h(t)

Teorema: X(t) es estacionario, de media mX y función de


autocorrelación RX (⌧ ). El proceso pasa a través de un sistema
lineal e invariante con respuesta al impulso h(t). En este caso,
los procesos de entrada y salida, X(t) e Y(t), son conjuntamente
estacionarios, siendo
Z 1
mY = mX h(t) · dt
1
RY (⌧ ) = RX (⌧ ) ⇤ h(⌧ ) ⇤ h( ⌧ )
RX,Y (⌧ ) = RX (⌧ ) ⇤ h( ⌧ )
Además, se puede comprobar que
RY (⌧ ) = RX,Y (⌧ ) ⇤ h(⌧ )
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 67 / 88

Media del proceso de salida


Se parte de que Z 1
Y(t) = X(s) · h(t s) · ds
1

Por tanto
Z 1
mY (t) = E X(s) · h(t s) · ds
1
Z 1
= E[X(s)] · h(t s) · ds
1
Z 1
= mX · h(t s) · ds
1
Z 1
u=t s
= mX h(u) · du
1

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 68 / 88


Correlación cruzada RX,Y (⌧ )

RX,Y (t1 , t2 ) = E[X(t1 ) · Y(t2 )]


 Z 1
= E X(t1 ) X(s) · h(t2 s) · ds
1
Z 1
= E[X(t1 ) · X(s)] · h(t2 s) · ds
1
Z 1
= RX (t1 s) · h(t2 s) · ds
1
Z 1
u=s t2
= RX (t1 t2 u) · h( u) · du
1
Z 1
= RX (⌧ u) · h( u) · du
1
= RX (⌧ ) ⇤ h( ⌧ )

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 69 / 88

Correlación de salida RY (⌧ )

RY (t1 , t2 ) = E[Y(t1 ) · Y(t2 )]


✓Z 1 ◆
=E X(s) · h(t1 s) · ds · Y(t2 )
Z 1 1
= E[X(s) · Y(t2 )] · h(t1 s) · ds
1
Z 1
= RXY (s t2 ) · h(t1 s) · ds
1
Z 1
u=s t2
= RX,Y (u) · h(t1 t2 u) · du
1
Z 1
= RX,Y (u) · h(⌧ u) · du
1
= RX,Y (⌧ ) ⇤ h(⌧ )
= RX (⌧ ) ⇤ h( ⌧ ) ⇤ h(⌧ )

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 70 / 88


Relaciones en el dominio frecuencial
Media del proceso de salida

mY = mX · H(0)

Densidad espectral del proceso de salida

SY (j!) = SX (j!) · |H(j!)|2

Densidades espectrales cruzadas


def
SX,Y (j!) = T F[RX,Y (⌧ )]

SX,Y (j!) = SX (j!) · H ⇤ (j!)



SY,X (j!) = SX,Y (j!) = SX (j!) · H(j!)

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 71 / 88

Relaciones entre densidades espectrales de potencia

X(t) - Y(t) -
h(t)

-
SX,Y (j!)-
H ⇤ (j!)

SX (j!) SY,X (j!)-


- H(j!)

-
SY (j!) -
|H(j!)|2

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios 72 / 88


Procesos aleatorios discretos
Notación: X[n]
Promedios estadı́sticos
I Media: mX [n] = E [X[n]]
I Autocorrelación: RX [n + k, n] = E [X[n + k] · X[n]]
Estacionariedad:
I Estadı́sticos independientes del ı́ndice temporal n
I Media: mX [n] = mX
I Autocorrelación: RX [n + k, n] = RX [k]
Cicloestacionariedad:
I Estadı́sticos periódicos de perı́odo N
I Media: mX [n + N] = mX [n]
I Autocorrelación: RX [n + k + N, n + N] = RX [n + k, n]

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios Discretos 73 / 88

Procesos aleatorios discretos - Espectro y potencia


Densidad espectral de potencia
I Procesos estacionarios

SX (ej! ) = T F {RX [k]}

I Procesos cicloestacionarios
N 1
j! 1 X
SX (e ) = T F R̃X [k] , R̃X [k] = RX [n + k, n]
N
n=0

I Potencia
Z (
1 ⇡
RX [0], X[n] estacionario
PX = SX (ej! ) d! =
2⇡ ⇡ R̃X [0], X[n] cicloestacionario

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios Discretos 74 / 88


Procesos aleatorios discretos - Sistemas lineales
Media del proceso de salida
X
mY = mX · h[n] = mX · H(0)
n

Autocorrelación del proceso de salida

RY [k] = RX [k] ⇤ h[k] ⇤ h[ k]

Densidad espectral de potencia del proceso de salida


2
SY (ej! ) = SX (ej! ) · H(ej! )

Estadı́sticos cruzados

RX,Y [k] = RX [k] ⇤ h[ k]

SX,Y (ej! ) = SX (ej! ) · H ⇤ (ej! )


c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Procesos Aleatorios Discretos 75 / 88

Suma de procesos aleatorios


X(t) e Y(t) son conjuntamente estacionarios
Proceso suma: Z(t) = X(t) + Y(t)
I Media del proceso
mZ (t) = E[Z(t)] = E[X(t) + Y(t)] = E[X(t)] + E[Y(t)] = mX + mY = mZ
I Función de autocorrelación
RZ (t + ⌧, t) =E[Z(t + ⌧ ) · Z(t)]
=E[(X(t + ⌧ ) + Y(t + ⌧ )) · (X(t) + Y(t))]
=E[X(t + ⌧ ) · X(t)] + E[X(t + ⌧ ) · Y(t)]
+ E[Y(t + ⌧ ) · X(t)] + E[Y(t + ⌧ ) · Y(t)]
=RX (⌧ ) + RX,Y (⌧ ) + RY,X (⌧ ) + RY (⌧ )
=RX (⌧ ) + RY (⌧ ) + RX,Y (⌧ ) + RY,X (⌧ ) = RZ (⌧ )

F Proceso aleatorio Z(t) es estacionario


I Densidad espectral de potencia
SZ (j!) =SX (j!) + SY (j!) + SX,Y (j!) + SY,X (j!)
=SX (j!) + SY (j!) + 2 · Re[SX,Y (j!)]

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 76 / 88


Suma de procesos aleatorios - Incorrelados
Relación (covarianza / correlación) para procesos
conjuntamente estacionarios
Cov(X(t + ⌧ ), Y(t)) =E[(X(t + ⌧ ) mX ) · (Y(t) mY )]
= E[X(t + ⌧ ) · Y(t)] mY · E[X(t + ⌧ )]
| {z } | {z }
RX,Y (⌧ ) mX

mX · E[Y(t)] +mX · mY
| {z }
mY

=RX,Y (⌧ ) mX · mY
Procesos incorrelados:
Por definición : Cov(X(t + ⌧ ), Y(t)) = 0, 8⌧
Consecuencia : RX,Y (⌧ ) = mX · mY
I Si al menos uno de los procesos (incorrelados) tiene media nula
RZ (⌧ ) = RX (⌧ ) + RY (⌧ )
SZ (j!) = SX (j!) + SY (j!)
F Caso habitual de suma de señal y ruido: incorrelación, ruido con media nula
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 77 / 88

Proceso gausiano
Definición: X(t) es un proceso gausiano si para todo n y
todo {t1 , t2 , · · · , tn }, las variables aleatorias {X(ti )}ni=1 tienen
una distribución conjuntamente gausiana
Propiedades de los procesos gausianos
I mX (t) y RX (t1 , t2 ), proporcionan una descripción estadı́stica
completa del proceso
F Permiten calcular vector de medias y matriz de covarianzas
- Para X(ti ), ) µi = mX (ti )
- X(ti ), X(tj ), ) Ci,j =Cov(X(ti ),X(tj ))=RX (ti , tj ) mX (ti ) · mX (tj )
I Para procesos gausianos, estacionariedad en sentido
estricto y en sentido amplio son equivalentes
I Si X(t) pasa por un sistema lineal e invariante, el proceso de
salida, Y(t) es gausiano
I Para X(t) gausiano, estacionario y de media nula, una
condición suficiente para la ergodicidad de X(t) es
Z 1
|RX (⌧ )| d⌧ < 1
1
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 78 / 88
Procesos aleatorios conjuntamente gausianos
Definición: Los procesos X(t) e Y(t) son conjuntamente
gausianos, si para todo n, m, y todo {t1 , t2 , · · · , tn } y
{⌧1 , ⌧2 , · · · , ⌧m }, las variables aleatorias

X(t1 ), X(t2 ), · · · , X(tn ), Y(⌧1 ), Y(⌧2 ), · · · , Y(⌧m ),

tienen una distribución conjuntamente gausiana (de


dimensión n + m)
Propiedad: Para procesos conjuntamente gausianos,
incorrelación e independencia son equivalentes

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 79 / 88

Proceso blanco
Un proceso es blanco si su densidad espectral de potencia
es constante para todas las frecuencias
SX (j!) = C
SX (j!) 6
C

-
!
I Consecuencias
F Función de autocorrelación de un proceso blanco
estacionario
1
RX (⌧ ) = T F {C} = C · (⌧ )
F La potencia de un proceso blanco es infinita
Z 1 Z 1
1 1
PX = SX (j!) d! = C d! = 1
2⇡ 1 2⇡ 1
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 80 / 88
Filtrado de un proceso blanco
Proceso X(t) blanco con SX (j!) = C se filtra (h(t) / H(j!))
Densidad espectral de potencia a la salida del filtro (Y(t))
SY (j!) = SX (j!) · |H(j!)|2 = C · |H(j!)|2

I En general el proceso Y(t) no es blanco


Función de autocorrelación
RY (⌧ ) = RX (⌧ ) ⇤ h(⌧ ) ⇤ h( ⌧ ) = RX (⌧ ) ⇤ rh (⌧ ) = C · rh (⌧ )
Potencia del proceso
PY = RY (0) = C · rh (0)

I Como por definición rh (0) = E{h(t)}


PY = C · E{h(t)}
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 81 / 88

Ruido térmico
Densidad espectral de potencia del ruido térmico (mecánica cuántica)
h!
Sn (j!) = h!
1) 4⇡(e 2⇡kT
8
>
> h: Constante de Planck (6.6⇥10 34 Julios ⇥ segundo)
<
k: Constante de Boltzmann (1.38⇥10 23 Julios/o Kelvin)
donde
>
> T: Temperatura en grados Kelvin
:
!: Pulsación (2⇡ veces la frecuencia) en rad/s

6Sn (j!)
............................................2........6
Sn (j!)
..2............................................. .................................................
kT kT

..
...
...
...
...
...
...
...
...
... ............
............ 0,8 kT 0,8 kT
2 2

0,6 kT
2
0,6 kT
2

0,4 kT
2
0,4 kT
2

0,2 kT
2
0,2 kT
2

-2000 -1500 -1000 -500 ! 0 500 1000 1500 2000 -200 -150 -100 -50 ! 0 50 100 150 200
2⇡
(GHz) 2⇡
(GHz)

Estadı́stica gausiana
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 82 / 88
Modelo de ruido térmico
Proceso aleatorio n(t) blanco, gausiano, estacionario,
ergódico
I Media nula (mn = 0)
I Función de autocorrelación
N0
Rn (⌧ ) =
· (⌧ )
2
I Densidad espectral de potencia
N0
Sn (j!) =
2
Sn (j!) 6
N0 /2

-
!
Valor de la constante N0
N0 = k · T a Watt/Hz
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 83 / 88

Potencia de ruido térmico a la salida de filtros ideales


Filtros ideales de ancho de banda B Hz (o W = 2⇡B rad/s):
filtro paso bajo o filtro paso banda con frecuencia central fc
Hz (o !c = 2⇡fc rad/s)
|H(j!)| |H(j!)|
1 6 61
!c
-- - -
W ! W !
Filtro Paso Bajo Filtro Paso Banda
Proceso de salida de los filtros
N0
Proceso Z(t) con SZ (j!) = · |H(j!)|2
2
Potencia de la salida de los filtros
Z 1 Z 1
1 N0 1
PZ = Sz (j!) d! = · |H(j!)|2 d! = N0 · B
2⇡ 1 2 2⇡ 1
| {z }
E{h(t)}=2B

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 84 / 88


Potencia de ruido térmico en filtros ideales con ganancia
Filtros ideales (paso bajo/paso banda) de ancho de banda
B Hz (o W = 2⇡B rad/s)p y con ganancia en potencia G
(ganancia en voltaje G)
p |H(j!)| |H(j!)|
G6 p
6 G
!c
-- - -
W ! W !
Filtro Paso Bajo Filtro Paso Banda
Proceso de salida de los filtros
N0
Proceso Z(t) con SZ (j!) = · |H(j!)|2
2
Potencia de la salida de los filtros
Z 1 Z 1
1 N0 1
PZ = Sz (j!) d! = · |H(j!)|2 d! = N0 · B · G
2⇡ 1 2 2⇡ 1
| {z }
E{h(t)}=2BG

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 85 / 88

Ancho de banda equivalente de ruido


Salida de un sistema lineal (respuesta h(t), H(j!))
N0
Proceso Z(t) con SZ (j!) = · |H(j!)|2
2
Potencia de ruido a la salida de un sistema lineal
Z 1 Z 1
1 N0 1
PZ = SZ (j!) d! = · |H(j!)|2 d!
2⇡ 1 2 2⇡ 1
| {z }
E{h(t)}

Potencia de ruido en función del ancho de banda


equivalente de ruido
PZ = N0 · Beq · Geq

I Beq : Ancho de banda equivalente de ruido


I Geq : Ganancia en potencia equivalente
2
Geq = Hmax , con Hmax = máx |H(j!)|
!
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 86 / 88
Ancho de banda equivalente de ruido - Identificación
Identificación del valor de Beq
E{h(t)}
Beq =
2 · Geq
Z 1 Z 1
1
E{h(t)} = |h(t)|2 dt = |H(j!)|2 d!
1 2⇡ 1
Interpretación: Un sistema lineal ideal, de ancho de banda Beq y
p
amplitud Hmax ( Geq ) tiene la misma potencia de ruido a la salida
que el filtro h(t)

|H(j!)| 6
.
. ..........Hmax
. ....
.. .. ...
...
... ....
... ....
.... ......
.................... ................ -
2⇡ · Beq !
c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 87 / 88

Relación señal a ruido (a la salida de un filtro)


Señal a la entrada del filtro: Proceso X(t), potencia PX
Ruido a la entrada del filtro: modelo de ruido térmico n(t)
Filtro (normalmente en el receptor): respuestas h(t) y H(j!)
Señal a la salida del filtro receptor: Proceso Y(t)
Ruido a la salida del filtro receptor: Proceso Z(t)
Relación señal a ruido
S PY S PY
= , (dB) = 10 log10
N PZ N PZ
Z 1 Z 1
1 1
I Pot. señal: PY = SY (j!) d! = SX (j!) · |H(j!)|2 d!
2⇡ 1Z 2⇡ 1 Z 1
1
1 N0 1
I Potencia ruido: P =
Z SZ (j!) d! = · |H(j!)|2 d!
2⇡ 1 2 2⇡ 1
F Filtros ideales (sin ganancia | con ganancia)

PZ = N0 · B PZ = N0 · B · G
F Filtro con ancho de banda equivalente Beq y ganancia Geq
PZ = N0 · Beq · Geq

c Marcelino Lázaro, 2014 Teorı́a de la Comunicación Ruido térmico 88 / 88

También podría gustarte