9_Distribuciones_bidimensionales

Distribuciones de probabilidad
bidimensionales o conjuntas
Si disponemos de dos variables aleatorias podemos
definir distribuciones bidimensionales de forma
semejante al caso unidimensional. Para el caso
discreto tendremos:

p(x, y) ? P(X ? x, Y ? y).
Con:

?? p( x, y) ?1,
x

y

p ( x, y ) ?0.
1

Podemos encontrar la probabilidad marginal de
la variable aleatoria X sumando sobre todos losposibles valores de la variable aleatoria Y:

p X (x) ?? p ( x, y )
y

Igualmente, podemos encontrar probabilidad
marginal de la variable aleatoria Y sumando
sobre todos los posibles valores de la variable
aleatoria Y:

pY (y) ?? p ( x, y )
x

2

Función de probabilidad condicional
La función de probabilidad condicional de X dado Y = y es:

p(x,y)
p(x|y) ?
pY (y)
Y la función de probabilidadcondicional de Y dado X = x es:

p(x,y)
p(y|x) ?
p X (x)
3

Nota: El punto 2 lo veremos más adelante.

9

La definición para dos variables aleatorias continuas es
semejante:

F(x,y) = P(X ? x, Y? y).

La densidad de probabilidad f(x,y) se obtiene derivando la
función de probabilidad con respecto a sus argumentos:
2

2

? F ( x, y ) ? F ( x, y )
?
? f ( x, y )
?x?y
?y?x
Por supuesto:

f ( x, y ) ?0,
??

??f ( x, y)dxdy ?1
10

? ?? ?

Las densidades de probabilidad marginales y las
probabilidades condicionales se definen de forma
semejante al caso bidimensional discreto sin más que
sustituir sumatorios por integrales. Así:
?

f Y ( y ) ? ?f ( x, y )dx
??

?

f X ( x) ? ?f ( x, y )dy
??

f(x,y)
f(x|y) ?
fY (y)
f(x,y)
f(y|x) ?
f X (x)
11

Independencia

Ausencia de relación de cualquier tipoentre dos v.a.
Recuerda que dos sucesos, A y B, son independientes si tener información sobre uno
de ellos no influye en el cálculo de prob. del otro, es decir:

P ( A | B ) ? P ( A)
O equivalentemente, A y B son independientes si y solo si:

P(A ? B) ?P(B)P(A )
De manera similar se puede definir el concepto de independencia entre v.a.
Sean X e Y dos v.a. (continuas o discretas). X e Y sonindependientes si y solo si la
distribución de una ellas condicionada por la otra es igual a la marginal de la primera,

??

f X |Y ( x ) ? f X ( x ) ó f Y | X ( y ) ? f Y ( y )

Como en el caso de sucesos, esta definición implica que X e Y son indep. si su
distribución conjunta se puede calcular como el producto de las marginales, es decir:

f XY (x, y) ? f X (x) f Y (y)

Distribuciones bidimensionalese independencia
Los sucesos aleatorios {X = x} e {Y = y} son independientes
si:

P(x, y) ? PX (x) ?PY (y)
Y entonces, dos variables aleatorias serán independientes
si la relación anterior se cumple para todos los posibles
pares (x,y).

Podremos entonces escribir:

p(x|y) ? p X (x) y p(y|x) ? pY (y)
13

El teorema de Bayes se expresa como:

p X (x) p(y|x)
p(x|y) ?
pY ( y )
pY (y) p(x|y)
p(y|x) ?
pX (x)

14

paralelo

15

16

17

18

19

20

21

22

23

24

25

Relaciones entre variables
• Cuando construimos modelos, básicamente estamos
relacionando variables con argumentos del tipo: Un
aumento en la variable X está asociado a un
aumento (descenso) de la variable Y.
• Algunos ejemplos
– Existe una relación positiva entre el flujo de inmigrantes a
un país y la renta per capitadel país de acogida.
– Existe una relación positiva entre la nota obtenida en
probabilidad y la de estadística.
– Existe una relación negativa entre la tasa de fecundidad y la
tasa de participación femenina.
– No parece que exista ninguna relación entre el volumen de
lluvias en Islandia y la nota del parcial de probabilidad.

Las relaciones entre v.a.
pueden ser de muy distinto
tipo: positivas onegativas (si
cuando crece la una la otra
también lo hace y viceversa),
lineales o no lineales, etc.
También puede ocurrir que no
exista ninguna relación entre
dos v.a.: cuando esto ocurre
diremos que dos v.a. son
independientes.
Vamos a describir a
continuación cómo de ‘lineal’
es la relación que existe entre
dos variables: para ello
definimos la covarianza y la
correlación

Y

Relación lineal…