Exercice 1 : La méthode probabiliste. ¶ Notons ∣ ⋅ ∣ 2 |\cdot|_2 ∣ ⋅ ∣ 2 est la norme euclidienne usuelle dans R d \mathbb{R}^d R d . Soient u 1 , … , u n u_1, \ldots, u_n u 1 , … , u n des vecteurs de R d \mathbb{R}^d R d de norme 1. Montrer qu’il existe ϵ 1 , … , ϵ n \epsilon_1, \ldots, \epsilon_n ϵ 1 , … , ϵ n dans { − 1 , + 1 } \{-1,+1\} { − 1 , + 1 } tels que
∣ ϵ 1 u 1 + ⋯ + ϵ n u n ∣ 2 ≤ n . |\epsilon_1 u_1 + \cdots + \epsilon_n u_n|_2 \leq \sqrt{n}. ∣ ϵ 1 u 1 + ⋯ + ϵ n u n ∣ 2 ≤ n . Exercice 2 : Tribus engendrées par des v.a. ¶ Expliciter σ ( X ) \sigma(X) σ ( X ) et la loi de X X X dans les cas suivants :
( Ω , F , P ) (\Omega,\mathcal{F},P) ( Ω , F , P ) est un espace de probabilité, A , B A,B A , B sont deux événements de F \mathcal{F} F , a , b a,b a , b deux nombres réels et
∀ ω ∈ Ω X ( ω ) = a 1 A ( ω ) + b 1 B ( ω ) . \forall \omega \in \Omega \quad X(\omega) = a 1_A(\omega) + b 1_B(\omega). ∀ ω ∈ Ω X ( ω ) = a 1 A ( ω ) + b 1 B ( ω ) . ( Ω , F , P ) = ( [ 0 , 1 ] , B ( [ 0 , 1 ] ) , λ ) (\Omega,\mathcal{F},P) = ([0,1],\mathcal{B}([0,1]),\lambda) ( Ω , F , P ) = ([ 0 , 1 ] , B ([ 0 , 1 ]) , λ ) et
∀ ω ∈ [ 0 , 1 ] X ( ω ) = { 2 ω si 0 ≤ ω ≤ 1 / 2 , 1 si 1 / 2 ≤ ω ≤ 1. \forall \omega \in [0,1] \quad
X(\omega) =
\begin{cases}
2\omega & \text{si } 0 \leq \omega \leq 1/2, \\
1 & \text{si } 1/2 \leq \omega \leq 1.
\end{cases} ∀ ω ∈ [ 0 , 1 ] X ( ω ) = { 2 ω 1 si 0 ≤ ω ≤ 1/2 , si 1/2 ≤ ω ≤ 1. ( Ω , F , P ) = ( [ − 1 , 1 ] , B ( [ − 1 , 1 ] ) , λ / 2 ) (\Omega,\mathcal{F},P) = ([-1,1],\mathcal{B}([-1,1]),\lambda/2) ( Ω , F , P ) = ([ − 1 , 1 ] , B ([ − 1 , 1 ]) , λ /2 ) et
∀ ω ∈ [ − 1 , 1 ] X ( ω ) = ω 2 . \forall \omega \in [-1,1] \quad X(\omega) = \omega^2. ∀ ω ∈ [ − 1 , 1 ] X ( ω ) = ω 2 . Exercice 3 : Premiers calculs gaussiens. ¶ Rappeler la densité de la loi gaussienne N ( m , σ 2 ) \mathcal{N}(m,\sigma^2) N ( m , σ 2 ) .
Soit X X X une v.a. de loi N ( 0 , 1 ) \mathcal{N}(0,1) N ( 0 , 1 ) .
Quelle est la moyenne de X X X ? Et sa variance ?
2a) ¶ Quelle est la loi de m + σ X m + \sigma X m + σ X ?
2b) ¶ En déduire la moyenne et la variance de N ( m , σ 2 ) \mathcal{N}(m,\sigma^2) N ( m , σ 2 ) .
Soit Y Y Y une v.a. de loi N ( 0 , 1 ) \mathcal{N}(0,1) N ( 0 , 1 ) , indépendante de X X X .
Calculer la loi de Z = Y / X Z = Y/X Z = Y / X , puis de 1 / Z 1/Z 1/ Z .
Soit R = X 2 + Y 2 R = \sqrt{X^2 + Y^2} R = X 2 + Y 2 et S = X / R S = X/R S = X / R .
Calculer la loi du couple ( R 2 , S ) (R^2,S) ( R 2 , S ) .
En déduire la loi de R 2 R^2 R 2 ainsi que la loi de S S S .
Soient U U U et V V V deux v.a. i.i.d. uniformes sur [ 0 , 1 ] [0,1] [ 0 , 1 ] .
Montrer que R ~ = − 2 ln U \tilde{R} = \sqrt{-2\ln U} R ~ = − 2 ln U a même loi que R R R .
Montrer que ( X ~ , Y ~ ) = ( R ~ cos ( 2 π V ) , R ~ sin ( 2 π V ) ) (\tilde{X},\tilde{Y}) = (\tilde{R}\cos(2\pi V), \tilde{R}\sin(2\pi V)) ( X ~ , Y ~ ) = ( R ~ cos ( 2 πV ) , R ~ sin ( 2 πV )) a même loi que ( X , Y ) (X,Y) ( X , Y ) .
Calculez la loi du couple ( X ~ , Y ~ ) (\tilde{X},\tilde{Y}) ( X ~ , Y ~ ) .
Exercice 4 : La loi Beta. ¶ Soient a , b > 0 a,b > 0 a , b > 0 . La loi Gamma G ( a ) G(a) G ( a ) est la loi de densité
1 { x ≥ 0 } Γ ( a ) − 1 x a − 1 exp ( − x ) . 1_{\{x \geq 0\}} \, \Gamma(a)^{-1} x^{a-1} \exp(-x). 1 { x ≥ 0 } Γ ( a ) − 1 x a − 1 exp ( − x ) . La loi Beta β ( a , b ) \beta(a,b) β ( a , b ) est la loi de densité
g a , b ( x ) = Γ ( a + b ) Γ ( a ) Γ ( b ) x a − 1 ( 1 − x ) b − 1 1 ] 0 , 1 [ ( x ) . g_{a,b}(x) = \frac{\Gamma(a+b)}{\Gamma(a)\Gamma(b)} x^{a-1}(1-x)^{b-1} 1_{]0,1[}(x). g a , b ( x ) = Γ ( a ) Γ ( b ) Γ ( a + b ) x a − 1 ( 1 − x ) b − 1 1 ] 0 , 1 [ ( x ) . Soient Y a Y_a Y a et Y b Y_b Y b deux variables aléatoires indépendantes, de lois respectives G ( a ) G(a) G ( a ) et G ( b ) G(b) G ( b ) . Montrer que β ( a , b ) \beta(a,b) β ( a , b ) est la loi de U = Y a / ( Y a + Y b ) U = Y_a / (Y_a + Y_b) U = Y a / ( Y a + Y b ) .
Calculer la moyenne et la variance de U U U .
Exercice 5 : Une identité entre lois. ¶ Soit U U U une variable aléatoire de loi β ( a , 1 − a ) \beta(a,1-a) β ( a , 1 − a ) , où a ∈ ] 0 , 1 [ a \in ]0,1[ a ∈ ] 0 , 1 [ (la loi Beta est définie dans l’exercice précédent). Soit Z Z Z une variable aléatoire de loi exponentielle Exp ( 1 ) \text{Exp}(1) Exp ( 1 ) , et qui est indépendante de U U U .
Montrer que X = U Z X = UZ X = U Z suit la loi Gamma G ( a ) \mathcal{G}(a) G ( a ) .
Exercice 6 : Étude d’un vecteur aléatoire. ¶ Soit Z = ( X , Y ) Z = (X,Y) Z = ( X , Y ) un vecteur aléatoire de R 2 \mathbb{R}^2 R 2 .
Rappeler ce qu’est la loi de Z Z Z .
On suppose que la loi de Z Z Z admet comme densité par rapport à la mesure de Lebesgue de R 2 \mathbb{R}^2 R 2 la fonction
f ( x , y ) = 4 π σ 2 exp ( − x 2 + y 2 σ 2 ) 1 { x ≥ ∣ y ∣ } f(x,y) = \frac{4}{\pi \sigma^2} \exp\!\left(-\frac{x^2+y^2}{\sigma^2}\right)\mathbf{1}_{\{x \geq |y|\}} f ( x , y ) = π σ 2 4 exp ( − σ 2 x 2 + y 2 ) 1 { x ≥ ∣ y ∣ } où σ \sigma σ est un paramètre strictement positif.
Vérifier que f f f est bien une densité de probabilité.
Les variables X X X et Y Y Y sont-elles indépendantes ?
Calculer la loi de ( X − Y , X + Y ) (X-Y, X+Y) ( X − Y , X + Y ) .
Montrer que X − Y X-Y X − Y et X + Y X+Y X + Y sont indépendantes.
Exercice 7 : Densité jointe et indépendance. ¶ Soit Z = ( X , Y ) Z = (X,Y) Z = ( X , Y ) un vecteur aléatoire à valeurs dans R 2 \mathbb{R}^2 R 2 , admettant une densité f : R 2 → [ 0 , + ∞ [ f : \mathbb{R}^2 \to [0,+\infty[ f : R 2 → [ 0 , + ∞ [ par rapport à la mesure de Lebesgue, i.e.,
∀ A ∈ B ( R 2 ) , P ( ( X , Y ) ∈ A ) = ∫ A f ( x , y ) d x d y . \forall A \in \mathcal{B}(\mathbb{R}^2), \quad
P\big((X,Y) \in A\big) = \int_A f(x,y)\, dx\,dy. ∀ A ∈ B ( R 2 ) , P ( ( X , Y ) ∈ A ) = ∫ A f ( x , y ) d x d y . Nous définissons les fonctions f X f_X f X et f Y f_Y f Y par
f X ( x ) = ∫ R f ( x , y ) d y , f Y ( y ) = ∫ R f ( x , y ) d x . f_X(x) = \int_{\mathbb{R}} f(x,y)\, dy,
\qquad
f_Y(y) = \int_{\mathbb{R}} f(x,y)\, dx. f X ( x ) = ∫ R f ( x , y ) d y , f Y ( y ) = ∫ R f ( x , y ) d x . Montrer que la loi marginale de X X X (respectivement Y Y Y ) admet pour densité f X f_X f X (respectivement f Y f_Y f Y ).
Rappeler la définition initiale de l’indépendance pour deux v.a. X X X et Y Y Y .
Montrer que, si X X X et Y Y Y sont indépendantes, alors, en dehors d’un ensemble de mesure de Lebesgue nulle, la densité jointe f ( x , y ) f(x,y) f ( x , y ) vérifie
f ( x , y ) = f X ( x ) f Y ( y ) . f(x,y) = f_X(x) f_Y(y). f ( x , y ) = f X ( x ) f Y ( y ) . Supposons qu’il existe deux fonctions boréliennes positives g , h g,h g , h telles que
∀ x , y ∈ R , f ( x , y ) = g ( x ) h ( y ) . \forall x,y \in \mathbb{R}, \quad f(x,y) = g(x)h(y). ∀ x , y ∈ R , f ( x , y ) = g ( x ) h ( y ) . Montrer qu’alors X X X et Y Y Y sont indépendantes.
Donner une caractérisation des lois de vecteurs dans R 2 \mathbb{R}^2 R 2 qui admettent une densité et dont les deux composantes sont indépendantes.