CB 03 Corr
CB 03 Corr
CB 03 Corr
Un corrigé du CCB3
Problème 1
P ([Sn = k]) = P ([Sn−1 = k]) P ([Xn = 0]) + P ([Sn−1 = k − 1]) P ([Xn = 1])
= (1 − x)P ([Sn−1 = k]) + xP ([Sn−1 = k − 1])
On vérifie cette relation pour k = 0 : P (Sn = 0) = (1 − x)n = (1 − x)P (Sn−1 = 0). De même pour
k = n.
Ainsi Bk,n (x) = xBk−1,n−1 (x) + (1 − x)Bk,n−1 (x).
4. (a) On
remarque
que pour tout k ∈ [[0, n]], la valuation de Bk,n est k (le polynôme Bk,n est de la forme
n
xk + · · · . Ainsi, la matrice de la famille (B0,n , . . . , Bn,n ) dans la base canonique de Rn [X]
k
est triangulaire inférieure de diagonale non nulle et est donc inversible ; cette famille est donc libre
et de cardinal n + 1 : c’est une base de Rn [X].
(b) L’application Bn est manifestement un endomorphisme de Cn [X]. Si P ∈ Cn [X] et Bn (P) = 0, alors,
par la question précédente P(k/n) = 0 pour tout k ∈ [[0, n]]. Le polynôme P de degré inférieur ou
égal à n admet n + 1 racines distinctes : c’est la polynôme nul.
L’endomorphisme de Cn [X], Bn , est injectif, donc bijectif.
Page 1/11
LM6E: MP* CCB 3 2023-2024
(c) Soit P ∈ C[X]. Supposons que deg(P) = n. La question précédente montre qu’il existe Q ∈ Cn [X]
tel que Bn (Q) = P.
Le polynôme Q n’est pas unique : en effet A(X) = nk=0 (X − k/n) (qui est de degré n + 1) vérifie
Q
Bn (A) = 0.
Donc Bn (Q + A) = P.
5. On a Tn (Ω) = {0, 1/n, . . . , k/n, . . . , 1} et P (Tn = k/n) = P (Sn = k).
La fonction f est continue sur [0, 1] et Sn (Ω) est fini ; on peut appliquer le théorème de transfert :
n
X k
E (f (Tn )) = f xk (1 − x)n−k = Bn (f )(x)
k=0
n
De plus, comme E (Tn ) = x ⇒ f (E (Tn )) = f (x), par linéarité de l’espérance Bn (f )(x) − f (x) =
E (f (Tn )) − f (E (Tn )) = E (f (Tn ) − f (E (Tn ))).
V(X)
6. On utilise l’inégalité de Bienaymé-Tchebicheff : pour tout δ > 0, P(|X−E(X)| > δ) ⩽ δ2
. Ici, comme
E (Tn ) = x
x(1 − x) 1
P (|Tn − x| > δ) ⩽ 2 ⩽
nδ 4nδ 2
puisque 0 ⩽ x(1 − x) ⩽ 1/4 pour x ∈ [0, 1].
7. En utilisant le théorème de transfert (X(Ω) = {x1 , . . . , xp } est fini et φ bornée), puis la convexité de
φ, il vient
p p
!
X X
φ(E(X)) = φ P (X = xi ) xi ⩽ P (X = xi ) φ (xi ) = E(φ(X))
i=1 i=1
8. La fonction x → |x| est convexe ; donc |Bn (f )(x) − f (x)| = |E (f (Tn ) − f (E (Tn )))| ⩽ E |f (Tn ) − f (E (Tn ))
La fonction f est continue sur [0, 1] compact : elle est uniformément continue. Pour tout ε > 0, il
existe δ > 0 tel que |x − x′ | < δ ⇒ |f (x) − f (x′ )| < ε. Ainsi, par la formule de l’espérance totale,
puis la question 6
Page 2/11
LM6E: MP* CCB 3 2023-2024
10. Supposons C[X] soit dense dans (C0 (R, C), ∥∥∞ ). Soit f ∈ C0 (R, C). Il existe une suite de polynôme
(Pn )n tel que limn→+∞ ∥f − Pn ∥∞ = 0.
Soit ε > 0. Il existe N0 tel que pour tout m > n ⩾ N0 , supx∈R |Pn (x) − Pm (x)| < ε. Cela entraîne que
Pn − Pm est constant. Donc pour tout n ⩾ N0 Pn − PN0 = αn . Ainsi αn = Pn (0) − PN0 (0) converge
vers f (0) − PN0 (0) = α0 . Donc f = PN0 + α0 est un polynôme.
A. Généralités.
11. Soit α ∈]0, 1]. Montrons que x → xα est 1 -Höldérienne, soit |xα − y α | ⩽ |x − y|α , pour (x, y) ∈ [0, 1]2 .
- c’est vérifié pour x = 0
- pour 0 < x < y, en factorisant par xα , on doit montrer que (1 − tα ) − (1 − t)α ⩽ 0(t = x/y). On
étudie g : t → (1 − tα ) − (1 − t)α .
Comme t ∈ [0, 1], g(t) = 1 − tα − (1 − t)α vérifie g ′ (t) = α (−tα−1 + (1 − t)α−1 ) s’annule pour t = 1/2.
Ainsi g est décroissante sur [0, 1/2] et croissante sur [1/2, 1]. Comme g(0) = g(1) = 0, on a g(t) ⩽ 0
pour tout t ∈ [0, 1]. - pour 0 < y < x, t ⩾ 1, g2 (t) = tα − 1 − (t − 1)α = tα g1 (1/t) ⩽ 0.
On vérifie aisément que Lipα est un sous espace vectoriel de C0 ([0, 1]).
12. Si 0 ⩽ α ⩽ β ⩽ 1, alors |x − y|β ⩽ |x − y|α et
B. Majoration de l’erreur.
14. Il suffit de remarquer que Lipα ⊂ C0 et que le théorème de Weierstrass donne que pour tout fonction
g ∈ C0 ([0, 1]), (Bn (g))n converge uniformément sur [0, 1] vers g.
15. Soit g ∈ Lipα . On a, grâce au théorème de transfert :
Page 3/11
LM6E: MP* CCB 3 2023-2024
n n n
X X xi X yi xi
h (xi , yi ) = yi g =Y g
i=1 i=1
yi i=1
Y yi
n
!
X xi
⩽ Yg ( concavité de g)
i=1
Y
n n
!
X X
=h xi , yi
i=1 i=1
(on a utilisé la définition de convexité pour n points (au lieu de 2) qu’il faudrait peut être ici
redémontrer par récurrence sur n ?)
Démonstration du cas d’égalité par récurrence sur n :
Pour n = 2 : on a égalité dans la seule inégalité précédente si et seulement si y1y+y
1
2
= 0 ou y1y+y
1
2
=1
x1 x2
ou y1 = y2 ; les deux premiers cas sont impossibles.
Pour n ⩾ 3
n+1
X n
X
h (xi , yi ) = h (xi , yi ) + h (xn+1 , yn+1 )
i=1 i=1
n n
!
X X
⩽h xi , yi + h (xn+1 , yn+1 ) ( récurrence)
i=1 i=1
n+1 n+1
!
X X
=h xi , yi ( récurrence pour n = 2)
i=1 i=1
(b) Soit g : x → x . La fonction g est strictement concave sur R+ (dérivée seconde strictement
1/p
négative). On a h(x, y) = x1/p y 1/q pour x ⩾ 0 et y > 0. Si on suppose qu’aucun des (v1 , . . . , vn )
n’est nul, on pose xi = |ui |p , yi = |vi |p et on peut donc écrire en utilisant la question précédente
n n 1/p n
!1/p n
!1/q
X X xi X X
|ui vi | = yi ⩽ |ui |p |vi |q
i=1 i=1
yi i=1 i=1
Si certains des vi sont nuls, la relation précédente reste vérifiée car on ne les compte pas dans le
calcul.
On a égalité dans l’inégalité précédente si et seulement s’il existe λ tel que pour tout i ∈
[[1, n]], |ui |p = λ |vi |p , ou pour tout i ∈ [[1, n]], |ui | = µ |vi |.
1/p+1/q
17. On utilise l’inégalité précédente avec p = 2/α et 1/p + 1/q = 1, P Tn = nk = P Tn = nk
Page 4/11
LM6E: MP* CCB 3 2023-2024
n α
α
X k k
E (|x − Tn | ) = − x P Tn =
k=0
n n
n 2 !α/2 Xn !(2−α)/2
X k k k
⩽ − x P Tn = P Tn =
k=0
n n k=0
n
n 2 α/2
!
X k k
= − x P Tn =
n n
k=0 α/2
= E |x − Tn |2
α/2
α 2 α/2 L 1
|Bn (g)(x) − g(x)| ⩽ L × E (|Tn − x| ) ⩽ L × E |x − Tn | = 2 × V (Sn )α/2 ⩽ L
n 4n
1 α/2
Soit ∥Bn (g) − g∥∞ ⩽ L 4n
.
19. La relation précédente étant valable quel que soit g ∈ Lipα , il vient
α/2
1
sup ∥Bn (g) − g∥∞ =O
g∈Lipα n
Page 5/11
LM6E: MP* CCB 3 2023-2024
Problème 2
Page 6/11
LM6E: MP* CCB 3 2023-2024
Page 7/11
LM6E: MP* CCB 3 2023-2024
D’après la question précédente, tout élément A de GLn (R) admet un et un seul antécédent par φ, alors
φ est bijective. De plus φ est la restriction d’une application bilinéaire en dimension finie, alors φ est
continue. Soit (Ak )k∈N une suite de GLn (R), convergente vers A ∈ GLn (R). On pose : (O, S) = φ−1 (A)
et ∀k ∈ N; (Ok , Sk ) = φ−1 (Ak ).
Pour montrer que la suite (Ok , Sk )k est convergente, il suffit de montrer qu’elle est bornée et admet
une unique valeur d’adhérence, puis on conclut par unicité de la décomposition polaire. ∥ . ∥2 est une
norme subordonnée, donc norme d’algèbres par conséquent Sk = t Ok Ak est bornée. (Ak )k est bornée (
car convergente) et (Ok )k est une suite d’un compact, donc elle est bornée. On en déduit que la suite
(Ok , Sk )k est bornée.
La matrice t AA étant symétrique positive , donc Rn admet une base orthonormée (V1 , ..., Vn ) formée
de vecteurs propres de t AA. Posons t AAVi = λi Vi , supposons que λ1 ≤ ... ≤ λn , alors pour X =
Xn
xi Vi ∈ Rn , on a
i=1
n
X
t t
X AAX = λi x2i ≤ λn ∥X∥2
i=1
p
Avec égalité lorsque X = Vn , donc ∥ A ∥2 = ρ (t AA)
Page 8/11
LM6E: MP* CCB 3 2023-2024
13. (a) On a (u(x) | y) = (x | u(y)) et (u(x) | x) ⩾ 0 pour tout (x, y) de E2 donc a fortiori pour tout
(x, y) ∈ (Im u)2 ce qui prouve déjà que u1 est autoadjoint positif. Par ailleurs Ker u1 = Ker u∩Im u
et comme u est autoadjoint on a Ker u = (Im u∗ )⊥ = (Im u)⊥ donc Ker u1 = {0} ce qui prouve
que Sp (u1 ) ⊂ R+∗ et finalement que u1 ∈ S++ (Im u).
(b) Notons < .|. > le produit scalaire sur Im u défini par u−1
1 y) ∈ Im u. Il−1vient
et soit (x, : -
−1 −1 −1
⟨w(x) | y⟩ = u1 (w(x)) | y = w(x) | u1 (y) = u(v(x)) | u1 (y) = v(x) | u u1 (y) Or
uou−1 −1
1 = u1 ou1 = IdIm u Donc ⟨w(x) | y⟩ = (v(x) | y) Comme v est autoadjoint, cette fonction
est symétrique en x et y donc w est bien symétrique pour ϕu−1 1
. - D’après le calcul ci-dessus,
⟨w(x) | x⟩ = (v(x) | x) ⩾ 0 puisque v est positif. - En conclusion w est bien autoadjoint positif
pour ϕu−1
1
.
14. Im(u◦v) est un sous-espace de Im u et la restriction de u◦v à Im u◦v n’est autre que la restriction de w.
Or w en tant qu’endomorphisme autoadjoint positif est diagonalisable à valeurs propres dans R+ et on
sait que la restriction d’un endomorphisme diagonalisable à un sous-espace stable est diagonalisable
(avec ses valeurs propres naturellement à choisir parmi celles de l’endomorphisme de départ). Ainsi
la restriction de u ◦ v à Im(u ◦ v) est diagonalisable et son spectre est inclus dans R+ .
15. Soit x ∈ Im(u ◦ v) ∩ Ker(u ◦ v) et soit y tel que x = u ◦ v(y). On a (v(x) | x) = (v(x) | u(v(y))) =
(u(v(x)) | v(y)) = (0 | v(y)) = 0 Comme v est autoadjoint positif, on a v(x) = 0 d’après (1). Par
ailleurs (u(v(y)) | v(y)) = (x | v(y)) = (v(x) | y) = (0 | y) = 0 Donc, toujours d’après (1), u(v(y))
c’est à dire x est nul et la somme Im(u ◦ v) + Ker(u ◦ v) est directe. Le théorème du rang fournit
alors la conclusion.
16. Im(u ◦ v) et Ker(u ◦ v) sont deux sous-espaces stables par u ◦ v et supplémentaires. La restriction de
u ◦ v au premier est diagonalisable avec un spectre inclus dans R+ (question B.2) ainsi bien sà»r que
la restriction au second avec 0 comme unique valeur propre. Il en découle que u ◦ v est diagonalisable
(concaténation de bases de vecteurs propres) et que son spectre est inclus dans R+ .
Page 9/11
LM6E: MP* CCB 3 2023-2024
ii. On peut choisir ces deux vecteurs propres orthogonaux (c’est en particulier automatique si les
valeurs propres sont distinctes) et de dernière composante égale à 1 . En effet, la dernière
composante d’un vecteur Y du a) ne peut être nulle, sinon on aurait
te
YA(n) Ỹ = t YAY < 0
Ỹ
avec Y = ce qui contredit le fait que A(n) soit définie positive et donc on peut alors
0
multiplier les vecteurs par un coefficient non nul adapté. On dispose alors de X1 et X2 vecteurs
propres associés respectivement à λ1 < 0 et λ2 < 0, orthogonaux, de dernière composante
égale à 1 . Soit X = X1 − X2 . La dernière composante de X est nulle et
t
XAX = λ1 ∥X1 ∥2 + λ2 ∥X2 ∥2 < 0.
(d) Il vient t X̃A(n) X̃ = t XAX < 0, en notant X̃ ∈ Mn,1 (R) le vecteur colonne X où l’on a supprimé le
dernier coefficient. Ceci contredit la propriété Pn+1 d’où l’absurdité.
0 0
18. ⇐ est fausse avec le contre-exemple . En revanche, le sens direct est vrai (non demandé
0 −1
dans l’énoncé). On le montre en considérant les matrices définies positives Aε = A + εIn pour ε > 0
puis en faisant tendre ε vers 0 .
• • • FIN • • •
Page 10/11