X-Cachan 2024 PSI Mathématiques CA

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 7

Corrigé de l’épreuve Mathématiques, X/ENS 2024, filière PSI.

Laurent Bonavero - Lycée Champollion (Grenoble)


Avertissements : ceci n’est pas LE corrigé mais UN corrigé.
Il y a dans tous mes corrigés des erreurs potentielles ou des choses qui ne sembleront pas claires...me
contacter le cas échéant !
Partie I : Préliminaires
(1) On a
Mn (u) = ∅ ⇔ Ru = 0 .
Cette équivalence découle de suite du fait que ρ(A) ≥ 0 pour toute matrice A.
Si u = (n!)n≥0 , on a Ru = 0 et donc Mn (u) = ∅.
(2) Si Ru = 0, alors Mn (u) = ∅ =
̸ {0n }.
Ru
Si Ru > 0 la matrice A = In appartient à Mn (u) donc Mn (u) ̸= {0n }.
2
(3) Les implications (i) ⇒ (ii) et (ii) ⇒ (iii) sont bien sûr évidentes.
Montrons (iii) ⇒ (i) . Comme Mn (u) ̸= ∅, Ru > 0. Supposons par l’absurde que Ru ∈ ]0, +∞[.
Ru
La matrice A = In ∈ Mn (u). On en déduit que 2A = A + A ∈ Mn (u). On a alors ρ(2A) =
2
2ρ(A) = Ru < Ru , ce qui est absurde.
La suite u = (1/n!)n≥0 vérifie (i), (ii) et (iii).
(4) Rappelons que d’après Cayley-Hamilton, A est nilpotente si et seulement si ρ(A) = 0.
Montrons (i) ⇒ (ii) . Soit A vérifiant (i). Soit R > 0. La suite v = (1/Rn )n≥0 est de rayon R.
On a donc ρ(A) < R. Ceci étant vrai pour tout R > 0, on en déduit que ρ(A) = 0, c’est-à-dire
que A est nilpotente.
L’implication (ii) ⇒ (i) est immédiate avec le rappel précédent.
(5) D’après le cours, le rayon de convergence d’une série entière est égal à celui de toutes ses dérivées.
On a donc Ru = Ru(m) pour tout m et donc Du = Du(m) .
(6) D’après le cours sur les séries entières, Ru+v ≥ min(Ru , Rv ) et par produit de Cauchy, Ru⋆v ≥
min(Ru , Rv ).
Si A ∈ Mn (u) ∩ Mn (v), on a ρ(A) < Ru et ρ(A) < Rv donc ρ(A) < min(Ru , Rv ) et donc bien
A ∈ Mn (u + v) ∩ Mn (u ⋆ v).
(7) L’hypothèse symétrique est bien étrange pour des matrices à coefficients complexes...Le résultat
demandé étant vrai pour toutes matrices, nous ne l’utiliserons pas.
Soient A, B ∈ Mn (u). Comme A et B commutent, elles sont simultanément trigonalisables (résultat
hors-programme). On en déduit que toute valeur propre de AB s’écrit comme produit d’une valeur
propre de A et d’une valeur propre de B. On en déduit que
ρ(AB) ≤ ρ(A)ρ(B) < Ru2 ≤ Ru .
Ru >0 Ru ≤1

Et donc AB ∈ Mn (u) .

Partie II : Fonctions de matrices

(8) L’application fA : C[X] → Mn (C) définie par :


∀P ∈ C[X], fA (P ) = P (A)
est linéaire. Comme C[X] est de dimension infinie alors que Mn (C) est de dimension finie, cette
application n’est pas injective et son noyau n’est donc pas réduit à 0C[X] . Ceci signifie que
VA n’est pas vide .
Argument alternatif : le théorème de Cayley-Hamilton implique que χA ∈ VA .

1
2

1
(9) Soit P ∈ VA de degré m et de coefficient dominant am . Alors p = P vérifie (i), (ii) et (iii).
am
Ceci donne l’existence.
Soient p1 et p2 deux éléments de VA vérifiant (i), (ii) et (iii). Alors p1 − p2 est degré < m et
annule la matrice A. Par minimalité de m, on en déduit que p1 − p2 = 0 et donc que p1 = p2 , ce
qui prouve l’unicité.
(10) Effectuons la division euclidienne de P par φA : P = QφA + R avec deg(R) < m. On a alors
R(A) = 0 et par minimalité de m à nouveau, on en déduit que R = 0 et donc que φA divise P .
(11) D’après Cayley-Hamilton, φA divise le polynôme caractéristique χA de A : ceci montre que toute
racine de φA est racine de χA et donc est une valeur propre de A.
Réciproquement, toute valeur propre de A est racine de tout polynôme annulateur de A, et donc
en particulier est racine de φA .
m
X
(12) Si A est à coefficients réels, et si φA = ak X k , on a
k=0

m
X m
X
0n = ak Ak = ak Ak .
A∈Mn (R)
k=0 k=0

m
X
Le polynôme ak X k annule A et est unitaire de degré m. Il est donc égal à φA , ce qui montre
k=0
que ak = ak pour tout k et donc que φA ∈ R[X] .
(13) L’application T est linéaire par linéarité des applications d’évaluation et de dérivation. Comme
dim Cm−1 [X] = m = dim Cm , il suffit de montrer que T est injective. Or, si P ∈ Cm−1 [X] vérifie
T (P ) = 0, alors P possède m racines en tenant compte des multiplicités. Etant de degré ≤ m − 1,
on en déduit que P = 0. Ainsi, T est un isomorphisme .
Et le polynôme Q cherché est

Q = T −1 U (λ1 ), . . . , U (m1 −1) (λ1 ), . . . , U (ml −1) (λl ) .




(14) En utilisant la caractérisation de la multiplicité d’une racine en termes d’annulation de dérivées,


on a par équivalence logique

u(A) = P (A) ⇔ (P − Q)(A) = 0


⇔ φA divise P − Q
⇔ ∀i ∈ [[1, l]], λi est racine de P − Q de multiplicité ≥ mi
⇔ ∀i ∈ [[1, l]], ∀k ∈ [[0, mi − 1]], (P − Q)(k) (λi ) = 0
⇔ ∀i ∈ [[1, l]], ∀k ∈ [[0, mi − 1]], P (k) (λi ) = Q(k) (λi )
⇔ ∀i ∈ [[1, l]], ∀k ∈ [[0, mi − 1]], P (k) (λi ) = U (k) (λi ).

(15) Posons A = αIn . Avec les notations précédentes, on a φA = X − α et m = 1. Le polynôme Q est


donc le polynôme constant égal à U (α) et on en déduit que

u(αIn ) = Q(αIn ) = U (α)In .

(16) La matrice A est triangulaire supérieure, diagonalisable car à valeurs propres simples et de polynôme
caractéristique égal à (X − α)(X − β).
On déduit de (11) en particulier que φA = (X − α)(X − β) et l = 2. Le polynôme Q est donc
l’unique polynôme de degré ≤ 1 qui coïncide avec U en α et en β. On a donc

U (α) − U (β) αU (β) − βU (α)


Q= X+ .
α−β α−β
3

Finalement,
 
γ U (α) − U (β)
U (α) − U (β) αU (β) − βU (α)
u(A) = A+ I2 = U (α) α−β .
α−β α−β
0 U (β)

(17) (a) Soient (λi )1≤i≤l les valeurs propres de A et (mi )1≤i≤l leurs multiplicités comme racines de
φA , soient (µj )1≤i≤l′ les valeurs propres de B et (nj )1≤i≤l′ leurs multiplicités comme racines
de φB . D’après (14), un polynôme R vérifie u(A) = R(A) et u(B) = R(B) si et seulement si
R(k) (λi ) = U (k) (λi ) pour tout i et k ≤ mi − 1 ainsi que R(k) (µj ) = U (k) (µj ) pour tout j et
k ≤ nj − 1.
Si on suppose que A et B ont r valeurs propres communes et que l’on a ordonné les λi et les µj
de sorte que λi = µi pour 1 ≤ i ≤ r, et si on note Mi = max(mi , ni ) pour 1 ≤ i ≤ r puis enfin
M = M1 +· · ·+Mr +mr+1 +· · ·+ml +nr+1 +· · ·+nl′ , alors l’application T̃ : CM −1 [X] → CM
définie par
P 7→ T̃ (P ) = P (λ1 ), . . . , P (Mr −1) (λr ), P (λr+1 ), . . . , P (ml −1) (λl ), P (µr+1 ), . . . , P (nl′ −1) (µl′ )


est un isomorphisme (même argument qu’en (13)) et il existe donc un unique R ∈ CM −1 [X]
qui convient !
Un argument plus agréable est possible en écrivant une relation de Bezout entre φA /pgcd(φA , φB )
et φB /pgcd(φA , φB ) mais l’arithmétique des polynômes n’est pas au programme de la filière
PSI.
Xd
(b) D’après (a) appliqué à AB et BA, il existe un polynôme R = ak X k tel que
k=0

u(AB) = R(AB) et u(BA) = R(BA).


En remarquant que pour tout k ∈ N, on a
A(BA)k = A(BA) · · · (BA) = (AB) · · · (AB)A = (AB)k A,
il vient
d
X d
X
Au(BA) = AR(BA) = ak A(BA)k = ak (AB)k A = R(AB)A = u(AB)A .
k=0 k=0

(18) D’après (6), on a A ∈ Mn (u ⋆ v).


Notons w = u ⋆ v et W la somme de la série entière correspondante, définie au moins pour
|z| < min(Ru , Rv ). Par produit de Cauchy, on a W = U V . Soient Q tel que u(A) = Q(A) et R tel
que v(A) = R(A). On a donc u(A)v(A) = Q(A)R(A) = (QR)(A). En utilisant (14) et la formule
de Leibniz, il vient pour tout i et pour tout k ≤ mi − 1,
k  
X k
(QR)(k) (λi ) = Q(j) (λi )R(k−j) (λi )
Leibniz
j=0
j
k  
X k
= U (j) (λi )V (k−j) (λi )
(14)
j=0
j
= (U V )(k) (λi )
Leibniz
= W (k) (λi ).
Cauchy

En appliquant (14) à nouveau à w, on en déduit que

(u ⋆ v)(A) = (QR)(A) = u(A)v(A) .

Partie III : Cas de matrices diagonalisables


4

(19) D’après (11), le polynôme (X − λ1 ) · · · (X − λl ) divise φA . Mais comme A est diagonalisable,


(X − λ1 ) · · · (X − λl ) annule A et d’après (10), φA divise (X − λ1 ) · · · (X − λl ). Ces deux polynômes
étant unitaires, on en déduit que
φA = (X − λ1 ) · · · (X − λl ) .
(20) (a) Avec les notations de la partie précédente, les mi sont égales à 1 et (14) se reformule ainsi :
u(A) = P (A) ⇔ ∀i, P (λi ) = U (λi ).
Appliquons ceci à
l
X
P = U (λk )QA
k (X).
k=1
On a (polynômes interpolateurs de Lagrange) pour tout i :
l
X
P (λi ) = U (λk )δi,k = U (λi )
k=1

l
X
et donc bien u(A) = P (A) = U (λk )QA
k (A) .
k=1
l
X
(b) Soit x ∈ Cn , que l’on décompose en une somme de vecteurs propres x = xi avec xi ∈
i=1
Ker(A − λi In ).
Si k ̸= i, le facteur X − λi est présent dans QA A
k (X) et donc Qk (A)(xi ) = 0.
A
Reste à calculer Qi (A)(xi ) et pour simplifier l’écriture, supposons i = 1. On a alors
 
l
Y A − λj In 
QA
1 (A)(x1 ) =
 (x1 )
j=2
λ1 − λj
 
l−1
Y A − λj In (A − λl In )(x1 )
=  
j=2
λ1 − λj λ1 − λl
 
l−1
Y A − λj In (λ1 − λl )(x1 )
=  
j=2
λ1 − λj λ1 − λl
 
l−1
Y A − λj In
=   (x1 )
j=2
λ1 − λj
..
.
= x1 .

Ainsi, QA A
k (A)(x) = xk , ce qui montre que Qk (A) est la matrice du projecteur d’image égale
l
M
à Ker(A − λk In ) et de noyau égal à Ker(A − λj In ).
j=1,j̸=k
(c) On a d’après (b) pour tout x ∈ Cn ,
l
X
x= QA
k (A)(x),
k=1
ce qui montre de suite que
l
X
In = QA
k (A) .
k=1
5

L’énoncé est me semble-t-il maladroit, un étudiant connaissant son cours sur les polynômes
de Lagrange peut être surpris. En utilisant le fait que (QA A
1 , . . . , Ql ) est une base de Cl−1 [X],
le polynôme 1 se décompose dans cette base suivant
l
X
1= QA
k (X)
k=1

si bien que
l
X
In = QA
k (A)
k=1
mais que l’on a plus généralement
l
X
∀M ∈ Mn (C), In = QA
k (M ) .
k=1

(21) La matrice BAB −1 ayant les mêmes valeurs propres que A, on a BAB −1 ∈ Mn (u) si bien que la
question a un sens.
Notons aussi que BAB −1 a même ensemble de polynômes annulateurs et donc que φBAB −1 = φA .
Ainsi, si Q vérifie u(A) = Q(A), on a aussi d’après (14), u(BAB −1 ) = Q(BAB −1 ). Or, on a de
façon classique Q(BAB −1 ) = BQ(A)B −1 et tout ceci donne donc u(BAB −1 ) = Bu(A)B −1 .
(22) (a) Comme D est semblable à A, on a φD = φA = (X − λ1 ) · · · (X − λl ) et P ∈ C[X] vérifie
u(D) = P (D) si et seulement si P (λi ) = U (λi ) pour tout i. Or, P (D) est aussi diagonale et
[P (D)]i,i = P ([D]i,i ) si bien que pour un tel P ,

u(D) = P (D) = diag(P ([D]1,1 ), . . . , P ([D]n,n )) = diag(U ([D]1,1 ), . . . , U ([D]n,n )) .

(b) A l’aide de (21), on en déduit que

u(A) = Su(D)S −1 = S diag(U ([D]1,1 ), . . . , U ([D]n,n ))S −1 .

Partie IV : Application à des cas particuliers

(23) (a) La matrice H est nilpotente d’indice n donc φH = X n .


(b) D’après (a), on a φA = (X − α)n . D’après (14), un polynôme Q vérifie u(A) = P (A) si et
seulement si P (k) (α) = U (k) (α) pour tout k ≤ n − 1. Grâce à la formule de Taylor pour les
n−1
X U (k) (α)
polynômes, c’est le cas du polynôme P = (X − α)k . On a donc
k!
k=0

n−1 n−1
X U (k) (α) X U (k) (α)
u(A) = P (A) = (A − αIn )k = Hk .
k! k!
k=0 k=0

Le "en déduire" est immédiat connaissant la forme des puissances de H !


(24) Maladresse d’énoncé : G est à coefficients réels.
(a) La matrice G est de terme général [G]i,j = yi zj . Elle est non nulle et toutes ses colonnes sont
proportionnelles à Y . On en déduit que G est de rang 1 et que Im(G) = Vect(Y ) .
(b) La matrice G étant de rang 1, 0 est valeur propre de multiplicité ≥ n − 1 (d’après le théorème
Xn
du rang) et la "dernière" valeur propre est donnée par la trace : tr(G) = yi zi = tZY .
i=1
(c) D’après Cauchy-Schwarz, | tZY |2 ≤ tZZ tY Y = 1 donc ρ(G) ≤ 1 < Ru et G ∈ Mn (u) .
(d) Si tZY ̸= 0, la matrice G est diagonalisable et d’après (19), φG = X(X − tZY ) .
6

(e) Le polynôme
U ( tZY ) − U (0)
P = U (0) + tZY
X
vérifie P (0) = 0 et P ( tZY ) = U ( tZY ). D’après (14) à nouveau, il vient :
U ( tZY ) − U (0)
u(G) = P (G) = U (0)In + tZY
G.

(f) Quand tZY = 0, la matrice G est nilpotente d’indice 2 et on a φG = X 2 . De là, P ∈ C[X]


vérifie P (G) = u(G) si et seulement si P (0) = U (0) et P ′ (0) = U ′ (0). On en déduit que
u(G) = U (0)In + U ′ (0)G.

(25) (a) Le terme général (k, j) de la matrice F F est égal à


n n
1 X (k−1)(l−1) −(l−1)(j−1) 1 X k−j l−1
ω ω = (ω ) .
n n
l=1 l=1
k−j
Si k ̸= j, ω ̸= 1 et
n
1 X k−j l−1 1 − (ω n )k−j
(ω ) = =0
n 1 − ω k−j
l=1
et si k = j,
n
1 X k−j l−1
(ω ) = 1.
n
l=1

On a donc F F = In et donc F est inversible et F −1 = F .


(b) Le terme général (k, j) de la matrice F 2 est égal à
n n
1 X (k−1)(l−1) (l−1)(j−1) 1 X k+j−2 l−1
ω ω = (ω ) .
n n
l=1 l=1

Comme précédemment, cette quantité est soit nulle, soit égale à 1 (suivant que k + j − 2 est un
multiple de n ou pas) si bien que F 2 est à coefficients dans {0, 1} donc à coefficients réels .
(c) On a
2
F 4 = F 2 F 2 = F 2 F = F 2 × (F −1 )2 = In .
On en déduit que les valeurs propres de F sont des racines 4-ièmes de l’unité, donc de module
égal à 1 < Ru , ce qui montre que F ∈ Mn (u) .
(d) Le polynôme X 4 − 1 = (X − 1)(X + 1)(X − i)(X + i) étant annulateur de F et à racines
simples, le polynôme φF divise (X − 1)(X + 1)(X − i)(X + i) et toutes ses racines sont donc
simples. Afin de calculer u(F ), il suffit de trouver un polynôme qui coïncide avec U en 1, −1,
i et −i. Le polynôme
1 i
P = U (1)(X + 1) − U (−1)(X − 1) (X 2 + 1) + U (i)(X + i) − U (−i)(X − i) (X 2 − 1)
 
4 4
convient, ce qui donne le résultat.
On n’utilise pas le fait que F 2 soit à coefficients réels dans la mesure où il n’est pas utile
d’avoir l’expression de φF pour calculer u(F ).
(26) (a) L’énoncé n’introduit pas N et p.
La suite u est nulle à partir d’un certain rang donc Ru = +∞ .
On a de plus
N  
X N k N −k k
∀z ∈ C, U (z) = p q z = (q + pz)N
k
k=0
7

avec q = 1 − p. Comme U est polynomiale, on peut prendre P = U pour calculer u(A) et on


a donc
∀A ∈ Mn (C), u(A) = U (A) = (pA + (1 − p)In )N .
(b) On a Ru = 1/q > 1 avec q = 1 − p et
X pz
∀z ∈ Du , q k−1 pz k = .
1 − qz
k≥1

Si A est diagonalisable et appartient à Mn (u), ses valeurs propres sont de module < 1/q, donc
celles de qA sont de module < 1 et In − qA et bien inversible. On écrit enfin A = P DP −1 et
on peut appliquer (22)(b) :
   
pdi −1 −1 1
u(A) = P diag P = P diag (pdi ) P P diag P −1 = pA(In − qA)−1 = p(In − qA)−1 A .
1 − qdi 1 − qdi

Vous aimerez peut-être aussi