A cura di: Gianni Sammito
Dato $n > 1$, sia $alpha:M_{n}(mathbb{C}) rightarrow M_{n}(mathbb{C})$ l’applicazione definita come: $alpha(M)=M^t$ (l’esponente $t$ indica la trasposizione, mentre $M_{n}(mathbb{C})$ indica lo spazio vettoriale delle matrici quadrate di ordine $n$ a coefficienti complessi).
- È vero che$alpha$ è lineare? (se no, dire perché e tralasciare le domande successive, se sì dire perché e rispondere anche alle altre domande)
- È vero che $alpha$ è invertibile? Se sì, qual è la sua inversa? Se invece no, descrivere $"ker"(alpha)$ e $"Im"(alpha)$.
- È vero che $alpha^2 = I$?
- Determinare gli autovalori di $alpha$, con le loro molteplicità, algebricae e geometrica.
- $alpha$ è diagonalizzabile?
- Sia $beta: M_{n}(mathbb{C}) to M_{n}(mathbb{C})$ definita come segue: $beta(M) = M + M^t$. $beta$ è lineare? Se no, tralasciare le domande seguenti.
- È vero che $alpha$ e $beta$ hanno gli stessi autovalori?
- È vero che $alpha$ e $beta$ hanno gli stessi autospazi?
- È vero che $alpha – beta + I = O$?
Un’applicazione si dice lineare se rispetta le proprietà di additività e omogeneità. Date due matrici $A, B in M_{n}(mathbb{C})$ e dato $gamma in mathbb{C}$, per ogni $i=1, 2, ldots, n$, e per ogni $j = 1, 2, ldots, n$ risulta
$(A+B)_{i,j}^t = (A+B)_{j,i} = (A)_{j,i} + (B)_{j,i} = (A)_{i,j}^t +(B)_{i,j}^t$ (1)
$(gamma A)_{i,j}^t = (gamma A)_{j,i} = gamma (A)_{j,i} = gamma (A)_{i,j}^t$ (2)
Da (1) si deduce che
$alpha(M_1 + M_2) = (M_1 + M_2)^{t} = (M_1)^{t} + (M_2)^{t} =alpha(M_1) + alpha(M_2) quad forall M_1, M_2 in M_{n}(mathbb{C})$ (additività)
Da (2) si deduce che
$alpha(lambda M) = (lambda M)^{t} = lambda M^{t} = lambda alpha(M) quad forall M in M_{n}(mathbb{C}) quad forall lambda in mathbb{C}$ (omogeneità)
Quindi $alpha$ è un’applicazione lineare. $"ker"(alpha)$ è il sottospazio lineare del dominio che ha come immagine il vettore nullo, in questo caso è l’insieme delle matrici $M$ tali che $alpha(M) = O$, dove $O in M_{n}(mathbb{C})$ indica la matrice nulla.
$alpha(M) = O implies M^t = O implies M = O$
Quindi l’applicazione $alpha$ è iniettiva, visto che il nucleo coincide con lo spazio nullo, ma è anche suriettiva, perché è un endomorfismo, e quindi invertibile. L’inversa di $alpha(cdot)$ coincide con $alpha(cdot)$ stessa, dato che
$alpha(alpha(M)) = (M^{t})^t = M$
che è per l’appunto l’identità, di conseguenza $alpha^2 = I$, dove $I$ indica l’operatore identità.
Sia $M_s$ una matrice simmetrica, allora
$alpha(M_s) = M_s^{t} = M_s$
quindi le matrici simmetriche sono gli autovettori relativi all’autovalore $1$. Sia $M_a$ una matrice antisimmetrica, allora
$alpha(M_a) = M_a^{t} = -M_a$
quindi le matrici antisimmetriche sono gli autovettori relativi all’autovalore $-1$.
Data una matrice quadrata $A$, si può sempre scrivere:
$A = frac{A+A^{t}}{2} + frac{A-A^{t}}{2}$
dove il primo addendo è una matrice simmetrica e il secondo addendo è una matrice antisimmetrica. Questo vuol dire che ogni matrice quadrata può essere scritta come la somma di una matrice simmetrica e una matrice antisimmetrica, perciò gli autovettori di $alpha$ formano una base di $M_n(mathbb{C})$, per questo $alpha$ è diagonalizzabile.
Gli autospazi di $alpha$ sono due: lo spazio delle matrici antisimmetriche e lo spazio delle matrici simmetriche.
Una matrice antisimmetrica ha valori tutti nulli sulla diagonale principale, mentre i valori sopra la diagonale sono opposti a quelli sotto, per questo, per poter formare una base dello spazio delle matrici antisimmetriche, servono tante matrici quanti sono gli elementi sopra la diagonale, cioè
$frac{n^2-n}{2}$
ovvero da tutti gli elementi si tolgono quelli sulla diagonale e si divide per due. Quindi la dimensione dell’autospazio relativo alle matrici antisimmetriche è $frac{n^2-n}{2}$, ma dato che $alpha$ è diagonalizzabile questa è anche la molteplicità algebrica dell’autovalore $-1$.
Ragionando analogamente per lo spazio delle matrici simmetriche, per formare una base servono tanti elementi quanto sono quelli sopra la diagonale, più gli $n$ elementi della diagonale, quindi la dimensione dell’autospazio delle matrici simmetriche vale
$n+frac{n^2-n}{2} = frac{n^2+n}{2}$
e questa è anche la molteplicità algebrica dell’autovalore $1$, sempre perché $alpha$ è diagonalizzabile.
Verifichiamo che $beta$ è un’applicazione lineare:
$beta(M_1 + M_2) = (M_1 + M_2) + (M_1 + M_2)^t = (M_1 + M_1^t) + (M_2 + M_2^t) =$
$= beta(M_1) + beta(M_2) quad forall M_1, M_2 in M_{n}(mathbb{C}) $
$beta(lambda M) = lambda M + (lambda M)^t = lambda(M+M^t) = lambda beta(M) quad forall M in M_{n}(mathbb{C}) quad forall lambda in mathbb{C}$
Sia $M_s$ una matrice simmetrica, allora risulta:
$beta(M_s) = M_s + M_s^t = M_s + M_s = 2 cdot M_s$
quindi le matrici simmetriche sono gli autovettori di $beta$ relativi all’autovalore $2$, inoltre, sia $M_a$ una matrice antisimmetrica, allora:
$beta(M_a) = M_a + M_a^t = M_a – M_a = O$
dove $O$ è la matrice nulla, quindi le matrici antisimmetriche sono gli autovettori di $beta$ relativi all’autovalore $0$.
$alpha$ e $beta$ hanno gli stessi autovettori, quindi anche gli stessi autospazi, anche se relativi ad autovalori diversi.
Per quanto riguarda l’ultima domanda, si può scrivere:
$(alpha – beta + I)(M) = M^t – (M + M^t) + M = M^t – M – M^t + M = O$
che è l’applicazione nulla, quindi è vero che
$alpha – beta + I = O$
dove $I$ indica l’identità.
FINE
- Matematica