descomposici on fundamental de matrices y equivalencia
TRANSCRIPT
Descomposicion Fundamental de Matrices y
Equivalencia entre Representaciones
Carlos Andres Hernandez Gomez
Dirigido por el profesor Alexander Cardona del departamento de
matematicas de la universidad de los Andes, Bogota D.C., 2017.
Indice general
Introduccion 3
1. Descomposiciones matriciales 6
1.1. Forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Valores singulares y forma polar . . . . . . . . . . . . . . . . . . . . . . . . 8
2. Descomposiciones matriciales y parametros fundamentales 11
2.1. Algunos hechos elementales y descomposiciones en dimension dos . . . . . 12
2.2. Descomposiciones y parametros fundamentales en dimension dos . . . . . . 14
2.2.1. Parametros de semejanza y clasificacion de triangulos semejantes . . 15
2.2.2. Descomposicion Fundamental para matrices en dimension dos . . . 17
2.2.3. Dominio fundamental expandido . . . . . . . . . . . . . . . . . . . 24
2.3. Descomposicion Fundamental para matrices en dimension tres . . . . . . . 28
2.4. Descomposicion Fundamental para matrices en dimension n . . . . . . . . 29
3. Perspectivas de investigacion 37
3.1. Teorıa de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.1.1. Descomposicion de Cartan . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.2. Descomposicion de Jordan-Chevalley . . . . . . . . . . . . . . . . . 42
3.2. El dominio fundamental y sl(2,R) . . . . . . . . . . . . . . . . . . . . . . . 43
3.3. Parametros fundamentales y polinomio caracterıstico . . . . . . . . . . . . 44
Bibliografıa 47
2
Introduccion
En el contexto del algebra lineal aprendemos a diagonalizar matrices cuadradas, proce-
so que de poder llevarse a cabo conduce a una manera de representar la matriz en terminos
de otras matrices y cuyo significado geometrico, permite identificar la accion de una tras-
formacion lineal asociada a dicha matriz sobre un espacio euclidiano, al descomponerla
en homotecias que actuan sobre espacios propios. Mientras algunas matrices reales solo
pueden diagonalizarce empleando numeros complejos, como aquellas que corresponden
con rotaciones, otras nunca se pueden diagonalizar, como es el caso de las matrices nilpo-
tentes. Aunque esta representacion no siempre exista, a partir de esta podemos obtener
otras dos que se pueden definir siempre.
La forma canonica de Jordan es la manera mas directa de generalizar el proceso de
diagonalizacion de una matriz. Al trabajar con matrices reales podrıamos tener que usar
coeficientes complejos, pues solo en los complejos podemos garantizar que el polinomio
caracterıstico se factorice completamente. Ademas de factorizar el polinomio caracterısti-
co necesitamos obtener una base de vectores propios, cuando una matriz A no puede
diagonalizarce ni siquiera al emplear complejos es porque la base de vectores propios
esta incompleta, en tal caso debemos completar la base de vectores propios empleando
vectores propios generalizados para construir la forma canonica de Jordan. En este sen-
tido, al construir la forma canonica de Jordan ampliamos el concepto de espacio propio
para sustituirlo por aquel de espacio invariante E de A, es decir tal que A(E) ⊆ E.
Ahora consideramos el hecho de que el producto de cualquier matriz real (o compleja)
por su transpuesta (o su adjunta) es simetrico (o autoadjunto) y que ademas es semidefini-
do positivo, es decir que dicho producto de matrices es ortogonalmente (o unitariamente)
diagonalizable y tiene valores propios reales no negativos. Los valores singulares de una
matriz A se definen como las raıces cuadradas (no negativas) de los valores propios (reales
no negativos) de ATA. Si A es una matriz cuadrada, es posible representarla empleando
dos matrices ortogonales (o unitarias) O y O y una matriz diagonal de valores singulares
Σ mediante el producto A = OΣO gracias a la descomposicion en valores singulares. A
diferencia de lo que ocurre en la forma canonica de Jordan O y O no tienen que ser in-
versas una de la otra.
3
La forma canonica de Jordan es ideal para calcular potencias de matrices, ya que las
matrices de cambio de base a los lados son inversas una de la otra de modo que se can-
celan al multiplicar la matriz con sigo misma, esto en cambio luce muy mal al emplear la
descomposicion en valores singulares. La descomposicion en valores singulares sin embar-
go no requiere emplear coeficientes complejos para representar matrices reales, mientras
emplea siempre bases ortonormales y una matriz completamente diagonal con entradas
reales no negativas.
Es posible interpretar, tanto la forma canonica de Jordan como la descomposicion en
valores singulares para una misma matriz cuadrada A, como descripciones geometricas
acerca de como actua la transformacion lineal representada por dicha matriz. Estas dos
descripciones, pese a relatar lo mismo, lo hacen de manera esencialmente diferente. Como
contamos con ambas representaciones para cualquier matriz cuadrada (real o compleja),
podemos compararlas. Las matrices simetricas semidefinidas positivas ejemplifican co-
mo ambas representaciones pueden coincidir por completo, mas aun, en el caso general
abrıa de existir algun criterio algebraico o geometrico (o ambos) que permita establecer
la correspondencia entre estas dos representaciones. Este trabajo pretende descubrir di-
chos criterios y propone que estos sean un puente para expandir nuestro entendimiento
del algebra y la geometrıa paralelamente; proponiendo un contexto geometrico apropiado
para relacionar diferentes descomposiciones matriciales, al cual hemos llamado Dominio
Fundamental.
En el primer capıtulo haremos un repaso de la teorıa concerniente respecto la for-
ma canonica de Jordan y la descomposicion en valores singulares. Posteriormente, en el
segundo capıtulo, se expondran los primeros intentos de responder la pregunta sobre la
correspondencia entre la forma canonica de Jordan y la descomposicion en valores singu-
lares a partir del estudio de casos muy particulares. Luego se avanzara hacia un enfoque
mas general, que nos dara una respuesta explicita en dimension dos (teoremas 2.2.1 y
2.2.2) e implıcita en dimensiones superiores (teorema 2.4.1), mediante una perspectiva
equivalente a la nocion de espacios modulares, la cual se ejemplificara primero de forma
sencilla empleando triangulos en lugar de matrices.
Un espacio modular es un espacio geometrico cuyos puntos representan objetos matemati-
cos o clases de equivalencia de dichos objetos. Son ejemplos de espacios modulares, los
espacios proyectivos donde se parametrizan los subespacios unidimensionales, el Grass-
maniano Gr(k, V ) de un espacio vectorial V que corresponde con los subespacios de V
de dimension k, la variedad de Chow, el esquema de Hilbert y el dominio fundamental
(definicion 2.2.1) que describe las clases equivalentes de matrices ortogonalmente similares.
4
En el capitulo final introduciremos la teorıa de grupos y algebras de Lie para estudiar sus
descomposiciones y relacionarlas con nuestro objeto de estudio y a la vez se expondran
ciertas expectativas frente al potencial a futuro y posibles aplicaciones de esta investiga-
cion.
5
Capıtulo 1
Descomposiciones matriciales
El proposito investigativo de esta tesis es comprender, desde una perspectiva geometri-
ca, la accion de una transformacion lineal en Rn por medio de su descomposicion en valo-
res singulares y su forma canonica de Jordan, simultaneamente. Concretamente, se quiere
buscar un algoritmo que nos permita pasar de una descomposicion a la otra para enten-
der como se presentan ambas simultanemente, estableciendo relaciones entre los valores
propios, los valores singulares y las bases asociadas correspondientes.
1.1. Forma canonica de Jordan
Para entender como se construyen estas dos representaciones debemos empezar por
recordar el proceso de diagonalizacion de una matriz. Sea Mn(F) el espacio vectorial de
matrices n×n con entradas en F = R o F = C. Para diagonalizar una matrizM ∈Mn×n(F)
se debe construir una matriz D, similar a M y diagonal, a partir de las raıces del poli-
nomio caracterıstico de M . Dicho polinomio es simplemente el determinante de la matriz
M − λI donde λ es la incognita y las raıces de dicho polinomio, que reciben el nombre de
valores propios de M , son los coeficientes que definen la matriz diagonal D. Para que M
resulte ser de hecho diagonalizable es necesario establecer que las matrices M y D sean
similares, es decir hay que hallar una matriz invertible C tal que M = C−1DC.
Esta matriz C puede entenderse como la matriz de cambio de la base canonica a una
base de vectores propios de M . Para construir dicha base de vectores propios basta con
hallar bases para los nucleos de las matrices singulares de la forma M − λI y unirlas
para formar la base deseada, estos nucleos son los espacios propios de M asociados a sus
respectivos valores propios λ. Cabe alcarar que para obtener la igualdad M = C−1DC se
deben ordenar los valores propios y la base de vectores propios de M de forma correspon-
diente.
6
Cuando una raiz λ0 del polinomio caracterıstico de M esta repetida, puede ocurrir que
la dimension del nucleo de M − λ0I, llamada multiplicidad geometrica de λ0 como valor
propio de M , sea menor al numero de veces que λ− λ0 divide al polinomio caracterıstico
de M , llamada multiplicidad algebraica de λ0 como valor propio de M . Cuando ocurre
lo anteriormente mencionado, es decir, cuando la multiplicidad algebraica y geometrica
de algun valor propio no coinciden, la base de vectores propios estara incompleta y por
consiguiente no resultara posible diagonalizar la matriz M .
Tampoco es posible diagonalizar una matriz cuando su polinomio caracterıstico no se fac-
toriza completamente, ya que el conjunto de valores propios queda imcompleto, problema
que se resuelve facilmente (al trabajar con matrices reales) gracias al teorema fundamental
del algebra (ver [5, teorema 31.18, pagina 288]), admitiendo coeficientes complejos para
poder llevar a cabo la diagonalizacion.
Sin embargo, aun cuando una matriz no pueda diagonalizarse debido a la dispari-
dad entre las multiplicidades geometricas y algebraicas de uno o varios de sus valores
propios, se puede en todo caso obtener la forma canonica de Jordan de M mediante un
procedimiento mas general que consiste en hallar preimagenes de algunos elementos de
los nucleos de las matrices M − λI para remplazar los vectores propios faltantes, estos
nuevos elementos que completan la base de vectores propios se llaman vectores propios
generalizados. Mientras los vectores propios ~v de A son aquellos tales que A~v = λ~v, los
vectores propios generalizados ~w son aquellos tales que A~w = ~v+λ~w donde ~v es un vector
propio (o un vector propio generalizado) asociado al valor propio λ.
Tras completar la base de vectores propios con los vectores propios generalizados co-
rrespondientes que satisfacen la relacion A~w = ~v + λ~w, los ordenamos de forma corres-
pondiente empezando por los vectores propios. Ası, podemos completar la forma canonica
de Jordan como si estuvieramos diagonalizando, pero no sin antes ajustar la matriz dia-
gonal, convirtiendo en unos los ceros ubicados directamente encima de los valores propios
que corresponden con vectores propios generalizados. En este caso mas general, la matriz
M no resulta siendo siempre similar a una matriz diagonal D, sino a una matriz J que
se parece mucho a D, salvo por aquellas entradas arriba de la diagonal que son unos en
lugar de ceros, asociados a los vectores propios generalizados, y que siempre estan dentro
de bloques asociados a un mismo valor propio, llamados bloques de Jordan.
La existencia de la forma canonica de Jordan para matrices cuadradas esta garantiza-
da por el siguiente teorema (tomado de [11, teorema 2.5.5, pagina 36]).
Teorema 1.1.1. Sea V un espacio vectorial (sobre C) y sea T : V → V una transfor-
macion lineal. Entonces existe una base β para V , en la cual A = [T ]β es una matriz en
7
forma canonica de Jordan.
Como ejemplo pensemos en una matriz M con un unico valor propio λ0, si M fuera
diagonalizable tendrıa que ser una matriz escalar, que por conmutar siempre es similar
solamente a ella misma, ası que no hay nada que hacer pues ya esta diagonalizada ba-
jo cualquier base. Entonces supongamos mejor que no es diagonalizable, en tal caso la
matriz M − λ0I no resulta ser nula pero si resulta ser nilpotente, esto significa que los
elementos que no estan en el nucleo son preimagenes del nucleo directa o indirectamente
de tal manera que al componer M − λ0I a lo sumo n veces se anula por completo, donde
n es la dimension del espacio.
En conclusion, si admitimos coeficientes complejos vemos que podemos representar cual-
quier matriz real cuadrada mediante su forma canonica de Jordan M = C−1JC, la cual es
util para calcular potencias de M , pues las matrices que aparecen a ambos lados en la re-
presentacion son inversas y se cancelan al componer M , de tal manera que Mk = C−1JkC.
Observacion 1.1.1. Vemos que los espacios propios que se emplean para diagonalizar
una matriz a menudo se expanden a espacios invariantes al emplear vectores propios
generalizados en la forma canonica de Jordan. En este sentido, resulta similar a la forma
canonica racional, donde se emplean bases cıclicas para los espacios invariantes de la
forma β = v,Mv,M2v, ...,Mkv, que al unirse forman una base para todo el espacio.
En lugar de los bloques de Jordan, en la forma canonica racional se utilizan bloques con
ceros salvo debajo de la diagonal, donde hay unos, y en la ultima columna, donde aparecen
con signo opuesto los coeficientes del polinomio monico asociado al espacio invariante
generado por β y el cual divide al polinomio caracterıstico de M (ver [6, teorema 7.22,
seccion 7.4]).
1.2. Valores singulares y forma polar
Pese a la practicidad de la forma canonica de Jordan para calcular potencias de ma-
trices, para lograr esta representacion tenemos que admitir un cambio de base arbitrario,
obteniendo una representacion que no siempre es diagonal y mediante valores propios que
pueden ser negativos e incluso complejos aun para matrices reales.
Pensemos en el caso de las matrices simetricas. Las matrices simetricas se pueden dia-
gonalizar siempre, ademas la base de vectores propios se puede escoger ortonormal y los
valores propios son reales. Esto se puede evidenciar a partir de dos hechos, el primero
es que al sumarle o restarle una matriz escalar, digamos λI, a una matriz simetrica M ,
la nueva matriz M − λI podra tener valores propios distintos a los de M , no obstante,
los espacios propios se preservan y se preserva tambien la simetrıa. El segundo hecho es
8
que el nucleo de una matriz es el complemento ortogonal de las imagenes de su traspuesta.
A partir de lo anterior, considerando la matriz simetrica con valores propios no negativos
MTM , podemos obtener una elegante descomposicion para cualquier matriz cuadrada M ,
de la forma M = OΣO, llamada descomposicion en valores singulares, donde aparece una
matriz diagonal Σ con valores reales no negativos acompanada a lado y lado de matrices
ortogonales. Dichas matrices ortogonales no tienen por que ser inversas una de la otra, y
esta es la desventaja respecto a la forma canonica de Jordan.
Al ver que tanto la descomposicion en valores singulares como la forma canonica
de Jordan con coeficientes complejos existen siempre para matrices reales n × n, puede
resultar llamativa la idea de buscar una manera natural de relacionar ambas a la vez que
se tiene en mente la intuicion detras de su significado geometrico. El siguiente teorema
(tomado de [6, teorema 6.26, pagina 406]) muestra como describir una transformacion
lineal a partir de sus valores singulares, aquı no se hace mencion de las matrices, pero la
relacion esta implıcita.
Teorema 1.2.1. Sean V y W espacios con producto interno de dimension finita, y sea
T : V → W una transformacion lineal con rango r. Entonces existen bases ortonormales
v1, v2, ..., vn para V y w1, w2, ..., wn para W y escalares positivos σ1 ≥ σ2 ≥ ... ≥ σrtales que:
T (vi) =
σiwi si 1 ≤ i ≤ r,
0 si i > r.
Ası mismo, supongamos que se satisfacen las condiciones anteriores. Entonces para 1 ≤i ≤ n, vi es un vector propio de T ∗T correspondiente al valor propio σ2
i si 1 ≤ i ≤ r o
cero si i > r. Por lo tanto los escalares σi estan determinados de forma unica por T .
Para obtener la descomposicion en valores singulares de una matriz M = OΣO, basta
con considerar la matriz simetrica MTM , que ademas es semidefinida positiva y por lo
tanto ortogonalmente diagonalizable con valores propios reales no negativos. Los valores
singulares de M son las raıces cuadradas positivas de los valores propios de MTM , con
los valores singulares se construye la matriz diagonal de la descomposicion Σ. La matriz
ortogonal O es aquella que realiza el cambio de base, de la base canonica a una base
ortonormal de vectores propios de MTM , mientras que las columnas de la matriz orto-
gonal O se deducen al observar las imagenes mediante M de los elementos de dicha base
ortonormal de vectores propios de MTM .
Observacion 1.2.1. Existe otra descomposicion llamada descomposicion polar, donde M
se expresa como el producto de una matriz ortogonal W y una matriz simetrica semidefini-
da positiva P , se obtiene directamente a partir de la descomposicion en valores singulares
9
donde M = ODO = (OO)(OTDO) = WP , W = OO y P = OTDO. En un caso mas
general podemos pensar en matrices unitarias y autoadjuntas en lugar de ortogonales y
simetricas.
10
Capıtulo 2
Descomposiciones matriciales y
parametros fundamentales
Al comenzar a buscar una manera de evidenciar la conexion entre la descomposicion
en valores singulares y la forma canonica de Jordan, primero se tomaron en consideracion
casos particulares muy sencillos y especıficos. Estudiando caso por caso distintos tipos
de matrices 2× 2 definidas en terminos simples mediante algunos parametros apropiados,
para a partir de estos calcular los valores singulares y los valores propios, y ası compararlos.
Al comienzo de esta seccion se presentan los primeros intentos menos generales, en los
que aun no habıan sido identificados los parametros mas apropiados para abordar el pro-
blema de forma general. Mas adelante veremos que, mediante una escogencia acertada de
los parametros, podemos responder la pregunta y hacer varias observaciones de manera
general para todas las matrices 2× 2.
En ciertos casos, la forma canonica de Jordan y la descomposicion en valores singulares
resultan identicas (si se realizan debidamente, pues no son unicas), se trata del caso
particular de las matrices simetricas semidefinidas positivas.
Definicion 2.0.1. Una matriz simetrica M con entradas reales es llamada semidefinida
positiva si ~x ·M~x ≥ 0, ∀~x ∈ Rn.
Lema 2.0.1. Si M es una matriz simetrica, es ortogonalmente diagonalizable con valores
propios reales, dicha forma diagonal corresponde con la forma canonica de Jordan. Para
convertirla en la descomposicion en valores singulares basta factorizar una matriz diagonal
y ortogonal, para retirar los menos de la matriz diagonal y multiplicarla a alguna de las
matrices ortogonales a los lados. Ası se convierte la forma canonica de Jordan en la
descomposicion en valores singulares en el caso de las matrices simetricas.
11
2.1. Algunos hechos elementales y descomposiciones
en dimension dos
Definicion 2.1.1. Sea M una matriz 2 × 2 con entradas reales. Llamaremos M sesqui-
simetrica si es la suma de una matriz antisimetrica y una matriz escalar. Una matriz es
escalar si es un multiplo de la matriz identidad.
En particular, si consideramos una matriz normal, es decir tal que MMT = MTM ,
vemos que la forma canonica de Jordan es diagonal pero puede incluir valores propios
complejos y matrices unitarias. Analizandolo por bloques, vemos que podemos construir
una matriz sesquisimetrica usando una matriz unitaria, su adjunta y una matriz diagonal
de vectores propios conjugados, obteniendo el siguiente resultado:
Teorema 2.1.1. Sea M una matriz normal (i.e. MTM = MMT ) con entradas reales
2× 2 que no es simetrica. Entonces M tiene una descomposicion en valores singulares de
la forma
M =
(a b
−b a
)= Θ
( √a2 + b2 0
0√a2 + b2
),
donde Θ denota una matriz ortogonal. Ademas, su descomposicion en bloques de Jordan
(diagonal en este caso) esta dada por
M =
(a b
−b a
)=
1√2
1√2
i√2− i√
2
( a+ ib 0
0 a− ib
)1√2− i√
21√2
i√2
.
Demostracion. La primera identidad se sigue al considerar Θ =
(a√
a2+b2b√
a2+b2
−b√a2+b2
a√a2+b2
)y
observar que sus columnas son ortonormales. La segunda se sigue directamente, al efectuar
el producto matricial de las tres matrices al lado derecho. El hecho de que toda matriz
normal 2 × 2 que no sea simetrica sea sesquisimetrica es algo que se evidenciara en los
capıtulos siguientes.
La matriz sesquisimetrica en cuestion es igual al producto de una matriz escalar y una
matriz ortogonal y por esta via se puede establecer la conexion entre la forma canonica
de Jordan y la descomposicion en valores singulares para matrices normales.
Observacion 2.1.1. Si M es una matriz normal 2 × 2 con entradas reales y determi-
nante negativo, entonces es ortogonalmente diagonalizable, por lo tanto M es una matriz
simetrica. Esto puede evidenciarse ya que un determinante negativo no puede corresponder
con el producto de dos valores propios complejos conjugados.
12
Para poder ir mas alla vemos que nos falta abordar dos casos particulares mas, para
luego pensar en la forma de combinarlos y unificarlos. Nos falta resolver el problema en
particular para una matriz ortogonalmente similar a un bloque de Jordan y por otra parte,
tenemos que ocuparnos de las matrices cuyos espacios propios no son ortogonales entre
sı. En ambas direcciones ya se ha logrado algun grado de progreso.
Ejemplo 2.1.1. Consideremos ahora el caso de matrices cuyos espacios propios no son
ortogonales entre si. En particular, si M es una matriz de la forma:
M =
(sin θ cos θ
0 1
).
Se puede comprobar que los valores propios de M son 1 y sin θ, mientras que sus vectores
propios, (1, 0) y (cos θ, 1 − sin θ) no son ortogonales, salvo que θ seaπ
2o
3π
2. En este
caso, los valores singulares de M son σ =√
1± cos θ, a su vez, los vectores propios de
MTM que se utilizan en la descomposicion en valores singulares, en este caso son de la
forma v = (cos θ ∓ 1,− sin θ) que ya siendo ortogonales solo falta normalizarlos. Ası, la
descomposicion en valores singulares corresponde a:
M =
−1√
2
1√2
1√2
1√2
( √1− cos θ 0
0√
1 + cos θ
)− sin θ√
2(1− cos θ)
√1− cos θ
2
sin θ√2(1 + cos θ)
√1 + cos θ
2
.
Mientras, la descomposicion en bloques de Jordan (diagonal en este caso) esta dada por:
M =
(sin θ cos θ
0 1
)=
(1 cos θ
0 1− sin θ
)(sin θ 0
0 1
) 1cos θ
sin θ − 1
01
1− sin θ
.
Esto podrıa contribuir a responder a la pregunta central de esta tesis, en particular,
cuando los espacios propios no son ortogonales. En el caso de bloques de Jordan tenemos
el siguiente resultado sobre sus valores singulares.
Teorema 2.1.2. Sea M =
(a 1
0 a
), entonces sus valores singulares estan dados por
σ =
√a2 +
1
2±√a2 +
1
4. A su vez, la base ortogonal de vectores propios de MTM que
se emplea en la descomposicion en valores singulares, en este caso viene dada por los
vectores v =
(1
2±√a2 +
1
4,−a
)que ya siendo ortogonales resta normalizarlos.
13
Demostracion. Vemos que MTM =
(a2 a
a a2 + 1
), de modo que los valores singula-
res de M son justamente las raıces cuadradas de las raıces del polinomio caracterıstico∣∣MTM − λI∣∣ = λ2−(2a2+1)λ+a4, lo cual permite verificar la primera parte del teorema.
El resto se sigue al reemplazar los valores de λ y resolver el sistema homogeneo asociado
a la matriz MTM − λI.
En este caso es evidente que el vector propio y el vector propio generalizado son (1, 0)
y (0, 1) respectivamente. Con base en esto se aspira llegar a entender como relacionar
la forma canonica de Jordan con la descomposicion en valores singulares en particular
cuando la matriz M no es diagonalizable.
2.2. Descomposiciones y parametros fundamentales
en dimension dos
Si contemplamos la manera en que se obtiene la forma polar a partir de la descompo-
sicion en valores singulares, vemos cuan rapido y sencillo resulta, y sin embargo, tal vez
podamos percibir que hay algo que se pasa por alto. Esta vaga idea nos conducira a los
parametros adecuados para empezar a entender la relacion entre la forma de Jordan y los
valores singulares en R2.
Antes de entrar en materia, vamos a realizar un simple ejercicio de visualizacion, que
ocurre en un contexto mucho mas sencillo, pero que nos servira para ejemplificar la ma-
nera en que hemos de abordar el problema de la tesis posteriormente. El ejercicio consiste
en representar clases de equivalencia de objetos matematicos por medio de puntos en un
espacio euclidiano de manera natural, para ası contemplarlos simultaneamente, organiza-
dos naturalmente en forma de una figura geometrica. En contextos mas generales, estos
objetos son conocidos como espacios modulares.
Un espacio modular es un espacio geometrico cuyos puntos representan objetos matemati-
cos o clases de equivalencia de dichos objetos. Si estamos interesados en estudiar ciertos
objetos matematicos que corresponden con un espacio modular, al tener tal corresponden-
cia podemos usar un sistema de coordenadas para describir dicho espacio y de esta manera
parametrizar la clase de objetos que estamos estudiando. Los espacios modulares pueden
considerarse como espacios de parametros a la vez que espacios de objetos matematicos.
Para ejemplificar la idea de forma elemental, las clases de equivalencia seran primero
las de triangulos semejantes; y mas adelante, sacaremos verdadero provecho de esta idea
14
al aplicarla a matrices similares, de ese modo contribuira ampliamente a la interpretacion
de las respuestas que estamos buscando.
2.2.1. Parametros de semejanza y clasificacion de triangulos se-
mejantes
Podemos contemplar de forma simultanea todas las clases de equivalencia de triangu-
los semejantes en el plano, representadas mediante puntos de una manera natural, para
ası identificar una forma de ordenarlos espacialmente. Fijando dos puntos en el plano po-
demos identificar cualquier otro punto del plano con la clase de equivalencia del triangulo
que forman estos tres puntos. Ası mismo queremos identificar ciertas regiones del plano
que corresponden con cierto tipo de triangulos en particular, como los rectangulos o los
isosceles.
Primero imaginemos dos ejes de coordenadas perpendiculares en el plano, identifique-
mos uno de los ejes como aquel que se encuentra en posicion horizontal, sobre dicho eje
ubiquemos los dos puntos de referencia P1 y P2 simetricamente con respecto al otro eje,
vertical.
Figura 1.
Los puntos sobre el eje horizontal no corresponde con ningun triangulo, ya que son
colineales con los dos puntos escogidos. En el eje vertical se ubican los triangulos isosceles,
15
pero estos tambien estan presentes en las dos circunferencias que se hallan centradas en
uno de los puntos escogidos Pi y que pasan por el otro. Los triangulos rectangulos se
encuentran en las dos rectas paralelas al eje vertical que pasan por los puntos escogidos
Pi pero de nuevo se hallan en la circunferencia centrada en el origen que pasa por ambos
puntos Pi (ver figura 1).
Es facil intuir que esta relacion no es inyectiva, hay varios puntos asociados a una
misma clase de equivalencia. La pregunta que surge naturalmente es, como restringir el
plano para hallar un dominio donde esten todas las clases de equivalencia sin repeticion.
Esto nos lleva a dividir el plano en doce regiones.
Lo primero que notamos es que unas clases se repiten mas que otras. La que menos
se repite es la del triangulo equilatero, que solo corresponde con dos puntos, las intersec-
ciones de las circunferencias asociadas a los triangulos isosceles, y estan ubicados sobre el
eje horizontal. Esta es la unica clase tan infrecuente. Todas las otras clases aparecen seis
o doce veces representadas. Por la simetrıa del asunto, es facil ver que podemos restringir
nuestro analisis un solo cuadrante.
En adelante, nos restringimos al primer cuadrante. Sobre el semieje vertical, debajo del
punto asociado al triangulo equilatero, se encuentran representados los triangulos isosceles
tales que el lado desigual es mas grande, y por encima de este punto estan representado
los triangulos isosceles donde el lado desigual es mas pequeno. Analogamente, el segmento
de la circunferencia centrada en el punto fijo P2, ubicado en el otro semiplano, representa
a los triangulos isosceles donde el lado desigual es mas pequeno, y el segmento de la cir-
cunferencia centrada en el punto fijo P1 represente a los triangulos isosceles donde el lado
desigual es mas grande.
Figura 2.
16
La semirrecta que representa a los triangulos rectangulos (ver figura 2) se intersecta con
la circunferencia centrada en el punto fijo P1. Dicha interseccion corresponde con la clase
de triangulos que son rectangulos e isosceles a la vez. Si consideramos la semirrecta y
descartamos los puntos que estan arriba, o los que estan abajo de dicho punto de intersec-
cion, los puntos restantes seran suficientes para representar todas las clases de triangulos
rectangulos sin repeticion. Estas mismas clases tambien estan representadas todas sin re-
peticion en el segmento de la circunferencia centrada en el origen que corresponde con el
primer cuadrante.
A partir de estas explicaciones resulta sencillo reconocer las doce regiones. Nos limita-
remos obviamente a senalar cuales son las tres que se encuentran en el primer cuadrante.
La primera region esta limitada por los dos ejes y el segmento de la circunferencia centra-
da en el otro semiplano (en P2). La segunda region esta limitada por los dos segmentos de
las circunferencias centradas en los puntos escogidos y por el eje horizontal. Y la tercera
region, que a diferencia de las dos primeras no es acotada, esta limitada por los ejes y por
el segmento de la circunferencia centrada en el propio semiplano (en P1).
En cada region los triangulos rectangulos estan ubicados en la frontera entre los triangulos
agudos y los triangulos obtusos (ver figura 2).
Para concluir esta seccion, falta senalar que las identificaciones que hemos hecho nos
permiten definir biyecciones naturales entre las doce regiones del plano ya descritas. La
identificacion de puntos ubicados en los distintos cuadrantes se logra reflejando el plano
con respecto a los ejes. La identificacion de los puntos en un mismo cuadrante se obtiene
cambiando el lado del triangulo que se encuentra sobre el eje horizontal y variando la
escala de manera conveniente, puede que al final haya que reflejar para volver al mismo
cuadrante.
2.2.2. Descomposicion Fundamental para matrices en dimension
dos
En esta seccion se hara una propuesta frente a como estudiar las matrices mediante
parametros, de manera similar a como procedimos en el ejemplo de la seccion anterior,
para ası poder determinar los parametros que definen la forma canonica de Jordan de una
matriz 2× 2 a partir de sus valores singulares. Al considerar casos muy especıficos, como
en la seccion 2.1, empleando en cada caso parametros diferentes, no parece ser evidente
como deducir el caso general de los particulares. Tambien fue inadecuado insistir en defi-
nir los valores singulares a partir de los valores propios y no al reves, pues en el enfoque
que se plantea a continuacion los valores singulares (sus raıces en realidad) resultan ser
17
parametros mucho mas apropiados.
A partir de la descomposicion en valores singlares resulta evidente que:
Proposicion 2.2.1. Toda matriz real 2 × 2 con determinante no negativo es ortogonal-
mente similar a una matriz de la forma:
M =
(cos θ − sin θ
sin θ cos θ
)(σ1 0
0 σ2
)=
(σ1 cos θ −σ2 sin θ
σ1 sin θ σ2 cos θ
).
donde σ1 y σ2 son los valores singulares de M .
Demostracion. La proposicion se sigue directamente de la descomposicion en valores
singulares. Digamos que dicha descomposicion para M corresponde a M = OΣO =
OT (OO)ΣO, ya que M y Σ tienen determinante no negativo, es valido asumir que (OO)
es una rotacion, demostrando ası la proposicion.
Las clases de equivalencia que estudiaremos esta vez son, por lo tanto, las de matrices
ortogonalmente similares, representadas en algun dominio por los parametros (σ1, σ2, θ).
Mas adelante resultara evidente la conveniencia de ajustar un poco los parametros, rem-
plazando los valores singulares por sus raıces cuadradas y permitir que tengan signo,
positivo o negativo, esto nos permitira tambien considerar las matrices con determinante
negativo. Lo cual nos conduce a la siguiente definicion.
Definicion 2.2.1. Sea M una matriz 2× 2 con entradas reales. Entonces M puede des-
componerse como:
M = Φ
(cos θ − sin θ
sin θ cos θ
)(z1 |z1| 0
0 z22
)Φ−1,
donde Φ es una matriz ortogonal con determinante positivo. A esta expresion la llamamos
descomposicion fundamental de M . Llamamos valores fundamentales a los parametros
zi ∈ R (donde z2i = σi son los valores singulares de M) y a θ lo llamamos angulo
fundamental. Estos tres son los parametros fundamentales y pertenecen al dominio:
D = (z1, z2, θ) | z2 ≥ |z1| , θ ∈ (−π, π],
el cual recibira el nombre de dominio fundamental. Si no exigimos Det(Φ) = 1, el angulo
fundamental no estarıa bien definido, pero no por mucho, solo habrıa que remplazar θ 7→−θ en caso de que Det(Φ) = −1.
Proposicion 2.2.2. Las matrices reales 2 × 2 que son ortogonalmente similares poseen
los mismos parametros fundamentales, salvo tal vez por el signo del angulo fundamental
(el cual se invierte cuando el determinante de la matriz de conjugacion es menos uno).
18
Para establecer relaciones entre la descomposicion fundamental y los valores propios,
procedemos en primera instancia calculando los valores propios de una matriz en termi-
nos de los parametros (σ1, σ2, θ), posteriormente justificaremos la escogencia de los otros
parametros y del dominio. Es clave resaltar que las caracterısticas geometricas de una
transformacion lineal en las que estamos interesados, tales como los valores propios, los
valores singulares y la correspondencia entre las bases relacionadas, son invariantes para
transformaciones ortogonalmente similares, al igual que las relaciones entre ellas, ya que
este tipo de conjugacion es simplemente relativa a la escogencia de los ejes de coordenadas
(dado que sean perpendiculares y con una escala fija). La expresion que obtenemos para
los valores propios no esta restringida a casos particulares:
|M − λI| = λ2 − (σ1 + σ2)cosθλ+ σ1σ2
⇒ λ =1
2
[(σ1 + σ2)cosθ ±
√(σ1 + σ2)2cos2θ − 4σ1σ2
].
Esta formula, que acabamos de demostrar, puede reescribirse en terminos de los parame-
tros fundamentales:
Teorema 2.2.1. Los valores propios de una matriz real M de tamano 2 × 2 pueden
obtenerse a partir de los parametros fundamentales mediante la formula:
λ =1
2
[(z1 |z1|+ z22) cos θ ±
√(z1 |z1|+ z22)2 cos2 θ − 4z1 |z1| z22
].
Mas importante aun que esta formula es la interpretacion que le demos. Para in-
terpretarla aplicaremos precisamente el metodo que empleamos anteriormente con las
clases de triangulos semejantes. Es posible identificar de inmediato las regiones del espa-
cio (σ1, σ2, θ) que corresponden con ciertos tipos de matrices, por ejemplo las matrices
singulares corresponden con las superficies σ1 = 0 y σ2 = 0.
Corolario 2.2.1. En el espacio (σ1, σ2, θ) las matrices simetricas corresponden con las
superficies θ = nπ con n ∈ Z y con la superficie σ1 = −σ2, mientras las demas matrices
normales estan representadas en la superficie σ1 = σ2. Las matrices antisimetricas corres-
ponden con las rectas z1 = z2 cuando θ = (n +1
2)π con n ∈ Z. Las matrices ortogonales
se identifican con las rectas σ1 = ±σ2 = ±1 y las matrices escalares se encuentran en las
rectas σ1 = σ2 para θ = nπ con n ∈ Z. Observe que cuando σ1 = σ2 = σ la formula para
los valores propios se convierte en λ = σ cos θ ± iσ sin θ.
Menos evidente pero mas reveladora, es la ubicacion de las matrices tipo Jordan, que
podemos hallar mediante el discriminante del valor propio (σ1 + σ2)2 cos2 θ − 4σ1σ2 (lo
llamo ası pues aparece como el discriminante del polinomio |M − λI|). De hecho, si el
discriminante es positivo la matriz se diagonaliza en los reales, si es negativo solo puede
ser diagonalizada en los complejos, pero si el discriminante es cero no se diagonaliza y es
19
semejante a un bloque de Jordan. El siguiente corolario justifica la escogencia de nuevos
parametros.
Corolario 2.2.2. Dentro del dominio fundamental, para un valor fijo del parametro θ,
las matrices tipo Jordan corresponden con rectas en el plano (z1, z2). De este modo, las
matrices tipo Jordan corresponden con una superficie reglada dentro del dominio funda-
mental.
Demostracion. Primero evidenciemos cual es el rol del discriminante del valor propio, si el
discriminante es cero los dos valores propios son iguales a1
2(σ1 +σ2) cos θ, y por lo tanto,
si la matriz no es escalar no puede diagonalizarce, pues si fuera diagonal serıa escalar e
invariante por conjugacion. Por lo tanto, en este caso, las matrices tipo Jordan pueden
ser vistas como la frontera entre las matrices de valores propios reales y las de valores
propios complejos. Es crucial determinar bien esta frontera:
λ1 = λ2 → (σ1 + σ2)2 cos2 θ = 4σ1σ2 → cos θ = ±
2√σ1σ2
σ1 + σ2,
sea σ1 = z21 , σ2 = z22 , z1 = r cosα y z2 = r sinα, entonces:
cos θ = ± 2z1z2z21 + z22
= ± sin 2α→ α =1
2sin−1(± cos θ) =
1
2
[π2± θ].
Al cambiar de dominio podemos incluir los semiejes negativos, lo cual no era posible al
trabajar con valores singulares. Gracias a esto no estamos limitados a considerar matrices
con determinante no negativo unicamente.
Figura 3.
Lo unico que falta para justificar por completo la escogencia de los parametros fun-
damentales, es restringir el dominio de la manera mas apropiada, para hallar un dominio
20
donde esten representadas todas las clases de matrices de forma inyectiva, tanto como
sea posible, pues hay siertas singularidades, por ejemplo cuando z1 = z2 = 0 el angulo
fundamental se hace irrelebante.
Primero, respecto a z1 y z2, hay que notar que intercambiar los valores singulares co-
rresponde con cierto tipo de conjugacion ortogonal (intercambiar los ejes invirtiendo uno
de ellos), por lo tanto solo nos vamos a interesar en el semiplano z2 ≥ z1. Ademas mul-
tiplicar una matriz por menos uno es equivalente a remplazar θ 7→ θ + π, es este caso
podrıamos restringir el parametro θ al dominio [0, π), pero en cambio preferimos restringir
mas zi mediante |z1| ≤ z2 y tomar θ ∈ (−π, π].
Por supuesto que hay muchas otras formas de definir este dominio que funcionan igual
de bien. Escogimos este por consideraciones e interpretaciones de tipo geometrico que
se daran a conocer al momento de emplear un cuarto parametro φ para identificar las
distintas matrices que se producen por conjugacion dentro de cada clase de equivalencia.
Note que al restringir θ = 0, toda pareja (z1, z2) en el dominio fundamental correspon-
de con una matriz que se diagonaliza con valores propios reales, iguales a zi |zi|. Mientras
que cuando restringimos θ =π
2, por el contrario, solo es posible diagonalizar con reales en
los casos donde z1 < 0, ya que en otro caso λ = ±iz1z2, a su vez, en este caso las matrices
tipo Jordan se halla sobre el eje z1 = 0 y corresponden con todas las matrices nilpotentes.
Debido a la simetrıa del coseno al cuadrado, lo que ocurre con el discriminante de los
valores propios entre θ =π
2y θ = π, es un reflejo de lo que ocurre entre θ = 0 y θ =
π
2.
Por ultimo, vemos que si z1 < 0, el discriminante del valor propio es siempre positivo
y por lo tanto en R2 toda matriz con determinante negativo se puede diagonalizar con
reales, lo que es consistente con el hecho de que, en R2, una inversion compuesta con una
rotacion produce otra inversion.
Observacion 2.2.1. Toda matriz 2× 2 de entradas reales con determinante negativo se
puede diagonalizar con reales.
Ya viene siendo hora de decir alguna cosa sobre los vectores propios; antes podrıamos
comentar algo sobre la tentacion de cambiar de orden la matriz diagonal y la matriz de
rotacion (fundamental) que aparecen en la descomposicion fundamental.
Sin duda poner la matriz diagonal a la derecha es algo arbitrario, pero no demasiado,
ya que las clases de equivalencia quedan definidas exactamente igual, pues pasar la ma-
triz de rotacion fundamental de un lado al otro es algo que puede lograrse mediante
conjugacion, sencillamente tomando Φ igual a la matriz inversa de la matriz de rotacion.
21
Otra forma de cambiar el orden de las matrices es trasponer, pero el angulo fundamental
tambien cambia al hacer esto, basta multiplicarlo por menos uno, siempre que esto no nos
deje fuera del dominio fundamental, como cuando θ = π o si escogieramos otro dominio.
Aquı se evidencia lo favorable de trabajar en el dominio θ ∈ (−π, π), donde basta mul-
tiplicar θ por menos uno y adherir, multiplicada por la derecha, la matriz de rotacion
fundamental a la matriz de conjugacion Φ a la hora de transponer. En particular, cuando
el angulo fundamental es igual a cero o a π, este no cambia al transponer, tampoco es
necesario cambiar la matriz Φ de conjugacion, es decir, ningun parametro cambia.
Si en lugar de trasponer quisieramos invertir una matriz, lo que ocurre con los parametros
fundamentales y con Φ es casi lo mismo, la unica diferencia es que hay que cambiar los
valores fundamentales por sus inversos multiplicativos. Lo unico que resta decir en esta
lınea de pensamiento es que al multiplicar una matriz por su transpuesta lo que ocurre
es que el angulo fundamental se vuelve cero, los valores fundamentales quedan elevados
al cuadrado y la matriz Φ de conjugacion, dependiendo del orden del los factores, o bien
permanece identica, o se le adhiere, multiplicada por derecha, la matriz de rotacion fun-
damental.
Ahora sı, hablemos de los vectores propios. Tambien para estos tenemos formulas
explicitas a partir de los parametros fundamentales, pero conviene verlas primero en
terminos de los valores singulares asumiendo que la matriz tiene determinante positivo,
pues lucen mejor ası. En realidad aparecen dos formulas, ya que para hallar una solucion
del sistema homogeneo asociado a la matriz singular M−λI podemos considerar el vector
dado por una de las dos filas de la matriz en cuestion, cambiar el orden de las coordenadas
y multiplicar una de ellas por menos uno para obtener un vector perpendicular es decir,
que pertenece al nucleo de M −λI, por ello hay dos formulas, una asociada a cada fila de
la matriz M − λI; una de estas formulas es (las coordenadas de los vectores propios en
esta seccion corresponden siempre con la base ortonormal dada por las columnas de Φ):
~v =
⟨σ2 sin θ,
σ1 − σ22
cos θ ∓ 1
2
√(σ1 + σ2)2 cos2 θ − 4σ2σ2
⟩.
El hecho de que aparezca el seno del angulo fundamental, nos muestra que no en vano
incluimos los valores θ ∈ (−π, 0) en el dominio fundamental, aun cuando los valores
propios, que solo dependen del coseno, tengan en este sentido un comportamiento simetrico
al rededor del cero. Ahora veamos como luce esta formula en terminos de los parametros
fundamentales:
Teorema 2.2.2. Es posible describir los vectores propios de una matriz real 2×2 a partir
22
de los parametros fundamentales mediante la formula:
~v =
⟨z22 sin θ,
z1 |z1| − z222
cos θ ∓ 1
2
√(z1 |z1|+ z22)2 cos2 θ − 4z1 |z1| z22
⟩.
Para ilustrar en forma breve este aspecto, por el momento, no se hara un analisis muy
detallado de estas formulas y nos limitaremos a senalar unos pocos casos particulares.
Observe que cuando z1 = 0:
~v =
⟨z22 sin θ,
−z22 ∓ z222
cos θ
⟩.
A su vez θ =π
2implica:
~v =
⟨z22 ,∓
√−z1 |z1| z22
⟩.
Y si z1 = z2 = z tenemos:
~v =⟨z2 sin θ,∓iz2 sin θ
⟩.
En el caso de las matrices tipo Jordan el discriminante del valor propio es cero y por lo
tanto, podemos trabajar directamente con los valores singulares, dado que z1 ≥ 0:
~v =
⟨σ2 sin θ,
σ1 − σ22
cos θ
⟩.
En breve realizaremos los calculos para hallar el vector propio generalizado. Otro caso
particular que es facil de observar es θ = 0. En general, estos ejemplos nos estan sugiriendo
algo, como se menciono antes existe otra formula, la cual debemos usar cuando con la
primera obtenemos vectores nulos o paralelos. La segunda formula es:
~v =
⟨z1 |z1| − z22
2cos θ ± 1
2
√(z1 |z1|+ z22)2 cos2 θ − 4z1 |z1| z22 , z1 |z1| sin θ
⟩.
Ahora, para hallar el vector propio generalizado en terminos de los parametros funda-
mentales, de forma general para todas las matrices tipo Jordan, tenemos que resolver el
sistema:
(M − λI)~w = ~v.
Esto nos conduce al siguiente corolario:
Corolario 2.2.3. Es posible asociar a todas las matrices tipo Jordan en el dominio fun-
damental un mismo vector propio generalizado ~w = 〈0,−1〉.
Demostracion. Asumiendo que el discriminante del valor propio es igual a cero, que ~v es
un vector propio, λ el valor propio, que σ1 6= σ2 y que M viene dada en terminos de sus
23
valores fundamentales. Segun las formulas que hemos obtenido, este sistema corresponde
a: σ1 − σ22
cos θ −σ2 sin θ
σ1 sin θσ2 − σ1
2cos θ
( x
y
)=
σ2 sin θσ1 − σ2
2sin θ
,
donde ~w = 〈x, y〉. Es posible verificar que la matriz en efecto es singular y que el sistema
es consistente como se supone que sea. Este sistema se reduce a:(σ1 − σ2
2cos θ
)x+ (−σ2 sin θ)y = σ2 sin θ.
Y en conclusion, ~w = 〈0,−1〉 es el vector propio generalizado, curiosamente resulta sien-
do el mismo para todas las matrices tipo Jordan en el escenario de la descomposicion
fundamental.
En la primera etapa de la investigacion, obtuvimos formulas sencillas para los valores
singulares y los vectores asociados, a partir del valor propio en el caso particular de los
bloques de Jordan (Teorema 2.1.2). Como las nuevas formulas describen los valores y
vectores propios a partir de los parametros fundamentales, en el caso de las matrices tipo
Jordan, podrıa ser interesante comparar las formulas de esta seccion con las que obtuvimos
en la etapa cero, pues de algun modo son inversas entre sı.
Corolario 2.2.4. Tambien podemos calcular facilmente la traza y el determinante de una
matriz M ∈ M2×2(R) a partir de los parametros fundamentales, mediante las formulas
tr(M) = (z1 |z1|+ z22) cos θ y det(M) = z1 |z1| z22.
Las formulas que dan los vectores y los valores propios en terminos de los parame-
tros fundamentales, tan estrechamente ligados a la descomposicion en valores singulares,
pueden ser consideradas como una respuesta satisfactoria a la pregunta de esta tesis para
matrices 2× 2.
2.2.3. Dominio fundamental expandido
Ahora nos damos a la tarea de hallar un cuarto parametro para distinguir todas las
matrices y no solo las clases de equivalencia, y ası expandir el dominio fundamental. Co-
mo antes, voy a ejemplificar la idea de incluir nuevos parametros con el ejemplo de los
triangulos. Teniendo representadas todas las clases de equivalencia de triangulos semejan-
tes en una region dada, de forma unica como se planteo; para describir ahora todos los
triangulos, nos preguntamos cuantos parametros nos faltan y como definirlos de manera
natural.
Si pensamos que un triangulo es una triada de puntos, y cada punto un par de coor-
denadas, el triangulo se describe entonces a partir de seis coordenadas. Como solo se
24
necesitan dos coordenadas para describir al punto que representa la clase de equivalen-
cia del triangulo en la region dada, significa que nos faltan cuatro parametros mas para
determinar un triangulo en particular, hay una forma muy natural de escoger los nuevos
parametros.
El primero sera un parametro de escala, y se emplea para definir una homotecia que
reescale el triangulo representante de la clase de equivalencia al tamano que corresponda,
este primer parametro podrıa ser negativo, por convencion, si fuera necesario invertir el
triangulo; una mejor opcion es pedir que el parametro de escala sea estrictamente posi-
tivo e incluir en la region de clases equivalentes una contraparte simetrica. El segundo
parametro serıa un angulo, para rotar el triangulo hasta la posicion adecuada y los ulti-
mos dos parametros, las coordenadas de un vertice del triangulo para trasladarlo hasta la
ubicacion correcta.
Del mismo modo, en el caso de las matrices, que poseen cuatro coordenadas, como ya
estamos trabajando con tres parametros fundamentales, solo nos falta incluir uno, ası que
de hecho esta parte es mas facil que con los triangulos.
Lema 2.2.1. Si el angulo fundamental es cero, las siguientes cuatro matrices Φ producen
exactamente el mismo efecto al conjugar:(cosφ − sinφ
sinφ cosφ
),
(cosφ sinφ
sinφ − cosφ
),
(− cosφ − sinφ
− sinφ cosφ
),
(− cosφ sinφ
− sinφ − cosφ
).
Si el angulo fundamental no es cero, las dos matrices de determinante negativo solo le
cambian el signo.
Demostracion. Estas cuatro matrices pueden obtenerse unas a partir de las otras mul-
tiplicandoles a la derecha matrices diagonales y ortogonales (es decir con unos y menos
unos en la diagonal), las cuales son sus propias inversas y conmutan con cualquier otra
matriz diagonal, en particular, con la matriz diagonal de la descomposicion fundamental.
Si el angulo fundamental no es cero y Φ tiene determinante negativo, es necesario multi-
plicar el angulo fundamental por menos uno si queremos conmutar la matriz de rotacion
fundamental con alguna matriz diagonal y ortogonal con determinante negativo.
Como ya dijimos que Φ debe tener determinante positivo, escojemos trabajar siempre
con la primera matriz, y de gratis tenemos el dominio del nuevo parametro φ ∈ [0, π). Esto
significa que en la descomposicion fundamental, el unico factor que podrıa realizar una
inversion del espacio, es la matriz diagonal, dependiendo del signo del primer parametro
fundamental.
25
Como los elementos en la region z1 = z2 del dominio fundamental, son los unicos in-
variantes ante este tipo de conjugaciones (ortogonales), tiene perfecto sentido geometrico
colapsar el eje θ en el dominio fundamental e imaginar que el cuadrante |z1| ≤ z2 gira en
torno a la semirrecta z1 = z2 al variar el nuevo parametro φ, hasta caer en el cuadrante
opuesto, al pasar de φ = 0 a φ =π
2. Lo anterior es consistente con el hecho de que la
conjugacion que corresponde al angulo φ =π
2, equivale a intercambiar los valores funda-
mentales.
Mientras intercambiar los valores fundamentales es equivalente a reflejar sobre la semirrec-
ta z1 = z2, multiplicarlos ambos por menos uno en principio significa rotar un angulo π,
pero debido a la identificacion de los dos semiplanos mediante φ, al ignorar este parametro
vemos que multiplicar por menos uno a la larga puede entenderse como reflejar sobre la
semirrecta z1 = −z2, desde el punto de vista de las clases de equivalencia. Lo anterior nos
lleva a contemplar un hecho muy intrigante.
En general, y aun cuando colapsamos el eje θ, la conjugacion deja quietos a los ele-
mentos en las clases donde z1 = z2. Si en cambio ignoramos el parametro φ y variamos θ
(desde cero), podemos imaginarnos que estamos rotando el cuadrante |z1| ≤ z2 sobre la
semirrecta z1 = −z2 (cuando llegamos a π el cuadrante se halla reflejado en el cuadrante
opuesto), pues las clases en dicha semirrecta no estan cambiando al variar θ, ya que no
dependen de θ, los elementos dentro de las clases sin embargo, si se estan reordenando
entre tanto, a diferencia del caso anterior, como lo ilustra el siguiente lema.
Lema 2.2.2. Para las matrices cuyos valores fundamentales satisfacen z1 = −z2, la accion
de θ puede ser sustituida plenamente por la accion de φ (y viceversa), de la siguiente
forma: (cos θ − sin θ
sin θ cos θ
)(−σ 0
0 σ
)= Φ
(−σ 0
0 σ
)Φ−1,
donde φ =θ
2y
Φ =
cos
(θ
2
)− sin
(θ
2
)sin
(θ
2
)cos
(θ
2
) .
Demostracion. Para conmutar el producto de la matriz diagonal con la matriz Φ−1, que
esta a la derecha de la igualdad, el menos de la matriz diagonal que esta a la izquierda
actua sobre la primera fila de Φ−1, pero para pasar la matriz diagonal a la derecha el
menos debe extraerse de la primera columna de Φ−1, por las propiedades de simetrıa y
antisimetrıa del coseno y del seno, esto es equivalente a invertir la matriz Φ−1 al momento
de pasar la matriz diagonal al lado derecho.
26
En este sentido, notamos que las clases de equivalencia en el dominio fundamental no
siempre estan representadas de manera unica.
Segun lo que hemos visto, existen muchas posibilidades para definir el domino fun-
damental expandido, restringiendo en mayor o menor medida los angulos y en forma
contraria los valores fundamentales. Por ejemplo podemos restringir al maximo los angu-
los y no restringir los valores fundamentales en lo absoluto, ası el dominio fundamental
expandido serıa:
E = (z1, z2, θ, φ) | θ ∈[−π
2,π
2
), φ ∈
[0,π
2
), (z1, z2) ∈ R2.
En cambio, resulta conveniente definir el dominio fundamental expandido restringiendo
al maximo los valores fundamentales, al restringir los angulos lo menos posible:
E = (z1, z2, θ, φ) | θ ∈ (−π, π] , φ ∈ [0, π) , |z1| ≤ z2.
El segundo dominio parece mas apropiado para ser interpretado geometricamente.
Para tratar de entender la geometrıa del dominio fundamental expandido empezamos
considerando el cuadrante |z1| ≤ z2 del plano θ = φ = 0, imaginemos entonces que al
variar φ desde cero hasta π estamos rotando dicho cuadrante al rededor de la semirrecta
z1 = z2 hasta que regresa a su sitio, ası describe una figura Ω que corresponde con la
mitad de R3 limitada por el plano z1 = −z2 donde θ = 0.
Ahora consideremos esta figura Ω como la mitad de un subespacio tridimensional in-
merso en R4, la accion de θ puede verse entonces como una doble rotacion, que deja
invariante el plano z1 = −z2 ⊂ Ω mientras lo rota un angulo −θ; entre tanto Ω hace un
barrido dentro de la cuarta dimension, de modo que cuando θ = π, Ω se ha convertido en
el medio subespacio opuesto (la mitad opuesta de Ω).
Esto luce un poco como las coordenadas esfericas en el espacio tridimensional, pero al
fijar los angulos, en lugar de obtener semirrectas obtenemos cuadrantes, por lo cual esta-
mos parametrizando a R4 y no a R3. Esta interpretacion sobre la geometrıa del dominio
esta contenida en el siguiente teorema.
Teorema 2.2.3. El dominio fundamental expandido:
E = (z1, z2, θ, φ) | θ ∈ (−π, π] , φ ∈ [0, π) , |z1| ≤ z2,
puede identificarse con una parametrizacion de R4, donde la accion de φ fija el plano
z1 = z2 ⊂ E mientras hace invariante al plano z1 = −z2 ⊂ E. La accion de θ
tambien hace invariantes a los planos z1 = ±z2 ⊂ E pero no fija a ninguno de ellos.
27
Demostracion. Es facil notar que las matrices cuyos valores fundamentales son iguales,
son invariantes por conjugacion, de modo que φ fija el plano z1 = z2 ⊂ E. Aplicando
el lema 2.2.2 vemos a la vez que φ y θ hacen invariante al plano z1 = −z2 ⊂ E. Por
ultimo, como φ fija el plano z1 = z2 ⊂ E, los unicos grados de libertad que quedan son
z1 y θ, de modo que la accion de θ tambien hace invariante a este plano.
El nuevo parametro podrıa llamarse angulo de conjugacion o angulo de base, ya que
es el unico que depende por completo de la escogencia de los ejes de coordenadas (con la
condicion de que sean perpendiculares entre si y con una escala fija) y en este sentido es
relativo al punto de vista del observador. Queda sin embargo mucho por interpretar, para
entender mejor la geometrıa de este dominio fundamental expandido.
2.3. Descomposicion Fundamental para matrices en
dimension tres
Es facil darse cuenta que el metodo que usamos para responder la pregunta en R2 no
puede generalizarse demasiado, ya que los polinomios de grado cinco o mayor no pueden
resolverse por radicales (ver [5, seccion 56, capitulo 10]) y esto implica que, en dimen-
siones superiores, nunca vamos a tener formulas explıcitas para factorizar el polinomio
caracterıstico. Puede ser que logremos definir el dominio fundamental, pero en general,
resultara imposible dar formulas para los valores propios directamente a partir de los
parametros fundamentales.
Este reves en la investigacion puede verse de forma contraria como una gran esperan-
za, si le damos la vuelta al problema y encontramos otro camino para resolver nuestras
inquietudes de ındole geometrico, tal vez podamos a la larga deducir algo sobre la fac-
torizacion del polinomio asociado. Y pese a que no podamos ir mucho mas alla por este
rumbo, aun existe la esperanza de que podamos trabajar con la descomposicion funda-
mental y usarla directamente para revelar la relacion que existe entre la forma canonica
de Jordan y la descomposicion en valores singulares, al menos en R3, generalizando un
poco lo que hicimos en R2.
Algo que podemos y debemos calcular de forma general, para cualquier dimension, es
el numero de valores y angulos fundamentales. Es claro que una matriz n×n debe tener n
valores fundamentales, uno por cada valor singular. La matriz depende de n2 parametros,
y ya tenemos n; de los n(n − 1) parametros restantes solo la mitad corresponde con la
rotacion fundamental, pues la otra mitad son para definir la matriz de conjugacion.
28
Una posible forma de definir la matriz de rotacion fundamental en R3 a partir de tres
parametros serıa:
Θ =
cos θ − sin θ 0
sin θ cos θ 0
0 0 1
cosφ 0 − sinφ
0 1 0
sinφ 0 cosφ
1 0 0
0 cosψ − sinψ
0 sinψ cosψ
,
el dominio fundamental podrıa estar dado por |z1| ≤ z2 ≤ z3 y tres angulos fundamentales
(θ, φ, ψ), dos de ellos en el intervalo (−π, π], y uno en el intervalo(−π
2,π
2
].
Otra opcion es definir un unico angulo fundamental y utilizar dos parametros adi-
cionales para determinar el eje de la rotacion. Esta idea tiene perfecto sentido, pues los
polinomios reales de grado tres tienen siempre una raız real, si se trata del polinomio
caracterıstico de una matriz tres por tres de determinante positivo, tenemos que una de
sus raıces tiene que ser uno y el espacio propio asociado serıa entonces el eje de rotacion
fundamental.
Se espera poder obtener con la formula cubica, formulas para responder de manera
explıcita a la pregunta de esta tesis en R3, sin embargo, resulta pertinente hacer a un lado
este aspecto de la investigacion para introducir y dar prioridad a un enfoque mas general,
el cual nos conduce a una respuesta que, a cambio de ser muy general, no es para nada
explıcita.
2.4. Descomposicion Fundamental para matrices en
dimension n
Podemos definir la descomposicion fundamental para una matriz real M de tamano
n× n mediante la formula:
M = ΦΘΣΦT ,
donde Φ y Θ son matrices ortogonales con determinante positivo y Σ es la matriz diagonal:
Σ =
z1 |z1| 0 0 ... 0
0 z22 0 ... 0
0 0 z23 ... 0...
......
......
0 0 0 ... z2n
,
definiendo los valores fundamentales zi a partir de los valores singulares σi mediante
z2i = σi, y con la condicion |z1| ≤ z2 ≤ z3 ≤ ... ≤ zn.
29
Un toro maximal en un grupo de Lie compacto es un subgrupo de Lie conexo, com-
pacto y abeliano maximal (ver [3, pagina 152]). En el caso de las matrices ortogonales de
dimension par, el toro maximal corresponde (o es isomorfo) con las matrices de la forma:Rθ1 0 0 ... 0
0 Rθ2 0 ... 0
0 0 Rθ3 ... 0...
......
......
0 0 0 ... Rθn
,
donde
Rθi =
(cos θi − sin θisin θi cos θi
).
En el caso de las matrices ortogonales de dimension impar, las matrices del toro maximal
son practicamente iguales:
Rθ1 0 0 ... 0 0
0 Rθ2 0 ... 0 0
0 0 Rθ3 ... 0 0...
......
......
...
0 0 0 ... Rθn 0
0 0 0 ... 0 1
.
No es difıcil notar que toda matriz ortogonal con determinante positivo es ortogonalmente
similar a una matriz del toro maximal, unica si ordenamos los angulos de menor a mayor.
De este modo podemos definir n/2 angulos fundamentales en el caso par y (n − 1)/2 en
el caso impar. Como sabemos que Θ depende de n(n − 1)/2 parametros, los parametros
restantes, serviran para definir un espacio invariante de dimension n− 2 asociado a cada
angulo fundamental.
No obstante, a continuacion se presenta un enfoque donde no sera necesario definir la
matriz de rotacion fundamental explıcitamente a partir de parametros. Lo primero que
haremos, es volver a darle un vistazo a los resultados explıcitos que obtuvimos en R2 y
profundizar aun mas en el analisis.
Ejemplo 2.4.1. Consideremos las descomposiciones fundamentales asociada a la matriz
diagonal:
Σ =
(1 0
0 σ
).
Ahora queremos entender como la matriz Σ intercambia entre sı los subespacios de dimen-
sion uno, es decir que en genral, queremos estudiar la accion de las matrices diagonales
30
n×n reales sobre el espacio proyectivo Pn(R). Supongamos ademas que σ > 1. Considere-
mos el subespacio unidimensional definido a partir de un parametro t ∈ R y un parametro
fijo α > σ como 〈αt, t〉 (es decir, conformado por los puntos 〈x, y〉) = 〈αt, t〉.
En este caso estamos suponiendo que z1 = 1. El caso general se reduce a este median-
te σ =σ2
z1 |z1|, cambiando proporcionalmente la escala de los valores propios y singulares
pero no las caracterısticas geometricas de los espacios propios en el escenario de la des-
composicion fundamental.
Lema 2.4.1. En el ejemplo anterior, el angulo entre las rectas 〈αt, t〉 y 〈αt, σt〉 coincide
con el angulo entre 〈σt, αt〉 y 〈t, αt〉, pues cada pareja es el reflejo de la otra sobre la recta
〈t, t〉. Esto a su vez implica que la accion inducida por Σ preserva el angulo entre 〈αt, t〉y 〈σt, αt〉, pues es igual al angulo entre sus imagenes 〈αt, σt〉 y 〈t, αt〉.
Demostracion. Al aplicar la accion inducida por Σ a la recta 〈αt, t〉, esta se convierte en
〈αt, σt〉, si reflejamos esta imagen sobre la recta parametrizada por 〈t, t〉 obtenemos la
recta 〈σt, αt〉. Si ahora aplicamos la accion inducida por Σ a la recta 〈σt, αt〉 obtenemos
la recta 〈t, αt〉 y si la reflejamos sobre la recta 〈t, t〉 volvemos a obtener el subespacio
original 〈αt, t〉.
Figura 4.
Esto revela claramente la naturaleza de la correspondencia que existe entre la descom-
posicion en valores singulares y la forma canonica de Jordan a un nivel muy general.
31
Teorema 2.4.1. Para cada matriz Σ, diagonal no singular de tamano n×n, consideremos
todas la tuplas maximales de subespacios unidimensionales, linealmente independientes,
tales que los angulos entre ellos permanezcan invariantes mediante la accion inducida por
Σ, si la tupla tiene n elementos, la accion inducida debe preservar tambien la orientacion
de cualquier base asociada a la tupla.
Para cada una de estas tuplas, existe al menos una rotacion fundamental Θ que lleva a
las imagenes mediante Σ de estos espacios de regreso a sus preimagenes, convirtiendolos,
mediante la descomposicion fundamental, en espacios propios. El numero de rotaciones
fundamentales asociadas a una tupla es finito cuando esta tiene al menos n−1 elementos.
Ademas todas las tuplas con menos de n elementos corresponden, mediante la descompo-
sicion fundamental, con matrices que no se pueden diagonalizar, ya que tienen asocia-
dos bloques de Jordan no triviales. Por otra parte, las rotaciones fundamentales que no
corresponden de manera precisa con alguna tupla, definen matrices con valores propios
complejos, mediante la descomposicion fundamental.
Demostracion. Buena o mala, una caracterıstica de este teorema es que no hay mucho
que probar, pues el enunciado es bastante auto explicativo. Evidentemente, si Σ preserva
los angulos entre ciertos subespacios (y la orientacion), es posible rotarlos de vuelta a su
lugar y sin duda esto los convierte en espacios propios.
Ahora consideremos una tupla con n−1 elementos. Sea Ω el subespacio de dimension n−1
que contiene a todos los elementos de la tupla, y sea Γ el subespacio de dimension n− 1
que contiene a todas las imagenes mediante Σ de los elementos de la tupla. Cualquier ro-
tacion fundamental asociada a dicha tupla tiene que mandar a Γ en Ω a la vez que lleva las
imagenes mediante Σ de los elementos de la tupla de regreso a sus preimagenes, por ello,
si los signos de los valores propios estuvieran predeterminados (por ejemplo si tuvieran
que ser todo positivos) no podrıa existir mas de una rotacion fundamental correspondien-
te. En efecto, supongamos que los signos de los valores propios estan predeterminados,
consideremos una base ortonormal para Γ e incluyamos, de ultimo, un elemento mas para
convertirla en una base ortonormal de todo el espacio.
En tal caso, como la matriz de rotacion fundamental siempre tiene determinante positivo,
la accion inducida por esta matriz no cambia la orientacion de la base, y las imagenes de
los primeros n− 1 elementos de la base ya estan determinadas por asumir que los signos
de los valores propios estan predeterminados. El ultimo elemento de la baso tiene que
tener una imagen perpendicular a todas las demas, de magnitud uno y que preserve la
orientacion de la base, lo que nos deja con una unica posibilidad. Por lo tanto, en este
caso, solo puede existir una rotacion fundamental Θ0. En general solo existen un numero
finito de maneras de predeterminar los signos de los valores propios, luego solo existen un
nunero finito de rotaciones asociadas a la tupla en cuestion.
32
Por ultimo, como las tuplas son maximales, aquellas que tienen menos de n elemen-
tos corresponden con casos degenerados, donde dos o mas de los elementos de la tupla se
encuentran colapsados, lo que da lugar a los bloques de Jordan. Si en cambio consideramos
una matriz de rotacion fundamental que no corresponde de manera precisa con ninguna
tupla, no sera posible hallar una base de vectores propios reales, para diagonalizar la
matriz correspondiente mediante la descomposicion fundamental, sin usar complejos.
Este teorema responde a la pregunta de la tesis de manera muy general, pero nada
explicita. El teorema muestra que el problema en cuestion se reduce a identificar las tuplas
asociadas a una matriz diagonal dada, lo cual pudimos hacer en R2 sin darnos ni cuenta,
pero en R3 este problema es mucho mas complicado.
Algunos casos particulares en R3, sin embargo, pueden reducirse al caso de R2, esto
ocurre cuando el eje de la rotacion fundamental coincide con uno de los ejes coordenados,
pues dicho eje es invariante mediante la rotacion y la accion de la matriz diagonal Σ,
definiendo un espacio propio, mientras que lo que ocurre en el complemento ortogonal de
dicho eje, el cual tambien es invariante bajo la rotacion y la accion de Σ, luce exactamente
como el caso que ya resolvimos explıcitamente en R2. Esto nos permite identificar una
gran cantidad de tuplas en R3 con la caracterıstica de que un elemento es perpendicular
a los otros dos.
Consideremos ahora otros casos particulares de R3 que podemos entender desde R2.
Retomemos el ejemplo que dio pie al lema. Anteriormente asumimos α > σ y vimos que
tenıamos un par de elementos distintos del espacio proyectivo asociados a este valor α,
y hay otro par de elementos, las imagenes del par anterior mediante Σ, donde el angulo
entre las rectas se preserva. Si en cambio suponemos α = σ no tenemos dos paras de
rectas, pues la imagen de una coincide con la otra, que es justamente la diagonal 〈t, t〉,por lo cual en este caso solo hay tres rectas.
Si en cambio tomamos α =√σ, tampoco tenemos dos pares de rectas, pero en este
caso, no coinciden una imagen con una preimagen, sino que coinciden las dos imagenes
y las dos preimagenes, ası que ahora solo tenemos dos rectas que son, un elemento y su
imagen mediante Σ, y cada una coincide con la otra al reflejarlas sobre 〈t, t〉. Este es
el caso degenerado donde los espacios propios se colapsan, las rotaciones fundamentales
que van mas alla de este punto corresponden con valores propios complejos mediante la
descomposicion fundamental.
33
Figura 5.
A partir de este caso podemos encontrar por construccion nuevas tuplas, para otros casos
particulares de R3, pues habiendo colapsado dos espacios propios, podemos tomar como
eje de rotacion aquel que es perpendicular a los dos espacios propios que quedan y reducir
este caso a R2. De este modo podemos conocer muchas otras tuplas con la caracterıstica
de no tener mas de dos elementos. Ahora nos enfocamos en estudiar el caso doblemente
degenerado donde se colapsan los tres espacios propios.
Corolario 2.4.1. En el contexto del lema 2.4.1, donde las rectas 〈αt, t〉 y 〈σt, αt〉 se
convierten simultaneamente en espacios propios mediante la rotacion fundamental que les
corresponde, es posible calcular los valores propios correspondientes en terminos de los
parametros α y σ mediante las formulas:
λ1 =
√α2 + σ2
α2 + 1,
y
λ2 =
√α2σ2 + σ2
α2 + σ2.
En particular, α =√σ corresponde con un unico valor propio λ =
√σ y podemos verificar
que en este caso ambas formulas coinciden.
Demostracion. Calculemos los valores propios en terminos de los parametros α y σ de
manera general. Al hacerlo obtenemos:
λ1 ‖〈α, 1〉‖ = ‖〈α, σ〉‖ ⇒ λ1 =
√α2 + σ2
α2 + 1,
34
y
λ2 ‖〈σ, α〉‖ = ‖〈σ, ασ〉‖ ⇒ λ2 =
√α2σ2 + σ2
α2 + σ2.
Ahora sabemos que α =√σ corresponde con un unico valor propio λ =
√σ.
Ejemplo 2.4.2. Consideremos la matriz (donde 1 < a < b):
Σ =
1 0 0
0 a 0
0 0 b
.
Consideremos tambien una rotacion fundamental que se pueda descomponer en dos, la
primara rotacion que sea aquella que fija el eje z y que corresponde con el caso donde
los otros dos espacios propios se colapsan; y la segunda rotacion, que sea una que fije el
eje perpendicular, tanto al eje z como al otro espacio propio colapsado, y tal que colapse
todos los espacios propios en uno. Para entender como actua la segunda rotacion, debemos
considerar la matriz: ( √a 0
0 b
)=√a
(1 0
0 c
),
donde c =b√a
. Debemos tener presente que la ultima matriz no corresponde con la base
canonica, sino con la base 1√a+ 1
〈1,√a, 0〉 , 〈0, 0, 1〉. Aplicando el mismo razonamiento
de antes encontramos el espacio propio tres veces colapsado, es decir, la tupla de un solo
elemento; este es el espacio generado por el vector:⟨√b,√ab, b
√√a+√a−1⟩.
Como esta formula no luce del todo simetrica, con respecto a los parametros a y b,
queremos observar que pasa si incluimos el tercer parametro que obviamos, sustituyendo
la matriz diagonal.
Corolario 2.4.2. En el escenario del teorema 2.4.1, la matriz diagonal (donde 0 < a <
b < c):
Σ =
a 0 0
0 b 0
0 0 c
,
tiene asociada una tupla con un unico elemento, el cual es el espacio generado por el
vector: ⟨√a,√b,
√√√√c
(√a
b+
√b
a
)⟩.
35
Como la formula sigue sin ser del todo simetrica, tenemos que asumir que no hemos
hayado una sola tupla con un unico elemento, sino tres de estas monotuplas, y que co-
rresponden solo con el primer y ultimo octante, por lo tanto, tenemos al menos doce de
estas tuplas solitarias.
Demostracion. El resultado se obtiene mediante el mismo razonamiento aplicado en ejem-
plo 2.2, al reemplazar la matriz Σ.
Observacion 2.4.1. La expresion para el vector del ultimo corolario se simplifica con-
siderablemente al escribirse en terminos de los parametros fundamentales, mediante la
asociacion obvia a = z21, b = z22, c = z23:⟨z1, z2, z3
√z1z2
+z2z1
⟩,
lo cual revela una vez mas la conveniencia de emplear al dominio fundamental en este
contexto.
Aquı la meta es hallar un criterio geometrico general para identificar las tuplas, como
lo podemos hacer en R2 de manera muy simple, reflejando sobre la diagonal la imagen
mediante Σ de un subespacio, para encontrar el companero con el cual formar una tupla.
Si encontraramos una forma de generalizar esta idea a Rn, podrıamos tener una respues-
ta explıcita para esta tesis, mediante un criterio geometrico, sin acarrear un bulto de
parametros.
36
Capıtulo 3
Perspectivas de investigacion
Para finalizar el trabajo, se plantean las siguientes perspectivas a futuro frente a la
investigacion que se ha llevado a cabo:
Generalizar el concepto de descomposicion fundamental para algebras de Lie, con
el fin de que esta pueda ser una herramienta para establecer equivalencias entre
descomposiciones en este contexto.
Afinar el criterio geometrico antes propuesto (teorema 2.4.1), por ejemplo identifi-
cando explicitamente las tuplas asociadas a una matriz diagonal dada, esto con el
fin de apoyarse en el criterio geometrico para generalizar el criterio algebraico que se
establecio ya en dimension dos, y ası tratar de establecer un paralelo con un proce-
dimiento puramente algebraico donde se debe lidiar directamente con el polinomio
caracterıstico. En el mejor de los casos, esto podrıa conducir a nuevos criterios para
factorizar polinomios de grado superior.
A continuacion introduciremos brevemente la teorıa de Lie, luego hablaremos sobre
descomposiciones en algebras de Lie y como se relacionan con esta investigacion.
3.1. Teorıa de Lie
Definicion 3.1.1. Un grupo de Lie G es una variedad diferencial con estructura de grupo
donde la multiplicacion y la inversion del grupo son suaves. El espacio tangente que co-
rresponde con la identidad en un grupo de Lie se conoce como el algebra de Lie g asociada
a dicho grupo y posee una estructura de espacio vectorial enriquecida con un operador bi-
lineal, la representacion adjunta (conmutador), la cual se anula en la diagonal ([x, x] = 0,
x ∈ g) y satisface la identidad de Jacobi.
Ejemplo 3.1.1. Un ejemplo muy comun de un grupo de Lie es G = GLn(R), con el
producto e inversion usual de matrices, y su algebra g = gln(R) corresponde con todas las
matrices reales n×n y donde la representacion adjunta es el conmutador: [x, a] = xa−ax.
37
Definicion 3.1.2. Hay tres tipos particulares de algebras de Lie que sobresalen dentro de
la teorıa, son las algebras semisimples, las resolubles y las nilpotentes. Las semisimples
son suma directa de algebras simples, las algebras simples son las no abelianas que no
poseen ideales propios no triviales. Las resolubles y las nilpotentes se definen mediante
series de subalgebras donde, si la serie asociada se anula eventualmente, el algebra posee
la propiedad en cuestion. Para definir las algebras resolubles se utiliza la serie derivada
y para las nilpontentes la serie central, definidas como se muestra a continuacion. Sea
C1 = D1 = g se define:
La serie central mediante:
Cn+1 = [Cn, g],
y la serie derivada:
Dn+1 = [Dn, Dn].
Observacion 3.1.1. Se evidencia claramente que nilpotente implica soluble ya que Dn ⊂Cn.
Definicion 3.1.3. La forma de Killing B es una aplicacion bilineal simetrica definida
para algebras de Lie mediante la traza del producto de las representaciones adjuntas de
dos elementos dados del algebra. Si x, y ∈ g:
B(x, y) = tr(adx ady).
Observacion 3.1.2. Esta forma es de gran importancia ya que permite caracterizar tanto
a las algebras semisimples como a las resolubles. El criterio es que la forma de Killing es
no degenerada si y solo si el algebra es semisimple, mientras que el algebra es resoluble si
y solo si B(g, [g, g]) = 0, en el caso de las algebras nilpotentes la forma de Killing es
identicamente cero.
Definicion 3.1.4. La forma de Killing permite definir las involuciones de Cartan para
algebras reales semisimples, son aquellas involuciones θ tales que Bθ(x, y) = −B(x, θ(y))
es simetrica y definida positiva.
A partir de esto se puede obtener la descomposicion de Cartan que generaliza la idea
de descomponer una matriz en su parte hermıtica y su parte antihermıtica. A partir de
lo anterior tambien es posible definir la descomposicion de Iwasawa, que generaliza la
ortogonalizacion de Gram–Schimdt.
Como un ejercicio simple para ilustrar un poco estas ideas, podemos calcular la matriz
4× 4 que representa la forma de Killing en g = gl2(R), el algebra del grupo G = GL2(R)
38
con el producto usual de matrices, al convertir las matrices en vectores de la siguiente
forma:
X =
(x z
y w
)7−→
x
y
z
w
.
Primero tenemos que hallar las matrices correspondientes con la multiplicacion a derecha
e izquierda por una matriz dada:
A =
(a c
b d
).
La accion a derecha RA : g→ g, RA(X) = XA corresponde con la matriz:
AT ⊗ I =
(aI bI
cI dI
)=
a 0 b 0
0 a 0 b
c 0 d 0
0 c 0 d
.
Mientras la accion a izquierda LA : g→ g, LA(X) = AX corresponde con la matriz:
I ⊗ A =
(A 0
0 A
)=
a c 0 0
b d 0 0
0 0 a c
0 0 b d
.
Ahora consideremos como la accion a derecha de la matriz A−1, RA−1 : g → g que
corresponde con la matriz:
(A−1)T ⊗ I =1
ad− bc
(dI −bI−cI aI
)=
1
ad− bc
d 0 −b 0
0 d 0 −b−c 0 a 0
0 −c 0 a
.
Con las que ya tenemos podemos calcular facilmente la matriz que corresponde con la
conjugacion (·)A : g → g, (X)A = AXA−1 multiplicando las dos matrices anteriores,
observese que conmutan, como era de esperar:
(A−1)T ⊗ A =1
ad− bc
(dI −bI−cI aI
)(A 0
0 A
)=
1
ad− bc
(dA −bA−cA aA
).
Por ultimo, restando las dos primeras matrices obtenemos la que representa al conmutador
adA(X) = [A,X] = LA(X) − RA(X), y mediante la traza del producto de dos de estas
matrices, obtenemos la forma de Killing B(A,X) = tr(adA adX):
B(A,X) = tr((I ⊗A−AT ⊗ I)(I ⊗X −XT ⊗ I)) = 2(ax+ dw − aw − dx) + 4(bz + cy)
39
La matriz que corresponde con esta forma bilineal es por ende la que representa la forma
de Killing:
B =
2 0 0 −2
0 0 4 0
0 4 0 0
−2 0 0 2
.
Ahora veamos como se relaciona esta seccion del marco teorico con nuestra investiga-
cion.
3.1.1. Descomposicion de Cartan
Para relacionar la descomposicion en valores singulares con la teorıa de Lie, estudia-
remos la descomposicion de Cartan, que como ya dijimos generaliza la descomposicion en
parte hermıtica y parte antihermıtica.
La relacion con la descomposicion en valores singulares se establece mediante la for-
ma polar, que se obtiene al aplicar el mapa exponencial a la descomposicion de Cartan,
convirtiendose la parte hermıtica en definida positiva y la antihermıtica en ortogonal,
ası mismo la suma de matrices se convierte en multiplicacion. Sin embargo esta corres-
pondencia no es tan inmediata, ya que en este contexto no basta con sumar los exponentes
para expresar el producto de dos exponenciales, en este caso se debe aplicar la formula de
Baker–Campbell–Hausdorff (ver [8, teorema 3.37, pagina 39]), segun la cual, ademas de
sumar los exponentes deben sumarse infinitos terminos que se obtienen de los dos expo-
nentes originales aplicando corchetes. En particular, como queremos aplicar la formula con
un exponente simetrico y otro antisimetrico, podemos reagrupar los terminos convenien-
temente ya que el corchete de dos elementos simetricos o de dos elementos antisimetricos
es siempre antisimetrico, mientras que el corchete de un elemento simetrico con otro an-
tisimetrico es siempre simetrico (ver [7, pagina 6]).
Cabe resaltar que mientras la descomposicion de Cartan esta definida a nivel de alge-
bra, la forma polar que se obtiene mediante el mapeo exponencial estarıa ası definida
para los elementos del grupo, no obstante las matrices singulares tambien poseen forma
polar, ademas la descomposicion de Jordan-Chevalley, con la que habrıamos de comparar
la forma polar, si se presenta a nivel de algebra.
Para definir de manera general la descomposicion de Cartan en algebras semisimples,
primero debemos definir de manera precisa lo que es una forma real de un algebra de Lie
compleja y lo que significa complexificar un algebra de Lie real.
Definicion 3.1.5. Dada una algebra real g, siempre es posible definir la complexificacion
40
de manera unica mediante el producto tensorial del algebra real y el campo complejo sobre
los reales g⊗R C, obteniendo ası un algebra compleja.
Por otra parte, se dice que un algebra real g es una forma real de un algebra compleja h
cuando, vistas como espacios vectoriales sobre los reales, cumplen la condicion h = g⊕ ig.
Observacion 3.1.3. Las formas reales no son unicas, por ejemplo para sl(2,C) existen
dos formas reales, una es sl(2,R), que no es compacta, mientras que la otra, su(2), si lo
es. En particular, la forma de Killing sobre una forma real compacta es definida negativa.
Proposicion 3.1.1. En el caso de las algebras de Lie complejas semisimples, esta ga-
rantizada la existencia de una forma real compacta, unica modulo isomorfismos (ver [7,
teorema 1, pagina 3]). Vista el algebra compleja como un algebra real, cada involucion
de Cartan corresponde justamente con la conjugacion compleja con respecto a una forma
real compacta, lo cual asegura la existencia de las involuciones de Cartan en este contexto
(ver [7, proposicion 2, pagina 3 y corolario 1, pagina 5]).
Es decir, si u es una forma real compacta del algebra semisimple h = u⊕iu, al conside-
rar h como un algebra real podemos definir una involucion de Cartan θ mediante θ(x) = x
si x ∈ u y θ(x) = −x si x ∈ iu. Ası se garantiza la existencia de una involucion de Cartan
dada la existencia de una forma real compacta.
Si en cambio empezamos con un algebra de Lie real semisimple g lo que hacemos es
complexificarla para obtener un algebra compleja h, podemos hallar una involucion de
Cartan θ en h, pero esto no basta, ademas debemos garantizar una tal θ que conmute
con la conjugacion compleja de h con respecto a g (que es otra involucion), si lo hace
define tambien una involucion de Cartan en g, es decir que θ puede restringirse a g; tal
involucion siempre existe (ver [7, teoremas 2, pagina 4]).
Proposicion 3.1.2. Ası, si g es un algebra de Lie real semisimple, entonces g posee
una involucion de Cartan, de hecho, cualesquiera dos involuciones de Cartan en g son
conjugadas vıa la ”componente de la identidad” Inn g ⊂ AutRg (ver [7, teoremas 3,
paginas 5]).
En este caso, si φ ∈ Inn h y u es una forma real compacta de h, φ(u) tambien lo es;
si θ es la involucion de Cartan dada por la conjugacion compleja de h con respecto a u,
φθφ−1 es la involucion de Cartan dada por la conjugacion compleja asociada a φ(u).
Por ultimo, si u es una forma real de h y θ es la involucion de Cartan definida por la
conjugacion compleja de h con respecto a u, la forma de Killing es definida negativa en
u, que es el espacio propio de θ asociado al valor propio uno; mientras que la forma de
Killing es definida positiva en iu, el espacio propio de θ asociado al valor propio menos
uno.
41
Observacion 3.1.4. La descomposicion de Iwasawa esta relacionada con la de Cartan,
conserva la parte antihermıtica (tal que θ(x) = x) de la descomposicion de Cartan, pero
remplaza la otra parte por una parte abeliana y otra nilpotente, tambien esta definida para
todas las algebras semisimples, la demostracion involucra espacios de raıces restringidas.
A nivel de grupo la descomposicion de Iwasawa luce como el producto de una matriz
diagonal definida positiva, una matriz unipotente y una matriz unitaria y representa todo
elemento del grupo de manera unica.
3.1.2. Descomposicion de Jordan-Chevalley
Definicion 3.1.6. En un algebra de Lie matricial, de dimension finita sobre un campo
de caracterıstica cero, un elemento es semisimple si su polinomio minimal es separable,
es decir que al factorizarse, no posee ningun factor repetido. Si el campo es algebraica-
mente cerrado, esto equivale a decir que un elemento es semisimple si y solo si puede
diagonalizarse.
Definicion 3.1.7. Un elemento de un algebra de Lie es nilpotente si al ser elevado a
cierta potencia se anula. Y un elemento es unipotente si al restarle la identidad se vuelve
nilpotente.
Un elemento x de un algebra matricial g posee una descomposicion de Jordan-Chevalley
cuando es posible expresar x ∈ g como la suma de un elemento semisimple s ∈ g y uno
nilpotente n ∈ g, x = s + n donde s y n son unicos y [s, n] = 0. De modo mas general,
en cualquier algebra de Lie g de dimension finita, la descomposicion abstracta de Jordan-
Chevalley para x ∈ g existe cuando x = s + n donde s y n son unicos, [s, n] = 0 y para
toda representacion de dimension finita π : g 7→ gl(V ), π(x) = π(s) + π(n) corresponde
con la descomposicion de Jordan-Chevalley de x en gl(V ). Si todos los elemento de g
pueden descomponerse de esta forma, se dice que g tiene una descomposicion abstracta
de Jordan-Chevalley.
El siguiente teorema es de gran importancia pues caracteriza los elementos y las alge-
bras que poseen descomposicion abstracta de Jordan-Chevalley (Tomado de [2, teorema
2, pagina 2]):
Teorema 3.1.1. Un elemento x de un algebra de Lie g posee una descomposicion abstracta
de Jordan-Chevalley x = s + n si y solo si x ∈ [g, g], en tal caso tambien s ∈ [g, g] y
n ∈ [g, g].
Por ende, esta descomposicion existe para todo elemento de g si y solo si g = [g, g] (es
decir si y solo si g es perfecta, ver [2]). En particular, toda algebra semisimple cumple esta
condicion y de este modo tanto la descomposicion de Cartan como la de Jordan-Chevalley
42
existen en algebras semisimples.
En algebras matriciales, la parte semisimple s corresponde con la forma canonica de
Jordan al anular los terminos fuera de la diagonal, mientras que la parte nilpotente n
corresponde nuevamente con la forma canonica de Jordan pero al anular los terminos
sobre la diagonal. Si aplicamos el mapeo exponencial a esta descomposicion vemos como
la parte semisimple lo sigue siendo pero la parte nilpotente se vuelve unipotente, una vez
mas la suma se convierte en producto. En este caso resulta trivial aplicar la formula de
Baker–Campbell–Hausdorff dado que [s, n] = 0.
3.2. El dominio fundamental y sl(2,R)
Para aplicar de forma sencilla nuestro entendimiento del dominio fundamental a la
teorıa de Lie, consideremos el grupo de Lie SL(2,R) de las matrices 2 × 2 con deter-
minante uno junto con el producto usual de matrices, cuya algebra de Lie es sl(2,R)
conformada por las matrices 2× 2 de traza cero y donde el corchete de Lie es el conmu-
tador.
Desde el punto de vista de los parametros fundamentales, que la traza de una matriz
sea igual a cero quiere decir que (z1 |z1|+z22) cos θ = 0 (corolario 2.2.4) y de este modo po-
demos identificar en que region del dominio fundamental se encuentra sl(2,R). Vemos que
hay dos alternativas para que la traza de una matriz se cero, o bien z1 = −z2, o θ = ±π2
.
Por el lema 2.2.4 vemos que el caso z1 = −z2 es un caso particular de matrices simetricas,
y por lo tanto la correspondencia entre las descomposiciones (en valores singulares y de
Jordan) en tal caso esta dada por el lema 2.0.1.
El siguiente teorema ilustra la equivalencia entre las descomposiciones en el caso par-
ticular θ = ±π2
.
Teorema 3.2.1. En sl(2,R) hay dos tipos de matrices, por un lado, las que son simetricas
coinciden con la region z1 = −z2 del dominio fundamental. Las de mas, son aquellas donde
el angulo fundamental es θ = ±π2
y son de la forma:
M = ±Φ
(0 −1
1 0
)(z1 |z1| 0
0 z22
)Φ−1 = ±Φ
(0 −z22z1 |z1| 0
)Φ−1,
donde el signo ± en la matriz es igual al signo ± de θ, sin perdida de generalidad asumi-
mos θ =π
2y nos olvidamos del menos. Lo que nos importa es la clase de equivalencia del
dominio fundamental a la que pertenece M , luego asumimos Φ = I para escoger un repre-
sentante adecuado. La formula para los valores propios en este caso es λ = ±z2√−z1 |z1|,
43
por lo cual este caso a su vez se divide en tres casos. Cuando z1 = 0, tenemos que M es
nilpotente y por lo tanto similar a un bloque de Jordan:
M =
(0 −z220 0
).
Cuando z1 < 0 la matriz M puede diagonalizarse con reales:
M =
(0 −z22−z21 0
)= A
(−z1z2 0
0 z1z2
)A−1,
donde
A =
(z2 z2z1 −z1
).
Por ultimo, cuando z1 > 0 los valores propios de M son complejos:
M =
(0 −z22z21 0
)= B
(−iz1z2 0
0 iz1z2
)B−1,
donde
B =
(z2 z2iz1 −iz1
).
Demostracion. Basta comprobar, mediante calculo directo, las identidades:(0 −z22−z21 0
)= A
(−z1z2 0
0 z1z2
)A−1,
y (0 −z22z21 0
)= B
(−iz1z2 0
0 iz1z2
)B−1.
3.3. Parametros fundamentales y polinomio carac-
terıstico
En esta investigacion hemos hallado dos manera de responder la incognita frente a la
equivalencia entre la forma canonica de Jordan y la descomposicion en valores singulares.
Primero en los teoremas 2.2.1 y 2.2.2 respondimos la pregunta explıcitamente en dimen-
sion dos mediante un enfoque puramente algebraico, en el cual es necesario factorizar el
polinomio caracterıstico (dado en terminos de los parametros fundamentales) y que por lo
tanto no puede generalizarse directamente para dimension cinco o mayor. Por otra parte el
44
teorema 2.4.1 responde la pregunta en dimension n por medio de un enfoque geometrico,
pero la respuesta no es explıcita.
Podrıa hacerse explıcita, sin embargo, la respuesta del teorema 2.4.1, si se encuentra
un criterio para identificar cuales son todas las tuplas de espacios unidimensionales, aso-
ciadas a un matriz diagonal dada, de las que habla el teorema. Como se comento en la
seccion 2.3, existe aquı una gran espectativa, la cual contribuye en gran medida para
justificar el proposito de esta tesis.
Si afinamos el criterio del teorema 2.4.1, encontrando explıcitamente las tuplas de las que
habla dicho teorema, podrıamos usar esa informacion para calcular los valores propios
(como en el corolario 2.4.1). Es decir, que si lograramos responder mediante geometrıa un
problema que desde el punto de vista algebraico solo podıamos responder factorizando el
polinomio caracterıstico (como lo hicimos en dimension dos y que en teorıa lo podrıamos
hacer en dimension tres y cuatro), significa que implisitamente lo estariamos factorizando
de todos modos y podrıamos devolvernos en la linea de pensamiento para rastrear como.
De este modo, entender mejor la equivalencia entre la forma canonica de Jordan y la
descomposicion en valores singulares podrıa ser un camino para hallar, por medio de la
geometrıa, formulas que nos permitan factorizar polinomios de grado cinco o mayor. Esto
podrıa ser algo muy sensato, ya que si no podemos expresar una raız en terminos de
radicales, una opcion puede ser usar funciones trascendentes, como el coseno y el seno,
las cuales aparecen naturalmente al apelar a la geometrıa.
Para tal fin es necesario, entre otras cosas, conocer bien los coeficientes del polinomio
caracterıstico para luego expresarlos en terminos de los parametros fundamentales. Por
tal motivo resulta pertinente esta observacion:
Observacion 3.3.1. Si comparamos el teoremas 2.2.1 el corolario 2.2.4 podemos ver que
los valores propios estan dados en terminos de la traza y el determinante de la matriz.
La razon es simple, la traza y el determinante definen a su vez los coeficientes del poli-
nomio caracterıstico, i.e. si M ∈ M2×2(R), tenemos que |λI −M | = λ2 + aλ + b donde
a = −tr(M) y b = det(M). Es muy conveniente generalizar esta idea.
Si M ∈ M3×3(R) vemos que la traza y el determinante definen tambien el segundo y
ultimo coeficiente respectivamente, mas en este caso el determinante tambien lleva un
menos (cambia de signo); entonces queremos saber como calcular el nuevo coeficiente que
aparece en medio, la manera de hacerlo es sumando los cofactores de la diagonal, este coe-
ficiente, a diferencia de los otros dos no cambia su signo, de modo que el menos aparece
o no dependiendo de la paridad en el orden de los coeficientes.
45
Si en el caso 2 × 2 la traza corresponde justamente con la suma de los cofactores de
la diagonal, queremos averiguar a que corresponderıa la traza en el caso 3× 3 (o n× n).
Para tal fin podemos generalizar el concepto de cofactor, refiriendonos especıficamente a
los coeficientes sobre la diagonal, dos (o mas) de ellos. Un cofactor asociado a un coefi-
ciente de una matriz cuadrada, se define como el determinante de la matriz que se obtiene
al quitar la fila y la columna donde se encuentra dicho coeficiente. Si en lugar de uno, es-
cogemos dos (o k) coeficientes ubicados sobre la diagonal, cada uno va a estar en una fila
y columna diferentes a las del otro (u otros), de manera que podemos quitarle a la matriz
esas dos (o k) filas y columnas y aun tenemos una matriz cuadrada, cuyo determinante
podrıamos llamar cofactor de orden dos (o de orden k) asociado a dos (o k) coeficientes
sobre la diagonal.
Ası, el determinante de la matriz completa resulta ser el unico cofactor de orden cero;
mientras que la traza, para matrices de tamano n × n, es la sumatoria sobre todos los
cofactores (de la diagonal) de orden n− 1.
De modo que si p es el polinomio caracterıstico (monico) de una matriz M ∈ Mn×n(R),
es facil ver que para 0 ≤ k < n el coeficiente que acompana a la k-esima potencia de λ
en p es igual (−1)n−k por la sumatoria sobre todos los cofactores de orden k de M (en el
caso k = 1 solo se suman los cofactores de la diagonal).
46
Bibliografıa
[1] S. Axler, Linear Algebra Done Right, second edition, Springer, New York, 1997.
[2] L. Cagliero and F. Szechtman, Jordan-Chevalley Descomposition in Finite Dimen-
sional Lie Algebras, Proceedings of the American Mathematical Society, volumen 139,
numero 11, noviembre 2011, paginas 3909-3913. Publicacion electronica en marzo 31 de
2011.
[3] J. J. Duistermaat and J. A. C. Kolk, Lie Groups, Springer, Berlin, 2000.
[4] K. Erdmann and M. J. Wildon, Introduction to Lie Algebras, Springer, London,
2006.
[5] J. B. Fraleigh, A First Course in Abstract Algebra, seventh edition, Addison Wes-
ley, Boston, 2003.
[6] S. H. Friedberg, A. J. Insel and L. E. Spence, Linear Algebra, fourth edition, Pren-
tice Hall, New Jersey, 2003.
[7] S. Jana, Cartan and Iwasawa Deesompositions in Lie theory, Departament of Mat-
hematics, University of British Columbia.
[8] A. Kirillov, An Introduction to Lie Groups an Lie Algebras, Cambridge University
Press, Cambridge, 2008.
[9] B. F. Schutz, Geometrical Methods of Mathematical Physics, Cambridge University
Press, Cambridge, 1980.
[10] M. Spivak, Calculus on Manifolds, W. A. Benjamin, Inc., New York, 1965.
[11] S. H. Weintraub, Jordan Canonical Form Theory and Practice, Morgan & Clay-
pool, 2009.
47