notas para el curso de algebra lineal ii (frank p. murphy)

Upload: german-toxqui-colula

Post on 04-Jun-2018

220 views

Category:

Documents


0 download

TRANSCRIPT

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    1/49

    Indice general

    Captulo 1. Diagonalizacion 3

    1. Vectores y valores propios 32. Polinomio Caracterstico

    63. Diagonalizacion

    84. Recordatorio de Suma Directa

    105. Polinomio Mnimo 13

    6. SubespaciosTinvariantes 15Captulo 2. Formas Bilineales 25

    Captulo 3. Formas Cuadraticas 351. Operadores Autoadjuntos 412. Operadores Unitarios 423. Teorema Espectral 434. Triangulacion Compleja 49

    1

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    2/49

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    3/49

    Captulo 1

    Diagonalizacion

    En general seran de dimension finita a menos que se diga lo contrario

    1. Vectores y valores propios

    Definicion. Para T : V V una transformacion lineal (con V nonecesariamenre de dimension finita) un elementox de Vdistinto de ceroy un escalar en K se llaman un vector propio de T, si T(x) =x. Esdecir, es un valor propio si existe x= 0, tal que T(x) = x, x es unvector propio si existe Ktal que T(x) =x.Definicion. Para T : V

    V una transformacion lineal (con V no ne-

    cesariamente de dimension finita) y K un valor propio, definimosE = {x V|T(x) =x} como el espacio propio de T.Proposicion 1. Sean T : V V un operador y un valor propio.EntoncesE es un subespacio.

    Demostracion Primero T(0) = 0 = 0, entonces 0 E. Seanx, y E y a K,

    T(x + ay) =T(x) + aT(y)=x + ay

    =(x + ay)

    Por lo que x + ay E y E es un subespacio de V.Definicion. Para un operador T en Vy un valor propio , definimos ala multiplicidad geometrica de como la dimension de E.

    Ejemplos

    3

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    4/49

    4 Diagonalizacion

    1. T : V V dada por T(x) = 0 tiene como valor propio a 0 yE0 =V.

    2. T : R2 R2 una rotacion por un angulo que no sea multiplo de, Tno tiene valores propios.

    3. T : R2 R2 dada por T(x, y) = (2x, 5y) tiene como valorespropios 2 y -5 conE2 el eje x y E5 el ejey.

    4. D : R[x] R[x], con D(p) = p 0 es un valor propio con E0 =P0(R) los polinomios de grado menor o igual a 0.

    5. D : (R) (R), con D(f) = f 1 es un valor propio conE1, < ex >generalizando para R,E< ex > .

    El siguiente es un criterio muy util para saber si un escalar Kesun valor propio.Proposicion 2. SeaTun operador enV(no necesariamente de dimen-sion finita) y K. es un valor propio deTsi y solo sinuc(T1V) =0

    Demostracion

    ) Sies un valor propio de Tentonces existe v

    V conv

    = 0 tal

    queT(v) =v, por lo que (T 1V)(v) = 0 y nuc(T 1V) = 0.) Sinuc(T1V) = 0 entonces existev nuc(T1V) conv= 0,

    por lo que (T 1V)(v) = 0 y T(v) =v.Proposicion 3. SeaT un operador enV. Son equivalentes:

    1. es un valor propio deT2. nuc(T 1V) = 03. T 1V es no invertible

    Demostracion

    Ejercicio.

    Sin la hipotesis de la dimension finita, la equivalencia anterior no esnecesariamente cierta, por ejemplo

    Si V =K[x] y T(p) =p, tenemos que 0 es valor propio, pero T noes invertible.

    Pero en general se tiene que 1. o 2. implican 3.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    5/49

    1. Vectores y valores propios5

    Recordando que si T es un operador en V (no necesariamente dedimension finita) y n

    N definimos

    T0 = 1V

    Tn+1 =T Tn

    por lo que para p K[x] un polinomio con coeficientes n K, si

    p(x) =a0+ a1x1 + ... + anx

    n

    definimos

    p(T) =a01V + a1T+ ... + anTn

    Proposicion 4. Sean T un operador en V (no necesariamente de di-mension finita) y un valor propio. Entonces:

    1. K es un valor propio deTn, paran N2. Paraa

    K, es un valor propio deaT

    3. Parap K[x], p() es un valor propio dep(T)Demostracion

    Ejercicio.

    Definicion. Un operador Ten V (no necesariamente de dimension finita)es nilpotente si existe n N tal que Tn = 0.Proposicion 5. Si T es un operador en V (no necesariamente de di-mension finita), Tes nilpotente y un valor propio entonces es 0.

    Demostracion Por hipotesis existe n N Tn = 0, por lo quen esun valor propio del operador 0, por lo que n = 0 y de aqu = 0.

    Identificamos aKn conMn1(K) y recordamos que toda matriz A Mn(K) define un operador enK

    n,TA :Kn Kn dado porTA(x) =Ax.

    Cuando hablemos de los valores propios o vectores propios de una matrizA nos referiremos a los valores propios y vectores propios de T

    A.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    6/49

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    7/49

    2. Polinomio Caracterstico7

    det( (A I)n+1i) =Sn

    sgn()n

    j=1

    ( (A I)n+1i)j(j)

    por lo quen

    j=1((A I)n+1i)j(j)es un polinomio de grado a lo mas

    n. Por otro lado det( (A I)n+1n+1) =det(An+1n+1I) =pTAn+1n+1 ()por hipotesis de induccion tiene coeficiente principal (

    1)n, por lo que

    (An+1n+1)det(An+1n+1I) tiene coeficiente principal (1)n+1, porlo observado anteriormente los demas polinomios tienen grado menor oigual a n, por lo que el coeficiente principal debe ser (1)n+1.

    Corolario 1. SeaT un operador enV ydimV =n, entoncespT =n.

    La utilidad del polinomio caracterstico se sigue de la siguiente ob-servacion.

    ObservacionParaTun operador enV yuna base deV, tenemosque xV es un vector propio de Tsi y solo si [x] es un vector propiode [T] . Tambien Kes un valor propio de Tsi y solo si es un valorpropio de [T].

    Demostracion

    Ejercicio.

    Recordando quees un valor propio de Tsi y solo siT IV es noinvertible, tenemos que es un valor propio de Tsi y solo si [T] Iesno invertible y esto ultimo es equivalente a que det([T] I) = 0. Porlo que llegamos a que es un valor propio deTsi y solo sipT() = 0. Elproblema de encontrar valores propios se lleva a encontrar races de unpolinomio.

    Ejemplo 1. Sea T : K2

    K2 dado por T(x, y) = (x+ y, x

    y) y

    consideramos= {(1, 0), (0, 1)}, no hay que complicarnos la vida puesto

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    8/49

    8 Diagonalizacion

    que cualquier base funciona, en general elegiremos la canonica

    [T] =1 1

    1 1

    pT() =det

    1 1

    1 1

    =(1 )(1 ) 1= 1 + + 2 1=2

    2 = (

    2)( +

    2)

    Las races del polinomio caracterstico son 2, 2 y por lo tantoson valores propios. Queremos encontrar un vector propio para cada valorpropio, es decir, un elemento no cero denuc(TIV), es decir, buscamosuna solucion no trivial

    1 11 1

    xy

    =

    00

    Primero en el caso de =

    2

    (1 2)x + y= 0x + (1 2)y= 0

    Haciendox = 1, encontramos que y =

    2 1. VerificandoT(1, 2 1 =(

    2, 2 2) = 2(1, 2 1) En el caso de = 2 (1 +

    2)x + y= 0

    x + (1 + 2)y= 0De nuevo elegimos x= 1 y llegamos a que y= 1 2, calculando

    T(1, 1 2) = (2, 2 + 2) = 2(1, 1 2).Lounico que necesitamos en este ejemplo es que

    2 K, en el caso

    de Z3 esto no se da 02 = 0, 12 = 1 y 22 = 1.

    3. Diagonalizacion

    Definicion. Una matriz D Mn(K) la llamamos diagonal si Dij = 0siempre que i

    =j , es decir, una matriz cuadrada es diagonal si fuera de

    su diagonal solo toma el valor 0.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    9/49

    3. Diagonalizacion9

    1 00 1 ,1 00 0 ,1 00 2Definicion. Un operador T enVes diagonalizable si existe una base deV tal que [T] es una matriz diagonal.

    Proposicion 7. ParaT un operador enV son equivalentes

    1. T es diagonalizable2. Existebase deVde vectores propios

    Demostracion

    1. 2.) SiT es diagonalizable existe tal que [T] es diagonal.Si ponemos ={v1,...,vn}, tenemos que [T(vi)] = [T] [vi] , si

    calculamos su jesima coordenada tenemos

    [T(vi)]j1 =([T][vi])j1

    =n

    k=1[T]jk [vi]k1=

    nk=1

    [T]jj jkki

    =[T]jj ji

    Lo que quiere decir que T(vi) = [T]iivi.2. 1.) Si existe una base ={v1,...,vn} de vectores propios con

    T(vi) =ivi, lo que quiere decir que [T]ij = [T(vj)]ii = 0, si i =j.Para llevar esto aun mas al lenguaje de matrices, recordamos que dos

    matricesA, B representan al mismo operador si existe QGLn(K) talque A=QBQ1, cuando esto pasa decimos que son semejantes, damosnaturalmente la siguiente definicion.

    Definicion. Una matriz cuadrada es diagonalizable si es semejante a unamatriz diagonal.

    Proposicion 8. ParaT un operador enV, son equivalentes

    1. T es diagonalizable2. Para todabase deV, tal que [T] es diagonalizable

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    10/49

    10 Diagonalizacion

    3. Existebase deV, tal que [T] es diagonalizable

    Demostracion

    1. 2.) Si Tes diagonalizable, existe base de V tal que [T] esdiagonal, sea una base de V, [1V]

    [T] [1V]

    = [T], y como [1V]

    es

    invertible con inversa [1V], tenemos que [T] es semejante a una matriz

    diagonal.2. 3.) Obvio.3.

    1.) Si [T] es diagonalizable, entonces existe Q

    GLn(K)

    con Q[T]Q1 = D con D una matriz diagonal. Consideramos que Qrepresenta un operador que podemos ponerQ= [S] para algun operadorS en V, notemos que Q1 = [s1] , de aqu [ST S

    1] = D por lo quetenemos que si ={v1,...,vn} entonces ST S1(vi) =Diivi, por lo queT(S1(vi)) = Dii(S

    1(vi)), es decir S1(v1),...,S

    1(vn) son vectorespropios y comoS1 es un isomorfismo, son una base de vectores propios.

    4. Recordatorio de Suma Directa

    SeanVi V i= 1,...,nsubespacios, la suman

    i=1 Vies el subespacioformado por los elementos de la forma v1+ ... + vn convi Vi para todai = 1,...,n. Diremos que el subespacio

    ni=1 Vi es una suma directa, si

    para cada i= 1, ..., n Vi

    j=i Vj = 0 y lo denotaremos porn

    i=1 Vi.

    Proposicion 9. SeanVi V ydim(Vi) =mi parai= 1,...,n. La sumade losVi es directa si y solo sidim(

    ni=1 Vi) =

    ni=1.

    Demostracion

    Ejercicio.

    Proposicion 10. SeanVi V.k

    i=1 Vi es suma directa si y solo si para

    cualesquiera i Vi linealmente independiente,k

    i=1 i es linealmenteindependiente. En este caso la union siempre resutara ajena.

    Proposicion 11. Sea T un operador en V, v1,...,vn vectores propiosde 1,...,n con i

    = j si i

    = j, entonces v1,...,vn son linealmente

    independientes.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    11/49

    4. Recordatorio de Suma Directa11

    Demostracion

    Por induccion sobre n.Si n= 0, el conjunto de vectores es vaco y por lo tanto linealmente

    independiente.Sin= 1,v1 es linealmente independiente por ser distinto de cero.Suponemos valido para n, y suponemos que v1,...,vn+1 son lineal-

    mente dependientes, como v1,...,vn son linealmente independientes en-tonces

    vn+1 =1v1+ ... + nvnAplicandoTy multiplicando porn+1obtenemos las siguientes dos igual-dades.

    n+1vn + 1 =1v1+ ... + nnvn

    n+1vn + 1 =n+1v1+ ... + nn+1vn

    despejando obtenemos

    1(1 n+1)v1+ ... + n(n n+1)vn = 0Por hipotesis de induccion

    i(i n+1) = 0pero i n+1= 0 por hipotesis, por lo que i = 0 para i = 1,...,n loque implica que vn+1 = 0! contradiciendo el hecho de que vn+1 era unvector propio.

    Corolario 2. SeaTun operador enV condimV =n yn valores propiosdiferentes. EntoncesT es diagonalizable.

    Demostracion.Para cadai existe un vector propiovi, el conjunto

    {v1,...,vn

    }es linealmente independiente y junto con la hipotesis de que

    dimV =n tenemos que v1,...,vn es una base de vectores propios de V.

    Corolario 3. SeanTun operador enV y1,...,n valores propios deTdiferentes entre s. Entonces la suma de losEi es directa.

    Demostracion

    Seavi Ei

    j=i Ej entoncesvi =v1+ ... + vi1+ vi+1+ ... + vkcon vj Ej para j = 1,...,k entonces despejando a 0 tenemos quev1,...,vk son linealmente dependientes por lo que la unica manera queesto pase y no se contradiga la proposicion anterior es que v1= 0, por loqueEi |j=i Ej = 0.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    12/49

    12 Diagonalizacion

    Definicion. Un polinomiop K[x] se escinde en K, si existen , 1,...,kK(no necesariamente diferentes) tales quep(x) =(x 1)...(x k).Proposicion 12. SeaTun operador enVdiagonalizable entoncespT seescinde.

    Demostracion Sea una base de V de vectores propios, entonces[T] = D es una matriz diagonal, por lo que pT() = det(D I) =(D11 )...(Dnn ) = (1)n( D11)...( Dnn)Definicion. Para T un operador en V y un valor propio de T defi-

    nimos la multiplicidad algebraica de como la multiplicidad de en elpolinomio caracterstico pT, es decir, el mayor k tal que (x )k|pT(x).Proposicion 13. SeaTun operador enV tal quepTse escinde enK ymi la multiplicidad algebraica dei entoncesdimV =

    mi.

    Proposicion 14. Sea T un operador en V y un valor propio de T,entonces la multiplicidad geometrica de es menor o igual a la multipli-cidad algebraica de.

    Demostracion. Sea{v1,...,vk} una base de E, y la extendemosa una de V, ={v1,...,vk,...,vn} entonces [T] =

    A1 A20 A3

    donde

    A1=I Mk(k),A2 Mknk(k),A3 Mnk(k) y 0 Mnkk(k)pT(x) =det([T] xI)

    =det(A1 xI)det(A3 xI)=(1)k(x )kdet(A3 xI)

    por lo que (x )k|pT(x).Proposicion 15. SeaTun operador enV condimV =n, tal quepT seescinde enK y1,...,k los valores propios deT (diferentes) entoncesson equivalentes:

    1. T es diagonalizable2. La multiplicidad algebraica coincide con la geometrica para todo

    valor propio.

    Demostracion.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    13/49

    5. Polinomio Mnimo 13

    1. 2.) SiTes diagonalizable existe una base de vectores propiosllamamosi = Ei , notamos que= ki=1 i,es la union ajena delos i. Calculando

    n=||

    =k

    i=1

    |i|

    k

    i=1dim(Ei)

    nDe aqu

    ki=1 dim(Ei) =n.

    Si llamamos mi a la multiplicidad algebraica de i, sabemos queki=1 mi =n. Por lo que dim(Ei) =mi para toda i= 1,...,k.

    2. 1.) Seai una base deEi , entonces=k

    i=1 i, por hipotesises linealmente independiente entonces

    || =k

    i=1

    |i|

    =k

    i=1

    dim(Ei)

    =k

    i=1

    mi

    =n

    Por lo que es base y de vectores propios.

    5. Polinomio Mnimo

    Recordemos que paraTun operador enV le habamos dado un sen-tido a p(T) donde p es un polinomio en K[x]. Sin profundizar mucho,recordemos de cursos pasados que en un anillo conmutativo R, si defini-mosadivide ab, paraa, b R, como que existec Rtal queac= b, estarelacion nos da un preorden, es decir, la relacion es reflexiva y transitiva.

    Todo esto para dar la siguiente definicion.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    14/49

    14 Diagonalizacion

    Definicion. Sea T un operador de V, el polinomio mnimo de T, pT,

    lo definimos como el mnimo polinomio monico de K[x] distinto de cero,que con el preorden mencionado anteriormente hace que pT(T) = 0.

    Proposicion 16. SeaTun operador enV, entoncespT existe y es unico.

    Demostracion.Sean= dimV, entonces dim(End(V)) =n2 por lo

    que 1V,T,... ,Tn2 son n2+1 vectores que deben ser linealmente dependien-

    tes por lo que existena0,...,an2 Ktales quea01V+ a1T+...+an2Tn2 =0 con algunai= 0 por lo quep(x) =a0+a1x+...+an2xn2 es un polinomioque anula a T.

    Ahora consideramos

    I= {q N|q K[x] con q= 0 y q(T) = 0}Claramente I Nyp I, por lo que I= , ahora por el principio

    del buen orden existe un mnimo en m I, ese m es el grado de unpolinomiofdistinto de cero que anula a T, ahora veamos que es mnimocon respecto al preorden de la divisibilidad.

    Sea g K[x] tal que g(T) = 0, g= 0 y m g entonces por elalgoritmo de la division en polinomios existenh, r K[x] tales que

    g = f h + r conr < f=m

    Valuando enT

    0 =g(T) =f(T)h(T) + r(T)

    =0 h(T) + r(T)=r(T)

    por lo que r(T) = 0 si r es un natural tendramos que r

    I!

    contradiciendo que fes mnimo, por lo que r= yr= 0. As queg =f h y f|h. La siguiente observacion nos dara el truco de la unicidad,ya que tenemos el gradom, todos los polinomios de grado mque anulana T son mnimos, pero si f y f son dos polinomios que cumplen esto,entonces existe a K tal que af = f. Como f|f existe h K[x]f h =f, pero m= (f) = (f h) = (f) +(h) = m+(h) de donde(h) = 0, por lo que h = a con a K. El regreso tambien se vale, esdecir, si ftiene grado m, f(T) = 0 y aK entonces aftiene grado my af(T) = 0. Por que el conjunto de polinomios de grado m que anulana T, todos son multiplos por un escalar.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    15/49

    6. SubespaciosTinvariantes 15

    Sabemos que existe al menos un polinomioftal quef(T) = 0 yf=

    m. Sifno es monico entonces su coeficiente principalaes distinto de cero,por lo quea1fes monico y cumple lo deseado, por lo que llamemospT =a1f. Si f es otro polinomio monico que cumple lo deseado, entonces

    pT = bf con b K, pero pT, bf tienen el mismo coeficiente principal,en este caso el de pT es 1 y el de bf es b, por lo que b= 1 y pT =f, esdecir, pedirle que sea monico le da unicidad.

    Corolario 4. SiTes un operador enV condimV =n entonces(pT) n2.

    Observacion.SiTes el operador cero, entonces pT(x) =x.Ejemplos

    1. Sea T :K2 K2 dado por T(x, y) = (y, x), notemos que T2 =1K2 por lo que T

    2 1K2 = 0, en este caso pT(x) = x2 1 =(x 1)(x + 1), es facil observar que ni x 1 nix + 1 anula a T.Ahora un pequeno calculo para plantear cierta conexion

    pT() =det

    11

    =2 1 =pT()

    2. Sea T : K[x] K[x], dado por T(f) = f, y veamos que T notiene polinomio mnimo, puede ser confuso pero no imposible,sea p K[x] un polinomio para que anule a T, se necesita que

    p(T) = 0, es decir, que p(T)(f) = 0, siendo mas explcitos, sip(x) =a0+ a1x + ... + anx

    n,

    p(T)(f) =a0f+ a1f + ... + anf

    (n)

    donde f(i) denota la iesima derivada, por lo que pedir quep(T)(f) = 0 es pedir que a0f+a1f

    +...+anf(n)

    = 0 si tomamos elcaso particular def=xn entoncesp(T)(xn) =b0+b1x+...+bnxn

    dondebi =ani(ni)! coni = 0,...,nque si pedimos queK= Ro C, vemos quep(T)(xn) = 0 al menos quep originalmente fuesecero, por lo cual T no tiene polinomio mnimo. . . . . . . . . . .

    6. SubespaciosTinvariantesDefinicion. Sea Tun operador en V y W V, decimos que W es unespacioT

    invariante, W

    T V, siT(V)

    V. Pedir esta propiedad hace

    sentido en que para WT V tenemos que T|Wes un operador enW.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    16/49

    16 Diagonalizacion

    Ejemplos.

    1. 0 T V2. nucTT V3. VT V4. imTT V

    Proposicion 17. SeaTun operador enV yWT V, entoncespT|W |pT.Demostracion.

    Seauna base de Wy la completamos auna base de V, entonces

    [T]= [T] A0 Bpor lo que

    pT() =det([T] I)=det([T] I)det(B I)=pT|W()det(B I)

    de aqupT|W()|pT().

    Proposicion 18. Sea T un operador en V con V =mi=1 Vi dondeViT V, entoncespT = mi=1pT|vi .Demostracion.

    EjercicioObservacion. Para T un operador en V, WT V y f K[x],

    f(T|W) =f(T)|WEjercicio

    Proposicion 19. Sea T un operador en V con W T V entoncespT|W

    |pT

    .Demostracion.

    pT(T|W) = pT(T)|W = 0|W = 0 por la minimalidad de pT|W , con-cluimos quepT|W |pT.Definicion. Para Tun operador en V yx V definimos < x >T comoel subespacio generado por{Tn(x)|n N}, lo llamaremos el subespacioTcclico generado por x.Proposicion 20. SeaTun operador enV entoncespT =mcm

    {pT|T

    |x

    V}.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    17/49

    6. SubespaciosTinvariantes 17

    Demostracion.

    Primero ponemos

    pT =mcn{pT|T |x V}de la proposicion anterior tenemos

    pT|T |pTx Ves decir, pT es un multiplo comun, de lo que se sigue que m|pT.Por la parte de ser un comun multiplo tenemos que pTT |m, para

    todax V. As que existe hx tal que pT

    T

    hx =m, valuando T(x) enla igualdad anterior

    m(T)(x) =(hx(T) pTT (x))(x)=hx(T)(p

    TT (T(x)))

    =hx(T)(0)

    =0

    Es decir, m anula a T, por lo quepTT |m. Como los dos son monicosy se dividen entre s, no queda mas que sean iguales.

    Lema 1. SeaT un operador en V condimV = n y < x >T= V paraalgunV, entoncesx, T(x),...,Tn1(x) es una base deV.

    Demostracion.

    Si para algunr N+,

    Tr(x) < x, T(x),...,Tr1(x)>entonces{Tk(x)|k N} {x, T(x),...,Tr1} por lo que V y de aqu quex, T(x),...,Tr1(x) genere, del cursopasado sabemos que r n.

    Dentro del mismo contexto sabemos que existe al menos unr con lapropiedad antes mencionada, en caso contrario tendramos que para todok N+ Tk(x) /< x, T(x),...,Tk1(x)>por lo que {x, T(x),...,Tk1(x)}sera linealmente independiente para toda k

    N resultando en que V

    sera de dimension infinita.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    18/49

    18 Diagonalizacion

    Lo anterior es para poder definir

    s= mn{r N+|Tr(x) < x, T(x),...,Tr1(x)>}

    y que este exista dado que el conjunto es no vaco. Tengamos encuenta que paras tambien se tiene s n.

    Por como se eligios, x, T(x),...,Ts1(x) es linealmente independientepor lo que s n, de aqu s = n. Como ya se haba notado, de aqu sededuce el hecho de quex, T(x),...,Tn1(x) es base.

    En la demostracion anterior usamos mucho el hecho de que si tenemosun conjunto linealmente independienteS, entoncesS{x} es linealmenteindependiente si y solo si x /< S >.

    Teorema 1. SeaTun operador enV condimV =n yV =< x >T paraalgunx V, entoncespT = pT.

    Demostracion

    Por la proposicion anterior = {x, T(x),...,Tn1(x)} es base de V.Calculando [T] tenemos

    [T(x)] =

    01

    0...0

    [T2(x)] =

    001...0

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    19/49

    6. SubespaciosTinvariantes 19

    [Tn2(x)] =

    000...1

    y siTn(x) =a0x + a1T(x) + ... + an1Tn1(x) entonces

    [Tn(x)] =

    a0a1...

    an1

    Por lo que

    [T] =

    0 0 0 a01 0 0 a10 1 0 a2...

    ... . . .

    ......

    0 0 1 an1

    Ahora

    PT() =det

    0 0 a01 0 a10 1 0 a2...

    ... . . .

    ......

    0 0 1 an1

    Calculando tenemos

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    20/49

    20 Diagonalizacion

    pT() = det

    0 0 a0

    1 0 a10 1 0 a2...

    ... . . .

    ......

    0 0 1 an1

    +(

    1)n+1a0

    det

    1 0 00 1 00 0 1

    0

    ... ... ... . . . 0 0 0 1

    Como ejercicio queda demostrar que el ultimo determinante vale 1.

    Notemos que el penultimo determinante tiene la misma forma que eloriginal, por lo que repitiendo el proceso llegamos a que

    pT() = (

    1)n(n

    an1

    n1

    ...

    a1

    a0)

    EvaluandoxenpT(T) tenemos

    pT(T)(x) = (1)n(Tn(x) an1Tn1(x)... a1T(x) a0x) = 0De este hecho se sigue quepT(T)(T

    i(x)) = 0 parai = 0,...,n 1 porlo que PT(T) anula a y por lo tanto anula a V, de aqu pT(T) = 0 y

    pT|pT.Ahora si ponemos apT() =b0+ b1 + ... + bm1m1 +conm n

    y evaluamos a Ty evaluamos a T tenemos que

    0 =pT(T) =b01V + bT+ ... + bm1Tm1 +

    en particular valdra para x. Sim < n, entonces b0x + b1T(x) + ... +bm1T

    m1(x) + Tm(x) = 0, lo cual contradice la independencia lineal dex, T(x),...,Tm(x), por lo quem= ny comopT|pTtenemos quepT =apTcona

    K, como pT es monico y el coeficiente principal de pT es

    1, se

    sigue el resultado.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    21/49

    6. SubespaciosTinvariantes 21

    Teorema 2(Cayley-Hamilton). SeaTun operador enV, entoncespT(T) =

    0, es decir, pT

    |pT.Demostracion

    Sabemos que para x V

    pT|T

    = pT|Ty que

    pT|T

    |pTpor lo quepT|T |pT, es decir,pTes un comun multiplo depT|T

    corriendo por x V, y como pT es el mnimo comun multiplopT|pT.

    Proposicion 21. SeaTun operador enV. Tes diagonalizable si y solosipT(x) = (x 1)...(x k) con1,...,k diferentes entre s.

    Demostracion) ComoTes base, existe base de vectores propios, consideremos

    q(x) = (x 1)...(x k)donde1,...,kson los distintos valores propios deT, tomemosv ,

    entonces T(v) =j para algunj de 1 ak, entonces

    q(T)(v) =((x 1)...(x j1)(x j+1)...(x k))(T) ((x j)(T))(v)=((x 1)...(x j1)(x j+1)...(x k))(T)(T(v) jv)=((x 1)...(x j1)(x j+1)...(x k))(T)(0)=0

    Por lo que q(T) anula a toda la base y as que q(T) = 0 y deaqu pT|q. Por otro lado

    pT(j)v= pT(T)(v) = 0

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    22/49

    22 Diagonalizacion

    y comov es un vector propio es distinto de cero por lo que pT(j) = 0

    y de aqu que los j sean races de pT, por lo que q|pT, ahora como losdos son monicos y se dividen entre s q= pT.

    ) SipT(x) = (x1)...(xk) con1,...,k diferentes. La demos-tracion se hara por induccion sobre k y hacemos la observacion que porel teorema anterior los i son valores propios de T.

    Base: Si k= 1, entonces 0 = pT(T) = (x 1)(T) =T 1V por loqueT =1V y obviamente T es diagonalizable.

    Si k= 2 entonces 0 =pT(T) = (T

    11V)(T

    21V). Por el algoritmo

    de la division tenemos

    x 1= (x 2)1 + (2 1)de aqu

    ((x 1) (x 2))(2 1)1 = 1Por lo que aplicando T, tenemos

    ((T 11V) (T 21V))(2 1)1 = 1VPara todo v V

    (T 21V)((2 1)1(T 11V)(v)) =(2 1)1(T 21V)(T 11V)(v)=(2 1)10(v)=0

    entonces (2 1)1(T 11V)(v) E2 .Analogamente (2 1)1(T 21V)(v) E1 .Con lo anterior, para toda v V

    v= (2 1)1(T 11V)(v) (2 1)1(T 21V)(v)por lo quev E1+ E2 de aqu V =E1+ E2 .

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    23/49

    6. SubespaciosTinvariantes 23

    Para cuandok >2 y se vale para k, primero notemos que por hipote-

    sis de induccion S = T|ki=1Ei es diagonalizable por lo que pS

    (x) =(x1)...(xk) por hipotesis de induccion, por otro lado pS(x) y(x k+1 son coprimos por lo que existen f, g K[x]

    1 =pSf+ (x k+1)gSeav V,

    pS(T) (x k+1g(T)(v) =gpS(T)(x k+1)(T)(v)=gpT(T)(v)

    =0

    Por lo que ((x k+1)g)(T)(v) nucpS(T).Af.nucpS(T) ki=1 Ei . EjercicioPor otro lado

    (x k+1) (pSf)(T)(v) =pT f(T)(v)=f(T)(pT(T)(v))

    =f(T)(0)

    =0

    Por lo que pSf(T)(v) Ek+1 .

    As para toda v V, v ki=1 Ei+ Ek+1 .Por lo que V =

    k+1i=1 Ei .

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    24/49

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    25/49

    Captulo 2

    Formas Bilineales

    Definicion. Una forma bilineal en un Kespacio V es na funcion B :V V Ktal que:Parax, x, y , y V y K,

    1. B(x + x, y) =B(x, y) + B(x, y)

    2. B(x, y+ y) =B(x, y) + B(x, y)

    3. (B(x,y) =B(x, y) =B(x,y)

    esto es que sea lineal en cada variable.

    Ejemplos

    1. V =Kn conn natural

    B(x,y) =n

    i=1

    xiyi

    2. V =I([a, b]) las funciones integrables en el intervalo ([a, b]) con

    B(f, g) =

    ba

    f(x)g(x)dx

    3. V =Kn y A Mn(K)

    B(x,y) = xAyt

    Definicion. Para V un K

    espacio,Bil(V) es el conjunto de todas lasformas bilineales sobre K.

    25

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    26/49

    26 Formas Bilineales

    Proposicion 22. ParaV unKespacio, Bil(V) es unKespacio.

    Demostracion

    Notemos queBil(V) KVV y comoKvV es unKespacio bastaver que Bil(V) es un subespacio.

    Primero 0(v, w) = 0 es una forma bilineal, por lo tanto 0 Bil(V).Despues sean B, B Bil(V) y K. Para x, x, y , y V y K

    (B+ B

    )(x + x

    , y) =B(x + x

    , y) + B

    (x + x

    , y)=B(x, y) + B(x, y) + (B(x, y) + B(x, y))

    =B(x, y) + B(x, y) + B(x, y) + B(x, y)

    =(B+ B)(x, y) + (B+ B)(x, y)

    Analogamente

    (B+ B)(x, y) = (B+ B)(x, y) + (B+ B)(x, y)

    Tambien

    (B+ B)(x,y) =B(x,y) + B(x,y)

    =B(x, y) + B(x, y)

    =(B+ B)(x, y)

    Analogamente

    (B+ B)(x, y) = (B+ B)(x,y)

    Por lo tantoB+ B Bil(V)Por lo tanto Bil(V) es un Ksubespacio y espacio en su propio

    derecho.

    Del ejemplo 3 se tiene que las matrices representan algunas formasbilineales por lo que es natural preguntar si representa a todas, sobreen-tendiendo que hablamos del caso de dimension finita.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    27/49

    27

    Definicion. Sea B :V V Kuna forma bilineal sobre V con V dedimension finita y ={v1,...,vn} una base de V, definimos la matrizasociada a la forma B para la base como

    Bij =B(vi, vj)

    si no hay riesgo a confusion omitiremos la base, es decir nos queda-remos con B

    Proposicion 23. Sea B Bil(V) y ={v1,...,vn} una base de V,entoncesB(v, w) = [v]tB[w].

    Demostracion

    Para ver esto fijamos v Vy basta ver que

    [B(v, )] = [v]t

    B

    Calculando

    ([v]tB)ij =n

    k=1

    [v]t1kBkl

    =n

    k=1

    [v]tikB(vk, vj)

    =n

    k=1 B([v]tik

    vk, vj)

    =B(n

    k=1

    [v]tikvk, vj)

    =B(v, vj)

    =[B(v, )]j

    Proposicion 24. Sea

    :Bil(V)

    Mn(K)para alguna basefinita deV, entonces es un isomorfismo.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    28/49

    28 Formas Bilineales

    Demostracion

    Ponemos a = {v1,...,vn}.Primero veamos que es lineal.

    SeanB, B Bil(V) y K

    (BB)ij =(B+ B)(vi, vj)

    =B(vi, vj) + B(vi, vj)

    =Bij+ Bij

    Ahora demostraremos que es lineal dando la inversa : Mn(K)Bil(V) ponemos A:=(A) y definimos

    A(v, w) = [v]tA[w]

    Notemos que es lineal, paraA, A Mn(K) y K

    A+A(v, w) =[x]t(A + A

    )[w]

    =[x]tA[w]+ [x]tA

    [w]

    =A(v, w) + A(v, w)

    Comprobemos que son inversas

    SeaB Bil(V)

    B(v, w) =[v]t

    B[w]

    =B(v, w)

    por la proposicion anterior.

    B =B

    SeaA Mn(K),

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    29/49

    29

    (A)ij =A(vi, vj)=[vi]

    tA[vj ]

    =(tiAj)ij

    =n

    k=1

    (tiA)ikkj

    =(tiA)ij

    =

    nk=1

    tikAkj

    =Aij

    (A) =AEl resultado anterior contesta la pregunta de si las formas bilineales

    son representadas por las matrices y mas aun lo hacen de manera unicay lineal.

    Definicion. Una forma bilineal B es simetrica si B(v, w) =B(w, v).

    Proposicion 25. B es simetrica si y solo siB es simetrica.

    DemostracionSea= {v1,...,vn}la base en la que esta B.

    Bij =B(vi, vj)

    =B(vj , vi)

    =Bji

    Si B es simetrica, entonces

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    30/49

    30 Formas Bilineales

    B(v, w) =[v]tB[w]

    =[v]tBt[w]t

    t

    =([w]t B[v])t

    =[w]tB[v]

    Definicion. Una forma bilineal es antisimetrica si B(v, w) = B(w, v).

    Proposicion 26. B es antisimetrica si y solo siB es antisimetrica.

    Demostracion

    Tarea.

    Definicion. B Bil(V) es alternante si B(v, v) = 0.

    Proposicion 27. Si1 + 1 = 0, entonces son equivalentes1. B es alternante.

    2. B es antisimetrica.

    Demostracion

    ) 0 =B(v+ w, v+ w) =B(v, v) + B(v, w) + B(w, v) + B(w, w) =B(v, w) + B(w, v)

    Por lo que B(v, w) = B(w, v)) Si B(v, v) = B(v, v) entonces 2B(v, v) = 0Por lo que B(v, v) = 0.

    Observacion. De la demostracion se sigue que aunque 1 + 1 = 0,alternante implica antisimetrica.

    Observacion.En el caso de que 1 + 1 = 0, se tiene que

    1 = 1, porlo que

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    31/49

    31

    B(v, w) = B(w, v) =B(w, v)ser antisimetrico es lo mismo que ser simetrico.

    Proposicion 28. B Bil(V)es alternante si y solo siB es antisimetri-ca yBii = 0.

    Demostracion

    Sea={

    v1,...,vn}) Bij =B(vi, vj) = B(vj , vi) = Btij

    Bii =B(vi, vi) = 0

    )B(v, v) =[v]t

    B[v]

    =n

    k=1

    ([v]tB)1k[v]k1

    =n

    k=1

    (n

    j=1

    [v]tij Bjk)[v]k1

    =

    nk=1

    k1j=1

    [v]tij Bjk [v]k1+n

    k=1

    nj=k+1

    [v]tij Bjk [v]k1

    =n

    k=1k1

    j=1[v]tij Bjk [v]k1+

    n

    k=1n

    j=k+1[v]ij (Btjk)[v]ttk1

    =0.

    Ejercicio.SeanS B(V) = {B BI l(V)|B es simetrica} yAB(V) ={B Bil(V)|B es antisimetrica}. Si 1 + 1 = 0 entonces Bil(V) =SB(V) AB(V).

    Ahora veamos que relacion existe si cambiamos la base, si tenemos=

    {v1,...,vn

    }y=

    {w1,...,wn

    }, como estan relacionados B y B.

    Si ponemos wj = ni=1 ijvi, entonces

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    32/49

    32 Formas Bilineales

    B(wi, wj) =n

    k=1

    kiB(vi, wj)

    =n

    k=1

    nm=1

    kiB(vi, vj)mj

    Por lo que B=StBSdondeS= [IV]

    .

    Veamos que si calculamos el determinante

    det(B) =det(StBS)

    =det(S)2det(B)

    Como cualquier matriz invertible se puede usar como un cambio debase, el conjunto de todos los determinantes que se le pueden asociar auna forma bilinealB son todos los multiplos de los otros por un cuadradodel campoK.

    Definicion. El discriminante de B una forma bilineal lo definimos por

    dis(B) = {a2det(B)|a K}notemos que por lo observado anteriormente no depende de la elec-

    cion de una base particular para B

    Sidis(B) = {0}diremos que B es una forma no degenerada.

    Definicion. Definimos el radical izquierdo de B Bil(V)

    radL(B) = {v V|w V B(v, w) = 0}y el radical derecho por

    radR(B) =

    {v

    B

    |w

    V B(w, v) = 0

    }

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    33/49

    33

    Proposicion 29. SeaV de dimension finita, son equivalentes paraBBil(V):

    1. B es no degenerada.

    2. radL(B) = {0}3. radR(B) = {0}

    Demostracion

    1. 2. Si radL(B)={0}, entonces existe v radL(B) con v= 0,por lo que existe una base= {v1, v2,...,vn} conv1 =v. Notemos que lamatriz B tiene en su primer columna todas las entradas cero por hipote-sis. Por lo que det(B) = 0, por lo que dis(B) ={0}! contradiciendo elhecho de queB fuese no degenerada.

    3. 1. Supongamos que no se cumple que B no es no degenerada,por lo quedet(B) = 0, elegimosuna base deV, por lo que de lo ultimo

    se sigue existe V conv= 0, tal que B [v] = 0 de aqu que para todow V B(w, v) = [w]tB[v] = 0 de donde v radR(B) por lo queradR(B) = {0}! por lo tanto det(B) = {0}.Definicion. Una forma bilineal se llama reflexiva si B(v, w) = 0 implicaB(w, v) = 0.

    Definicion. Si B es una forma bilineal reflexiva diremos que v es orto-gonal aw siB(v, w) = 0 y lo denotaremos por v w,notemos que pedirqueB sea reflexiva es para que la relacionsea reflexiva.

    Definicion. Para S V y B una forma bilineal reflexiva, definimos elcomplemento ortogonal de S para B como S ={v V|B(v, w) = 0para todo w S}.

    Proposicion 30. SeaB una forma bilineal reflexiva, S, T V. Enton-ces:

    1. S V

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    34/49

    34 Formas Bilineales

    2. S S3. SiS T entoncesT S4. S =< S >

    Definicion. Sea B una forma bilineal reflexiva y W V, el radical deW en B lo definimos comoradB(W) =W W. Diremos que W es unsubespacio no degenerado si radB(W) = 0.

    Proposicion 31. Sea B una forma bilineal reflexiva en V un espaciode dimension finita y W un subespacio no degenerado de V, entoncesV =W W.

    Demostracion

    Por hipotesis W W = 0. Para ver que V = W +W demos-traremos que dimV = dimW +dimW. Pongamos que dimV = n ydimW = k y consideremos una base de W,{v1,...,vk} y extendamoslaa una base de V con los elementos{vk+1,...,vn}. Tomamos v W

    ylo expresamos como combinacion lineal v =ni=1 ivi, tenemos por unlado que B(vi, v) = 0 para i = 1,...,k entonces

    nj=1 jB(vi, vj) = 0

    parai = 1,...,kde aqun

    j=1 jBij = 0 para i= 1,...,k por lo que [v]

    es anulado por la matriz de k n formada por los primeros k renglonesde B , entonces dimW

    n k por el teorema de la dimension, deaqu dimW+ dimW n k+ k=n.

    W+ W =W.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    35/49

    Captulo 3

    Formas Cuadraticas

    Definicion. El grado de un monomio en n variables x

    k1

    1 x

    k2

    2 ...xkn

    n lo de-finimos como k1+ k2+ ... + kn.

    Definicion. Una forma cuadraticanaria sobre un campo Kes un po-linomio p en n variables tal que es una combinacion lineal de monomiode grado 2.

    Ejemplos

    1. p(x,y,z) =xy+ yz + z2

    2. p(x, y) =x2

    + xy+ y2

    3. p(x) = 2x2

    4. p(x,y,z,w) =zw+ w2 + x2 + yx

    Observacion. Si consideramos una matriz A en Mn(K), p(x) =xAxt es un polinomio en n variables, mas aun

    35

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    36/49

    36 Formas Cuadraticas

    p(x) =n

    i=1

    x1i(Axt)i1

    =n

    i=1

    x1i(n

    j=1

    Aijxtj1)

    =

    ni=1

    nj=1

    x1iAijxij

    =n

    i=1

    nj=1

    Aijxixj

    que es una combinacion lineal de polinomios monicos de grado dos,por lo que p es una forma cuadratica.

    Dos matrices pueden inducir la misma forma cuadratica, por ejemplo

    A=

    1 11 0

    p(x, y) =

    x y

    A

    xy

    =

    x + y xx

    y

    =x2 + xy+ xy

    =x2 + 2xy

    B= 1 20 0

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    37/49

    37

    q(x, y) = x yBxy

    =

    x 2xx

    y

    =x2 + 2xy

    Supondremos que 1 + 1 = 0.Para una forma cuadraticaq, enn variables

    q(x) =n

    i=1

    ij=1

    aijxixj

    podemos poner a aij =aji , de este modo la matriza Aq dada por

    Aij =

    aij2 sii =j

    aii sii= j

    induce a la forma cuadratica q es decir xAqxt = q(x). Definimos

    QFn(K) el conjunto de formas cuadraticas ennvariables sobre K.

    Proposicion 32. QFn(K) K[x1,...,xn].

    Proposicion 33. Hay un isomorfismo entreSMn(K), las matrices simetri-cas den

    n yQFn(K).

    Demostracion

    Definimos : SMn(K) QFn(K) por (A) = qA donde qA(x) =xAxt y : QFn(K) SMn(K) (q) = Aq como se describio anterior-mente.

    Primero qA(x) =n

    i=1

    nj=1 Aijxixjpor lo que (AqA)ij =

    2Aij

    2 sii =jAii sii= j

    lo que lleva a que (AqA)ij =Aij .

    Por lo que A= AqA .

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    38/49

    38 Formas Cuadraticas

    Por otro lado,

    qAq(x) =n

    i=1

    nj=1

    Aqijxixj

    =n

    i=1

    nj=1

    aij2

    xixj+n

    i=1

    aiix2i

    =

    n

    i=1i

    j=1 aijxixj=q(x).

    Tambien, toda forma cuadraticaq QFn(K) induce una forma bili-neal simetrica en Bil(Kn)

    Bq(x, y) =1

    2(q(x + y)

    q(x)

    q(y))

    y toda forma bilineal B induce una forma cuadratica

    qB(x) =B(x, x)

    Ejercicio

    0.1. Operadores Normales. Supondremos que K= C y que Ves un Kespacio de dimension finita con producto interior < , >.

    Definicion. Tun operador en Vse llama normal si T T =T T.

    Proposicion 34. SeaT un operador normal enV. EntoncesC es

    un valor propio deT si y solo si es valor propio deT.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    39/49

    39

    Demostracion

    Seav V conv= 0 y T(v) =v entonces T(v) v= 0,entonces < T 1V(v), Y 1V(v)>= 0entonces < v, (T 1V)(v)>= 0entonces < v, (T 1V)(T 1V)(v)>= 0entonces = 0entonces = 0entonces T(v) =(v).

    Para el regreso solo basta recordar que (T) =T y = .

    Proposicion 35. Sea T un operador normal en V= 0 entonces T esdiagonalizable.

    Demostracion

    Sean1,...,k los distintos valores propios de T, entonces

    ki=1

    Ei V

    si la contencion es propia entonces

    W =

    ki=1

    Ei

    = 0

    Consideremosw

    Wy v

    Ei , entonces

    < T(w), v >=< w, T(v)>

    =< w, iv >

    = < w, v >

    = 0=0

    Por lo que T(w) W.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    40/49

    40 Formas Cuadraticas

    AhorapT|W |pT, comopT|W C[x],pT|W tiene una raz , por lo queexistexW V, con x= 0 T(x) = T|W(x) =x, lo que implica quex

    ki=1 Ei

    !.

    Por lo que la contencion no puede ser propia, por lo tanto V =ki=1 Ei .

    Observacion. Si T =f(T) con f C[x], entonces Tes normal.

    Proposicion 36. Sea T un operador en V entonces T es normal si ysolo siT tiene una base ortogonal de vectores propios.

    Demostracion

    Si T es normal entonces T es diagonalizable por lo que V =

    ki=1 Ei donde los i son los distintos valores propios de T, considera-

    mos una base ortogonal i enEi

    , seanvi

    i y vj

    j , entonces

    i < vi, vj >=< ivi, vj >

    =< T(vi), vj >

    =< vi, T(vj)>

    =< vi, jvj >

    =j < vi, vj >

    Si< vi, vj >= 0 entonces i=j ! por lo que < vi, vj >y de aqu setiene que =

    ki=1 i es una base ortogonal de vectores propios.

    ) SiV tiene una base ortogonal de vectores propios entonces tieneuna base ortonormal de vectores propios, por lo que [T] es diagonal y

    [T] = [T]t pero por ser diagonal [T] = [T] . Claramente [T] [T

    ] =

    [T] [T] . Por lo que TT =T T.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    41/49

    1. Operadores Autoadjuntos 41

    1. Operadores Autoadjuntos

    Ahora cambiemos a C por R y recordemos que un operador T enVse llama autoadjunto si T =T.

    Proposicion 37. Sea T un operador autoadjunto en V entonces T esdiagonalizable.

    Demostracion

    Consideremos base de V y n = dimV, entonces podemos pensarV como Rn y a Rn metido en Cn mas aun esto extiende [T] comotransformacion lineal de Rn en Rn a una de Cn en Cn.

    Como [T] es un operador sobre C, tiene al menos un valor propio C, mas aunes un valor propio de [T] , pero por hipotesisT =T,por lo que y son valores propios de [T] entonces existe v

    Cn con

    v= 0 y

    v=[T]v

    =[T]v

    =v

    comov= 0 entonces=, por lo que R. Por lo queTtiene todossus valores propios reales. Sean1,...,k los diferentes valores propios de

    T, sik

    i=1 Ei V es una contencion propia definimos

    W =

    ki=1

    Ei

    = 0

    Seaw W yv Ei , entonces

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    42/49

    42 Formas Cuadraticas

    < t(w), v >=< w, T(v)>

    =< w, v >

    = < w, v >

    =0

    Por lo queW esTinvariante y por la unicidad del adjunto tenemosqueT|W = (T|W).Por lo que suw = 0T|Wsera autoadjunto pudiendoencontrar un valor propio de T

    |W!.

    Corolario 5. Toda matriz simetrica enR es diagonalizable.

    2. Operadores Unitarios

    Un operador se llama unitario si preserva el producto interior.

    Proposicion 38. SeaTun operador normal en CV entoncesT es uni-tario si y solo si V tiene una base ortonormal de vectores propios convalores propios de norma 1.

    Demostracion

    ) Primero existe una base ortonormal de vectores propios, masaun para v

    1 =||

    v||=||T(v)||

    =||v||=||||v||=||

    ) Sea = {v1,...,vn} la base de la hipotesis, como T() = {T(v1),...,T(vn)} ={1v1,...,nvn} que es un conjunto ortonormal, entonces T es unitario.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    43/49

    3. Teorema Espectral 43

    3. Teorema Espectral

    Aqu nos olvidaremos de la hipotesis de dimension finita.

    Definicion. Si T es un operador en V, yV =W Ua modo de que siv V se ve comov= w+ uconw W y u U, entonces

    T(v) =w

    en este caso se le llamara a T la proyeccion de W atraves de U y sedenotara por

    WU .

    Ejemplos

    1. R2 = OX OX, por lo que

    OY

    OX(x, y) = (x, 0)OYOX

    (x, y) = (0, y)

    2. Consideremos paraa R,la= {(x,ax) R2|x R},

    la0x

    (x, y) =

    la0x

    ((x y/a, 0) + (y/a,y))

    =(x y/a, 0)

    3. SiH I= 0,P(K) = {f KK|fes par } yI(K) = {f KK|f esimpar} entoncesKK =I(K) P(K) I(K)

    P(K)(f)(x) = f(x)f(x)

    2

    Proposicion 39. SeaTun operador enV entoncesTes una proyeccionsi y solo siTes idempotente.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    44/49

    44 Formas Cuadraticas

    Demostracion

    )) Si Tes idempotente entonces

    V =imT nucT

    T =imTnucT

    Definicion. Llamaremos a una proyeccion ortogonalW

    U siU=W y

    W =W, en este caso denotaremos a la proyeccion por

    W.

    Recordemos que siV tiene dimension finita para todo subespacioWse da que W =W

    Proposicion 40. SeaTun operador enV entoncesTes una proyeccion

    ortogonal si y solo siTes idempotente y normal.

    Demostracion

    ) Sea T = W para W V. Sean v, w V tales que v =v1+v2y w= w1+ w2 conv1, w1 W y v2, w2 W

    =< v1, w1+ w2>

    =< v1, w1 >+ < v1, w2 >

    =< v1, w1 >

    < v,W

    (w)>=< v1+ v2, w1>

    =< v1, w1 >+ < v1, w2 >

    =< v1, w1 >

    Por lo que < W(v), w >=< v,W(w) > de aquW =

    W

    porlo que Tes autoadjunto y por lo tanto normal.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    45/49

    3. Teorema Espectral 45

    ) Se tienen que demostrar dos cosas,nucT = (imT) y queimT =(imT).

    PrimeronucT = (imT)

    ) Seav nucT, entonces v= 0 ov es un vector propio de cero, enel segundo caso tenemos que es un vector propio de T con valor propiocero conjugado, que es cero, por lo que nucT = nucT. (Esto porque Tes normal).

    Seaw V, entonces

    < v, T(w)>=< T(v), w >== 0

    Por lo que v (imT).) Seaw (imT) entonces t(w) imT calculando

    < T(w), T(w)>=< w, TT(w)>

    =< w, T(T(w))>

    =0

    Por lo que T(w) = 0, por lo tanto (imT) =nucT.

    Para la segunda parte siempre tenemos que imT (imT). Por loque sea v (imT), sabemos que como T es idmpotente v = T(v) +(v T(v)), ahorav T(v) nucT = (imT) entonces < v, v T(v)>=0(v (imT)). Por otro lado T(v) imT (imT). Por lo que< T(v), v

    T(v)>= 0, de esto que

    < v T(v), v T(v)>=< v, v T(v)> < T(v), v T(v)>= 0

    De aquv T(v) = 0 por lo queT(v) =v, esto es que v imT, porlo tantoimT = (imT).

    Proposicion 41. Sea W

    V con W = W, entoncesW(v) es elelemento deW mas cercano av.

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    46/49

    46 Formas Cuadraticas

    Demostracion

    Primerov = W(v)+(vW(v)) yvW(v) nucT = (imT) =W.

    Ahora

    ||v w||2 =< v w, v w >=

    =< W

    (v) w,W

    (v) w >+ < v W

    (v), v W

    (v)>

    =||W

    (v) w||2 + ||v W

    (v)||2

    ||v W

    (v)||2

    lo que implica que||v w| | | |v W(v)||Teorema 3(Teorema Espectral). SeaTun operador enV de dimension

    finita. SiT es normal, siK = C y autoajunto, siK = R con1,...,klos diferentes valores deT yTi =

    Ei

    entonces

    1. SiEi =

    j=1 Ej entonces(Ei

    ) =Ei

    2. TiTj =ijTi

    3. 1V =k

    i=1 Ti

    4. T =k

    i=1 iTi

    Demostracion

    Primero notemos que como T es diagonalizable V =k

    i=1 Ei

    1. T es autoadjunto entonces T es normal. Ahora sean v

    Ei yw Ej coni =j , entonces

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    47/49

    3. Teorema Espectral 47

    i < v, w >=< iv,w >

    =< T(v), w >

    =< v, T(w)>

    =< v, jw >

    =j < v, w >

    entonces (i j) < v , w >= 0 como i j = 0 entonces = 0. Con esto tenemos que E

    i(E

    j), sii

    =j esto implica que

    Ej (Ej ). Como tenemos que V =Ej Ej y V =Ej (Ej )llegamos a quedimEj =dim((Ej )

    ) que unido con la contencion ante-

    rior llegamos a que Ej = (Ej ), por lo que Ej = (Ej )

    = (Ej ).

    2.ComoTi es una proyeccionTiTi =Ti. Ahora sii =j, Tj(Ti(v)) =Tj(Ei) =Tj((E

    i

    )) = 0.

    3. Como V =k

    i=1 Ei entonces todo v V es de la forma v =

    k

    i=1vi convi

    E

    i

    por lo que Ti(v) = Ei (v) =vi, ask

    i=1

    Ti(v) =k

    i=1

    vi =v

    4.Siguiendo con lo establecido

    T(v) =T(k

    i=1 vi)=

    ki=1

    T(vi)

    =k

    i=1

    ivi

    =k

    i=1 iTi(v).

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    48/49

    48 Formas Cuadraticas

    Corolario 6. SeaT un operador normal en CV entoncesT es autoad-

    junto si y solo si todo valor propio deT es real.

    Demostracion

    ) Seaun valor propio de T y v un vector propio de entonces

    v=T(v)

    =T(v)

    =v

    entonces =.

    ) Como

    T =(k

    i=1

    iTi)

    =k

    i=1

    iTi

    Como las proyecciones son autoadjuntas

    =k

    i=1

    iTi

    =T

  • 8/13/2019 Notas Para El Curso de Algebra Lineal II (Frank P. Murphy)

    49/49

    4. Triangulacion Compleja 49

    4. Triangulacion Compleja

    Aqu regresemos a la hipotesis de dimension finita.

    Teorema 4 (Descomposicion de Schur). SeaT un operador en CV, en-tonces existe una base tal que [T] es triangular superior.

    Demostracion

    ComopT C[x] entonces tiene al menos un valor propio1, descom-ponemos a V =E1 E

    1 .

    Ahora consideramos bases ortonormales 1 y 1 de Ei y E

    i

    , porlo que 1 =

    1 1 es una base ortonormal de V, mas aun

    [T]1 =

    1I A

    1

    0 A2

    Si A2 es triangular el proceso termina, si no considero T2 : E1

    E1 el operador inducido por A

    2, as T2 tiene un valor propio 2

    = 1,

    consideramos2 y 2 bases de E2 y E

    2

    (en E1) para obtener 2 =2 2 .

    Tenemos que

    [A2]2 =

    2 a

    21

    0 A22

    Por lo que si llamamos 2 =1 2 tenemos que

    [T]2 =

    1I A21 A220 2I A23

    0 0 A24

    SiA4 es triangular ya terminamos, si no repretimos el proceso.

    Observacion. Como se construye se tiene que es una base orto-normal