Algebra Lineal

Page 1

Introducción al Álgebra Lineal Liliana Patricia Ospina Marulanda. Jorge Mario García Usuga. Adrián Alonso Arboleda. Diciembre de 2011


1

Introducción al Álgebra Lineal

Liliana Patricia Ospina Marulanda. - Licenciada en Matemáticas y computación- Magister en Educación: Desarrollo Humano Universidad San Buenaventura - Cali. Jorge Mario García Usuga. - Licenciado en Matemáticas y Computación Universidad del Quindío - Magister en Enseñanza de las Matemáticas Universidad Tecnológica de Pereira. Adrián Alonso Arboleda. Licenciado en Matemáticas y Computación Universidad del Quindío Candidato a Magister en Educación Universidad del Quindío.

No está permitida importar, vender, difundir, distribuir y exportar total o parcialmente esta obra, ni su tratamiento o transmisión por cualquier método sin autorización escrita del editor. El contenido de la presente obra es exclusivo de los autores. Derechos reservados

ISBN: 978-958-57263-3-8 200 ejemplares

ELIZCOM S.A.S www.elizcom.com ventas@elizcom.com Cel: (57) 3113349748 Fax: (57) (6) 7493244 Armenia, Quindío 2011


Prólogo El siguiente libro está dirigido a estudiantes y docentes de educación superior interesados en ahondar en conceptos introductorios del álgebra lineal, en lo que se refiere a sistemas de ecuaciones lineales, matrices, determinantes, espacios vectoriales, transformaciones lineales, vectores y valores propios. Lo anterior, con el propósito que tanto docentes como estudiantes, tengan un material de apoyo para el estudio de estos conceptos, los cuales se desarrollaron de manera gradual, lo cual hace más fácil la transmisión del contenido de una manera lógica. Es importante resaltar que en el libro se plantean ejercicios resueltos con el fin de mostrar la forma como se aplican las definiciones y teoremas, así mismo, al finalizar cada capítulo se proponen ejercicios o problemas de aplicación, para que a través de la ejercitación de dichas situaciones matemáticas, se tenga un mayor empoderamiento del tema. El libro también contiene demostraciones y algunas representaciones gráficas con el fin de dar una mayor claridad conceptual y aplicabilidad del concepto. Este material ha sido experimentado en el espacio académico de Álgebra Lineal del Programa de Licenciatura en Matemáticas de la Universidad del Quindío. Esperamos que a través de los capítulos desarrollados en el libro, se contribuya a la mejora de los procesos de enseñanza-aprendizaje de los espacios académicos que implican el Álgebra Lineal en los programas de Educación Superior.

I


Índice general

1. Sistemas de ecuaciones lineales 1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Dos ecuaciones lineales con dos incógnitas . . . . . . . . . . . . . . . . . . . . 1.3. Sistema de m ecuaciones lineales con n incógnitas . . . . . . . . . . . . . . . . 1.3.1. Eliminación Gaussiana: . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2. Eliminación de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . 1.4. Sistemas de Ecuaciones Homogéneos . . . . . . . . . . . . . . . . . . . . . . . 1.5. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.1. Operaciones elementales por filas o renglones . . . . . . . . . . . . . . . 1.5.2. Formas escalonadas para una matriz . . . . . . . . . . . . . . . . . . . . 1.5.3. Matrices, vectores fila y columna . . . . . . . . . . . . . . . . . . . . . 1.6. Suma de matrices y multiplicación por escalar . . . . . . . . . . . . . . . . . . 1.7. Multiplicación de matrices y vectores . . . . . . . . . . . . . . . . . . . . . . . 1.7.1. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.2. Multiplicación de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.3. Ley Asociativa en el producto de matrices . . . . . . . . . . . . . . . . . 1.7.4. Ley distributiva de la multiplicación de matrices . . . . . . . . . . . . . 1.8. La transpuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8.1. Propiedades de la matriz transpuesta . . . . . . . . . . . . . . . . . . . 1.9. La inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.10. La inversa de una matriz y la solución del sistema de ecuaciones resultante . . . 1.10.1. Métodos para hallar la inversa de una matriz . . . . . . . . . . . . . . . . 1.11. Factorización de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.11.1. Factorización en matrices elementales . . . . . . . . . . . . . . . . . . . 1.11.2. Factorización A = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.11.3. Uso de la factorización LU para resolver sistemas de ecuaciones lineales 1.11.4. Factorización A = LDU . . . . . . . . . . . . . . . . . . . . . . . . . . 1.11.5. Factorización P A = LU . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Determinantes 2.1. Definición . . . . . . . . . . . . . . . . . . 2.2. Método de Sarrus . . . . . . . . . . . . . . 2.3. Método por cofactores . . . . . . . . . . . 2.4. Propiedades de los determinantes . . . . . 2.5. Método de Chió para hallar determinantes . 2.6. Determinantes y matrices especiales . . . . 2.7. La inversa de una matriz y su determinante

II

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

1 1 3 7 8 10 14 18 19 26 27 31 35 36 38 40 41 46 47 51 55 58 65 65 75 81 82 83

89 . 89 . 91 . 92 . 95 . 111 . 113 . 120


ÍNDICE GENERAL

III

2.8. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . 2.9. Interpretación geométrica del determinante . . . . . . . . . 2.9.1. Determinantes 2 × 2 . . . . . . . . . . . . . . . . . 2.9.2. Longitud de un segmento de recta y el determinante 2.9.3. Cálculo de área de un triángulo con determinantes . 2.9.4. Volumen del paralelepípedo como un determinante . 3. Espacios vectoriales 3.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1. Espacios vectoriales y sus propiedades . . . . . 3.2. Subespacio vectorial . . . . . . . . . . . . . . . . . . 3.3. Combinación lineal de vectores . . . . . . . . . . . . . 3.3.1. Conjunto generador de un subespacio vectorial 3.3.2. Espacio generado de un subespacio vectorial . 3.4. Dependencia e independencia lineal de vectores . . . . 3.5. Bases y dimensión de un espacio vectorial . . . . . . . 3.5.1. Bases y sus propiedades . . . . . . . . . . . . 3.6. Dimensión de un espacio vectorial . . . . . . . . . . . 3.7. Subespacios asociados con una matriz . . . . . . . . . 3.7.1. Espacio nulo de una matriz . . . . . . . . . . . 3.7.2. Propiedades . . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

125 130 130 135 135 138

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

140 140 147 149 152 153 154 159 166 168 169 173 173 175

4. Transformaciones Lineales 4.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Tipos de transformaciones . . . . . . . . . . . . . . . . 4.2.1. Transformación de reflexión . . . . . . . . . . . 4.2.2. Transformación de rotación en el plano . . . . . 4.3. Geometría de las transformaciones lineales . . . . . . . 4.3.1. Expansión a lo largo de los ejes: (Escalamiento) . 4.3.2. Compresión a lo largo de los ejes x o y . . . . . 4.3.3. Cortes . . . . . . . . . . . . . . . . . . . . . . . 4.4. Transformación de proyección ortogonal . . . . . . . . . 4.5. Transformaciones Lineales Especiales de R2 en R3 . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

183 183 196 196 197 201 202 202 205 209 212

5. Vectores y valores propios 5.1. Vectores y valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1. Calculo de los valores y vectores propios . . . . . . . . . . . . . . . . 5.1.2. Ecuación característica para calcular la inversa de una matriz cuadrada . 5.2. Matrices Semejantes y Diagonalización . . . . . . . . . . . . . . . . . . . . .

. . . .

221 222 223 235 237


“Lo último que uno sabe, es por donde empezar.” — Blaise Pascal (1623-1661)

1 Sistemas de ecuaciones lineales 1.1. Introducción Muchos problemas matemáticos conllevan a la resolución de sistema de ecuaciones lineales. En algunos casos estos sistemas son pequeños y relativamente fáciles de resolver, y en otros casos son muy complejos y su solución implica acudir a otros métodos como los planteados en este libro. En geometría analítica, encontramos problemas como el de hallar una circunferencia dadas las coordenadas de tres puntos no colineales (ver figura 1.1). (x2 , y2 ) b b

(x1 , y1 )

b

(x3 , y3 ) Figura 1.1: Circunferencia dados tres puntos Este problema es relativamente fácil, pues sólo debemos acudir a la ecuación general de una circunferencia: x2 + y 2 + Dx + Ey + F = 0 Luego, sólo debemos reemplazar los puntos en la ecuación 1.1:

1

(1.1)


1. Sistemas de ecuaciones lineales

2

x21 + y12 + Dx1 + Ey1 + F

=

0

x22 x23

= =

0 0

+ +

y22 y32

+ Dx2 + Ey2 + F + Dx3 + Ey3 + F

(1.2)

debido a que cada punto genera una ecuación diferente, se forma el sistema de ecuaciones 1.2. El cual ahora depende de las variables D, E y F pues se reemplazo x y y por los putos dados. El sistema de ecuaciones 1.2 se puede reescribir como sigue: = − x21 + y12

Dx1 + Ey1 + F

= − x22 + y22

Dx2 + Ey2 + F Dx3 + Ey3 + F

= −

x23

+

y32

(1.3)

El cual podemos resolver usando los métodos vistos de resolución de sistemas de ecuaciones lineales vistos en los cursos del álgebra, como reducción, sustitución e igualación. De esta forma podemos hallar los coeficientes de la ecuación 1.1, es decir, D, E y F . Otro ejemplo, un poco más complejo, lo podemos encontrar en la regresión polinomial, en la cual, dada una lista de puntos en el plano: (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) Con x1 < x2 < · · · < xn , siempre es posible encontrar un polinomio de grado n − 1 que pase exactamente por los puntos dados. El planteamiento de este problema, es muy similar al de encontrar la circunferencia dados tres puntos. y 5

Polinomio interpolante

4 b

(x3 , y3 )

(x1 , y1 )

3

b

2 b

1 0

(x2 , y2 ) 0

1

2

3

4

5

x

Figura 1.2: Polinomio interpolante de tres puntos Esta vez, recurrimos a la forma general de la ecuación de segundo grado:


1. Sistemas de ecuaciones lineales

3

ax2 + bx + c = y

(1.4)

Ahora, debemos reemplazar en la ecuación de segundo grado, cada uno de los puntos dados: ax21 + bx1 + c ax22 + bx2 + c

= y1 = y2

ax23 + bx3 + c

= y3

(1.5)

El sistema 1.5 puede resolverse para hallar a, b y c y con esto podemos hallar el polinomio de segundo grado. Los anteriores ejemplos, nos muestran que muchos de los problemas encontrados en las diferentes áreas de las matemáticas, pueden ser resueltos encontrando la solución a un sistema de ecuaciones lineales. En este capítulo veremos cómo resolver dichos sistemas y cómo se puede reducir el problema aún más utilizando el concepto de matriz.

1.2. Dos ecuaciones lineales con dos incógnitas Consideremos el siguiente sistema de dos ecuaciones con dos incógnitas x y y. a11 x + a12 y

= b1

a21 x + a22 y

= b2

Ejemplo 1.1 Un sistema con solución única Considere el sistema x−y

x+y

=

8

(1.6)

=

6

(1.7)

Si se suman las ecuaciones se obtiene: 2x = 14 ó x = 7 Entonces de la ecuación 1.7 se obtiene y =6−x

y remplazamos el valor

y y

= =

x=7

6−7 −1

Luego el par (7, −1) satisface el sistema dado y la forma en que se encontró la solución muestra que es el único par de números que lo hace. Es decir, el sistema tiene solución única.


1. Sistemas de ecuaciones lineales

4

Sistema de 2 × 2 con solución única

x+y =6 x−y =8

b

Figura 1.3: Sistema con solución única Ejemplo 1.2 Un sistema con un número infinito de soluciones Considere el sistema x−y 2x − 2y

= =

8 16

Las dos ecuaciones son equivalentes. Para ver esto se multiplica la primera ecuación por 2. Sistema de 2 × 2 con un número infinito de soluciones

x−y =8 2x − 2y = 16

Figura 1.4: Sistema con un número infinito de soluciones


1. Sistemas de ecuaciones lineales

5

Entonces x − y = 8 o y = x − 8 . Así, el par (x, x − 8) es una solución al sistema para cualquier número real x. Es decir, el sistema tiene un número infinito de soluciones. Para este ejemplo las siguientes parejas de puntos son soluciones: (8, 0), (1, −7), (0, −8), (−1, −9). Ejemplo 1.3 Un sistema sin solución Considere el sistema x−y 2x − 2y

= =

8 10

Al multiplicar la primera ecuación por 2 se obtiene 2x − 2y = 16. Esto contradice la segunda ecuación. Entonces el sistema no tiene solución. Un sistema que no tiene solución se dice que es inconsistente. Sistema de 2 × 2 sin solución

x−y =8

2x − 2y = 10

Figura 1.5: Sistema sin solución La interpretación gráfica se puede aplicar para sistemas 3 × 3, sólo que en este caso, las ecuaciones representan planos en el espacio. Sin embargo, podemos encontrar los mismos tres casos: Solución única, Múltiples soluciones y sin solución. Cuando hablamos de solución única, podemos pensar en planos que se intersectan en un sólo punto del espacio, como se ve en la gráfica 1.6.


1. Sistemas de ecuaciones lineales

6 Planos intersecados - si hay solución z

Solución única

b

y

x

Figura 1.6: Sistema 3 × 3 con solución única Ahora bien, para el caso en que hay múltiples soluciones, los planos se pueden intersectar no en un punto, sino en una recta, sin embargo, esta no es la única posibilidad, puede pasar que los planos esten puestos unos sobre otros o que sólo dos de los planos se intersecten. Planos intersecados - solución multiple z Multiples soluciones

y

x

Figura 1.7: Sistema 3 × 3 con múltiples soluciones En el caso en que no hay solución, hablamos de planos paralelos que no se encuentran o no se intersectan en ningún punto en el espacio.


1. Sistemas de ecuaciones lineales

7 z Planos paralelos - no hay solución

y

x

Figura 1.8: Sistema 3 × 3 sin solución

1.3. Sistema de m ecuaciones lineales con n incógnitas Empezaremos con la definición formal de una ecuación lineal .:Definición 1.1 Una ecuación lineal con n incógnitas x1 , x2 , . . . , xn es una ecuación que se puede escribir de la forma a1 x1 + a2 x2 + · · · + an xn = b donde las a1 , a2 . . . an se llaman coeficientes de las variables x1 , x2 . . . xn y el número b se llama término constante. Se asume que tanto los coeficientes y el término constante son valores conocidos. Ejemplo 1.4 Las siguientes ecuaciones son ejemplos de ecuaciones lineales

x1 − 4x2 − 6x3 = 5 En esta ecuación se usaron los coeficientes 1,-4 y -6, el término independiente es 5 y las variables son x1 , x2 y x3 . La ecuación 2x + 8y = 3 Es una ecuación con coeficientes 2 y 8, término independiente 3 y variables x y y. Ahora procederemos a definir qué es un sistema de ecuaciones lineales


1. Sistemas de ecuaciones lineales

8

.:Definición 1.2 Un sistema general de m × n ecuaciones lineales es una expresión de la forma: a11 x1 a21 x1 .. .

+ + .. .

a12 x2 a22 x2 .. .

+ + .. .

am1 x1

+

am2 x2

+

... ... ··· ...

+ + .. .

a1n xn a2n xn .. .

= = .. .

b1 b2 .. .

+ amn xn

=

bm

Donde x1 , x2 , ...,xn son las variables, a11 , a12 , · · · , amn , son los coeficientes de las variables y b1 , b2 , ...,bm son los términos independientes. Ya hemos resuelto algunos sistemas de ecuaciones lineales (ejemplos anteriores), pero ¿qué es una solución a un sistema de ecuaciones lineales? .:Definición 1.3 Una solución a un sistema de ecuaciones lineales con n incognitas, es un conjunto de númerosa x′1 , x′2 , . . . , x′n los cuales satisfacen simultaneamente cada una de las ecuaciones del sistema. a Éste

conjunto de números se conoce como vector solución.

La definición de solución a un sistema de ecuaciones lineales, nos dice que cuando encontramos dichos números, estos, al reemplazarse en las ecuaciones del sistema deben conservar la igualdad. Luego, para el sistema lineal general existen tres posibilidades: Que no tenga solución. Que tenga solución única. Que tenga un número infinito de soluciones. Para casos en que el tamaño del sistema sea mayor a tres, no es posible hacer la gráfica, sin embargo, se pueden hacer los mismos procesos que a los sistemas de 3 × 3 y 2 × 2.

1.3.1. Eliminación Gaussiana: Iniciemos con un ejemplo: Ejemplo 1.5 Un empresario tiene tres máquinas que son empleadas en la fabricación de tres productos diferentes. Para utilizar plenamente las máquinas, estas estarán en operación 8 horas diarias, el número de horas que cada máquina es usada en la producción de una unidad de cada uno de los productos se da en la siguiente tabla:

Máquina 1 Máquina 2 Máquina 3

Producto 1 Producto 2 Producto 3 1 0 2 2 1 1 1 3 1


1. Sistemas de ecuaciones lineales

9

Por ejemplo, en la producción de una unidad del producto 3, la máquina 1 trabaja 2 horas y las máquinas 2 y 3 trabajan 1 hora cada una; bajo el siguiente supuesto de que cada máquina trabaja 8 horas completas, hallar el número de unidades de cada producto que se produce en un día. Para resolver este problema, consideremos que la producción durante las 8 horas del día, se distribuye como sigue: x1 = número de unidades del producto 1 x2 = número de unidades del producto 2 x3 = número de unidades del producto 3 Se tiene entonces que el tiempo gastado por cada máquina en la producción diaria está dada por: Para la máquina 1: x1 + 2x3 Para la máquina 2: 2x1 + x2 + x3 Para la máquina 3: x1 + 3x2 + x3 Como cada máquina trabaja las 8 horas completas, tenemos el siguiente sistema de ecuaciones. x1 2x1 x1

+ +

x2 3x2

+ + +

2x3 x3 x3

= 8 = 8 = 8

El anterior es un sistema de ecuaciones lineales con 3 incógnitas. A continuación se ilustra el proceso de eliminación Gaussiana sobre el sistema de ecuaciones que surge en el problema anterior: x1 2x1 x1

+ +

x2 3x2

+ + +

2x3 x3 x3

= 8 = 8 = 8

Paso 1: Eliminamos la incógnita x1 a partir de la segunda ecuación, como sigue: i) Sustituimos la segunda ecuación por el resultado obtenido al sustraer de la segunda ecuación la primera multiplicada por 2. ii) Sustituimos la tercera ecuación por la ecuación obtenida al sustraer de ella la primera multiplicada por 1. El sistema obtenido es el siguiente: x1 x2 3x2

+ 2x3 − 3x3 − x3

= 8 = −8 = 0


1. Sistemas de ecuaciones lineales

10

Paso 2: Eliminamos la incógnita x2 , a partir de la tercera ecuación en el nuevo sistema. Para lograrlo, realizamos la operación consistente en sustituir la tercera ecuación por la ecuación obtenida al sustraer de ella la segunda multiplicada por 3, obtenemos así el siguiente sistema: x1 x2

+ −

2x3 3x3 8x3

= 8 = −8 = 24

Ahora tenemos un sistema cuya solución es la misma del sistema inicial, pero es mucho más simple, ya que la tercera ecuación tiene una sola incógnita, la segunda ecuación tiene dos y en la primera ecuación aparecen dos incógnitas. La forma triangular de este último sistema nos permite resolverlo más fácilmente; en efecto de la tercera ecuación obtenemosx3 = 3,sustituyendo en la segunda obtenemos x2 = 1 y finalmente sustituimos estos valores en la primera ecuación y obtenemos x1 = 2. Este último proceso es llamado sustitución regresiva. Con respecto al problema original, concluimos que trabajando 8 horas, cada día se pueden producir 2 unidades del producto 1, 1 unidad del producto 2 y 3 unidades del producto 3.

1.3.2. Eliminación de Gauss-Jordan Ejemplo 1.6 Resolver el sistema de tres ecuaciones con tres incógnitas. 2x1 4x1 3x1

+ + +

4x2 5x2 x2

+ + −

6x3 6x3 2x3

= = =

18 24 4

+ + −

3x3 6x3 2x3

= = =

9 24 4

Solución: Se divide la primera ecuación por 2: x1 4x1 3x1

+ + +

2x2 5x2 x2

Eliminamos la incógnita x1 a partir de la segunda ecuación, como sigue: i) Sustituimos la segunda ecuación por el resultado obtenido al sustraer de la segunda ecuación la primera multiplicada por 4. ii) Sustituimos la tercera ecuación por el resultado obtenido al sustraer de ella la primera multiplicada por 3. El sistema obtenido es el siguiente: x1

+ 2x2 − 3x2 − 5x2

+ 3x3 − 6x3 − 11x3

Luego dividimos la segunda ecuación por -3 y se obtiene:

= 9 = −12 = −23


1. Sistemas de ecuaciones lineales

x1

11

+ 2x2 x2 − 5x2

+ 3x3 + 2x3 − 11x3

= 9 = 4 = −23

Eliminamos la incógnita x2 de la primera y la tercera ecuación:

i) Sustituimos la primera ecuación por el resultado obtenido al sustraer de la primera ecuación la segunda multiplicada por 2. ii) Sustituimos la tercera ecuación por la ecuación obtenida al sustraer de ella la segunda multiplicada por -5. x1 x2

− + −

x3 2x3 x3

= 1 = 4 = −3

Eliminamos la incógnita x3 de la primera y segunda ecuación.

i) Sustituimos la primera ecuación por el resultado obtenido al sustraer de ella la tercera ecuación multiplicada por -1. ii) Sustituimos la segunda ecuación por la ecuación obtenida al sustraer de ella la tercera multiplicada por 2. x1 x2 x3

= 4 = −2 = 3

El sistema tiene solución única. Se cuenta con dos métodos para resolver los ejemplos de sistemas de ecuaciones: i) Eliminación de Gauss-Jordan: Consiste en simplificar las ecuaciones de tal manera que se obtenga un sistema equivalente en el que las soluciones se puedan identificar de inmediato. ii) Eliminación Gaussiana: Consiste en simplificar las ecuaciones de tal manera que se obtenga un sistema en forma escalonada. Se despeja el valor de la última incógnita y después se usa la sustitución regresiva. Ejemplo 1.7 Solución de un sistema de tres ecuaciones con tres incógnitas con un número infinito de soluciones. Resolver el sistema: 2x1 4x1 2x1

+ 4x2 + 5x2 + 7x2

+ 6x3 + 6x3 + 12x3

= 18 = 24 = 30


1. Sistemas de ecuaciones lineales

12

Solución: Resolvemos el sistema aplicando el método de Gauss-Jordan Dividimos la ecuación 1 por 2: x1 4x1 2x1

+ 2x2 + 5x2 + 7x2

+ 3x3 + 6x3 + 12x3

= 9 = 24 = 30

Sustraemos de la fila 2 la fila 1 multiplicada por 4 y sustraemos de la fila 3 la fila 1 multiplicada por 2. x1

+ −

2x2 3x2 3x2

+ − +

3x3 6x3 6x3

= = =

9 −12 12

Dividimos la ecuación 2 por (-3) x1

+ 2x2 x2 3x2

+ 3x3 + 2x3 + 6x3

= = =

9 4 12

Luego sustraemos de la fila 1 la fila 2 multiplicada por 2 y sustraemos de la fila 3 la fila 2 multiplicada por 3. x1 x2

− +

x3 2x3 0

= = =

1 4 0

Existe un número infinito de soluciones La solución se escribe de la forma (1+x3 , 4 -2x3 , x3 ) Por ejemplo: Si x3 = 0, se obtiene la solución: (1, 4, 0), para x3 = 10 se obtiene la solución (11, −16, 10). Ejemplo 1.8 Ejemplo de un sistema de ecuaciones lineales inconsistente: Resolver el sistema: 2x2 2x − 6x2 x1 − 2x2

+ 3x3 + 7x3 + 5x3

= 4 = 15 = 10

Como en la primera ecuación el coeficiente de x1 es cero. Se pueden intercambiar las ecuaciones 1 y 3.


1. Sistemas de ecuaciones lineales

13

x1 − 2x2 2x − 6x2 2x2

+ 5x3 + 7x3 + 3x3

= 10 = 15 = 4

Sustraemos de la fila 2 la fila 1 multiplicada por 2 x1

− −

2x2 2x2 2x2

+ − +

5x3 3x3 3x3

= 10 = −5 = 4

De las ecuaciones 2 y 3 se observa que: − 2x2 2x2

− 3x3 + 3x3

= =

−5 4

Si −2x2 − 3x3 = −5, entonces 2x2 + 3x3 = 5 y no 4. Por lo tanto, el sistema no tiene solución porque hay una inconsistencia. .:Definición 1.4 Sistemas Inconsistentes y Consistentes: Se dice que un sistema de ecuaciones lineales es inconsistente si no tiene solución. Se dice que un sistema que tiene al menos una solución es consistente. Ejercicios 1.1 1. ¿Cuáles de las siguientes afirmaciones es cierta para el siguiente sistema de ecuaciones?

−x − 2y

6x + 12y

=

8

=

0

a) El sistema es inconsistente b) La solución es (3, −5)

c) La solución se encuentra sobre la recta x = 2

d) Las dos ecuaciones son equivalentes. 2. En los siguientes ejercicios utilice el método de eliminación de Gauss-Jordan para encontrar todas las soluciones, si existen, para los sistemas dados: a)

b)

2x1 + 5x2 + 4x3

=

1

4x1 + x2 + 93 x1 + 7x2 − 8x3

= =

1 1

3x1 + 6x2 − 6x3

2x1 − 5x2 + 4x3 −x1 + 16x2 − 14x3

=

9

= =

−3 −2


1. Sistemas de ecuaciones lineales

14 e)

c) x1 + x2 − x3

4x1 − x2 + 5x3 2x1 + 2x2 − 3x3

=

0

= =

4 0

5 5 5 x1 − x2 + x3 3 12 7

=

5 7

7 5 1 x1 + x2 − x3 5 2 2

=

5 2

5 6 5 x1 + x2 + x3 9 7 2

=

1

d) +2x2 + 5x3 x1 − 2x3 2x1 + 4x2

f)

= −7

= −8 = −2

0.21x1 + 0.54x2 + 0.24x3

=

0.21

0.21x1 + 0.32x2 − 0.25x3

=

0.5

=

−0.1

0.14x1 + 0.25x2 + 0.98x3

3. Considere el siguiente sistema:

2x1 + 3x2 − x3 x1 − x2 + 3x3

3x1 + 7x2 − 5x3

= =

a b

=

c

Encuentre las condiciones sobre a, b, c para que el sistema sea inconsistente.

1.4. Sistemas de Ecuaciones Homogéneos .:Definición 1.5 Sistemas Homogéneos Un sistema general de m × n ecuaciones lineales, se llama homogéneo si todas las constantes b1 , b2 , ...,bm son cero. Es decir, el sistema general homogéneo está dado por: a11 x1 a21 x1 .. .

+ + .. .

a12 x2 a22 x2 .. .

+ + .. .

am1 x1

+ am2 x2

+

... ... ··· ...

+ + .. .

a1n xn a2n xn .. .

+

amn xn

= 0 = 0 .. .. . . = 0

(1.8)

Para el sistema lineal general existen tres posibilidades: que no tenga solución, que tenga solución única o que tenga un número infinito de soluciones. Para el sistema general homogéneo la solución es más sencilla. Como x1 = x2 = · · · xn = 0 es siempre una solución (llamada solución trivial o solución cero), sólo se tiene dos posibilidades: la solución trivial es la única solución o existe un número infinito de soluciones además de la trivial. La soluciones distintas a la solución cero se llaman soluciones no triviales.

Ejemplo 1.9


1. Sistemas de ecuaciones lineales

15

Un sistema de ecuaciones homogéneo que tiene sólo la solución trivial. Resolver el sistema de ecuaciones homogéneo: x1 2x1 3x1

+ − +

x2 4x2 7x2

− + −

x3 3x3 x3

= 0 = 0 = 0

Sustraemos de la fila 2 la fila 1 multiplicada por 2 y sustraemos de la fila 3 la fila 1 multiplicada por 3: x1

+ − +

x2 6x2 4x2

− + +

x3 5x3 2x3

= = =

0 0 0

x1

+

x2

x3

= 0

x2

5 6 x3

= 0

+ 4x2

+

2x3

= 0

Dividamos la fila 2 por (-6):

Sustraemos de la fila 3 la fila 2 multiplicada por 4: x1

+

x2

x3

= 0

x2

5 6 x3

= 0

+

16 3 x3

= 0

Realizando sustitución regresiva se tiene que: el sistema tiene solución única (0, 0, 0). Esto es la solución trivial. Ejemplo 1.10 Un sistema homogéneo con un número infinito de soluciones: x1 2x1 −x1

+ x2 − 4x2 − 7x2

− x3 + 3x3 + 6x3

= = =

0 0 0

Sustraemos de la fila 2 la fila 1 multiplicada por 2 y reemplazamos la fila 3 por la adición de las filas 1 y 3 x1

+ − −

x2 6x2 6x2

− + +

x3 5x3 5x3

Reemplazamos la fila 3 por la adición de las filas 2 y 3:

= = =

0 0 0


1. Sistemas de ecuaciones lineales

16

x1

+ −

x2 6x2

− +

x3 5x3 0

= = =

0 0 0

De acuerdo con lo anterior existe un número infinito de soluciones, dadas por:

1 5 6 x3 , 6 x3 , x3

.

Ejemplo 1.11 Un sistema con más incógnitas que ecuaciones tiene un número infinito de soluciones: 2x1 6x1

+ −

3x2 5x2

− +

x3 7x3

= 0 = 0

6x1 6x1

+ −

9x2 5x2

− +

3x3 7x3

= 0 = 0

+ 9x2 − 14x2

− +

3x3 10x3

= =

− −

3x3 5 7 x3

Multiplicamos la fila 1 por 3

Sustraemos de la fila 2 la fila 1 6x1

0 0

Dividimos entre (-14) la ecuación 2 6x1

+

9x2 x2

= 0 = 0

Así, hay un número infinito de soluciones dadas por: − 74 x3 , 57 x3 , x3 .

En general, si hay más incógnitas que ecuaciones, el sistema homogéneo siempre tendrá un número infinito de soluciones. Este resultado lo podemos ver resumido en el siguiente teorema, sin embargo, es necesario determinar el rango de un sistema de ecuaciones lineales. .:Definición 1.6 El rango de un sistema de ecuaciones lineales es el número de ecuaciones distintas de cero después de realizar la eliminación de Gauss. Ahora procederemos con el teorema. .:Teorema 1.1 El sistema homogéneo tiene un número infinito de soluciones si n > m. Demostración: Puesto que el sistema homogéneo tiene al menos la solución cero (trivial). También, el rango < m (¿por qué?). Por el teorema tenemos que :


1. Sistemas de ecuaciones lineales

17

Número de variables libres =

(n − rango) ≥ n − m > 0

De modo que hay al menos una variable libre y por lo tanto un número infinito de soluciones. Q.E.D. Ejercicios 1.2 1. Determine las soluciones de los siguientes sistemas, si éstas existen. Utilizar el método de eliminación de Gauss y de Gauss-Jordan. a) . b)

2x + 3x −

3y y

3p + 2q p − 3q

= =

3x1 2x1 x1

+ 2x2 − x2 + x2

d)

a 2a 7a1

+ + +

e)

x + y 2x + 3y −x 2y

f)

u − v 4u + v 5u − 2v

g)

= 2 =

+

c)

5 0

+ x3 + 4x3 − 2x3

b − 3b + 9b +

x + y 2x − 3y

7 5

+ + −

2c = c = c =

= = =

6 −4 5

3 13 35

z z z

− + +

= = = =

w 3w w

+ + +

2w 3w 7w

= 5 = 15 = 31

− +

z 4z

= 2 = −3

1 3 3 5

2. Encuentre todas las soluciones a los siguientes sistemas homogéneos: c)

a) x1 + x2 − x3 2x1 − 4x2 + 3x3 3x1 + 7x2 − x3

= =

0 0

4x1 − x2 7x1 + 3x2

= 0 = 0

=

0

−8x1 + 6x2

= 0

d)

b) x1 + x2 − x3

2x1 − 4x2 + 3x3 −5x1 + 13x2 − 10x3

=

0

= =

0 0

x1 − 2x2 + x3 + x4

3x1

5x1

+ 2x3 − 2x4

4x2 − x3 − x4 + 3x3 − x4

=

0

=

0

= =

0 0


1. Sistemas de ecuaciones lineales

18

3. Para qué valores de k tendrá soluciones no triviales el siguiente sistema

x+y+z 2x + 3y + 4z

= =

0 0

3x + 4y + kz

=

0

4. ¿Cuál es el área de un rectángulo sabiendo que su perímetro mide 16cm y que su base es el triple de su altura? 5. Hallar dos números cuyo cociente sea

4 5

y su producto 80.

6. Un viajero que acaba de regresar de Europa gastó $30 diarios en Inglaterra, $20 diarios en Francia, y $20 diarios en España por concepto de hospedaje. En comida gastó $20 diarios en Inglaterra, $30 diarios en Francia y $20 diarios en España. Sus gastos adicionales fueron de $10 diarios en cada país. Los registros del viajero indican que gastó total de $340 en hospedaje, $320 en comida y 140 en gastos adicionales durante su viaje por estos tres países. Calcule el número de días que pasó el viajero en cada país o muestre que los registros deben estar incorrectos debido a que las cantidades gastadas no son compatibles una con la otra. 7. Tres materiales se utilizan para formar tres tipos de productos. Una unidad del primer material requiere 10 kg del elemento A, 30 del B y 60 del C. Una unidad del segundo tipo de material necesita 20 kg de A, 30 del B 50 del C. Una unidad del tercer tipo de material requiere 50 kg de A 50 y 50 del C. Si se dispone de 1600kg del elemento A, 1200 Kg del B y 3200 del C, ¿Cuántas unidades de cada tipo de material se pueden producir si se se utilizan todos los elementos disponibles?

1.5. Matrices Para comenzar, observemos un sistema de ecuaciones lineales: x1 2x1 x1

+ − +

3x2 x2 2x2

− 3x3 + 3x3 − x3

= −1 = 2 = 0

(1.9)

Al realizar la eliminación Gaussiana o Gauss-Jordan, vemos que las variables x1 , x2 y x3 no “participan” del algoritmo, es decir, no hacemos uso de ellas cuando hacemos alguna de las eliminaciones antes mencionadas. Sólo los coeficientes y los valores constantes tienen una participación directa en el algoritmo. Ahora se inicia el concepto de Matriz. .:Definición 1.7 Una Matriz es un arreglo rectangular de números, determinados por filas o renglones y columnas. Las matrices se denotaran con letras mayúsculas. A, B... etc. Los elementos en la matriz se ubican de acuerdo a filas y columnas, así por ejemplo, el coeficiente de la variable x2 en la segunda ecuación es -1, así que en la fila dos y la columna dos habrá un -1, siempre se ubica primero las filas y luego las columnas. Del sistema 1.9 podemos obtener una matriz con los coeficientes:


1. Sistemas de ecuaciones lineales

19

 1 3 −3 3  A =  2 −1 1 2 −1

.:Definición 1.8 Una matriz que se construye con los coeficientes de un sistema de ecuaciones lineales se llama Matriz de coeficientes La matriz A representaría los coeficientes de las variables del sistema 1.9, sin embargo, en ella no se representa los valores constantes; para ellos requerimos de otro tipo de matriz. .:Definición 1.9 Una matriz que se construye con los coeficientes de un sistema de ecuaciones lineales junto con una columna (separada por una línea vertical) con los elementos de los términos constantes, se llama Matriz de coeficientes aumentada. En este caso el sistema 1.9 estaría representado en aumentada de la siguiente forma:  1 3 −3 A =  2 −1 3 1 2 −1

la forma de una matriz de coeficientes

−1

2 

0

Observemos que el paso del sistema de ecuaciones lineales original a la matriz de coeficientes aumentada es muy fácil, sólo requerimos acomodar los coeficientes y los términos constantes en el mismo orden en que aparecen en el sistema.

  1 3 −3

−1 x1 + 3x2 − 3x3 = −1  2 −1 3

2  −→ 2x1 − x2 + 3x3 = 2 1 2 −1 0 x1 + 2x2 − x3 = 0

Esto nos puede ayudar a encontrar la manera de acelerar el proceso de eliminación Gaussiana y la eliminación de Gauss-Jordan. Sin embargo, debemos tener en cuenta las operaciones elementales por fila.

1.5.1. Operaciones elementales por filas o renglones Hemos visto que la eliminación Gaussiana y la eliminación de Gauss-Jordan usan operaciones elementales entre ecuaciones, estas operaciones se pueden modificar para adaptarlas a las matrices. Las siguientes son las operaciones elementales por fila para matrices:


1. Sistemas de ecuaciones lineales

20

Operaciones elementales por fila: 1. Multiplicar una fila o renglón por un escalar diferente de cero. Notación: fi → kfi 2. Sumar un múltiplo de una fila a otra fila. Notación: fj → fj + kfi 3. Permutar dos filas o renglones. Notación: fi ⇄ fj Ejemplo 1.12 Resuelva el siguiente sistema de ecuaciones usando notación matricial y teniendo en cuenta las operaciones elementales por fila. x1 2x1 x1

+ − +

3x2 x2 2x2

− 3x3 + 3x3 − x3

= −1 = 2 = 0

Recuerde que la matriz de coeficientes aumentada es la siguiente:

  1 3 −3

−1  2 −1 3

2  1 2 −1 0

Por eliminación Gaussiana

Eliminamos la componente de la fila 2 y columna 1 usando la segunda operación elemental por fila f2 → f2 + (−2)f1 , esto se lee “remplazamos la fila 2 por la misma fila 2 más la fila 1 multiplicada por (-2)”

    1 3 −3

−1 1 3 −3

−1  2 −1 3

2  f2 → f2 + (−2)f1  0 −7 9

4  −−−−−−−−−−−−→ 1 2 −1 0 1 2 −1 0

Ahora procederemos de la misma manera para la tercera fila, en este caso eliminar el primer 1 de la tercera fila.

    1 3 −3

−1 1 3 −3

−1  0 −7 9

4  9

4  f3 → f3 + (−1)f1  0 −7 − − − − − − − − − − − − →

0 0 −1 2 1 1 2 −1 Ahora multiplicamos la segunda fila por − 71 , esto es f2 → − 71 f2

 

−1 1 3 −3

 

  1 3 −3

−1 

 1 9

4  

 0 −7  1 −7 −7  f2  0 9 4 f2 → − 7

 0 −1 2 1 −−−−−−−−−−−→ 

0 −1 2 1

Ahora , procederemos a eliminar la componente de la fila 3 y columna 2, es decir -1.


1. Sistemas de ecuaciones lineales

1

   0   0

21

  1 −3

−1 

 

 f3 → f3 + (1)f2  1 − 79

− 74   0 −

 −−−−−−−−−−→ 

−1 2 1 0

3

3

7 5,

Finalmente multiplicamos la última fila por es decir f3 →

   1 3 −3

−1 1 

   

  0 1 − 9 − 4  f3 → 7 f3  0 7

7    5

  −−−−−−−−−→ 

5

3 0 0 0 7 7

7 5

1 0

f3

 −3

−1

 − 97

− 74  

5

3 7

7

−3

−1

9

1 − 7 − 74

0 1 35 3

     

Como usamos eliminación Gaussiana, podemos realizar la sustitución regresiva para obtener los valores. En este caso 51 , 51 , 35 .

Por Gauss-Jordan

Para este caso, empezaremos de la eliminación Gaussiana que teníamos:

  1 3 −3

−1  

 

 0 1 −9 −4  7

7  

 

3

0 0 1 5

y eliminaremos el − 97 que está en la segunda fila y tercera columna. Para eso usaremos la siguiente operación elemental por filas: f2 → f2 + 79 f3

    1 3 −3

−1 1 3 −3

−1

  

  

1   0 1 − 9 − 4  f2 → f2 + 9 f3  0 1 

0 7

7   

5  7

  −−−−−−−−−−−   −−→

0 0 1 3 0 0 1 3 5

5

De igual manera, para el -3 de la primera fila y tercera columna usaremos f1 → f1 + (3) f3

    1 3 0

45 1 3 −3

−1

  

1  

1  

 

 0 1 0 5  f1 → f1 + (3) f3  0 1 0 5   

 −−−−−−−−−−−→   

3

3

0 0 1 0 0 1 5 5

Finalmente, eliminamos el 3 de la primera fila y segunda columna usando f1 → f1 + (−3) f2

    1 3 0

54 1 0 0

51

  

    0 1 0 1  f1 → f1 + (−3) f2  0 1 0 1 

5  −−−−−−−−−−−−−→  

5 

   

3

3

0 0 1 0 0 1 5 5


1. Sistemas de ecuaciones lineales

22

La solución a este sistema es el mismo que se obtuvo con la eliminación Gaussiana y es el mismo para el sistema de ecuaciones inicial, sólo que la solución en este último es más fácil de deducir.

  x1 + 3x2 − 3x3 = −1 1 3 −3

−1 2x1 − x2 + 3x3 = 2 →  2 −1 3

2  x1 + 2x2 − x3 = 0 1 2 −1 0

  x1 = 51 1 0 0

15

   

1 3 −3

−1 

1  

 2 −1 x2 = 51 3

2  →  0 1 0 

5 →

  0 1 2 −1

0 0 1 35 x3 = 53

Ejemplo 1.13 Resuelva el siguiente sistema de ecuaciones homogéneo usando notación matricial y teniendo en cuenta las operaciones elementales por fila. 2x1 x1 3x1

− − +

x2 2x2 x2

+ + −

La matriz de coeficientes aumentada sería:  2 −1 1  1 −2 1 3 1 −4

x3 x3 4x3

= 0 = 0 = 0

0

0 

0

Iniciamos intercambiando la primera y la segunda fila:

   2 −1 1

0 1  1 −2 1

0  f1 ⇆ f2  2 −−−−−→ 3 1 −4 0 3

−2 1 −1 1 1 −4

0

0 

0

Ahora procedemos de igual manera, usando las operaciones elementales por fila:

    1 −2 1

0 1 −2 1

0  2 −1 1

0  f2 → f2 + (−2)f1  0 3 −1

0  −−−−−−−−−−−−→ 3 1 −4 0 3 1 −4 0

    1 −2 1

0 1 −2 1

0  0 3 −1

0  3 −1

0  f3 → f3 + (−3)f1  0 −−−−−−−−−−−−→ 0 7 −7 0 3 1 −4 0

  1 −2 1

0

  

 1 −2 1

0  

1 1 

 0 3 −1 0  f2 → f2  0 1 −3 0   3

 0 7 −7 0 −−−−−−−−−→ 

0 7 −7 0


1. Sistemas de ecuaciones lineales

23

  1 −2 1 1

0  

 

1 − 31 f3 → f3 + (−7) f2  1 − 31

0   0 − − − − − − − − − − − − − →

 

7 −7 0 0 0 − 14 3

1 −2

   0   0

Como vemos, el sistema tiene solución trivial

0

0  

0

Ejemplo 1.14 Resuelva el siguiente sistema de ecuaciones usando notación matricial. x1 −8x1

− +

x2 x2

+ 3x3 − x3

= =

1 4

En este caso el sistema tiene más variables que ecuaciones, luego la matriz de coeficientes aumentada debe tener más columnas que filas:

1 −1 3

1 −8 1 −1 4 Procedemos a realizar la eliminación de Gauss-Jordan

1 −1 3

1 f → f2 + (8) f1 −8 1 −1 4 −2−−−−− −−−−−→ 

1

1 1 −1 3 1  f → − f 2 2 0 −7 23 4 7 0 −−−−−−−−−−−→

   1 −1 3

1

 f1 → f1 + (1) f2  

−−−−−−−−−−−→

−4 0 1 − 23 7 7

1 0

1

4  1  − 74

 − 27

37

−4 − 23 7 7

−1 3 −7 23

−1 3

1 − 23 7

1

0

0

1

El sistema tiene múltiples soluciones, luego el sistema asociado a la matriz seria de la siguiente forma:

  3 1 0 − 72

37 x1 − 72 x3 = 7

 →

−4 0 1 − 23 x2 − 23 = − 74 7 7 7 x3 De este podemos deducir x2 = 23 7 x3 − 4 . x − , x forma 37 + 72 x3 , 23 3 3 7 7

4 7

y x1 =

3 7

+ 72 x3 , luego la solución general sería de la

Los ejemplos anteriores muestran como encontramos la solución a sistemas de ecuaciones lineales usando la notación matricial y las operaciones elementales por fila. Esto se logra por que las operaciones elementales por fila transforman el sistema dado en un sistema más simple; al cual se le puede hallar una solución más fácil, pero ¿los nuevos sistemas encontrados usando las operaciones elementales por filas tiene las mismas soluciones que los sistemas de ecuaciones lineales originales?


1. Sistemas de ecuaciones lineales

24

.:Teorema 1.2 Al aplicar operaciones elementales por fila a un sistema de ecuaciones lineales, el nuevo sistema que se obtiene, tiene exactamente las mismas soluciones que el sistema de ecuaciones lineales original. Demostración: La siguiente demostración se basa en la encontrada en [3]. Dividiremos la demostración en tres casos, uno para cada operación elemental por fila. Tomemos un sistema de m ecuaciones lineales y n incógnitas a11 x1 a21 x1 .. .

+ + .. .

a12 x2 a22 x2 .. .

+ + .. .

ak1 x1 .. .

+ .. .

ak2 x2 .. .

+ .. .

am1 x1

+ am2 x2

+

... ... ··· ... ··· ...

+ + .. .

a1n xn a2n xn .. .

= = .. .

b1 b2 .. .

+ .. .

akn xn .. .

= .. .

bk .. .

+

amn xn

= bm

(1.10)

Caso fi → kfi : Ahora tomamos el sistema 1.10 y multiplicamos la fila k por α ∈ R y α 6= 0. a11 x1 a21 x1 .. .

+ + .. .

a12 x2 a22 x2 .. .

+ + .. .

αak1 x1 .. .

+ .. .

αak2 x2 .. .

+ .. .

am1 x1

+

am2 x2

+

... ... ··· ... ··· ...

+ + .. .

a1n xn a2n xn .. .

+ .. .

αakn xn .. .

+

amn xn

= = .. .

b1 b2 .. .

= αbk .. .. . . = bm

(1.11)

En este caso las ecuaciones ak1 x1 + ak2 x2 + . . . + akn xn = bk y αak1 x1 + αak2 x2 + . . . + αakn xn = αbk son equivalentes, por las propiedades de la igualdad, luego el sistema 1.10 y 1.11 tendría la misma solución. Caso fj → fj + kfi : Para el caso en donde se suma el múltiplo escalar de una fila a otra tendremos en cuenta lo siguiente: a11 x1 a21 x1 .. .

+ + .. .

a12 x2 a22 x2 .. .

+ + .. .

.. .

.. . + .. . +

.. .

.. . + .. . +

... ... ···

+ + .. .

(αak1 + al1 ) x1 + (αak2 + al2 ) x2 + al1 x1 .. . am1 x1

al2 x2 .. . am2 x2

··· ... ··· ...

.. . + .. . +

a1n xn a2n xn .. . + (αakn + aln ) xn .. . aln xn .. . amn xn

= b1 = b2 .. .. . . = αbk + bl .. .. . . = bl .. .. . . = bm (1.12)


1. Sistemas de ecuaciones lineales

25

De un lado, si x∗ = (x∗1 , x∗2 , x∗3 , . . . , x∗n ) es solución de 1.10, entonces se satisfacen ambas ecuaciones, la que esta en la posición k y la que esta en la posición l, es decir las siguientes igualdades se conservan: ak1 x∗1 + ak2 x∗2 + . . . + akn x∗n = bk y al1 x∗1 + al2 x∗2 + . . . + aln x∗n = bl Sumando ambas ecuaciones tenemos (αak1 + al1 ) x∗1 + (αak2 + al2 ) x∗2 + . . . + (αakn + aln ) x∗n = αbk + bl Luego x∗ también es solución de 1.12. De otro lado, si x∗ es solución de 1.12, entonces es solución de (αak1 + al1 ) x∗1 + (αak2 + al2 ) x∗2 + . . . + (αakn + aln ) x∗n = αbk + bl y de al1 x1 + al2 x2 + . . . + aln xn = bl restando ambas ecuaciones tenemos que αak1 x1 + αak2 x2 + . . . + αakn xn = αbk ∗

Luego x es solución de 1.10. Caso fi ⇄ fj : Este caso es obvio, pues al intercambiar dos filas no se altera las ecuaciones y por tanto la soluciones son iguales. Q.E.D. La importancia de este teorema radica en que, no importa el número de operaciones elementales por fila que hagamos a un sistema de ecuaciones lineales, la solución es igual para los sistemas que encontremos después de realizar dichas operaciones. Así, en el ejemplo 1.12 encontramos el sistema x1 2x1 x1

+ − +

3x2 x2 2x2

− 3x3 + 3x3 − x3

= −1 = 2 = 0

Si aplicamos eliminación Gaussiana, encontraremos el sistema equivalente x1

+3x2

−3x3

= −1

0

x2

− 97 x3

= − 47

0

0

x3

=

3 5

En el cual, podemos encontrar la solución de forma fácil, haciendo sustitución regresiva. Si aplicamos más operaciones elementales por fila encontraremos


1. Sistemas de ecuaciones lineales

26

x1 x2 x3

=

1 5

=

1 5

=

3 5

En el cual, no debemos hacer nada para hallar la solución, pues está explícita. Los tres sistemas de ecuaciones lineales tiene la misma solución, a dichos sistemas se les llama Sistema de ecuaciones lineales equivalentes.

1.5.2. Formas escalonadas para una matriz Toda matriz se puede reducir a las formas Forma escalonada reducida por renglones (FERR) o a la Forma escalonada por renglones. A continuación veremos como se diferencian. .:Definición 1.10 Forma escalonada reducida por renglones (FERR) Una matriz se encuentra escalonada reducida por renglones, si cumple las siguientes condiciones: 1. Todas las filas que sean nulas (si las hay) aparecen en la parte inferior de la matriz. 2. El primer número diferente de cero comenzando por la izquierda en cualquier fila no nula debe ser 1. 3. Si tenemos dos filas sucesivas no nulas, el primer 1 de la segunda fila debe estar más hacia la derecha que el 1 de la fila de arriba. 4. Toda columna que contiene el primer 1 (pivote) de una fila, debe tener ceros en el resto de la columna.

Ejemplo 1.15 Las siguientes matrices están en FERR  1 0 7  0 1 6 0 0 0

 8 8 , 0

1  0 0

 0 0 1 0  0 1

Ahora, la forma escalonada por renglones: .:Definición 1.11 Forma escalonada por renglones (FER)

Una matriz se encuentra escalonada por renglones, si cumple las siguientes condiciones 1,2 y 3 de la Forma escalonada reducida por renglones (FERR). Ejemplo 1.16


1. Sistemas de ecuaciones lineales

27

Las siguientes matrices están en FER  1 4 7  0 1 6 0 0 1

 8 8 , 0

1  0 0

 1 2 1 6  0 1

Asi entonces la eliminación de Gauss-Jordnan esta relacionada con con la forma FERR y la eliminación Gaussiana con la FER. Ejercicios 1.3 1. Representar matricialmente los siguientes sistemas de ecuaciones y resolver utilizando las operaciones elementales por fila a)

e) 3x1 + 2x2 + x3

=

6

2x1 − x2 + 4x3 x1 + x2 − 2x3

= =

−4 5

3x1 + 2x2

=

5

x1 + 3x2 + 2 =

0

x1 − x2 + x3

3x1 − 3x2 + 3x3

= 6 = 18

b) f) x1 + x2 − x3 + 2x4 3x1 + 2x2 + x3 + −x4

c) 2x1 + 4x2 + 6x3 4x1 + 5x2 + 6x3

= =

18 24

2x1 + 7x2 + 12x3

=

30

2x1 + 4x2 + 6x3

=

0

4x1 + 5x2 + 6x3 3x1 + x2 − 2x3

= =

0 0

= 3 = 5

g)

d) x1 − x2 + x3 − x4 −2x1 + 3x2 − x3 + 2x4 4x1 − 2x2 + 2x3 − 3x4

= =

−2 5

=

6

1.5.3. Matrices, vectores fila y columna Los vectores nacen del estudio de la física. Cuando tratamos de estudiar ciertos fenómenos, nos encontramos con cantidades a las que llamaremos magnitudes escalares, por ejemplo el peso o la distancia son magnitudes escalares, si tratamos de medir cuanto pesa un objeto, podemos esperar un valor fijo: pesa 90 kilos, mide 30 kilómetros etc. Sin embargo hay magnitudes en física que no se pueden atrapar con un solo valor, por ejemplo cuando planeas hacer algo con alguien, le decimos “nos vemos en el parque a las 10 a.m” en ese momento estamos trabajando con una variable que implica dos magnitudes, una de lugar (el parque) y otra de tiempo (10 a.m); a estas magnitudes se les llama vectoriales, debido a que la variable implica más de un valor. La siguiente sección nos concentraremos en la notación de los vectores y las matrices.


1. Sistemas de ecuaciones lineales

28

.:Definición 1.12 Vector Fila y Columna Un vector fila de n componentes es un arreglo ordenado de números de la siguiente forma: a = (a1 , a2 . . . an ) Un vector Columna de n componentes es un arreglo ordenado de la siguiente forma:   b1  b2    b= .   ..  bn

Los vectores fila y columna conforman las filas y las columnas de una matriz, es por ello que en algunas ocasiones reciben nombres y notaciones especiales. La notación para los vectores varía en muchos libros de texto, en algunos casos aparece con negrilla, por ejemplo si tenemos un vector a este aparecerá como a. En física es común que aparezcan con una flecha en la parte superior ~a o encerrada entre ángulos hai. Es este libro usaremos letras minúsculas para expresar los vectores y sus componentes, así por ejemplo, si tenemos: a = (a1 , a2 , . . . , an ) a sera el nombre del vector, y a1 , a2 ,...an serán las componentes del vector. En algunos casos es necesario destacar algunos componentes del vector, por ejemplo el primero o el tercero o el último. Si el vector es en vector fila hablaremos del i−ésimo componente, mientras que si es un vector columna hablaremos de un j−ésimo componente. Ejemplo 1.17 a = (5, 6, 9, 87, 3) Es un vector fila de cinco componentes, donde, por ejemplo, la tercera componente a3 = 9. Ahora bien   1  6   b=  0  4 Es un vector columna, donde b3 = 0.


1. Sistemas de ecuaciones lineales

29

.:Definición 1.13 Se dice que a es un vector nulo (bien se a fila o columna) si todos sus componentes son cero:   0  0    a = (0, 0, . . . , 0) o a= .   ..  0 Estos vectores generalmente se denotan con un cero, es decir podemos denotarlos usando el simbolo 0, pero este no se debe confundir con la magnitud escalar cero, que es un número real. .:Definición 1.14 Definición formal de matriz Una matriz es una arreglo rectangular de m · n componentes ordenados en m filas y n columnas de la siguiente forma:   a11 a12 · · · a1n  a21 a22 · · · a2n    A= . ..  .. ..  .. . .  . am1 am2 · · · amn Las matrices de denotan con letras mayúsculas, mientras que sus componente con letras minúsculas. Si tenemos la matriz A y nos referimos al nombre genérico de sus componentes usaremos la notación A = (aij ) que se lee “La matriz A de componentes aij ”. Si tenemos la componente aij estamos hablando que este elemento esta en la fila i y la columna j. Ejemplo 1.18 

2  2 A=  9 6

3 2 3 4

4 3 4 −1

 5 0  , 1  0

B=

2 −8 3 0

4 5 1 2

A es una matriz de 4 × 4, es decir, tiene 16 componentes en 4 filas y 4 columnas, de los cuales a34 = 1 y a13 = 4. La matriz B tiene dos filas y cuatro columnas, donde b22 =0. Podemos hablar de la i−ésima fila, por ejemplo la tercera de A sería (9, 3, 4, 1) o de la fila −8 j−ésima columna, por ejemplo la segunda fila de B sería . 0 Algunas matrices reciben nombres especiales:


1. Sistemas de ecuaciones lineales

30

.:Definición 1.15 Una matriz de tamaño n × n, es decir, el mismo número de filas y columnas, se llama matriz cuadrada   a11 a12 · · · a1n  a21 a22 · · · a2n    A= . .. ..  ..  .. . . .  an1 an2 · · · ann Estas matrices son muy usadas en la resolución de sistemas de ecuaciones lineales. .:Definición 1.16 Una matriz de tamaño m componentes son cero.  0  0  A= .  ..

× n, se llama matriz nula cuando todos sus 0 0 .. .

··· ··· .. .

0 0 .. .

0 0

···

0

    

De nuevo, debemos hacer claridad en la notación, podemos hacer uso del simbolo 0 para denotar la matriz nula, haciendo la diferencia con el cero de los números reales. .:Definición 1.17 Una matriz de tamaño n × n, se llama matriz diagonal, cuando las componentes a11 , a22 , a33 , . . . , ann son distintos de cero, las demás componentes son cero.   a11 0 · · · 0  0 a22 · · · 0    A= . . ..  . .. ..  .. .  0 0 · · · ann Es importante destacar que de ahora en adelante “manipularemos” las matrices como si fuesen números, por esta razón, debemos saber cuando dos matrices son iguales: .:Definición 1.18 Dos matrices A = (aij ) y B = (bij ) son iguales sí: 1. Tienen el mismo tamaño. 2. ∀i, j

aij = bij , es decir, todas sus correspondientes componentes son iguales.

Ejemplo 1.19

A=

2 5 7 −1

,

√ 4 B= 7

5 −1

,

 1 5 C = 1 7  −3 1

Las matrices A y B son iguales, porque tienen iguales sus correspondientes componentes. Mientras que la matriz C no tiene ni el tamaño adecuado, ni coinciden sus correspondientes


1. Sistemas de ecuaciones lineales

31

componentes. Nota: Es de resaltar, que tanto en los vectores como las matrices es importante el orden, así por ejemplo, a = (1, 2, 3) es muy distinto de b = (3, 2, 1), de igual forma con las matrices.

1.6. Suma de matrices y multiplicación por escalar Esta es la primera operación elemental que se puede realizar con matrices. .:Definición 1.19 Suma de Matrices: Si tenemos dos matrices A = (aij ) y B = (bij ) ambas de tamaño m × n, La suma de A y B denotada como (A + B) también de tamaño m × n,de se define como: A+B

=

(aij + bij )

=

    

a11 + b11 a21 + b21 .. .

a12 + b12 a22 + b22 .. .

a13 + b13 a23 + b23 .. .

··· ··· .. .

a1n + b1n a2n + b2n .. .

am1 + bm1

am2 + bm2

am3 + bm3

···

amn + bmn

    

En la suma de matrices, se suman las correspondientes componentes para obtener la nueva matriz que debe tener el mismo tamaño de las matrices originales. Ejemplo 1.20

A=

6 7

4 −2

,

B=

5 −7 2 3

 4 −7 C =  0 −7  3 −2

,

Podemos hacer la operación A + B A+B =

11 −3 9 1

Sin embargo, A + C y B + C no están definidas, debido a que tiene tamaños diferentes. Ejemplo 1.21 Realizar la operación A + B y B + A si   6 −1 A =  4 1 , 2 0

Veamos los dos resultados:

0 B =  −1 7

 7 4  1


1. Sistemas de ecuaciones lineales

32

  6 −1 A+B = 4 1 + 2 0    0 7 B + A =  −1 4  +  7 1

  0 7 −1 4  =  7 1   6 −1 4 1 = 2 0

 6 6 3 5  9 1  6 6 3 5  9 1

.:Definición 1.20 Sea A = (aij ) una matriz de tamaño m × n y α un escalar (un número real) , el producto escalar αA se define como:   αa11 αa12 . . . αa1n  αa21 αa22 . . . αa2n    αA = (αaij ) =   .. .. . . ..   . . . . αam1

αam2

...

αamn

En la multiplicación por escalar, se multiplica la constante por cada uno de los componentes de la matriz.

Ejemplo 1.22 Sea α = −2, realice el producto αA sí: 

Multiplicando aαA se tiene que:

 6 −2 4 A =  2 8 −1  4 6 0 

 −12 4 −8 αA =  −4 −16 2  −8 −12 0

.:Definición 1.21 Diferencia de matrices

Sea A = (aij ) y B = (bij ) matrices de tamaño m × n y α = −1 un escalar, la diferencia entre A y B se define de la siguiente forma: A − B = A + (−1)B La diferencia entre matrices se realiza con respecto a la multiplicación por escalar, es decir , la segunda matriz se multiplica por el escalar −1 y posteriormente se suman las matrices. Ejemplo 1.23


1. Sistemas de ecuaciones lineales

33

Sea 

 6 a =  −1  4

 −7 b= 4  3

y

Realice el producto: 4a − 3b: 4a − 3b

   6 −7 = 4  −1  + (−3)  4  4 3       24 21 45 =  −4  +  −12  =  −16  16 −9 7

.:Teorema 1.3 Sean A, B y C matrices de tamaño m × n y α,β escalares. Entonces: 1. A + B = B + A Ley asociativa de la suma de matrices 2. A + 0 = 0 + A = A, elemento neutro de la suma de matrices 3. 0A = 0 4. (A + B) + C = A + (B + C), propiedad asociativa de la suma de matrices. 5. α(A + B) = αA + αB, propiedad distributiva de la multiplicación por escalar frente a la suma de matrices. 6. 1A = A, elemento neutro de la multiplicación por escalar. 7. (α + β)A = αA + βA Demostración: Para este teorema, demostraremos los puntos 1 y 3: Parte 1: Si tenemos que A = (aij ) y B = (bij ), entonces A+B

= aij + bij 

  =   

a11 a21 .. .

a12 a22 .. .

... ... .. .

a1n a2n .. .

am1

am2

...

amn

a11 + b11  a21 + b21  =  ..  . am1 + bm1

a12 + b12 a22 + b22 .. . am2 + bm2

    +  

b11 b21 .. .

b12 b22 .. .

... ... .. .

b1n b2n .. .

bm1

bm2

... 

bmn

... ... .. .

a1n + b1n a2n + b2n .. .

...

amn + bmn

   

    


1. Sistemas de ecuaciones lineales

34

Ahora bien, si utilizamos la propiedad conmutativa de los números reales en cada una de las componentes de la matriz A + B, tendíamos que aij + bij = bij + aij , con lo cual:

         

a11 + b11 a21 + b21 .. .

a12 + b12 a22 + b22 .. .

... ... .. .

a1n + b1n a2n + b2n .. .

am1 + bm1

am2 + bm2

...

amn + bmn

b11 + a11 b21 + a21 .. .

b12 + a12 b22 + a22 .. .

... ... .. .

b1n + a1n b2n + a2n .. .

bm1 + am1

bm2 + am2

...

bmn + amn

Ahora, aplicamos la definición 1.19 y tenemos  b11 + a11 b12 + a12 . . .  b21 + a21 b22 + a22 . . .   .. .. ..  . . . bm1 + am1 bm2 + am2 . . .

b1n + a1n b2n + a2n .. . bmn + amn

    

=

     

  =B+A 

Q.E.D

Parte 2: 0A = 0. En este caso, el cero que multiplica la matriz A es el escalar cero, es decir, el número real, mientras que el cero que esta después del igual hace referencia a la matriz nula del mismo tamaño de A. Si A = (aij ), entonces: 

  0A = (0)   

  =  

a11 a21 .. . am1

a12 . . . a22 . . . .. . . . . am2 . . .

a1n a2n .. . amn

0a11 0a21 .. .

0a12 0a22 .. .

... ... .. .

0a1n 0a2n .. .

0am1

0am2

...

0amn

    

    

Ahora bien, sabemos que los números reales cumplen que a0 = 0a = 0 ∀a ∈ R , luego, la matriz = 0A, quedaría:


1. Sistemas de ecuaciones lineales

    

0a11 0a21 .. . 0am1

35

0a12 . . . 0a22 . . . .. . . . . 0am2 . . .

0a1n 0a2n .. . 0amn

    

  =  

0 0 0 0 .. .. . . 0 0

= 0

... ... .. .

0 0 .. .

...

0

    

La matriz nula

Ejemplo 1.24 Sea A y B definidas como: 

1 0 A= 1 8 9 1

Es fácil ver que A + B = B + A

A+B

=

= De igual manera

B+A =

=

 3 −1  1

y

2 0 B= 2 8 −1 2

 7 1  1

   3 2 0 7 −1  +  2 8 1  1 −1 2 1  10 0  2

 3 −1  1

1 0  1 8 9 1  3 0  3 16 8 3

  2 0 7 1 0  2 8 1 + 1 8 −1 2 1 9 1   3 0 10  3 16 0  8 3 2

1.7. Multiplicación de matrices y vectores La multiplicación de matrices, es uno de los aspectos más importantes en el álgebra lineal, de igual manera como lo es la multiplicación de números reales en la aritmética. En esta sección, además de mostrar el algoritmo de multiplicación de matrices, nos aproximaremos a la relación entre esta operación y la resolución de sistemas de ecuaciones lineales.


1. Sistemas de ecuaciones lineales

36

1.7.1. Producto escalar El producto escalar o producto punto, es la primera etapa para aproximarnos al concepto de multiplicación de matrices. .:Definición 1.22 Producto escalar     v1 u1  v2   u2      Sea u =  .  y v =  .  vectores de tamaño n,el producto escalar esta definido como:  ..   ..  un

vn

u·v

=

=

u1 v1 + u2 v2 + u3 v3 + · · · + un vn n X

ui vi

i=0

Q.E.D La definición de producto escalar, nos pone de manifiesto que el producto escalar se puede ver como una función Rn ×Rn −→ R, es decir se toman dos vectores en Rn y genera un número real. De otro lado, la definición no distingue entre vector fila o columna, es decir, se pueden multiplicar dos vectores fila o dos vectores columna o un vector fila y un vector columna.

Ejemplo 1.25  4  3  Sea u =  3 1

  y v = (2, −1, 9, 3), entonces:  u·v

Ejemplo 1.26

 4  3    · (2, −1, 9, 3)  3  1

=

= =

4 · 2 + 3 · (−1) + 3 · 9 + 1 · 3 8 + (−3) + 27 + 3

=

35


1. Sistemas de ecuaciones lineales  7  0   Sea u =   0 yv= 3 

37

5, 1, −4, 8 , entonces:

u·v

 7  0   ·  0  3

=

= =

7 · 5 + 0 · 1 + 0 · (−4) + 3 · 8 35 + 0 + 0 + 24

=

5, 1, −4, 8

59

.:Teorema 1.4 Sean u,v y w vectores de tamaño n y α un escalar. 1. u · v = v · u 2. u · 0 = 0 3. u · (v + w) = u · v + u · w 4. (αu) · v = α (u · v) Demostración: Para este teorema, demostraremos los puntos 1 y 2: Parte 1: u · v = v · u. Sin perder generalidad podemos asumir el vector u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ) dos vectores de tamaño n. Entonces: u · v = u1 v1 + u2 v2 + · · · + un vn Ahora, aplicamos la propiedad conmutativa de la multiplicación de números reales, entonces ui vi = vi ui i = 1, 2, . . . , n u·v

= =

v1 u1 + v2 u2 + · · · + vn un v·u

Q.E.D Parte 2: u · 0 = 0 Debemos tener presente que el cero que multiplica al vector u representa el vector nulo, mientras que el cero que está después del igual es el cero real.


1. Sistemas de ecuaciones lineales

38

u·0 =

u1 0 + u2 0 + u3 0 + · · · + un 0

=

0 + 0 + ···+ 0

=

0

Q.E.D

1.7.2. Multiplicación de matrices Definido el producto escalar, procederemos a definir el producto entre matrices: .:Definición 1.23 Producto entre matrices Sea A = (aij ) una matriz de tamaño m × n y B = (bij ) una matriz de tamaño n × p, el producto entre A y B es una matriz C = (cij ) de tamaño m × p tal que: cij = (fila i de A) · (Columna j de B) de igual manera cij

=

=

ai1 b1j + ai2 b2j + · · · + ain bnj n X

aik bkj

k=1

Observaciones: 1. Los tamaños de las matrices son importantes, en este caso el número de columnas de la primera matriz debe coincidir con el número de columnas de la segunda matriz, cuando los tamaños coinciden se dice que las dos matrices son compatibles bajo la multiplicación. 2. La definición de multiplicación de matrices nos dice que la componente ij-esima de C es el producto escalar entre la la fila i de A y la columna j de B, es necesario que el estudiante tenga presente que cuando hablamos de cij , nos referimos a cualquier componente de C que es la multiplicación entre A y B. Ejemplo 1.27 2 6 4 Sea A = yB = 3 1 1 C

−7 2

, el producto AB = C

= AB 2 = 3

6 1

4 · 1

−7 2

Analicemos las componentes de C, tomemos c11 = (fila 1 de A) · (Columna 1 de B), esto nos indica que es el producto escalar entre la fila 1 de A y la columna 1 de B.


1. Sistemas de ecuaciones lineales

c11

39

2 6

=

·

4 1

= 8 + 6 = 14

La componente c12 = (fila 1 de A) · (Columna 2 de B) c12

2

=

6

·

−7 2

= −14 + 12 = −2

La componente c21 = (fila 2 de A) · (Columna 1 de B) c21

3 1

=

·

4 1

= 12 + 1 = 13

La componente c22 = (fila 2 de A) · (Columna 2 de B) c22 De esta forma C = AB =

=

3

1

14 −2 13 −19

·

−7 2

= −21 + 2 = −19

Ejemplo 1.28 

3 9 Multiplicación de matrices de tamaños diferentes: sea A =  5 1 4 7   1 0  2 1     0 3  , el producto AB sería:    4 2  1 0   1 0    2 1  3 9 8 7 4    0 3    5 1 2 8 2 AB =    4 2  4 7 1 2 3 1 0   53 47 =  41 23  29 14

8 7 2 8 1 2

 4 2  y B = 3

Observe que la matriz A es de tamaño 3 × 5 y la matriz B = 5 × 2, coinciden el numero de columnas de A con el número de filas de B, la matriz resultante es de tamaño 3 × 2, es decir, tres filas de A y dos columnas de B.


1. Sistemas de ecuaciones lineales

40

1.7.3. Ley Asociativa en el producto de matrices El producto de matrices cumple con la ley asociativa: .:Teorema 1.5 Sean A = (aij ) de tamaño n × m y B = (bij ) de tamaño m × p, y C = (cij ) una matriz de p × q, entonces se cumple que A(BC) = (AB)C Teniendo en cuenta que el tamaño de la matriz resultante es de n × q. Demostración: Vemos que es fácil determinar los tamaños de las matrices a ambos lados de la ecuación es de n×q An×m (Bm×p Cp×q )m×q = (An×m Bm×p )n×p Cp×q | {z } | {z } n×q

n×q

Ahora veremos que pasa con las componentes ij−ésimas de cada producto. Tomemos D = (dij ) siendo D = AB, de acuerdo a la definición 1.23, entonces: dij =

m X

k=1

aik bkj = ai1 b1j + ai2 b2j + · · · + aim bmj

Ahora bien, si tomamos (AB) C = DC su componente ij−ésima sería: p X

dir crj

=

p m X X r=1

r=1

=

aik bkr

k=1

|

{z

dir

p m X X

!

crj

}

aik bkr crj

k=1 =1

Ahora definimos E = (eij ), tal que E = BD, entonces ekj =

p X

bkr crj

r=1

Haciendo un análisis similar al anterior m X

aik ekj

=

k=1

p m X X

=

aik bkr

r=1

k=1

|

p m X X k=1 r=1

{z

ekj

! }

aik bkr crj

crj


1. Sistemas de ecuaciones lineales

41

Estos dos procedimientos, nos muestran que la componente ij−ésima de (AB) C es igual a la componente ij−ésima de A (BC). Q.E.D Ejemplo 1.29 Sea A = (AB) C = A (BC)

2 5 7 1

, B =

1 3

4 1

y C =

7 3

9 5

9 5

, verifique que

Veamos (AB) C

(AB) C

=

2 5 7 1

17 13 10 29

=

158 218 157 235

A (BC) =

2 5 7 1

158 218 157 235

=

1 4 3 1

7 9 3 5

1 4 3 1

7 3

Veamos A (BC)

= =

2 5 7 1

19 29 24 32

7 3

9 5

1.7.4. Ley distributiva de la multiplicación de matrices .:Teorema 1.6 Sean A = (aij ), B = (bij ) y C = (cij ) matrices en los cuales las siguientes sumas y productos están definidos A(B + C) =

AB + AC

(A + B)C

AC + BC

=

Demostración: Tomaremos la primera parte: A(B + C) = AB + AC Supongamos que A es de tamaño n × m y B y C matrices de tamaño m × p. En la parte inicial de la igualdad aparece la matriz B + C, iniciaremos con la componente ij-ésima de esta matriz, la cual notaremos como bkj + ckj , Ahora bien, esta matriz esta multiplicada por la matriz A, para determinar la propiedad, empezaremos con la componente ij-ésima del producto A(B + C)


1. Sistemas de ecuaciones lineales

42

m X

aik (bkj + ckj )

k=1

Esta ecuación es la componente ij-ésima de A(B + C), lo que hacemos ahora es aplicar la ley distributiva de la suma de los números reales a la parte interna de la sumatoria. m X

m X

aik (bkj + ckj ) =

k=1

k=1 m X

=

aik bkj + aik ckj aik bkj +

k=1

=

m X

aik cik

k=1

AB + AC

la segunda parte del teorema se demuestra de forma similar.

Ejemplo 1.30 Sea A = A(B + C) = AB + AC

2 5 7 1

, B =

1 3

4 1

y C =

7 3

Q.E.D 9 , verifique que 5

Tomemos la primera parte del teorema A(B + C)

A(B + C)

= = =

2 5 7 1 2 5 7 1

46 56 62 97

1 4 3 1

8 13 6 6

+

7 9 3 5

Ahora, verificamos la segunda parte del teorema

AB + BC

= = =

1 4 2 5 7 9 + 3 1 7 1 3 5 17 13 29 43 + 10 29 52 68 46 56 52 97 2 5 7 1

Ejercicios 1.4 1. Dadas las matrices: A = −4 6 8 , encuentre 10 −1 13

2 −1 0 1

5 −2

, B

=

−3 −4 2 5 −1 −7

,C

=


1. Sistemas de ecuaciones lineales

43

a) A + B b) 4A c) 3A − 2B − 4C

d) 4(A + B) − 2(B − C)

e) 8(A + B − C) − 2(B + C)

f ) Encuentre una matriz D tal que A + B − C + D sea la matriz cero de orden 2 × 3

g) Una Matriz E tal que A + 2B − C + 3E sea la matriz cero de orden 2 × 3   −1 2 3 2 −3 5 7 2. Para las matrices A =  0 5 −2 , B = y C = 1 5 0 9 3 0 1 determinar:

−9 −7

a) A−1 b) D, si AB t C = D c) DA = B 3. Realice las operaciones matriciales, de acuerdo a: 4. A =

1 0 0 1

2 0 1 1

1 −1

a) 4At − 3C

3 −1 2 3 ,B = ,C = 9 1 4 2

−1 0

 1 3 , D =  −1 0 , E = −1 4

t

b) (B − 2E) c) (DE)t

d) A2 − A − 6I3 5. Un cinema tiene 4 salas de I a IV. El precio de cada función es de US $ 20 por niño; US $ 30 por estudiante y US $ 40 por adulto. La asistencia a una proyección está dada por la matriz:   Sala 1 225 110 50  75 180 225  Sala 2    280 85 110  Sala 3 Sala 4 10 250 225 Las columnas representan, respectivamente niños, estudiantes y adultos.

a) Escriba una matriz columna, que represente el precio de la entrada por sala. b) Calcule la matriz que representa el ingreso bruto de cada sala. c) Encuentre el ingreso total por concepto de entradas a cada función.


1. Sistemas de ecuaciones lineales

44

6. Dada las matrices: 

 2 −α −1 0 −1  A= 3 −1 −1 −2

a) Hallar A + C

y

β C= 2 α

 −2 1 β β  0 β

b) ¿Para cuál valor de α la matriz A es simétrica? c) ¿Para cuáles vales de α y β la matriz C es es Antisimétrica? d) ¿Para cuáles valores de α y β, la matriz A + C es triangular inferior? 7. Pruebe que el elemento neutro para la suma de matrices en Rm×n es único, es decir, si 0 y 0′1 son tales que para toda matriz A ∈ Rm×n A + 0 = 0 + A = A y A + 0′ = 0′ + A = A, entonces 0 = 0′ 8. Dado que: 

  π    4 8 2 a =  1 , b =  1  y c =  1  −1 4 3

9. Realice las siguientes operaciones a) 23 a . 45 b b) (b).(3c − a)

c) 2a.(3b + c) d) (πa − 4c).(b − a)

e) 4c.(−a + 2b)

10. Realice los cálculos indicados a)

e)

4 3 −1 2

4 1 . 5 6

b)

0.325 0.25

−0.254 0.254

52 . 11

55 212

f)

c)

1 2

−6 −4 5 . 5 7 3

1 En

4 5  1 4 . 5 5 2 −2 −2 1

1 5

este caso los ceros 0, representan la matriz nula

3 2 −6 4

1 −2 0 6

g)

d) 

  2 −3 5 1 4  1 0 6  .  −2 3 2 3 1 1 0

1

4 0

 6 5  4

 1  4   .  0  2

 3 −6  2 4   2   1 0  −2 3 


1. Sistemas de ecuaciones lineales

45

h) 

a  d g

  b c 1 0 0 e f  0 1 0  h i 0 0 1 a, b...h, i ∈ R

a b tal que: c d 0.31 0.21 1 A· = −0.92 0.36 0

11. Encuentre una matriz A =

a b 12. Si A = c d 0 0 A2 = 0 0

0 1

, encuentre las componentes a, b, c y d 6= 0 tal que se cumpla que

13. Verifique la ley asociativa si:

A=

2 −1 4 1 0 6

1 ,B =  2 3

 0 1 −1 2  −2 0

 1 6 C =  −2 4  0 5

y

14. Se dice que dos vectores a y b son ortogonales si a · b = 0, determine cuales pares de vectores son ortogonales. a)

b)

2 −3 2 −3

3 2 −3 2

c)

  1 2  4  3  −7 2

d) 1

0

1

0

.

0

1

0

1

15. Si tenemos que: 

Calcule A2 , A3 y A4

 1 −1 1 A= 2 1 5  0 0 4

16. Una matriz A de n× n tiene la propiedad de que AB es la matriz cero para cualquier matriz B de n × n. Pruebe que A es una matriz cero. 17. Encuentre al sistema no homogéneo dado, encontrando primero una solución (si es posible) y después todas las soluciones al sistema homogéneo asociado:


1. Sistemas de ecuaciones lineales

46

a)

d) −8x1 + 4x2 −x1 + 4x2

= 1

x1 − x2 + x3 3x1 − 3x2 + 3x3

= 0

b) 4x1 + 5x2 − 7x3 3x1 − 6x2 − x3

2x1 + 9x2 − 9x3

= =

−1 3

=

1

e) 4 2 x1 − x2 − 5 3 6 x1 − x2 + 5 9 5 x1 + x2 7 7

c) x1 + x2 − x3 + 2x4 3x1 + 2x2 + x3 − x4

= 6 = 18

= 3 = 5

6 x3 7 5 x3 7

=

1

=

1

=

3

1.8. La transpuesta de una matriz .:Definición 1.24 Sea A una matriz de tamaño m × n. La matriz transpuesta, denotada con At está dada por (At )ij = Aji 

  A= 

a11 a21 .. .

a12 a22 .. .

... ... .. .

a1n a2n .. .

am1

am2

...

amn

con 1 ≤ i ≤ n     

y

1≤j≤m

y

  At =  

a11 a12 .. .

a21 a22 .. .

... ... .. .

an1 an2 .. .

a1m

a2m

...

anm

    

Es decir, es la matriz que se obtiene al intercambiar las filas por las columnas de A. La matriz At tiene tamaño n × m. Para encontrar la matriz transpuesta sólo debemos cambiar el orden de las componentes, es decir, si tenemos un 5 en la componente a32 , al realizar la transpuesta este número estaría en la posición a23 . Ejemplo 1.31 Encuentre la transpuesta de las siguientes matrices   5 −5 2    2 2 5 6 3 0     A =  −4 −8 1  , B =  3 1 1  , C =  −1 2 −2 3 2 7  2 7 8 

2 At =  5 6

 −4 2 −8 −2  1 3

2 5

6


1. Sistemas de ecuaciones lineales

47

Al hallar At se puede ver que la componente a13  5 2 B t =  −5 3 2 0

= 6, en At que daría en la posición a31 .  3 −1 2 1 2 7  1 7 8

Al hallar B t podemos observar que el tamaño de la matriz cambia, siempre que ésta no sea t cuadrada, en este caso B5×3 y B3×5 .   2 Ct =  5  6 En este caso, C es un vector fila y C t es un vector columna.

Otra característica importante de la matriz transpuesta es la relacionada con la diagonal. Si observamos la diagonal de A y At son iguales. Éste fenómeno ocurre debido a la misma definición de transpuesta, pues aij = aji .

1.8.1. Propiedades de la matriz transpuesta .:Teorema 1.7 Sea A = (aij ) una de tamaño n × m y B = (bij ) de tamaño m × p, entonces t

1. (At ) = A. 2. (A + B)t = At + B t si A y B son del mismo tamaño. t

3. (kA) = kAt con k ∈ R. t

4. (AB) = B t At . 5. Si A es invertible, entonces At es invertible y además (At )−1 = (A−1 )t . Demostración: 1. Es fácil ver que cualquier componente de aij al transponerse pasa a la posición aji , luego al transponer de nuevo vuelve a la posición aij . 2. Sea A y B de tamaño m × n dadas de la siguiente forma 

  A= 

a11 a21 .. .

a12 a22 .. .

... ... .. .

a1n a2n .. .

am1

am2

...

amn

Si hallamos la suma obtenemos: 

  A+B =  

    

  y B= 

b11 b21 .. .

b12 b22 .. .

... ... .. .

b1n b2n .. .

bm1

bm2

...

bmn

a11 + b11 a21 + b21 .. .

a12 + b12 a22 + b22 .. .

... ... .. .

a1n + b1n a2n + b2n .. .

am1 + bm1

am2 + bm2

...

amn + bmn

    

    


1. Sistemas de ecuaciones lineales

48

Ahora hallamos la transpuesta de la suma 

  (A + B)t =  

a11 + b11 a12 + b12 .. .

a21 + b21 a22 + b22 .. .

... ... .. .

am1 + bm1 am2 + bm2 .. .

a1n + b1n

a2n + b2n

...

amn + bmn

Ahora podemos separar de nuevo las variables  (A + B)t

a11 a12 .. . a1m

=

   

=

At + B t

a21 a22 .. . a2m

... ... .. . ...

an1 an2 .. . anm

    +  

b11 b12 .. . b1m

b21 b22 .. . b2m

... ... .. . ...

    

bn1 bn2 .. . bnm

    

3. Se deja como ejercicio al lector 4. Sea A = (aij ) de n × m y B = (bij ) de m × p, entonces (AB)t = B t At .

Teniendo en cuenta los tamaños de A y B, debemos analizar el tamaño de las matrices para garantizar que el producto este definido. El tamaño de AB es n × p, luego el tamaño de (AB)t es de p × n. B t es de p × m y At es de m × n, luego, B t At es de p × n. Ésto nos dice que la multiplicación es viable. Ahora bien, veamos el componente ij−ésimo de AB m X

aik bkj

k=1

éste, a su vez, es la componente ji−ésimo de (AB)t . Ahora, tomemos C = B t y D = At , si C = (cij ), siendo cij = bji , y si D = (dij ) entonces dij = aji . El elemento ji de CD es DC = B t At =

m X

cjk dki =

k=1

m X

k=1

ckj dik =

m X

cik dkj

k=1

que es el elemento ji− ésimo de (AB)t . 5. Ver la demostración del teorema 1.14 Q.E.D .:Definición 1.25 Sea A una matriz de n × n, se dice que A es simétrica cuando aij = aji para todo i, j = 1, 2, 3 . . . n. Es decir, cuando A = At


1. Sistemas de ecuaciones lineales

49

En este caso, la simetría se da con respecto a la diagonal principal. Éste tipo de matrices es muy común en teoría de grafos, en la elaboración de matriz de adyacencia. El siguiente ejemplo muestra su uso. Ejemplo 1.32 Sea G el siguiente grafo no dirigido. 3

A

3

6

B

C

5

4 3 D

E

Encuentre la matriz de adyacencia del grafo G y determine si es simétrica. La matriz de adyacencia se construye ubicando como filas y columnas los nodos del grafo G, las posiciones correspondientes a la diagonal se llenan con cero, pues la distancia entre un nodo y el mismo es cero. Luego, la posición a12 corresponde a la distancia entre el nodo A y el nodo B, la cual es tres. De la misma manera, la posición a21 se llena con la distancia entre el nodo B y el nodo A, que es , tres. De la misma forma se realiza para todos los nodos.   A B C D E  A 0 3 3 4 0     B 3 0 0 0 6   MG =   C 3 0 0 3 5     D 4 0 3 0 0  E 0 6 5 0 0

Podemos ver que la matriz MG es simétrica, pues es igual decir que hay 5 unidades entre los nodos C y E y los nodos E y C. .:Definición 1.26 Sea A una matriz de n × n, se dice que A es antisimétrica o hemisimétrica cuando aij = −aji para todo i, j = 1, 2, 3 . . . n. Es decir, cuando A = −At Ejemplo 1.33 La matriz A es antisimétrica


1. Sistemas de ecuaciones lineales

50

 0 −8 2 −3  8 0 −4 −1   A=  −2 4 0 3  3 1 −3 0

Note que todos los elementos de la diagonal principal son cero. Ahora obtenemos la transpuesta de la matriz.   0 8 −2 3  −8 0 4 1   At =   2 −4 0 −3  −3 −1 3 0

Podemos ver que A = −At . Ejercicios 1.5

1. Dadas las matrices: A = −4 6 8 , encuentre 10 −1 13 a) b) c) d)

At − 2B t 5At + B t + C t At − 5B t + C t 4 (At + B t ) t + 3(4B − 5C) t

2 −1 0 1

5 −2

, B

=

−3 −4 2 5 −1 −7

,C

t

e) 15 (At + B t − C t ) + 5 (B t + C t )

2. Sean A y B matrices de orden m × n y λ un escalar, probar que: t

a) (At ) = A b) (A + B)t = At + B t c) (λA)t = λAt 3. Para cada condición dada, hallar una matriz A que satisfaga: a) b) c) d)

A es a la vez triangular superior y triangular inferior. A es a la vez simétrica y Antisimétrica At = A At = −A

4. Sean A y B matrices cuadradas de orden n, probar: a) Si A es simétrica, entonces, para todo escalar λ, λA es matriz simétrica. b) Si A es antisimétrica, entonces, para todo escalar λ, λA es matriz antisimétrica. c) Si A y B son simétricas, entonces A + B es simétrica 5. Pruebe que An×n es una matriz simétrica, At A también es simétrica 6. Encuentre la traspuesta de las matrices dadas:

=


1. Sistemas de ecuaciones lineales a)

b)

c)

d)

1 2  −1 0 1 5

e)

−1 4 6 5 3 0 1 2

51

 3 4  5

8  9   2 7

7 6 2 0

4 8 5 2

 6 1   4  0

4 6 1 2

1 4 4 3

 2 1   0  5

f) 5  3   0 1

 1 2 3  2 4 −5  3 −5 7

7. Sea A de n × n. Demuestre que la matriz 12 (A + At ) es simétrica. 8. Sea A de n × n. Demuestre que la matriz 21 (A − At ) es antisimétrica. 9. Demuestre que cualquier matriz cuadrada se puede escribir de una manera única como la suma de una matriz simétrica y una matriz antisimétrica. 10. Dadas las siguientes matrices a)

3 2 A= 0 2 0 0

b)

 1 2  −1

1 1 A= 0 2 5 5

 1 3  1

muestre que (At )−1 y (A−1 )t son iguales

1.9. La inversa de una matriz Cuando estudiamos el curso de aritmética, nos encontramos con una propiedad de los números reales llamada inverso multiplicativo. Un número a tiene un inverso multiplicativo denotado como 1 −1 , al multiplicar dicho numero a por su inverso el resultado siempre es 1. a oa Esta propiedad de los números reales no sólo es usada en aritmética, en el álgebra se usa para resolver ecuaciones lineales simples. Supongamos que tenemos la siguiente ecuación: 3x = 18

(1.13)

La ecuación anterior nos puede parecer fácil de resolver. Si usamos la propiedad del inverso multiplicativo de los números reales, podremos encontrar el valor de x. Ahora, procedemos a multiplicar por 13 (el inverso multiplicativo de 3) a ambos lados de la ecuación: 1 1 3x = 18 3 3


1. Sistemas de ecuaciones lineales

52

obtendremos (1)x

= 6

x

= 6

(1.14)

Este ejemplo, muestra como una propiedad tan simple nos permite resolver ecuaciones que eventualmente pueden ser mas complejas. De igual manera, en Álgebra lineal se presenta una situación muy parecida. En este caso tenemos el siguiente sistema: AX = b

(1.15)

Donde A es una matriz de coeficientes, X es un vector de incógnitas y b es el vector de términos independientes. Hasta ahora, hemos aplicado métodos como la eliminación Gaussiana y el método de Gauss-Jordan para resolver la ecuación (1.15). Pero ahora, veremos que para resolver este tipo de ecuaciones, sólo necesitamos encontrar (como en el caso de 3 en la ecuación (1.13)) la inversa de la matriz A. .:Definición 1.27 Matriz Identidad: Una matriz Identidad de tamaño n × n, es una matriz en la que todos los elementos de la diagonal principal son unos, los elementos por fuera de la diagonal son cero. Los siguientes son ejemplos de matrices identidad Ejemplo 1.34 Matrices identidad

I1 = 1, I2 =

1 0 0 1

1 0 , I3 =  0 1 0 0

  0   0  , . . . , In =   1 

1 0 0 .. . 0

0 0 1 0 0 1 .. .. . . 0 0

... ... ... .. .

0 0 0 .. .

...

1

      

Dicho de otra manera, podemos decir que si In es una matriz de componentes (aij ) entonces podemos decir: 1 Si i = j In = (aij ) = 0 Si i = 6 j Ahora bien, para comprender mejor la importancia de la matriz identidad veremos el siguiente teorema: .:Teorema 1.8 Sea A una matriz cuadrada de tamaño n × n e In la matriz identidad de tamaño n × n. Entonces AIn = A y In A = A


1. Sistemas de ecuaciones lineales

53

Demostración: Tomemos A = (aij ) e In = (kij ) y supongamos que C = (cij ) de modo que C = AIn . Ahora bien, si C es el producto de A e In entonces cualquier elemento de C se puede expresar de la siguiente forma: cij = ai1 k1j + ai2 k2j + · · · + aij kjj + · · · + ain knj

(1.16)

Si analizamos esta expresión, veremos que los elementos kij de In son cero excepto los elementos que están en la diagonal, es decir, kjj = 1. Si retomamos la ecuación (1.16). teniendo en cuenta el análisis anterior: cij = ai1 k1j + ai2 k2j + · · · + aij kjj + · · · + ain knj | {z } | {z } | {z } | {z } 0

0

aij (1)

0

tenemos entonces que

cij = aij Lo que quiere decir que C = A, es decir que AIn = A. Q.E.D. De igual forma podemos demostrar que In A = A Al observar que la matriz identidad, vemos que es el elemento neutro de la multiplicación de matrices. Esto quiere decir que el producto de cualquier matriz por la matriz identidad (siempre que este definido el producto) es la misma matriz. La siguiente definición es clave para muchos temas de ahora en adelante. .:Definición 1.28 La inversa de una Matriz: Sean A y B dos matrices de tamaño n × n, y suponga que AB = BA = In Luego B es la inversa de A (también podemos decir que A es la inversa de B) y la denotaremos como A−1 , tendríamos que AA−1 = A−1 A = In Diremos que si A tiene inversa entonces se dice que A es invertible o no singular. Si A no tiene inversa se le llama singular. Cuando hablamos de matrices invertibles, nos referimos a todas aquellas matrices a las cuales podemos obtenerle su inversa. Existen muchas matrices que no tienen. La siguiente es una definición más formal de la inversa de una matriz


1. Sistemas de ecuaciones lineales

54

.:Definición 1.29 Sea A una matriz cuadrada de orden n. Decimos que A es invertible si existe una matriz B de orden n tal que AB = BA = In , en tal caso decimos que B es la inversa de A y B = A−1 . Retomando la analogía con las propiedades de los números reales, notamos que cuando obtenemos el inverso de un número, éste es único, es decir, si tenemos un número a su inverso es a−1 y es único, lo que implica que no existe otro número real que sea el inverso de a. De igual manera, si tenemos una matriz A sólo existe una matriz A−1 que es la inversa de A. Veamos el siguiente teorema. .:Teorema 1.9 Sea A una matriz cuadrada de tamaño n × n invertible, entonces su inversa es única Demostración: Al igual que en las demostraciones de unicidad de un elemento, la mejor estrategia es suponer la falsedad del enunciado y llegar a una contradicción: Supongamos que A tiene dos matrices inversa llamadas B y C de tal forma que B 6= C. Ahora bien, tenemos que AB = BA = I (por la definición (1.28) ). De igual manera tendríamos que AC = CA = I (por la definición (1.28) ). Ahora definamos el siguiente producto: BAC = BAC y aplicamos la ley asociativa de las matrices de la siguiente forma B (AC) = (BA) C y como AC = I y BA = I al remplazar obtenemos B(I) = (I)C Por el teorema (1.8) obtenemos que B = C lo que es una contradicción, es decir, una matriz no puede tener dos inversas. Esto implica que la inversa de una matriz es única. Q.E.D. El siguiente teorema no se acomoda a la analogía que habríamos planteado, sin embargo, es uno de los más importantes para la inversa de una matriz. .:Teorema 1.10 Sean A y B dos matrices invertibles de n × n. Entonces i) AB es invertible ii) (AB)−1 = B −1 A−1 Demostración: Para demostrar que (AB)−1 = B −1 A−1 basta demostrar que B −1 A−1 (AB) = (AB) B −1 A−1 = In


1. Sistemas de ecuaciones lineales

55

Lo anterior con base en la definición 1.28. Ahora bien, si aplicamos la ley asociativa de el producto de matrices, tenemos: B −1 A−1 A B = A BB −1 A−1 = In

Ahora, por definición 1.28 tenemos que

B −1 (In ) B = A (In ) A−1 = In y por Teorema 1.8 B −1 (In ) B

=

A (In ) A−1 = In

B −1 B In

= =

AA−1 = In In = In

Esto implica que AB es invertible y su inversa es B −1 A−1 . Q.E.D. El teorema anterior puede extenderse a un número infinito de matrices, es decir; si tenemos −1 −1 −1 (A1 A2 . . . An−1 An )−1 = A−1 n An−1 . . . A2 A1

1.10. La inversa de una matriz y la solución del sistema de ecuaciones resultante La relación entre la inversa de una matriz y la resolución del sistema AX = b se basa en encontrar A−1 . Tomemos de nuevo la ecuación (1.15); AX = b Supongamos que A es invertible, es decir, que podemos hallar A−1 . Ahora, multiplicamos por la izquierda A−1 a cada lado de la ecuación A−1 AX = A−1 A X =

A−1 b A−1 b

In X =

A−1 b

X =

A−1 b

(1.17)

Tenga en cuenta que el tamaño de A−1 es de tamaño n × n y el tamaño de el vector b es de n × 1, lo que nos indica que X tiene un tamaño de n × 1. El resultado obtenido en la ecuación (1.17) se convierte en parte esencial de la resolución de sistemas de ecuaciones lineales.


1. Sistemas de ecuaciones lineales

56

.:Teorema 1.11 Sea A una matriz de tamaño n × n e invertible, entonces el sistema AX = b tiene solución única. Demostración: La demostración de este teorema es por contradicción: Supongamos que A tiene dos inversas llamadas A′−1 y A−1 , tal que A′−1 6= A−1 y por definición tenemos que: AA′−1 = I y AA−1 = I Entonces, podemos igualar ambos resultados: AA′−1 = AA−1 Ahora bien, como A es invertible tomemos A−1 y multiplicamos por la izquierda a ambos lados de la ecuación: A−1 AA′−1 A−1 A A′−1

′−1

IA

= = =

A−1 AA−1 A−1 A A−1 −1

IA

Asociando

Por definición de inversa de A

luego A′−1 = A−1 lo que contradice la hipótesis, luego el sistema AX = b tiene solución única. Q.E.D. El siguiente teorema expone la relación existente entre la inversa de una matriz y la cantidad de soluciones de un sistema de ecuaciones lineales .:Teorema 1.12 Sea A una matriz de tamaño n × n, entonces 1. A es invertible si y sólo si es posible convertirla en In por medio de operaciones elementales por fila, es decir si I es la FERR de A. 2. A es invertible si y sólo si su FERR tiene n pivotes Demostración: La demostración la podemos describir de la siguiente forma: Supongamos que A es invertible, entonces podemos realizar k operaciones elementales por fila en A cuando hacemos el proceso de encontrar su inversa, luego como A tiene inversa, éste proceso es finito, después de varios pasos la matriz A se convierte en la identidad A → In Lo que nos dice que:


1. Sistemas de ecuaciones lineales

57

1. En el proceso, ninguna fila se hizo nula, pues la matriz identidad no tiene filas nulas. 2. Lo anterior implica que todas las filas tienen pivote, debido a que la matriz nula no tiene filas nulas. 3. Por 1) y 2) In es la forma FERR de A. Ahora tomemos la La matriz A, su forma FERR tiene n pivotes luego, es posible hacer estas mismas operaciones en la matriz identidad sin producir filas nulas, , llamemos a esta nueva matriz B, dicha matriz al multiplicarse por la matriz A daría como resultado la matriz In , lo que implica que AB = I y por definición, B es la inversa de A, luego A es invertible, tiene n pivotes. De otro lado, si A es invertible, entonces el sistema AX = b tiene solución única para cualquier vector, pues por el teorema 1.11 AX A−1 AX

= b = A−1 b

In X X

= A−1 b = A−1 b

Observe que no hay restricciones para el vector b, la condición recae sobre la matriz A, la cual debe ser invertible. Q.E.D. Ejemplo 1.35 Resuelva el sistema de ecuaciones lineales 2 × 2 x − 9y

−2x + 5y

=

5

=

1

usando la inversa de la matriz de cofactores A=

1 −9 −2 5

y

A−1 = 

5 − 13

9 − 13

2 − 13

1 − 13

 

Solución: Como sabemos X = A−1 b, simplemente multiplicamos A−1 por el vector de términos independientes b: X

x y

=

A−1 b

=

=

5 − 13

9 − 13

2 − 13

11 − 13

1 − 13 

34 − 13

 

5 1

 


1. Sistemas de ecuaciones lineales

58

Observemos que el vector b puede ser cualquier vector, inclusive es independiente de la inversa de la matriz, si en este momento nos pidieran encontrar la solución al sistema x − 9y −2x + 5y

= =

6 8

Se realiza el mismo procedimiento y no tendríamos que hacerle cambios a la matriz A, simplemente cambiamos el vector b. X

x y

=

A−1 b

=

=

5 − 13

9 − 13

2 − 13

1 − 13

− 20 13

− 102 13

 

6 8

 

Pero, el problema persiste: ¿Cómo hallar la inversa de una matriz?.

1.10.1. Métodos para hallar la inversa de una matriz Existen muchos métodos que permiten hallar la inversa de una matriz, la forma más común es tomar la matriz y convertirla en la identidad a través de operaciones elementales por filas, luego, hacemos estas mismas operaciones a una matriz identidad.

Ejemplo 1.36 tomemos A=

2 5

3 −4

Ahora ponemos las dos matrices una al lado de la otra 2 3 | 1 0 5 −4 | 0 1 Hacemos operaciones elementales por fila hasta convertir la matriz A en la identidad y la matriz identidad en A−1   1 23 | 21 0   5 −4 | 0 1

Al realizar una operación elemental, esta se ejecuta en ambas matrices.


1. Sistemas de ecuaciones lineales

59

 

 

Ahora eliminamos

3 2

Entonces A−1 = 

en A

3 23

4 23 5 23

2 − 23 −1

Es fácil verificar que AA

5

0

−4 |

0

1

3 2

0

− 23 2

1

 

1 2

1

 

|

3 2

1

|

1 2

|

− 25

 

0

1

|

1 2

0

1

|

5 23

2 − 23

1 0

|

4 23

3 23

0 1

|

5 23

2 − 23

0

3 2

 

   

= I = A−1 A

Ejemplo 1.37 Otra forma de hallar la inversa de una matriz es aprovecharse de la la definición de inversa, es decir, si AA−1 = In entonces suponemos la existencia de A−1 , tomemos la misma matriz A 2 3 5 −4 x y Supongamos que A−1 = , entonces z w AA−1 = I

2 5

3 −4

x y z w

=

1 0 0 1

Si realizamos la multiplicación de la primera fila por la primera columna tenemos 2x + 3z = 1, para la segunda componente tenemos 2y + 3w = 0, las otras dos componentes 5x − 4z = 0 y 5y − 4w = 1. 3w y reemplazamos en 5y − 4w = 1 2 3w − 4w = 1 5 − 2 2 w = − 23

De 2y + 3w = 0 tenemos que y = −


1. Sistemas de ecuaciones lineales

60

2 3 tenemos que y = 23 23 4z y remplazamos en 2x + 3z = 1 De 5x − 4z = 0 despejamos x y tenemos x = 5 Ahora, con w = −

2

Con z =

4z 5

+ 3z

=

1

z

=

5 23

5 4 encontramos x = , de nuevo 23 23  A−1 = 

4 23

3 23

5 23

2 − 23

 

El método es bueno para matrices pequeñas (2 × 2 o 3 × 3), para matrices más grandes se vuelve muy lento. Existen otros métodos para hallar la inversa, uno de ellos es con la matriz Adjunta, pero este tema lo trataremos más adelante. Ejemplo 1.38 Sea 

hallar A−1

 1 5 1 A =  0 1 −2  1 −1 −1

Usamos el primer método  1 5 1 | 1  0 1 −2 | 0 1 −1 −1 | 0  1 5 1 | 1  0 1 −2 | 0 0 −6 −2 | −1

0 1 0

  0 1 5 0 = 0 1 1 0 −6   0 0 1 5 1 0 = 0 1 0 1 0 0

 0 0  1  1 | 1 0 0 −2 | 0 1 0  −14 | −1 6 1 1 | 1 0 −2 | 0 1 −2 | −1 0

En algunas ocasiones es recomendable no simplificar los fraccionarios    1 5 1 | 1 0 0 1 5 0 | 13 14        0 1 −2 | 0 1 0  2 0 1 0 | 14 =       6 1  1 1 0 0 1 | 14 − − 0 0 1 | 14 14 14

−1

0

2 14

2 − 14

6 − 14

1 − 14

     


1. Sistemas de ecuaciones lineales

Luego

1

   0   0

61

0 0

|

3 14

4 − 14

1 0

|

2 14

2 14

0 1

|

1 14

6 − 14

−1

A

  =  

11 14

  2  − 14   1 − 14

3 14

− 72

11 14

1 7

1 7

− 17

1 14

− 73

1 − 14

     

El siguiente teorema muestra una de las propiedades de la matriz inversa. .:Teorema 1.13 Si A es invertible, entonces A−1 es invertible y además A−1 Demostración:

−1

=A

Tomemos la siguiente igualdad A=A Como A es invertible, existe A−1 . Multiplicamos A−1 a ambos la dos de la ecuación A−1 A = AA−1 = In Pero esta igualdad también muestra que A−1 tiene inversa, la cual es A, por lo tanto A es invertible −1 y además A−1 =A Q.E.D.

Ejemplo 1.39 Veamos, sí:

 3 5 −7 1  A= 4 5 7 −9 1

y

−1

A

Observemos que:

  =  

7 277

29 277

20 277

3 554

26 277

31 − 554

71 − 554

31 277

5 − 554

     

  3 5 −7 −1 1  = 4 5 A−1 7 −9 1


1. Sistemas de ecuaciones lineales

62

.:Teorema 1.14 Si A es invertible de tamaño n × n, entonces At es invertible y además (At )−1 = (A−1 )t . Demostración: Si A es invertible entonces AA−1 = A−1 A = I Teniendo en cuenta el teorema 1.7 parte 4 (AA−1 )t = (A−1 )t At = I t = I por lo tanto, cumple con la definición 1.28, lo que implica que At es invertible y además (A−1 )t es el inverso de At Q.E.D. Ejemplo 1.40 Sea: 

2 3 A= 2 1 6 0

−7 5  2

y

−1

A

  =  

1 62

3 − 62

11 62

13 62

23 62

6 − 31

3 − 62

9 62

1 − 31

y verifiquemos que (At )−1 = (A−1 )t . primero (At )−1

(At )−1

=

=

Ahora (A−1 )t :

−1 2 2 6  3 1 0  −7 5 2  13 3 1 − 62 62 62   23 9  −3 62 62  62  11 6 1 − 31 − 31 62

     

     


1. Sistemas de ecuaciones lineales

63

  =   

−1 t

(A

)

1 62

3 − 62

11 62

13 62

23 62

6 − 31

3 − 62

9 62

1 − 31

1 62

13 62

3 − 62

23 62

9 62

6 − 31

1 − 31

  3 =   − 62  11 62

luego (At )−1 = (A−1 )t .

t           

Ejercicios 1.6 1. Encuentre la inversa (si es posible) de las siguientes matrices a)

b)

c)

d)

1 3 3 1 π

2π 5

π 2

1  6 1

5  1 4

e) 

 1 −3 0 −2  3 −12 −2 −6     −2 10 2 5  −1 6 1 3

 0 8 1 0  3 1

 6 7 −3 5  9 7

f) 

 0.2 −0.5 0.7 0.02  −0.24 −0.9 0.1 0.2     0.14 0.14 0.8 −0.1  −0.25 0.1 0.2 0.8

2. Calcule la matriz inversa (A−1 ), y explique su respuesta para: 0 1 a) A= 1 0   1 0 0 b) A= 0 2 0  0 0 1 0 0 c) A= 0 0 3. Calcule la matriz inversa (A−1 ), empleando el método de reducción de renglones, es decir: [A| I] ⇋[I |A−1 ]


1. Sistemas de ecuaciones lineales

64

 1 −2 0 a) A= 0 −4 −1  5 3 2 1 2 b) A= 3 −4  4 −2 6  −2 1 −3 c) A=  6 −3 9 1 1 1

 1 1   1  1

4. Calcule la matriz inversa (A−1 ), empleando el método de multiplicación e igualdad de matrices, es decir: AA−1 =I n . Donde A−1 es una matriz de R.   1 −2 0 a) A= 0 −4 −1  5 3 2 1 2 b) A= 3 −4   4 −2 6 1  −2 1 −3 1   c) A=  6 −3 9 1  1 1 1 1 5. Para las matrices A= 

 1 0 −1  −4 1 3  −3 1 −7

7 1 3 −2

 2 −4 3 ,B = ,C =  6 −7 −8 0

 9 4 2 −4 , D = −1 9

a) Probar (AB)−1 = B −1 A−1 T −1 −1 T b) Comprobar (C + D) = (C + D)

6. Muestre que si A, B y C son invertibles, entonces ABC es invertible y además (ABC)−1 = C −1 B −1 A−1 7. Si A1 , A2, , ..., Am son matrices invertibles de n×n muestre que A1 .A2 .....Am es invertible y calcule su inversa. 3 4 8. Muestre que es su propia inversa. −2 −3 a11 a12 9. Muestre que es su propia inversa si A = ±I o si a11 = −a22 y a21 a22 a21 a12 = 1 − a211


1. Sistemas de ecuaciones lineales

65

7 0 10. Calcule la inversa de  0 9 0 0

 0 0  −3

11. Una matriz cuadrada se llama diagonal si todos los elementos fuera de la diagonal son diferentes de cero. muestre que una matriz diagonal es invertible si y solo si cada uno de los elementos de la diagonal es diferente de cero. 

12. Calcule la inversa de A si:

   

a11 0 .. .

0 a22 .. .

0

0

...... ...... .. .

. . . . . . ann

2 1 A= 0 3 0 0

13. Muestre que la matriz A no es invertible si:

0 0 .. .

    

 −1 4  5

 1 0 0 A =  −2 1 0  4 6 1

14. Una matriz es triangular superior (o inferior ) cuando todos los elementos abajo (o arriba) de la diagonal principal son cero. Demuestre que una matriz triangular superior o triangular inferior es invertible si y solo si cada uno de los elementos de la diagonal es diferente de cero.

1.11. Factorización de matrices Existen varias formas de factorizar una matriz, las dos más comunes son la factorización en matrices elementales y la factorización A = LU o de forma más general P A = LU . En ésta sección trabajaremos ambas factorizaciones.

1.11.1. Factorización en matrices elementales Para empezar, recordemos las operaciones elementales por filas: Multiplicar el renglón o fila i por un número k 6= 0: fi −→ kfi Sumar un múltiplo de la fila i a la fila j: fj −→ fj + kfi Permutar o intercambiar dos filas: fi ⇆ fj


1. Sistemas de ecuaciones lineales

66

En aritmética, el teorema fundamental o teorema de factorización única afirma que todo entero positivo se puede representar de forma única como producto de factores primos. Por ejemplo: 521478 = 2 × 35 × 29 × 37 De igual manera, podemos representar una matriz como el producto de otras matrices, las cuales llamaremos elementales. Empezaremos por definir una matriz elemental. .:Definición 1.30 Matriz Elemental: Sea E una matriz cuadrada de orden n. Decimos que E es una matriz elemental si se puede obtener de aplicarle una sola operación elemental a la matriz identidad de tamaño n. Ejemplo 1.41 Sean

1 E1 =  0 0

 0 0 1 0 , 0 7

1 0 E2 =  0 1 −8 0

 0 0 , 1

0 E3 =  0 1

0 1 0

 1 0  0

La matriz E1 es una matriz elemental, debido a que se obtuvo de tomar la matriz I3 y la operación elemental f3 −→ 7f3 . La matriz E2 es una matriz elemental por que se obtuvo de tomar I3 y aplicarle la operación f3 −→ f3 + (−8)f1 . De igual forma, la matriz E3 es una matriz elemental porque se obtuvo de realizar la operación elemental f1 ⇆ f3 Para mostrar la importancia de las matrices elementales, observemos lo que ocurre con los siguientes productos de matrices: Ejemplo 1.42 Sea 

1 2 A= 0 1 3 2

 −2 −1  4

y queremos aplicar la operación elemental f3 → f3 + (−3)f1   1 2 −2 A =  0 1 −1  0 −4 10

(1.18)

Ahora, consideremos la matriz elemental E de 3 × 3, la cual se obtuvo de tomar la matriz I3 y aplicarle la operación elemental f3 → f3 + (−3)f1 , tenemos


1. Sistemas de ecuaciones lineales

67

 1 0 0 E= 0 1 0  −3 0 1

y consideremos la multiplicación entre E y A   1 0 0 1 2  0 1 0  0 1 −3 0 1 3 2

   −2 1 2 −2 −1  =  0 1 −1  4 0 −4 10

(1.19)

Luego, según lo visto en las matrices de las ecuaciones (1.18) y (1.19), es posible que las operaciones elementales por fila se reduzcan a la multiplicación de una matriz elemental por la matriz en cuestión. Ejemplo 1.43 Sea

0 B= 0 1

 1 −1 3 0  7 −1

y queremos intercambiar las filas 1 y 3 de tal forma que f1 ⇆ aplicarle a la matriz I3 dicha operación. Entonces     0 0 1 0 1 −1 1  0 1 0  0 3 0  =  0 1 0 0 1 7 −1 0

f3 . La matriz E la obtenemos de 7 3 1

 −1 0  −1

podemos ver que la matriz de permutación E realizó en la matriz B, el efecto de la operación elemental f1 ⇆ f3 . Ejemplo 1.44 Ahora, tomemos la matriz M , 

6 M = 4 2

 −7 3 −6 −1  3 7

queremos multiplicar la fila 2 por -1, es decir, f2 → (−1)f2 , de nuevo la matriz E se obtiene al aplicarle a la matriz I3 la operación elemental f2 → (−1)f2      1 0 0 6 −7 3 6 −7 3  0 −1 0   4 −6 −1  =  −4 6 1  0 0 1 2 3 7 2 3 7

Los ejemplos anteriores muestran que las operaciones elementales pueden ser reemplazados por multiplicaciones por la izquierda de matrices elementales. El siguiente teorema ilustra lo descrito en los ejemplos anteriores.


1. Sistemas de ecuaciones lineales

68

.:Teorema 1.15 Sea A una matriz de tamaño m × n y E una matriz elemental de tamaño m × m. La matriz EA es la misma que se obtiene al realizar sobre las filas de A la operación elemental correspondiente a la matriz E. Demostración: La prueba debe hacerse para los tres tipos de matrices elementales. La siguiente demostración se hará para la matriz elemental relacionada con la operación elemental fi → fi + (k)fj Suponga que B = EA, donde B es el producto de E por A. Ahora, comparemos las filas de B y de A. Observemos que la fila i de E es igual a la fila i de Im E = Im = (0 . . . 0 1 0 . . . 0) Ahora bien, recordemos que Bi es el producto de Ei por A, es decir . Bi = Ei A = (0 . . . 0 1 0 . . . 0)A Ei A = 0A1 + · · · + 0Ai−1 + · · · + (1)Ai + · · · + 0Ai+1 + · · · + 0Am Luego, Bi Bi

= =

Ei A = Ai Ai

Esto nos dice que las filas de B son iguales a las filas de A, Ahora bien, la Er tiene en su s−ésimo posición el número (−k), su r−ésimo componente es 1, las demás son cero. Observemos que: Er A = (0 . . . (−k) . . . 0 1 0 . . . 0) = 0A1 + · · · + (−k)As + · · · + 0Ar−1 + Ar + 0Ar+1 + · · · + 0Am = Ar − kAs

Esto implica que B y EA sólo difieren de en su r−ésima fila y esta se obtiene al sustraer a la fila r de A, la fila s de A multiplicada por el escalar k. Q.E.D. El teorema 1.15 nos permite afirmar que podemos convertir una matriz A de n × n invertible, en la matriz In al multiplicar por la izquierda matrices elementales. Ejemplo 1.45 Sea A=

1 5

3 7


1. Sistemas de ecuaciones lineales

69

multiplicaremos matrices elementales hasta convertirla en la matriz In 1 0 1 3 1 3 = −5 1 5 7 0 −8 | {z } E1

Ahora

1 0

|

Luego

0

−1 {z 8 }

1 0

3 −8

=

1 3 0 1

E2

1 0

|

1 3 1 0 −3 = 0 1 0 1 1 {z }

E3

Podemos decir que 1 −3 1 0 1 0 1 3 1 0 = 0 1 0 − 81 −5 1 5 7 0 1 {z }| {z }| {z } | {z } | {z } | E3

E2

E1

A

I2

Es decir

E3 E2 E1 A = I Ahora bien, veamos el comportamiento de algunas matrices elementales, al tratar de obtener su inversa. Ejemplo 1.46 Sea la matriz elemental E1 =

1 0

−3 1

observe que ocurre cuando multiplicamos la matriz E1 por la matriz 1 3 E2 = 0 1 al multiplicar tenemos:

1 0

−3 1

1 3 0 1

=

1 0 0 1

en el ejemplo anterior, vimos que E1 E2 = I2 , esto nos permite afirmar (parcialmente) que E2 es la inversa de E1 , para corroborar esta afirmación, debemos ver que ocurre al hacer la


1. Sistemas de ecuaciones lineales

70

multiplicación de E2 E1 .

1 0

3 1

1 0

−3 1

=

1 0 0 1

Esto confirma que E2 es la inversa de E1 . Recordemos que E2 es la única matriz que puede ser la inversa de E1 (Teorema 1.9). Podemos conjeturar, que una matriz elemental que se obtiene al realizar la operación elemental fi → fi +kfj sobre la matriz identidad, es invertible y además su inversa es otra matriz elemental que se obtiene al realizar sobre la matriz identidad la operación elemental fi → fi + (−k)fj con k∈R Ahora, tomemos otro tipo de matriz elemental.

Ejemplo 1.47 Tomemos E3 =

1 0

0 1 8

y E4 =

1 0

0 8

Ahora veamos los productos E3 E4 y E4 E3

E3 E4

=

E4 E3

=

1 0

1 0 0 8

1 0

0 8

1 0

0

0 1 8

1 8

=

1 0

0 1

=

1 0

0 1

De nuevo, podemos ver que E4 es la inversa de E3 . Se concluye que una matriz elemental que se obtiene al realizar la operación elemental fi → kfi sobre la matriz identidad, es invertible y además su inversa es otra matriz elemental que se obtiene al realizar sobre la matriz identidad la operación elemental fi → k1 fi con k ∈ R y k 6= 0. Ejemplo 1.48 Tomemos: E5 =

0 1 1 0


1. Sistemas de ecuaciones lineales

71

E5 es una matriz elemental de permutación. Para obtenerla, sólo podemos realizar la operación elemental f1 ⇆ f2 a la matriz identidad. Ahora bien, La matriz: 0 1 E6 = 1 0 es igual a la matriz E5 . Veamos que ocurre cuando hacemos los productos E5 E6 y E6 E5 .

E5 E6

E5 E6

=

0 1

1 0

0 1

1 0

=

0 1

1 0

0 1

1 0

=

1 0

0 1

=

1 0

0 1

En este caso podemos intuir que la inversa de una matriz elemental de permutación es ella misma2 . Entonces, podemos concluir que una matriz elemental que se obtiene al realizar la operación elemental fi ⇆ fj sobre la matriz identidad, es invertible y además su inversa es otra matriz elemental que se obtiene al realizar sobre la matriz identidad la misma operación elemental fi ⇆ fj . Los ejemplos anteriores nos permiten concluir dos cosas: 1. Toda matriz elemental es invertible. 2. El cálculo de la inversa de una matriz elemental es relativamente fácil, pues la inversa de una matriz elemental es otra matriz elemental del mismo tipo. Los anteriores resultados podemos verlos resumidos en el siguiente teorema. .:Teorema 1.16 Toda matriz elemental de orden n, es invertible y su inversa es una matriz elemental del mismo tipo. Demostración: Debemos probar el teorema para los tres tipos de matrices elementales. Lo haremos sólo para el caso fi → fi + kfj . los demás se demuestran en forma similar. Sea E1 una matriz elemental obtenida al realizar sobre la matriz In la operación elemental fi → fi + kfj , es decir, remplazaremos la fila i por la misma fila i sumando k veces la fila j. Esto implica, que la fila i tendrá en la componente ij-ésima no un cero, sino el valor de k. Entonces E1 tendría la siguiente forma: 2 Este

es uno de los pocos casos en una matriz es su propia inversa.


1. Sistemas de ecuaciones lineales

72

Columna l ↓ 

E1

=

              

1 0 .. . 0 .. . 0 .. . 0

0 1 .. . 0 .. . 0 .. . 0

··· ··· ··· ··· ··· ··· ··· ···

0 0 .. . 1 .. . k .. . 0

0 0 .. . 0 .. . 1 .. . 0

··· ··· ··· ··· ··· ··· ··· ···

··· ··· ··· ··· ··· ··· ··· ···

0 0 .. . 0 .. . 0 .. . 1

       →       →  

Fila

j

Fila

i

↑ Columna j

Ahora tomemos la matriz E2 la cual, se obtiene al realizar sobre la matriz In la operación elemental fi → fi + (−k)fj . Esto nos dice, que la fila i de E2 tendrá en la componente ijésima no un cero, sino el valor de −k. Entonces E2 tendría la siguiente forma: Columna l ↓ 

E2

              

=

1 0 .. . 0 .. . 0 .. . 0

0 1 .. . 0 .. . 0 .. . 0

··· ··· ··· ··· ··· ··· ··· ···

0 0 .. . 1 .. . −k .. . 0

··· ··· ··· ··· ··· ··· ··· ···

0 0 .. . 0 .. . 1 .. . 0

··· ··· ··· ··· ··· ··· ··· ···

0 0 .. . 0 .. . 0 .. . 1

       →       →  

Fila

j

Fila

i

↑ Columna j

Ahora bien, si E2 es la inversa de E1 debemos demostrar que E1 E2 = In y también que E2 E1 = In . Recuerde que E1 y E2 son matrices elementales del mismo tipo. Tomemos C = (cij ) de la siguiente forma: C = E1 E2 Es decir, C es el producto de E1 = (aij ) y E2 = (bij ). Luego la componente cij de C es la siguiente cij = ai1 b1j + ai2 b2j + · · · + aij bjj + · · · + ail blj + · · · + ain bnj | {z } | {z } | {z } | {z } | {z } 0

0

(k).(1)

(1).(−k)

0

Observemos que todos los sumandos de cij son cero, excepto dos; el primero es aij bjj cuyo resultado es k, por que aij = k y bjj = 1 por estar en la diagonal de E2 . El segundo es ail blj


1. Sistemas de ecuaciones lineales

73

cuyo resultado es −k, por que ail = 1 por estar en la diagonal de E1 y blj = −k (tenga en cuenta que l en este caso tiene el mismo valor de i). Luego cij = 0 + 0 + · · ·+ k + · · · (−k)+ · · ·+ 0 = 0. Luego C = In . Un análisis similar se puede hacer para el producto de E2 E1 , el cual nos permite afirmar que E2 es la inversa de E1 . Q.E.D. Las matrices elementales tiene la propiedad de realizar operaciones elementales sobre una matriz, las matrices elementales que son inversas de las primeras, pueden realizar la operación inversa y dejar la matriz como estaba originalmente. Los resultados anteriores nos permiten visualizar que la factorización de una matriz en matrices elementales, solo es posible para matrices invertibles. .:Teorema 1.17 Una matriz cuadrada es invertible si y sólo si es el producto de matrices elementales Demostración: En este caso veremos que si A es el producto de matrices elementales, entonces es invertible. Tomemos A = E1 E2 E3 . . . Em de tal forma que Ei son matrices elementales. Por el teorema 1.16, sabemos que todas la matrices elementales son invertibles, además por el teorema 1.10 sabemos que el producto de matrices invertibles es otra matriz invertible. Entonces tenemos que: A = A−1 =

E1 E2 E3 . . . Em (E1 E2 E3 . . . Em )−1

A−1

−1 −1 Em Em−1 . . . E3−1 E2−1 E1−1

=

−1 −1 Em−1 . . . E3−1 E2−1 E1−1 . Tenga en De modo que A es invertible y su inversa esta dada por Em cuenta que Ei−1 también son matrices elementales.

Ahora, cuando la matriz A es invertible debemos demostrar que es el producto de matrices elementales. Supongamos que A es invertible y de tamaño n × n, esto implica que podemos convertir la matriz A en la matriz In por medio de m operaciones elementales por fila (OEF). A |{z} −→ In OEF

Este número de operaciones es finito. Ahora bien, hemos visto en el teorema 1.15 que cada operación elemental se puede remplazar por la multiplicación (por izquierda) de una matriz elemental del mismo tipo de la operación elemental. Lo que nos dice que existen m matrices elementales E1 E2 . . . Em que al multiplicarse por la izquierda con A se puede obtener la matriz In . (E1 E2 . . . Em ) A = In Esto quiere decir que (E1 E2 . . . Em ) = A−1 (por Definición 1.29) además, recordemos que cada Ei es invertible (por teorema 1.16) entonces:


1. Sistemas de ecuaciones lineales

74

A−1

−1

A

=

A

= (E1 E2 . . . Em ) −1 −1 = Em Em−1 . . . E3−1 E2−1 E1−1

−1

−1 −1 Veamos que A = Em Em−1 . . . E3−1 E2−1 E1−1 se escribió como el producto de la inversa de −1 −1 matrices elementales, pero por el teorema 1.16, las matrices Em , Em−1 , . . . , E3−1 , E2−1 , , E1−1 son matrices elementales.

Q.E.D. Ejemplo 1.49 Tomemos la matriz A del ejemplo 1.45 A=

1 5

3 7

y vamos a escribir a A como el producto de matrices elementales. Primero realizamos la factorización en matrices elementales 1 −3 1 0 1 0 1 3 1 0 = 0 1 0 − 81 −5 1 5 7 0 1 | {z }| {z }| {z } | {z } | {z } E3

E2

E1

A

I2

Ahora, multiplicamos por la correspondiente inversa de cada matriz elemental |

1 0

3 1 {z

−1 E3

}|

1 0

1 0 1 3 −3 1 0 1 5 7 1 −5 1 0 −8 {z }| {z }| {z } {z }|

E3

E1

E2

|

1 0

0

− 81 {z

1 0 1 3 −5 1 5 7 {z }| {z } }| E1

A

|

A

E2

=

=

|

1 0

3 1 {z

−1 E3

1 0

3 1 {z

−1 E3

1 0

}|

0 1 {z I2

}

Ahora para la segunda matriz elemental 1 0 1 3 1 0 1 3 1 0 1 0 = −5 1 5 7 0 1 0 −8 0 8 0 1 {z } | {z } {z } | {z } | | {z } | {z 8 } |

E2−1

E2

E1

E2−1

1 3 1 0 5 7 −5 1 {z } | {z } | E1

Finalmente

A

A

E3−1

1 3 1 0 = 0 1 0 −8 {z } | {z } | E2−1

E3−1

}


1. Sistemas de ecuaciones lineales

|

1 5

0 1 {z

75

1 3 1 0 1 0 1 3 1 0 = 5 7 −5 1 0 −8 0 1 5 1 }| {z } | {z } {z } | {z } | {z } |

E1−1

E1

A

|

1 5

E1−1

3 7

{z A

}

=

|

1 5

0 1

{z

E1−1

E2−1

1 0

}|

E3−1

0 1 3 −8 0 1 {z } | {z }

E2−1

E3−1

1.11.2. Factorización A = LU Esta factorización está muy relacionada con la factorización en matrices elementales. Para comenzar definiremos que es una matriz triangular. .:Definición 1.31 Diremos que una matriz cuadrada de tamaño n × n es i) Triangular superior cuando todas las componentes debajo de la diagonal principal son cero. ii) Triangular inferior cuando todas las componentes arriba de la diagonal principal son cero. Ejemplo 1.50 Tomemos las siguientes matrices: 

3 A= 0 0

 −1 4 2 −1  , 0 −2

 3 0 0 0 , B =  1 −2 −1 2 −4

C=

1 0

0 1

La matriz A es una matriz triangular superior, la matriz B es una matriz triangular inferior y la matriz C es la matriz identidad I2 , la cual, si tenemos en cuenta la definición, es una una matriz triangular superior e inferior a la vez. Las matrices triangulares superiores se pueden obtener al realizar la eliminación Gaussiana sobre una matriz. El siguiente teorema permite factorizar una matriz como el producto de matrices elementales y una matriz triangular superior. .:Teorema 1.18 Sea A una matriz de n × n, entonces A se puede escribir como el producto de matrices elementales E1 , E2 . . . Ek y una matriz triangular superior U , teniendo en cuenta que las matrices elementales están a la izquierda y la matriz U esta a la derecha. Demostración: Recordemos que U es una matriz triangular superior. Ésta matriz se pueden obtener por eliminación Gaussiana sobre la matriz A dada inicialmente. Esto se logra por medio de


1. Sistemas de ecuaciones lineales

76

operaciones elementales por fila. Según el teorema 1.15, toda operación elemental se puede remplazar por el producto de matrices elementales. Luego la obtención de U es relativamente fácil:

U = Ek Ek−1 . . . E2 E1 A Ahora despejamos A obteniendo la inversa de las matrices E1 , E2 . . . Ek −1 E1−1 E2−1 . . . Ek−1 Ek−1 U = A

Por el teorema 1.16, la inversa de una matriz elemental es otra matriz elemental del mismo tipo. Luego hemos escrito A como el producto de matrices elementales por una matriz triangular superior. Q.E.D. Tomemos de nuevo el ejemplo 1.45, la matriz A la podemos escribir como el producto de matrices elementales y una matriz triangular superior. 1 3 A= 5 7 Ahora bien, en el ejemplo 1.49, vemos que A se puede obtener como el producto de matrices elementales por U . 1 3 1 3 1 0 1 0 = 0 1 5 7 5 1 0 −8 | {z } {z } | {z } | {z } | A

E1−1

|

E2−1

{z

Matrices elementales

E3−1

}

|

{z

}

Matriz Triangular Superior

En el ejemplo anterior, la matriz U es una matriz elemental, sin embargo es una matriz triangular superior. Los siguientes teoremas nos permiten observar el producto entre matrices triangulares superiores e inferiores. .:Teorema 1.19 Sea A y B matrices triangulares inferiores con unos en la diagonal. Entonces el producto AB también es una matriz triangular inferior con unos en la diagonal. Demostración: Sean A = (aij ) de n × n y B = (bij ) de n × n, sea C = (cij ) tal que C = AB, recordemos que cij = (renglón i de A) · (columna j de B) es decir: cij = ai1 b1j + ai2 b2 j + · · · + aik bkj + · · · + ain bnj

(1.20)


1. Sistemas de ecuaciones lineales

77

Ahora bien, examinemos la componente aij y bij de A y B    1  1 si i = j 0 0 si i < j y bij = aij =   bij aij si i > j

si si si

i=j i<j i>j

(1.21)

Éste hecho nos indica que las matrices triangulares inferiores tiene ceros cuando i < j, en la diagonal siempre hay unos y las demás componentes pueden ser cualquier número. Si retomamos la ecuación 1.20 y el análisis hecho en 1.21, podemos examinar que ocurre con cij dependiendo de i y j. Caso 1: La fila i de A y la columna j de B tal que i = j, en este caso cij = ai1 b1j + ai2 b2 j + · · · + aik bkj + · · · + ai(n−1) b(n−1)j + ain bnj |{z} |{z} |{z} |{z} |{z} | {z } 0 1 0 0 1 0 | {z } | {z } | {z } | {z } {z } | 0

0

1∗1=1

0

0

Esto nos indica que si cij está en la diagonal, siempre será un uno. Esto se debe a la propiedad de las matrices triangulares superiores, pues inicialmente los términos de la sumatoria son cero porque las componentes bij son cero en la parte inicial, luego coinciden cuando se multiplican los términos de la diagonal, en este caso tiene el valor de 1. Finalmente los términos se hacen cero porque aij es cero. Caso 2: La fila i de A y la columna j de B tal que i < j, en este caso cij = ai1 b1j + ai2 b2 j + · · · + aik bkj + · · · + ai(n−1) b(n−1)j + ain bnj |{z} |{z} |{z} |{z} |{z} | {z } 0 0 0 0 0 0 | {z } | {z } | {z } | {z } | {z } 0

0

0

0

0

Aquí cij siempre es cero, ésto se debe a que inicialmente los bij son cero y aij es cualquier número. Luego, se invierten los papeles, pues bij deja de ser cero y aij pasa a ser lo. Caso 3: La fila i de A y la columna j de B tal que i > j, en este caso, tanto las filas de A como las columnas de B pueden ser distintas de cero, lo que eventualmente produce que cij pueda ser un número distinto de cero. Q.E.D. Ejemplo 1.51 Sean A y B matrices triangulares inferiores con unos en la diagonal de la siguiente forma:     1 0 0 1 0 0 A= 3 1 0  y B= 5 1 0  2 4 1 −1 2 1

Observemos el producto C = AB.


1. Sistemas de ecuaciones lineales

78

 0 1 0 0  5 1 1 −1 2

1 0 C = AB =  3 1 2 4

  0 1 0 0 = 8 1 1 21 6

 0 0  1

En este ejemplo, podemos apreciar partes de la demostración anterior, por ejemplo, al calcular la componente c22 (Caso i = j) c22

=

(3)(0) + (1)(1) + (0)(2)

=

1

Ahora, la componente c13 (caso i < j) c13

= =

(1)(0) + (0)(0) + (0)(1) 0

Por último, la componente c31 (caso i > j) c31

= (2)(1) + (4)(5) + (1)(−1) = 2 + 20 − 1 = 21

.:Teorema 1.20 Sea A y B matrices triangulares superiores. Entonces, el producto AB también es una matriz triangular superior. El análisis de la demostración del teorema anterior es similar al teorema 1.19. El siguiente teorema muestra que una matriz invertible se puede llevar al producto de dos matrices, una matriz triangular superior y una matriz triangular inferior. .:Teorema 1.21 Sea A una matriz cuadrada de n × n. Si A puede ser reducida a su forma escalonada reducida por renglones (sin permutar renglones), entonces, A tiene factorización LU , es decir: A = LU Donde L es una matriz triangular inferior con unos en la diagonal y U es una matriz triangular superior. Demostración: Se ha mostrado en el transcurso de esta sección, que una matriz cuadrada de n × n se puede convertir en una matriz triangular superior U (Eliminación Gaussiana). Antes, esto se realizaba por medio de operaciones elementales por fila, ahora, se hace multiplicando por matrices elementales por izquierda. En este caso, sólo usaremos matrices elementales que se obtienen


1. Sistemas de ecuaciones lineales

79

al realizar la operación elemental fi → fi + kfj donde i > j (recuerde que en este caso no podemos permutar dos filas o renglones). Entonces:

U = Ek Ek−1 . . . E2 E1 A Donde E1 , E2 . . . Ek son matrices elementales que me permiten convertir la matriz A en una matriz triangular superior U . La matriz triangular superior no necesariamente tiene unos en la diagonal, debido a que sólo hemos usado la operación elenetal fi → fi + kfj . Ahora, multiplicamos por la inversa de cada matriz elemental para despejar A −1 E1−1 E2−1 . . . Ek−1 Ek−1 U = A −1 Recordemos que E1−1 , E2−1 , . . . , Ek−1 , Ek−1 también son matrices elementales de la forma fi → fi + kfj (Teorema 1.16). Por esta razón, todas son triangulares inferiores con unos en la diagonal, y por el Teorema 1.19, el producto de ellas también es una matriz triangular inferior con unos en la diagonal.

−1 E1−1 E2−1 . . . Ek−1 Ek−1 U | {z }

=

A

=

A

L

LU

Q.E.D. Ejemplo 1.52 Escribir la matriz A como el producto de matrices elementales y una matriz triangular superior.   3 6 9 1  A= 6 5 9 5 −2 primero obtenemos la matriz U por eliminación elementales.     3 6 9 1 0 0 3  6 5 1  −→  −2 1 0   6 9 5 −2 0 0 1 9 Ahora,

 3 6 9  0 −7 −17  9 5 −2 

1 −→  0 −3  3 = 0 0

Gaussiana o multiplicando por matrices 6 5 5

   9 3 6 9 1  =  0 −7 −17  −2 9 5 −2

 0 1 0 0   −2 1 1 0 0  6 9 −7 −17  −13 −29

0 1 0

 0 3 0  6 1 9

6 5 5

 9 1  −2


1. Sistemas de ecuaciones lineales

80

Luego, 

 6 9 −7 −17  −13 −29

3  0 0

  0 1 0 0 0   0 1 0  ... 13 −7 1 −3 0 1   1 0 0 3 6 ...  −2 1 0   6 5 0 0 1 9 5   3 6 9 =  0 −7 −17  18 0 0 7 {z } |

1 →  0 0

0 1

 9 1  −2

U

Ya tenemos la matriz U , ahora, procedemos a encontrar la matriz L. Simplemente obtenemos la inversa de cada una de las matrices elementales y las multiplicamos teniendo cuidado con el orden.

L

=

=

=

−1  1 0 0 1  −2 1 0   0 0 0 1 −3   1 0 0 1 0 0  2 1 0  0 1 0 0 0 1 3 0 1   1 0 0  2 1 0  13 3 7 1

−1  0 0 1 0   0 1  1 0  0 1 0 13 7

1 0 0 1 0 − 13 7  0 0  1

−1 0 0  1

Al realizar la multiplicación de L por U podemos corroborar el resultado 

 3 6 9  6 5 1  = 9 5 −2 {z } | A

A =

1  2 3 | LU

0 1 13 7 {z L

 3 0 0  0 0 1 }|

 6 9 −7 −17  18 0 7 {z } U

Como vemos, el proceso es un poco largo y de mucho cuidado. También podemos observar que la matriz L contiene los números que usamos para encontrar la matriz U . El siguiente, es el algoritmo para encontrar la factorización A = LU . 1. Mediante operaciones elementales o matrices elementales y sólo usando la operación fi → fi + kfj , transformar la matriz A en la matriz U .


1. Sistemas de ecuaciones lineales

81

2. Hacer una lista de las operaciones elementales o almacenar las matrices elementales que se usaron en el proceso anterior. 3. Obtener las inversas de las matrices elementales 4. Realizar el producto de estas matrices elementales inversas, ubicandolas en el orden adecuado y colocar como último factor la matriz U . 5. Efectuar el producto de las matrices elementales inversas 6. Finalmente la matriz A queda expresada como A = LU .

1.11.3. Uso de la factorización LU para resolver sistemas de ecuaciones lineales Sea AX = b, donde A es una matriz de coeficientes invertible, X es el vector de variables y b es el vector de términos independientes. Ahora bien, hemos visto que A = LU , entonces reemplazamos y tenemos: AX

=

b

(LU )X

=

b

Luego, como L es invertible, existe un único vector Y tal que LY = b y como U es invertible, entonces, existe un único vector X tal que U X = Y , es decir: AX = L(U X) = LY = b Ejemplo 1.53 Tomemos la matriz A del ejemplo 1.52 y el vector b   3 6 9 1  y A= 6 5 9 5 −2

 −1 b= 5  4

Resolver el sistema adjunto usando la factorización A = LU . Para la matriz A tenemos A =

=

LU 

1  2 3

0 1 13 7

Ahora bien, como AX = LY = b, entonces:

 0 3 0  0 1 0

 6 9 −7 −17  18 0 7


1. Sistemas de ecuaciones lineales

82

y1 2y1 +y2 3y1 + 13 7 y2

= = =

+y3

−1 5 4

Luego y1 = −1, y2 = 7 y y3 = −6 Ahora, como U X = Y , tenemos que: 3x1 + 6x2 + 9x3 −7x2 − 17x3 18 x3 7 De donde obtenemos que x1 = − 38 , x2 =

14 3

= =

−1 7

=

−6

y x3 = − 37

1.11.4. Factorización A = LDU Esta factorización, me permite escribir una matriz como el producto de tres matrices, donde L es una matriz triangular inferior con unos en la diagonal, D es una matriz diagonal con todas las componentes de su diagonal principal distintas de cero y U es una matriz triangular superior con todos las componentes de su diagonal principal distintos de cero. El siguiente teorema nos permite asegurar que si una matriz A tiene factorización A = LU , es posible escribir A en la forma A = LDU ′3 . .:Teorema 1.22 Sea A una matriz cuadrada de n × n. Si A puede se puede factorizar como A = LU , entonces es posible escribir A = LDU ′ , donde L es una matriz triangular inferior con unos en la diagonal principal, D es una matriz diagonal, con todos las componentes de la diagonal principal diferentes de cero y U ′ es una matriz triangular superior con con unos en la diagonal principal. Demostración: Por hipótesis, podemos decir que A = LU donde L es triangular inferior con unos en la diagonal principal y U es triangular superior con todas las componentes de su diagonal principal diferentes de cero. Luego U debe tener la siguiente forma:   d1 u12 · · · u1n  0 d2 · · · u2n    U = . .. . . ..  .  . . . .  0 0 0 dn

Con di 6= 0 (la diagonal principal debe ser diferente de cero). Entonces para convertir d1 en uno, dividimos la primera fila por d1 , la segunda por d2 y así sucesivamente. La matriz D es una matriz diagonal cuyos elementos de la diagonal principal son los competentes de la diagonal principal de U . De modo que U se puede escribir como el producto de la matriz D y la matriz U ′ . 3 La

diferencia entre U y U ′ es que la primera no necesariamente tiene unos en la diagonal y la segunda si.


1. Sistemas de ecuaciones lineales

d1  0  U = .  .. 0 |

0 ··· d2 · · · .. . . . . 0 0 {z

83

0 0 .. .

1 0 .. .

       0 } 0 |

dn

D

u12 d1

1 .. .

0 0

u13 d1 u23 d2

··· ···

1

··· .. .

0 0

u1n d1 u2n d2

  ..  .   u(n−1)n   dn−1

0

1

{z

}

U′

Es fácil ver que la multiplicación de las matrices DU ′ dan como resultado la matriz U . Luego, A = LDU Q.E.D. Ejemplo 1.54 Tomemos la matriz A del ejemplo 1.52, donde logramos factorizar A = LU 

 3 6 9  6 5 1  = 9 5 −2 {z } | A

1  2 3 |

 3 0 0 1 0  0 13 1 0 7 {z }| L

 6 9 −7 −17  18 0 7 {z } U

Ahora construimos la matriz D con los elementos de la diagonal principal de U .   3 0 0 0  D =  0 −7 18 0 0 7

La matriz U ′ se construye dividendo las filas o renglones de U por las correspondientes componentes de la diagonal principal de D.   1 2 3  U ′ =  0 1 17 7 0 0 1 Luego A = LDU 

 3 6 9  6 5 1  = 9 5 −2 | {z } A

1  2 3 |

0 1 13 7

{z L

1.11.5. Factorización P A = LU

 3 0 0  0 1 0 }|

0 −7 0 {z D

 0 1 0  0 18 0 7 }|

2 1 0 {z U′

3 17 7

1

 

}

Para la factorización A = LU , la condición inicial consistía en sólo usar operaciones elementales de la forma fi → fi + kfj . Esto limitaba el proceso a aquellas matrices que no generaran ceros en su diagonal principal, durante el proceso de triangulación. Sin embargo, el problema se puede


1. Sistemas de ecuaciones lineales

84

solucionar fácilmente, multiplicamos por una matriz de permutación P , de tal forma que pueda cambiar el orden la algunas filas o renglones de la matriz. Como vimos anteriormente, una matriz de permutación P , es una matriz elemental que se obtiene al tomar la matriz In e intercambiar dos de sus filas o renglones. Si no se requiere de ninguna permutación, diremos que P = In . Cuando hablamos de una matriz P , esta no necesariamente debe ser una, puede necesitarse varias de éstas. .:Teorema 1.23 Sea A una matriz cuadrada de n×n. Entonces existe una matriz de permutación P tal que P A = LU donde L es una matriz triangular inferior con unos en la diagonal y U es una matriz triangular superior. Demostración: La demostración se divide en dos casos: Caso 1: Cuando la matriz A se puede factorizar como A = LU , sin intercambiar filas, en realidad estamos multiplicando por P = In , es decir: A = P A = In A = LU Caso 2: Cuando se requiere hacer una o más permutaciones. En tal caso, se multiplica por a la izquierda de la matriz A por las matrices de permutación que sean necesarias. Posteriormente se procede ha hallar las matrices L y U . Q.E.D. Cuando factorizamos una matriz de 5 × 5 y en algún momento se requiera hacer una permutación, esta se puede hacer de muchas formas (la primera con la última fila, la primera fila por la segunda, etc.). Esto implica que la matriz P es diferente para cada permutación que se le haga a la matriz. Esto nos dice que por cada P se generan matrices L y U distintas. Ejemplo 1.55 Encontrar la factorización P A = LU de la matriz   0 2 −1 5 0  A= 2 1 −3 1

Como podemos observar, la matriz A debe ser permutada para realizar la factorización LU . Para empezar, multiplicaremos por la matriz P :


1. Sistemas de ecuaciones lineales

85

0 P = 0 1

 1 0  0

0 1 0

observemos que al hacer la multiplicación P A tenemos como resultado la matriz

PA =

=

 0 0 1 0  0 1 0  2 1 0 0 1   1 −3 1  2 5 0  0 2 −1

 2 −1 5 0  −3 1

Ahora realizaremos la factorización LU a la matriz, Este proceso lo podemos simplificar usando las propiedades de L y U . Recordemos que L es triangular inferior con unos en la diagonal y la matriz U es triangular superior.      0 2 −1 d e f 1 0 0 0 0 1  0 1 0  2 5 0  =  a 1 0  0 g h  1 −3 1 0 0 i b c 1 1 0 0 {z }| {z } {z }| {z } | | 

P

A

L

U



 d e f 1 0 0 1 −3 1  2 5 0  =  a 1 0  0 g h  0 0 i b c 1 0 2 −1 {z } {z }| {z } | | 

PA

L

U

En este ejemplo mostraremos una forma alternativa de encontrar la factorización LU . Como podemos ver la componente a11 de P A es 1, lo que implica que es el resultado de multiplicar la fila o renglón 1 de L por la columna 1 de U .

1

0 0

1

=

1

=

d+0+0

1

=

d

 d · 0  0

Ya tenemos el valor de d, las demás ecuaciones, permiten encontrar rápidamente los valores de a, b, c y e, f, g, h e i.

−3 = = −3 =

1

0 0

e+0+0 e

 e · g  0


1. Sistemas de ecuaciones lineales

1 =

1 0

0

= 1 =

f +0+0 f

86

 f · h  i

Posteriormente, procedemos con la segunda fila:

2

=

a

1 0

= ad + 0 + 0 2 2

 d · 0  0

= a(1) = a

Luego,

5

=

a

1 0

= ae + g + 0 5 11

 e · g  0

0 =

= (2)(−3) + g = g

b

c 1

0

=

0

= bd + 0 + 0

0

= b

2

2 2 11

=

b

c 1

af + h + 0 (2)(1) + h h

 e · g  0

= be + cg + 0 = (0)(−3) + c(11) = c

0

=

 d · 0  0

1

= −2 =

Por último, hacemos la tercera fila

a

 f · h  i


1. Sistemas de ecuaciones lineales

87

−1 =

c

1

7 11

 f · h  i

= i

Luego, La factorización P A = LU es la siguiente     0 0 1 0 2 −1 1  0 1 0  2 5 0 = 2 1 0 0 1 −3 1 0 | {z }| {z } | P

= bf + ch + i 2 (−2) + i = (0)(1) + 11 4 = − +i 11

1 −

b

A

0 1 2 11 {z L

 1 0 0  0 1 0 }|

 −3 1 11 −2  7 0 − 11 {z } U

Esta forma de encontrar la factorización P A = LU , puede funcionar para matrices de tamaño 3 × 3, 4 × 4 y hasta de 5 × 5, de ahí en adelante se vuelve muy complejo, por la cantidad de variables relacionadas con el proceso. Ejercicios 1.7 1. Encuentre la matriz triangular inferior con unos en la diagonal L y y una matriz triangular inferior U , tal que A = LU a)

b)

c)

d)

1 2 3 4

1 2 0 3

1  2 3

−1 5 6 3

 4 6 −1 3  2 5

e) 

 2 6 −2 0 2  1 5 −1 2 5     3 7 −3 −2 5  −1 −1 1 2 3 f) 

2 4  1 −1 −1 7

 2 3  −7

2. Tome las matrices del punto anterior y realice la factorización LDU de cada una de las matrices dadas. 3. Resuleva el sistema dado usando la factorización LU , dados A y b (resuleva Ax = LU x = b)


1. Sistemas de ecuaciones lineales

88

a)

c) A=

1 2 3 4

b=

−2 4

A=

1 2 0 3

b=

−1 4

d)

b) A=

−1 5 6 3

b=

0 5

   1 4 6 −1 A =  2 −1 3  b =  7  3 2 5 2

4. Para cada una de las matrices dadas a continuación, encuentre: una matriz de permutación P , una triangular inferior L con unos en la diagonal y una matriz escalonada U , tales que P A = LU 1. A= 2.

3.

0 1

1 −1 −1 2

 0 0 3 −2  0 0 2 −1   A=  3 −4 0 2  4 −5 −2 4

4. 

 0 0 −1 2  −1 −1 1 2   A=  2 1 −3 6  0 1 −1 4

 5 −5 10 0 5  −3 3 2 2 1   A=  −2 2 0 −1 0  1 −1 10 2 5 

5. 

0 −1 2 1  −1 1 3 1 A=  1 −1 −3 6 2 −2 −4 1

 3 4   2  0


“Las Matemáticas no son un recorrido prudente por una autopista despejada, sino un viaje a un terreno salvaje y extraño, en el cual los exploradores se pierden a menudo.” — W.S. Anglin (1992)

2 Determinantes 2.1. Definición El determinante determina la unicidad de la solución de un sistema de ecuaciones lineales. Cardano en 1545 introdujo el caso de un determinante de 2 × 2 en su obra Ars magna, lo cual, fue un aporte para resolver sistemas de dos ecuaciones con dos incógnitas. Los determinantes de órdenes superiores tardaron más de cien años en aparecer. Paralelamente, el matemático Kowa Seki en Japón y Leibniz en Alemania dieron a conocer los primeros ejemplos de dichos determinantes. .:Definición 2.1 El determinante de una matriz es una función con dominio Rn×n → R, en la cual se toma una matriz cuadrada y se retorna un número real. Sin embargo, para entender el concepto de determinante se ilustra a continuación el determinante de una matriz de orden 2 y de orden 3, los cuales son necesarios para definir recursivamente los determinantes de orden superior. .:Definición 2.2 (Determinante de una matriz cuadrada de orden 2) a11 a12 Sea A = entonces el determinante de A, denotado por detA o |A| se define como: a21 a22

a11 a12

= a11 a22 − a12 a21

(2.1) detA =

a21 a22

La ecuación 2.1 se obtuvo de la diferencia de los productos de las diagonales, de la siguiente 89


2. Determinantes

90

forma: a11 a21

a12 a22

Ejemplo 2.1 Hallar el determinante de la matriz A =

1 7

, entonces:

5 −4

detA = |A| = (1)(−4) − (7)(5) = −4 − 35 = −39

.:Definición 2.3 (Determinante de una matriz cuadrada de orden 3)   a11 a12 a13 Sea A =  a21 a22 a23 entonces el determinante de A, denotado por detA o |A| se define a31 a32 a33 como:

a11

detA =

a21

a31

a12 a22 a32

a13 a23 a33

= a11 a22

a32

a a23

− a12

21

a31 a33

a a23

+ a13

21

a31 a33

a22

a32

(2.2)

Para hallar el determinante de una matriz 3 × 3 necesitamos calcular el determinante de tres matrices de 2 × 2, las cuales se obtienen de la siguiente forma:

a22 a32 de A. a21 a31 de A. a21 a31 de A.

a23 a33

es la matriz que se obtiene al eliminar la primera fila y la primera columna

a23 a33

es la matriz que se obtiene al eliminar la primera fila y la segunda columna

a22 a32

es la matriz que se obtiene al eliminar la primera fila y la tercera columna

Ejemplo 2.2 Hallar el determinante de la matriz   5 1 2 A =  4 −1 −9  3 5 2 , entonces:


2. Determinantes

91

detA = = = =

|A|

−1 −9

4 −9

4 −1

5

−1

+2

5 2

3 2

3 5

215 − 35 + 46 226

2.2. Método de Sarrus Recibe su nombre del matemático francés Pierre Frédéric Sarrus y es otra forma de ver los determinantes de orden 3. Para calcular el determinante se debe: 1. Repetir las dos primeras columnas de la matriz a la derecha de la misma. 2. Después, sumar los productos de las diagonales descendentes y sustraer los productos de las diagonales ascendentes. a11

a12

a13

a11

a12

a21

a22

a23

a21

a22

a31

a32

a33

a31

a32

3. Los que nos daría |A| =

a11 a22 a33 + a12 a23 a31 + a13 a21 a32 −

a13 a22 a31 − a11 a23 a32 − a33 a21 a12

(2.3)

Ejemplo 2.3 Encuentre el determinante de la matriz   5 1 2 A =  4 −1 −9  3 5 2 Usando el método de Sarrus. Sabemos que: |A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a33 a21 a12

que en forma matricial es

5  4 3 |A| =

=

1 2 5 −1 −9 4 5 2 3

 1 −1  5

(5)(−1)(2) + (1)(−9)(3) + (2)(4)(5) − (2)(−1)(3) − (5)(−9)(5) − (2)(4)(1) 226


2. Determinantes

92

Nota: Éste método sólo se puede aplicar a determinantes 3 × 3 o 2 × 2. El método de Sarrus se puede deducir de la definición del determinante de 3 × 3, pero puede utilizarse como otra forma de calcular el determinante. En los casos anteriores, se ilustró unas formas de calcular el determinante para matrices de orden 2 × 2 y 3 × 3, a continuación, se presentara dos métodos para calcular el determinante de una matriz de n × n.

2.3. Método por cofactores Antes de comenzar a explicar este método, se debe introducir el concepto de cofactor de una matriz A de dimensión n × n. .:Definición 2.4 (La Menor de una Matriz) Dada una matriz A de tamaño n×n, la Menor M ij de A es la matriz de dimensión (n−1)×(n−1) obtenida de A al eliminar el renglón i y la columna j.

 A =

a11 a21 .. .

      ai1   .  .. an1

a12 a22 .. .

··· ··· .. .

a1j a2j .. .

··· ··· .. .

a1n a2n .. .

ai2 .. .

··· .. . ···

aij .. .

··· .. . ···

ain .. .

an2

  Mij =  

        

}

anj |{z} Columna j

ann

a11 ai1 .. .

q12 ai2 .. .

··· ··· .. .

a1(n−1) ai(n−1) .. .

a(n−1)1

a(n−1)2

···

a(n−1)(n−1)

La menor Mij quedaría 

Ejemplo 2.4 Dada la matriz 

 5 −1 3 A= 4 5 7  0 2 −7

Las siguientes matrices son menores obtenidas de la matriz A 5 7 5 M11 = , M22 = 2 −7 0

3 −7

fila i

    


2. Determinantes

93

M31 =

−1 3 5 7

M12 =

,

4 0

7 −7

la siguiente es la definición de cofactor, éste concepto es básico para hallar el determinante de matrices orden superior. .:Definición 2.5 (Cofactor de una matriz) Dada una matriz A de orden n × n, el cofactor ij de A denotado por Aij está dado por: Aij = (−1)i+j |Mij |

i+j

(−1) = 1 si (i + j) es par −1 si (i + j) es impar Ejemplo 2.5 Dada la matriz 

 5 −1 3 5 7  A= 4 0 2 −7

Los siguientes son algunos cofactores de la matriz A

A11

A23

5 = (−1)1+1

2 = −49

7

−7

5

0

−1

2

2+3

= (−1)

= (−1)10 = −10

Los determinantes que hemos visto sólo se pueden aplicar a matrices de orden 2 × 2 o 3 × 3. Para obtener el determinante de una matriz de orden superior, utilizaremos el concepto de cofactor aplicado recursivamente. .:Definición 2.6 (Determinante de una matriz de orden n × n) Sea A de orden n × n. El detA se puede expresar como expansión por cofactores, así: detA = |A| = a11 A11 + a12 A12 + · · · + a1n A1n =

n X

k=1

a1k A1k


2. Determinantes

94

Ejemplo 2.6 Encuentre el determinante de la matriz   5 1 2 A =  4 −1 −9  3 5 2 aplicando la definición de cofactores. Entonces: detA = =

= =

5A11 + 1A12 + 2A13

3 4 −9

2 −1 −9

+ + 1 (−1)

5 (−1)

3 2

5 2

4 −1

2 (−1)4

3 5

5(43) + (1)(−1)(35) + 2(23) 226

De igual manera, es posible hallar los determinantes de matrices de orden superior, pero este proceso recursivo puede ser muy largo, pues, hemos visto que para calcular un determinante de 3 × 3 es necesario calcular tres determinantes de 2 × 2. Si tuviésemos una matriz de 4 × 4 tendríamos que calcular cuatro determinantes de 3 × 3 y cada uno de estos implica tres determinantes de 2 × 2. Para mejorar la rapidez del algoritmo, veremos algunas propiedades que nos permitirán realizar el procedimiento más rápido. Ejercicios 2.1 1. Hallar el determinante de cada una de las siguientes matrices:   1 −1 −1 0  −3 4 6 0   a) A =   2 5 −1 −3  4 0 3 0   0 a 0 0  b 0 0 0   b) A =   0 0 0 c  0 0 d 0   0 b 0 0  c d 0 0   c) A =   0 0 a −b  0 0 c d   2 5 −6 1 0  0 1 −7 6 0     0 0 −7 0  d) A =  0   0 2 1 5 −8  2 −1 5 4 0


2. Determinantes

95

2.4. Propiedades de los determinantes Las siguientes propiedades permiten calcular el determinante de algunas matrices de forma más fácil, en algunos casos sin recurrir a la expansión por cofactores. .:Teorema 2.1 Sea A de orden n × n, triangular inferior o superior, entonces el determinante detA, es igual al producto de los elementos de la diagonal principal: detA = a11 a22 a33··· ann Demostración: Para el caso en que A sea triangular superior. La demostración se hará por inducción: a11 a12 y el detA = a11 a22 − 0a12 = a11 a22 . Si n = 2, entonces A = 0 a22 Ahora supongamos que la proposición es valida para toda matriz triangular superior de orden n − 1 y veamos que se cumple si A e de orden n. Sea A un matriz triangular superior de orden n  a11 a12  0 a22  A= . ..  .. . 0

0

··· ··· .. .

a1n a2n .. .

···

ann

    

Si desarrollamos el detA por los cofactores de la primera columna se obtiene que: detA

= a11 A11 = a11 (−1)1+1 |M11 |  a22 a23  0 a33  = a11 det  . ..  .. . 0

0

··· ··· .. .

a2n a3n .. .

···

ann

    

Como M11 es triangular superior de orden n − 1, por hipótesis de inducción, se tiene que: detA = a11 (a22 a33 · · · ann ) = a11 a22 a33 · · · ann

Luego, la proposición es válida para toda matriz triangular superior de orden n. Se deja como ejercicio probar la proposición, para una matriz A triangular inferior. Q.E.D.


2. Determinantes

96

.:Corolario 2.1 Sea D una matriz diagonal de orden n  d1  d2  D= ..  .

 dn

Entonces, el detD = d1 d2 · · · dn

Ejemplo 2.7 Hallar el determinante de las matrices     1 5 6 1 0 0 A =  0 2 3  ,B =  1 −7 0  0 0 7 7 −4 5

   

y

π 0 C= 0 e 0 0

 0 0  k

Para la matriz A, el determinante es muy fácil, solo debemos multiplicar la diagonal. detA = =

(1)(2)(7) 14

De igual manera para la matriz B. detB

= (1)(−7)(5) = −35

Si vemos la definición de matriz diagonal, se puede usar el mismo concepto de matriz triangular inferior y superior (ver Definición 1.17): detC

.:Teorema 2.2 Sea A de orden n × n:    A= 

= (π)(e)(k) = πek

a11 a21 .. .

q12 a22 .. .

··· ··· .. .

a1n a2n .. .

an1

an2

···

ann

    

Entonces, es posible hallar el determinante de A expandiendo cualquier fila de A por cofactores, es decir: detA

= ai1 Ai1 + ai2 Ai2 + · · · + ain Ain n X = aik Aik para i = 1, 2, 3, . . . n k=1

(2.4)


2. Determinantes

97

o bien, es posible hallar el determinante de A expandiendo cualquier columna de A por cofactores, es decir: detA = =

a1j A1j + a2j A2j + · · · + anj Anj n X akj Akj para j = 1, 2, 3, . . . n

(2.5)

k=1

Demostración: La demostración de este teorema se basa en la demostración hecha por S. Grossman [1]. a11 a13 Iniciaremos la demostración por inducción, Tomaremos la matriz A = de tamaño a21 a22 2 × 2, al expandirla por cofactores, obtenemos: det A = = =

a11 A11 + a12 A12 a11 (a22 ) + a12 (−a21 ) a11 a22 − a12 a21

Ahora bien, expandiendo el segundo renglón obtenemos un trabajo similar: det A = = =

a21 A21 + a22 A22 a21 (−a12 ) + a22 (a11 ) a11 a22 − a12 a21

En ambos casos (2.4) y (2.5), llegamos a la definición de determinante de 2×2. Ahora, asumamos que (2.4) y (2.5) son verdaderas para todas las matrices de tamaño (n − 1) × (n − 1) y debemos demostrar que se cumple para todas las matrices de tamaño n × n. Para ello veremos que la expansión de la fila 1 es igual o equivalente a la expansión de la fila i, de igual manera para las columnas. Entonces, tomemos la expansión por cofactores de la primera fila: a1k A1k = (−1)1+k a1k |M1k |

(2.6)

Este es el único lugar en la expansión del det A en el que aparece el término a1k ya que otro término general sería a1m A1m = (−a)1+m |M1m | con k 6= m y M1m se obtiene eliminando el primer renglón y la m−ésima columna de A(y aik esta en el primer renglón de A). Como M1k es una matriz de (n − 1) × (n − 1), por hipótesis de inducción se puede calcular |M1k |expandiendo el renglón i de A (que es el renglón (i − 1) de M1k ). Un término más general de esta expansión seria ail (cofactor de aij en M1k ) con k 6= 1 (2.7) Ahora bien, este es el único término en la expansión de |M1k | enel i−ésimo renglón de A que contiene el término ail , sustituyendo (2.7) en la ecuación (2.6), se puede encontrar que (−1)1+k a1k ail (cofactor de aij

en M1k )

con k 6= 1

(2.8)


2. Determinantes

98

es la única ocurrencia de del término aik ail en la expansión por cofactores de det A en el primer renglón. Ahora, si se expande por cofactores el renglón i de A donde i 6= 1el término general es (−1)i+l ail |Mil |

(2.9)

y el término general en la expansión de |Mil |en el primer renglón de Mil es a1k (cofactor de aik

en Mil ) con k 6= 1

(2.10)

Si se inserta (2.10) en el término (2.9) se encuentra que la última ocurrencia del término ail aik en la expansión del renglón i de det A es (−1)i+l aik ail (cofactor de aik

en Mil ) con k 6= l

(2.11)

Si se puede demostrar que las expansiones (2.8) y (2.11) son iguales, entonces (2.4) quedaría demostrada, ya que el término en (2.8) es la única ocurrencia de a1k ail en la expansión del primer renglón, el término en (2.11) es la única ocurrencia de a1k ail en la expansión del i−ésimo renglón, y k, i y l son arbitrarios, Esto demostrará que las sumas de términos en la expansiones en los renglones 1 e i son iguales. Ahora sea M1i,kl la matriz de (n − 2) × (n − 2) obtenida al eliminar al eliminar los renglones 1 e i y las columnas k y l de A (Menor de segundo orden de A), primero se supone que k < l. Después   a21 · · · a2(k−1) a2(k+1) · · · a2l · · · a2n  .. .. .. .. ..   . . . . .     M1k =  ail · · · ai(k−1) ai(k+1) · · · ail · · · ain  (2.12)   . . . . .  . . . . .  . . . . .  an1 · · · an(k−1) an(k+1) · · · anl · · · ann 

a11 .. .

    a(i−1)1 M1l =   a(i+1)1   ..  . an1

···

a1k · · · .. .

a1,(l−1) .. .

a1(l+1) .. .

···

a1n .. .

··· ···

a(i−1)k · · · a(i+1)k · · · .. .

a(i−1)(l−1) a(i+1)(l−1) .. .

a(i−1)(l+1) a(i+1)(l+1) .. .

··· ···

a(i−1)n a(i+1)n .. .

···

ank

an(l−1)

an(l+1)

···

ann

De (2.12) y (2.13) se ve:

         

(2.13)

Cofactor de ail en M1k = (−1)(i−1)+(l−1) |M1i,kl |

(2.14)

Cofactor de a1k en Mil = (−1)(1+k) |M1i,kl |

(2.15)

Entonces (2.8) se convierte en (−1)1+k a1k ail (−1)(i−1)+(l−1) |M1i,kl | = (−1)i+k+l−1 a1k ail |M1i,kl |

(2.16)


2. Determinantes

99

y (2.11) se convierte en (−1)1+l a1k ail (−1)(1+k) |M1i,kl | = (−1)i+k+l+1 a1k ail |M1i,kl |

i+k+l−1

(2.17)

i+k+l+1

Pero (−1) = (−1) , de manera que los lados derechos de las ecuaciones (2.16) y (2.17) son iguales. Así, las expresiones (2.8) y (2.11) son iguales y el teorema queda demostrado, en el caso k < l; después, por un razonamiento similar, se encuentra que k > l, Cofactor de ail en M1k = (−1)(i−1)+l |M1i,kl | Cofactor de a1k en M1l = (−1)(1+(k−1)) |M1i,kl | De manera que (2.8) se convierte en (−1)1+k a1k ail (−1)(i−1)+l |M1i,kl | = (−1)1+k+l a1k ail |M1i,kl | y (2.11) se convierte en (−1)1+l a1k ail (−1)(1+k−1) |M1i,kl | = (−1)k+l a1k ail |M1i,kl | Y esto completa la prueba del teorema. Q.E.D. Ejemplo 2.8 Hallar el determinante de la matriz   5 1 2 A =  4 −1 −9  3 5 2

Hallemos el determinante de A, expandiendo la tercera fila de A y posteriormente la segunda columna. Si lo hacemos expandiendo la tercera fila tendríamos: detA = a31 A31 + a32 A32 + a33 A33 3 X a3k A3k para i = 1, 2, 3 = k=1

1 2 = 3 (−1)

−1 −9

3+3 5 +2 (−1)

4 = 226

3+1

+ 5 (−1)3+2 5

4

1

−1

2

−9

Ahora, calcularemos el mismo determinante expandiendo la segunda columna:


2. Determinantes

100

detA = a12 A12 + a22 A22 + a32 A32 3 X = ak2 Ak2 para i = 1, 2, 3 k=1

4 −9

2+2 5

= 1 (−1) + (−1) (−1)

3

3 2

5 2

+5 (−1)3+2

4 −9

1+2

2

2

= 226

Las siguientes son las propiedades más relevantes de los determinantes: .:Teorema 2.3 (Propiedad 1) Si A es una matriz cuadrada de orden n y A tiene una fila (o columna) nula, entonces detA = 0 Demostración: Si A tiene una fila (columna) nula, es decir, todas las componentes de esa fila serán cero. Sea i la fila nula de A. Entonces calculamos el determinante de dicha fila detA

=

ai1 Ai1 + ai2 Ai2 + · · · + ain Ain |{z} |{z} |{z} 0

0

0

= 0Ai1 + 0Ai2 + · · · + 0Ain = 0

De igual manera se puede hacer con una columna de la matriz. Q.E.D. .:Teorema 2.4 (Propiedad 2) Si A es una matriz cuadrada de orden n. Si cualquier fila de A se multiplica por un escalar k, el determinante de la nueva matriz es k veces el determinante de A. Demostración: Tomemos B como la matriz que se obtiene al tomar la matriz A y multiplicar la fila i por un escalar k, es decir :


2. Determinantes

a11 a21 .. .

    A=  ai1   .  .. an1

101

a12 a22 .. .

··· ··· .. .

a1j a2j .. .

··· ··· .. .

a1n a2n .. .

ai2 .. .

··· .. . ···

aij .. .

··· .. . ···

ain .. .

an2

anj

ann

         

a11 a21 .. .

    y B=  kai1   .  .. an1

a12 a22 .. .

··· ··· .. .

a1j a2j .. .

··· ··· .. .

a1n a2n .. .

kai2 .. .

··· .. . ···

kaij .. .

··· .. . ···

kain .. .

an2

anj

ann

Ahora obtenemos el determinante de B expandiendo por cofactores la fila i. detB = kai1 Bi1 + kai2 Bi2 + · · · + kain Bin

Recordemos que A y B sólo difieren en la i-ésima fila, por lo tanto, los cofactores Aij y Bij son iguales para todo j = 1, 2 . . . n. Entonces reemplazamos Aij por Bij . detB

= = =

kai1 Ai1 + kai2 Ai2 + · · · + kain Ain k (ai1 Ai1 + ai2 Ai2 + · · · + ain Ain ) k (detA)

Q.E.D. .:Corolario 2.2 Si A es una matriz cuadrada de orden n, entonces: det(kA) = k n detA .:Teorema 2.5 (Propiedad 3) Sean A, B y C matrices cuadradas de orden n idénticas excepto por la i-ésima fila, y tal que la i-ésima fila de C es la suma de la i-ésimas filas de A y B. Entonces y sólo entonces: detC = detA + detB Demostración: Sean: 

a11 a21 .. .

    A=  ai1   .  .. an1

a12 a22 .. .

··· ··· .. .

a1j a2j .. .

··· ··· .. .

a1n a2n .. .

ai2 .. .

··· .. . ···

aij .. .

··· .. . ···

ain .. .

an2

anj

ann

    ,    

a11 a21 .. .

    y B=  bi1   .  .. an1

a12 a22 .. .

··· ··· .. .

a1j a2j .. .

··· ··· .. .

a1n a2n .. .

bi2 .. .

··· .. . ···

bij .. .

··· .. . ···

bin .. .

an2

anj

ann

         

         


2. Determinantes

102

a11 a21 .. .

    C =  ai1 + bi1   ..  . an1

a12 a22 .. .

··· ··· .. .

a1j a2j .. .

··· ··· .. .

a1n a2n .. .

ai2 + bi2 .. .

··· .. . ···

aij + bij .. .

··· .. . ···

ain + bin .. .

an2

anj

ann

Ahora, desarrollando el detC tenemos

detC

= =

         

(ai1 + bi1 )Ci1 + (ai2 + bi2 )Ci2 + · · · + (ain + bin )Cin (ai1 Ci1 + ai2 Ci2 + · · · + ain Cin ) + (bi1 Ci1 + bi2 Ci2 + · · · + bin Cin )

Como Aij = Bij = Cij para j = 1, 2, . . . , n entonces detC

=

(ai1 Ai1 + ai2 Ai2 + · · · + ain Ain ) + (bi1 Bi1 + bi2 Bi2 + · · · + bin Bin )

=

detA + detB

Nota: La propiedad 3, de ninguna manera debe confundirse con det(A + B) = detA + detB, igualdad que generalmente es falsa Q.E.D. .:Teorema 2.6 (Propiedad 4) Sea A una matriz cuadrada de orden n. Si se intercambian dos filas cuales quiera de A, el determinante de la matriz así obtenida es igual a detA multiplicado por (-1). Demostración: La demostración de esta propiedad se baso en la hecha por Restrepo P. en [2]. Construyamos la matriz B de forma que se tome la matriz A y se intercambian las filas adyacentes i e (i + 1), de forma que: 

a11 a21 .. .

     A=  ai1  a(i+1),1   ..  . an1

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

ai2 a(i+1),2 .. .

··· ··· .. .

ain a(i+1),n .. .

an2

···

ann

           

a11 a21 .. .

     y B=  a(i+1),1  ai1   ..  . an1

Ahora, obtenemos el detA por cofactores de la i−ésima fila de A

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

a(i+1),2 ai2 .. .

··· ··· .. .

a(i+1),n ain .. .

an2

···

ann

           


2. Determinantes

103

detA = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain y el detB por cofactores de la (i + 1)−ésima fila de B detB = ai1 B(i+1),1 + ai2 B(i+1),2 + · · · + ain B(i+1),n

′ Sea M ′ la menor de la matriz B, entonces, M(i+1),j de B es igual al menor Mij de la matriz A,

B(i+1),j

′ = (−1)i+1+j |M(i+1),j |

= (−1)i+1+j |M ij | = −(−1)i+j |M ij |

= −Aij

Como vemos, B(i+1)j = −Aij , es decir, B(i+1)j = (−1)Aij , si calculamos de nuevo el detB teniendo en cuenta este resultado obtenemos lo siguiente: detB

= = =

ai1 (−Ai1 ) + ai2 (−Ai2 ) + · · · + ain (−Ain ) −(ai1 Ai1 + ai2 Ai2 + · · · + ain Ain )

(2.18)

−detA

Lo que muestra es que, al intercambiar dos filas adyacentes de una matriz, el procedimiento se verá reflejado en el determinante al cambiar de signo. Ahora supongamos que la matriz B se construye de la misma intercambian no son adyacentes.    a11 a12 · · · a1n a11  a21 a22 · · · a2n   a21    .. ..   ..  .. ..  .   . . . .     aj1 aj2 · · · ajn   ai1    A= . y B= .  . . . .. .. ..   ..  ..     ai1 ai2 · · · ain   aj1     .   . .. .. ..  ..   .. . . . an1 an2 · · · ann an1

manera, pero las filas que se a12 a22 .. .

··· ··· .. .

a1n a2n .. .

ai2 .. .

··· .. . ··· .. .

ain .. .

aj2 .. . an2

···

ajn .. . ann

              

En este caso, se toman las filas i y j de modo que j > i. Para demostrarlo de esta forma tendríamos que intercambiar varias veces las filas hasta que, ambas filas, i y j estén adyacentes. Este proceso conlleva realizar i − j intercambios de filas adyacentes. La j−ésima fila se moverá una posición, es decir a la j + 1 fila, esto implica (i − (j + 1)) intercambios adicionales para que las dos filas queden adyacentes. Luego el número total de intercambios serán: (i−j)+(i−j −1) = 2i−2j-1, el cual lo podemos ver de la siguiente forma 2(i − j)-1 que es un numero impar de movimientos, y por por (2.18)


2. Determinantes

104

detB

= (−1)2i−2j−1 detA = (−1)2(i−j)−1 detA = (−1)(−1)2(i−j) detA

Factorizando el (−1)

= (−1)detA Esto es, al intercambiar dos filas cuales quiera de A, el determinante de la matriz así obtenida es igual a detA multiplicado por -1.

Q.E.D. De lo anterior, podemos deducir el siguiente corolario. .:Corolario 2.3 Sea P una matriz de permutación, entonces: 1. El detP = −1 2. Si tenemos k permutaciones en P , entonces detP = (−1)k donde k es el número de intercambios de filas. .:Teorema 2.7 (Propiedad 5) Sea A una matriz cuadrada de orden n. Si dos filas de A son iguales, entonces el detA = 0 Demostración: Supongamos que las filas i y j de A son iguales:  a11 a12  a21 a22   .. ..  . .   aj1 aj2  A= . ..  .. .   ai1 ai2   . ..  .. . an1 an2

··· ··· .. .

a1n a2n .. .

··· .. . ··· .. .

ajn .. .

···

ann

ain .. .

              

Tal que ajk = aik para todo k = 1, 2, . . . , n. Ahora bien, si intercambiamos las filas i y j, entonces obtendremos la matriz B, cuyo determinante es detB = −detA.


2. Determinantes

105

a11 a21 .. .

      ai1  B= .  ..   aj1   .  .. an1

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

ai2 .. .

··· .. . ··· .. .

ain .. .

aj2 .. . an2

ajn .. .

···

ann

              

Como ambas filas son iguales, al intercambiarlas el resultado es de nuevo la matriz A, es decir: A = detA = = detA + detA = 2detA = detA =

B detB −detA 0 0 0 Q.E.D.

.:Teorema 2.8 (Propiedad 6) Sea A una matriz cuadrada de orden n. Si A tiene una fila que es múltiplo escalar de otra, entonces el detA = 0 Demostración: Supongamos que la fila j es múltiplo k = 1, 2, . . . , n. y β ∈ R.  a11  a21   ..  .   aj1  A= .  ..   βaj1   .  .. an1

escalar de la fila i, es decir βajk = aik para todo a12 a22 .. .

··· ··· .. .

a1n a2n .. .

aj2 .. .

··· .. . ··· .. .

ajn .. .

βaj2 .. . an2

···

βajn .. . ann

           fila i   

Usando la propiedad 1, podemos decir que detA = βdetA, pero como A, al factorizar β, queda con dos filas iguales, entonces podemos aplicar la propiedad 5, lo que implicaría que detA = 0. Q.E.D.


2. Determinantes

106

.:Teorema 2.9 (Propiedad 7) Sea A una matriz cuadrada de orden n. Si sumamos un múltiplo escalar de una fila a otra, entonces el determinante de A no cambia Demostración: Sea C la matriz obtenida al realizar la operación elemental fi → fi + kfj de A, es decir, se intercambia la fila i por la misma fila i más la fila j multiplicada por el escalar k en la matriz A.   a11 a12 ··· a1n   a21 a22 ··· a2n     . .. .. . .. ..   . .     a a · · · a j1 j2 jn   C =  . .. .. . . .   . . . .    ai1 + kaj1 ai2 + kaj2 · · · ain + kajn      .. .. .. ..   . . . . an1 an2 ··· ann Podemos escribir, a partir de A′ , las siguientes matrices: 

a11 a21 .. .

      aj1  A= .  ..   ai1   .  .. an1

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

aj2 .. .

··· .. . ··· .. .

ajn .. .

···

ann

ai2 .. . an2

ain .. .

             

y

a11 a21 .. .

      aj1  B= .  ..   kaj1   .  .. an1

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

aj2 .. .

··· .. . ··· .. .

ajn .. .

kaj2 .. . an2

···

kajn .. . ann

              

Podemos observar que detB = 0 por la propiedad 6. Si aplicamos la propiedad 3, tenemos que detC

= =

detA + detB detA + 0

=

detA Q.E.D.

.:Corolario 2.4 Si E es una matriz elemental de orden n, donde se aplique la operación elemental fi → fi + kfj , entonces detE = 1 Los siguientes ejemplos muestran los beneficios de aplicar las propiedades de los determinantes frente a usar el método por cofactores.


2. Determinantes

107

Ejemplo 2.9 Hallar el determinante de la matriz   2 7 −4 −1  10 −90 79 51   A=  −10 −35 20 5  97 28 14 74

Calcular el determinarte de A por cofactores implicaría un gran esfuerzo de computo, pero aplicando las propiedades, podemos ver que la tercera fila es múltiplo escalar de la primera, es decir f3 = −5f1 , luego aplicando la propiedad 6, el detA = 0. Ejemplo 2.10 Calcular

Solución:

1 3 5 2

0 −1 3 4 |A| =

1 9 6

2

3 2 4 8

|A| =

1 3 5 0 −1 3 2 1 9 3 2 4

2 4 6 8

Tratamos de convertirlo en el determinante de una matriz triangular.

- Multiplicamos el renglón 1 por dos y lo restamos del tercero. - Multiplicamos el renglón 1 por 3 y lo restamos del 4, entonces:

|A| =

1 3 5 0 −1 3 0 −5 − 1 0 −7 −11

2 4 2 2

- Multiplicamos el renglón 2 por -5 y lo sumamos al tercero. - Multiplicamos el renglón 2 por -7 y lo sumamos al cuarto, entonces:

1 3 5 2

0 −1 3 4

|A| =

0 −16 −18

0

0 0 −32 −26

- Multiplicamos el renglón 3 por -2 y lo sumamos al cuarto y se obtiene:

1 3 5 2

0 −1 3 4

|A| =

0 −16 −18

0

0 0 0 10

Como la matriz que se obtiene es triangular superior, detA=producto de los elementos en la diagonal principal detA = 1. (−1) . (−16) .10 = 160


2. Determinantes

108

NOTA: el objetivo al aplicar las propiedades a un determinante es: a) Convertirlo en el determinante de una matriz triangular superior o inferior b) Hacer que una fila o columna se convierta en ceros c) Hacer que dos filas o columnas sean iguales d) Hacer que una fila o columna sea múltiplo de otra Si después de aplicar las propiedades no se puede llegar a ninguno de los resultados anteriores, el determinante se puede calcular por cualquiera de los siguientes métodos: 1. Método de expansión por cofactores. 2. Método de Chió. Ejemplo 2.11 Hallar el determinante de la matriz reduciéndola a forma triangular:   2 2 0 4  3 3 2 2   A=  0 1 3 2  2 0 2 1

Solución:

Hallamos que:

2 2

3 3 detA =

0 1

2 0

= 2

1 0 0 0

= −2

= −2

1 0 1 −2

1 1 0 1 0 0 0 −2 1 0 0 0

1 1 0 0

0 2 3 2

4 2 2 1

= 2

1 3 0 2

1 3 1 0

0 2 3 2

2 2 2 1

Propiedad de la multiplicación por un escalar

0 2

2 −4

Dos veces la propiedad de suma de filas 3 2

2 −3

0 3 2 2

2 2 −4 −3

Propiedad de intercambio de filas

0 2

3 2

Propiedad de suma de filas 2 −4

8 1


2. Determinantes

= −2 (2)

= −2 (2)

1 0 0 0

1 1 0 0

1 0 0 0

1 1 0 0

109

0 2

3 2

Propiedad de multiplicación por escalar 1 −2

8 1

0 2

3 2

Propiedad de suma de filas 1 −2

0 17

Por tanto, det (A) = (−2) (2) (17) = −68

1 −1 Ejemplo 2.12 Calcular detA cuando A =  1 0 2 1

Solución:

 3 −1  6

La matriz tiene elementos que son cero en la segunda fila, por lo que el desarrollo por esta segunda fila debería conllevar menos trabajo. Sin embargo, se puede realizar una operación elemental entre columnas para obtener un cero en la posición (2, 3): sumar la columna 1 a la columna 3. Ya que esto no cambia el valor del determinante se obtiene:

1 −1 3 1 −1 4

−1 4

= 12

detA = 1 0 −1 = 1 0 0 = −

1 8

2 1 2 1 8 6

donde se ha desarrollado la segunda matriz 3 × 3 por la fila 2.

a

Ejemplo 2.13 Si det

p

x

Solución:

b q y

c r z

a+x

= 6, calcular detA donde A =  3x

−p

En primer lugar se sacan factores comunes de las filas 2 y 3:

a+x b+y c+z

y z detA = 3 (−1)

x

p q r

b+y 3y −q

 c+z 3z  −r

A continuación, se resta la segunda fila a la primera y se intercambian las últimas dos filas:

a b c

a b c

detA = −3

x y z

= 3

p q r

= (3).(6) = 18

x y z

p q r

  1 x x Ejemplo 2.14 Encontrar los valores de x para los cuales detA = 0, donde A =  x 1 x  x x 1


2. Determinantes

110

Solución:

1

detA =

x

x

x x x

1 1 x

=

0 1 − x2 x 1 0 x − x2

x x − x2 1 − x2

1 − x2

=

x − x2

x − x2

1 − x2

En este caso, se podría evaluar únicamente el determinante (el resultado es 2x3 − 3x2 + 1 y posteriormente factorizar el polinomio para encontrar los valores de x que lo hacen cero. Sin embargo, esta factorización se puede obtener directamente si se factoriza primero cada elemento del determinante y se saca el factor común (1 − x) de cada fila: detA = = =

(1 − x) (1 + x) x (1 − x)

x (1 − x) (1 − x) (1 + x)

x

2 1+x (1 − x)

x 1+x

(1 − x)2 (2x + 1) 2

De aquí se deduce que detA = 0 significa (1 − x) (2x + 1) = 0, por lo que x = 1 o x = − 21 Ejemplo 2.15 Si se dan a1 , a2 y a3 , demostrar que:

1 1 1

det

a1 a2 a3

= (a3 − a2 ) (a3 − a1 ) (a2 − a1 )

a21 a22 a23

Solución:

Se comienza restando la segunda columna a la tercera y después restando la primera columna a la segunda:

1 1 1 1

0 0

a1 a2 a3 = a1 a2 − a1 a3 − a2 = a22 − a21 a23 − a22

2

a2 − a1 a3 − a2

a1 a22 a23 a21 a22 − a21 a23 − a22

Ahora (a2 − a1 )y (a3 − a2 ) son factores comunes de las primera y la segunda columna, por lo que:

1

a1

2

a1

Ejercicios 2.2

1 a2 a22

1 a3 a23

= =

(a3 − a2 ) (a2 − a1 )

1 a2 + a1

(a3 − a2 ) (a2 − a1 ) (a3 − a1 )

1

a3 + a2


2. Determinantes 1. Suponiendo que:

a11 a12 a13

a21 a22 a23

a31 a32 a33

111

=8

calcule los siguientes determinantes:

a21 a22 a23

a)

a31 a32 a33

a11 a12 a13

a11 a13 a12

b)

a21 a23 a22

a31 a33 a32

a11 a12 a13

c)

2a21 2a22 2a23

a31 a32 a33

d)

e)

f )

2. Muestre que el valor del determinante

−3a11 2a21 5a31

−3a12 2a22 5a32

a11 a21 a31

2a13 2a23 2a33

a12 a22 a32

a11 a21 a31

−3a13 2a23 5a33

a12

a22

a32

2a12 − a11

2a22 − a21

2a32 − a31

23 54 96

21 21 36

−45 87 63

es 65583, utilizando las distintas propiedades de éste. 3. Demuestre que

1 + x1

x1

x1

..

.

x1

x2 1 + x2 x2 .. .

x3 x3 1 + x3 .. .

··· ··· ···

xn xn xn .. .

x2

x3

···

1 + xn

= 1 + x1 + x2 + · · · + xn

2.5. Método de Chió para hallar determinantes El objeto del método de Chió es reducir el determinante de orden n a otro de orden n − 1 en cada iteración. Procedimiento: 1. Elegir en el determinante un elemento pivote de valor 1. Si el pivote uno, no se encuentra, se aplican propiedades hasta hallarlo. 2. Se determina la fila o columna a la cual pertenece el pivote. Supongamos que 1 está en ubicado en la fila 2 y la columna 3. Por ejemplo:


2. Determinantes

112

En este caso i = 2 y j = 3

|A| =

a11 a21 a31 a41

a12 a22 a32 a42

a13 1 a33 a43

a14 a24 a34 a44

3. Se obtiene un determinante de menor orden en la siguiente forma:

i+j

|A| = (−1)

a11 − a21 a13

a31− a21 a13

a41− a21 a13

a12 − a22 a13 a32− a22 a13 a42 − a22 a13

a14 − a24 a13 a34 − a24 a13 a44 − a24 a13

4. Al determinante resultante se le aplican nuevamente los pasos anteriores hasta obtener un determinante de orden 2. Ejemplo 2.16 Calcular el siguiente determinante por el método de Chió.

1 3 −1 −1

2 −2 1 3

|A| =

1 −4

3 −1

8 2 −2 −4

Supongamos que se escoge como pivote el 1 que esta en la fila 3 columna 3

|A| =

=

1 3 −1 −1

1 − 3 (−1) 3 − (−1) (−1) −1 − (−4) (−1)

2 −2 1 3

3+3

3 − (−4) (1) = (−1)

2 − 3 (1) −2 − (−1) (1) 3 −1 1 −4

8 − 3 (−2) 2 − (−1) (−2) −4 − (−4) (−2) 8 2 −2 −4

4 2 −5

7

+

−1 −1

14 0 −12

Ahora aplicamos el método de Sarrus, obteniendo detA=150 Ejemplo 2.17 Resolver por el método de Chió.

3 2

2 5

|A| =

4 2

0 5

0 4

0 6 2 0 2

4 2 3 2 2

7 8 3 2 2


2. Determinantes

113

Como la matriz no tiene un 1 f4 → f4 − f5

3 2

2 5

|A| =

4 2

0 5

0 4

en ninguna posición aplicamos la siguiente operación de fila: 0 6 2 0 2

4 2 3 2 2

7 8 3 2 2

f4 → f4 − f5

3 2 4 0 0

2 0 5 6 2 2 1 −2 4 2

4 2 3 0 2

7 8 3 0 2

Ahora aplicamos el método de Chió con el pivote de valor que se encuentra en la fila 4 columna 2

=

=

3 − (2) (0)

6 2 − (5) (0) (−1)

4 − (2) (0)

0 − (4) (0)

3 4 4 7

2 16 2 8

4 6 3 3

0 10 2 2

0 − (2) (−2) 6 − (5) (−2) 2 − (2) (−2) 2 − (4) (−2)

4 − (2) (0) 2 − (5) (0) 3 − (2) (0) 2 − (4) (0)

7 − (2) (0) 8 − (5) (0) 3 − (2) (0) 2 − (4) (0)

Volvemos aplicar el método de Chió, pero como no tenemos un 1, debemos aplicar la operación de fila: f3 → f3 − f4

3 4 4 7

3 4 4 7

2 16 2 8

2 16 2 8

4 6 3 3 f3 → f3 − f4 4 −4 1 1

0 10 2 2

0 10 2 2

Ahora aplicamos el método de Chió teniendo como pivote el valor 1 de la fila 3 columna 3.

3 − (4) (4) 4 − (−4) (4) 7 − (4) (1)

−13 20 3

3+3

= (−1)

2 − (4) (2) 16 − (−4) (2) 8 − (2) (1) = + −6 24 6

0 − (4) (2) 10 − (−4) (2) 2 − (2) (1)

−8 18 0

Ahora aplicamos el método de Sarrus para hallar el determinante y obtenemos: detA=696

2.6. Determinantes y matrices especiales Cuando queremos encontrar la solución a un sistema de ecuaciones lineales ¿es posible saber, apriori, si un sistema ecuaciones lineales tiene única solución o múltiples soluciones?. O como veremos más adelante, el determinante puede en algún momento (si la matriz es cuadrada) decirme si el sistema tiene única solución o no. Sin embargo, el costo computacional puede ser muy grande. Los siguientes teoremas muestran la relación entre los sistemas de ecuaciones lineales y el determinante. Posteriormente veremos el determinante de algunas matrices como la matriz inversa y la traspuesta. .:Teorema 2.10 Sea E una matriz elemental definida por la operación elemental fi → kfi , entonces, detE = k


2. Determinantes

114

Demostración: Es fácil ver que el determinarte de una matriz identidad I de tamaño n es 1, pues la matriz identidad es triangular inferior y superior a la vez, luego por el Teorema 2.1, tenemos que el detI = 1. Ahora bien, si E es de la forma fi → kfi , entonces una de las filas de I se esta multiplicando por un número k, si aplicamos la propiedad 2, tendemos que: detE

= = =

detI · (k) 1·k k

Q.E.D. .:Teorema 2.11 Sea E una matriz elemental definida por la operación elemental fi → fi + kfj , entonces, detE = 1 Demostración: De igual manera, el determinarte de una matriz identidad I de tamaño n es 1 (Teorema 2.1) Si E es de la forma fi → fi + kfj , entonces, una de las filas de I se le esta sumando un múltiplo escalar de otra, por lo tanto, y al aplicar la propiedad 7, su determinante no cambia, luego detE = 1. Q.E.D. .:Teorema 2.12 Sea E una matriz elemental definida por la operación elemental fi ⇆ fj , entonces, detE = −1 Demostración: De igual manera, el determinarte de una matriz identidad I de tamaño n es 1 (Teorema 2.1) Si E es de la forma fi ⇆ fj , entonces, dos de las filas de I se intercambian, aplicando la propiedad 4, tenemos que el detI debe multiplicarse por (-1), por lo tanto, detE

= =

detI · (−1) −1

Q.E.D. Ejemplo 2.18 Hallar el determinante de las siguientes matrices elementales       1 0 0 1 0 0 0 1 0 A =  0 4 0 , B =  0 1 0 , C =  1 0 0  0 0 1 −2 0 1 0 0 1


2. Determinantes

115

Solución: La matriz A es de la forma f2 → 4f2 , luego detA = 4. La matriz B es de la forma f3 → f3 + (−2)f1 , luego detA = 1, Además, es fácil ver que la matriz B es triangular inferior, por lo tanto, podemos aplicar el teorema 2.1. La matriz C es de la forma f1 ⇆ f2 , luego detC = −1

El siguiente teorema puede contestar la pregunta que hicimos al principio de esta sección: ¿es posible saber, apriori, si un sistema ecuaciones lineales tiene única solución o múltiples soluciones?. Es decir, si una matriz es invertible o no, se puede establecer que un sistema tiene solución única o múltiples soluciones. .:Teorema 2.13 Sea A una matriz de tamaño n×n, entonces A es invertibles si y sólo si detA 6= 0 Demostración: Por el teorema 1.21, podemos obtener la factorización de la matriz A en su forma LU , usando matrices elementales. La matriz A se puede expresar en forma de LU sin usar la operación elemental fi → kfi , es decir, sin multiplicar las filas por escalares, luego las matrices elementales obtenidas serán de esta misma forma. Ahora bien, si aplicamos las propiedades 4 y 7 que son las relacionadas con estas dos operaciones, podemos convertir la matriz A en la matriz U . Recuerde que no hemos usado las operaciones elementales de la forma fi → kfi . Luego: detA = ±detU El ± depende de la cantidad de veces que se apliquen operaciones elementales de permutación, pues si es un número par de veces será + y si es un número impar de veces será un - . Supongamos que A es invertible, entonces U es una matriz triangular superior con todos los elementos de la diagonal principal diferentes e cero, es decir esta en la forma FER (Definición 1.11 y teorema 1.12), entonces por el teorema 2.1 tenemos que: detU = u11 u22 · · · unn 6= 0 Por lo tanto, detA 6= 0. Ahora bien, supongamos que detA 6= 0, como detA = ±detU , luego detU 6= 0 y por ser U triangular superior, entonces aplicamos de nuevo el teorema 2.1 y tenemos que detU = u11 u22 · · · unn 6= 0 Como U es la forma FER de A, entonces por definición 1.11 y teorema 1.12, tiene n pivotes y por lo tanto, A es invertible. Q.E.D.


2. Determinantes

116

Ejemplo 2.19 Tomemos la matriz A= Su inversa es

A−1 = 

1 −9 −2 5

5 − 13

9 − 13

2 − 13

1 − 13

Y si calculamos detA = 5 − 18 = 13, luego detA 6= 0

 

.:Teorema 2.14 Sea A una matriz cuadrada de orden n, si A es invertible entonces, su determinante es igual al producto de sus pivotes detA = ±d1 d2 · · · dn Demostración: Tomemos A una matriz cuadrada de orden n e invertible. Entonces por el teorema 1.21, podemos encontrar LU , pero en este caso no usaremos la operación elemental fi → kfi . Como A es invertible, entonces U tiene n pivotes distintos de cero (en la diagonal de U ), luego, por las propiedades 4 y 7 tenemos detA = =

detU ±d1 d2 · · · dn Q.E.D.

El resultado anterior, lo podemos usar para el siguiente teorema, el cual es fundamental en el estudio de los determinantes. .:Teorema 2.15 Sean A y B matrices de orden n, entonces detAB = detA · detB Es decir: el determinante de un producto es el producto de los determinantes. Demostración: Sean A y B dos matrices de orden n. Si A (o B) fuese no invertible, entonces AB seria no invertible, luego detAB = 0 y el detA = 0, luego detAdetB = 0, en cualquiera de los dos casos detAB = detA · detB. Ahora, supongamos que A es invertible entonces, por el teorema 1.21, podemos encontrar LU , pero en este caso no usaremos la operación elemental fi → kfi . Ahora tomamos la matriz U y


2. Determinantes

117

por medio de operaciones elementales por fila (sin usar fi → kfi ), la convertimos en una matriz diagonal D. Por propiedades 4 y 7 tenemos que: detA = ±detD Por el teorema 1.17 y el teorema 1.15 podemos convertir A en la matriz D, multiplicando A por matrices elementales D = E1 E2 · · · Ek−1 Ek A Ahora usaremos esta factorización de tal forma que AB

= =

DB (E1 E2 · · · Ek−1 Ek A) B

Donde todos los Ei son matrices elementales que no son del tipo fi → kfi , entonces detAB = ±detDB Pero 



d1

  DB =  

d2 ..

   

. dn

b11 b21 .. .

b12 b22 .. .

··· ···

b1n b2n .. .

bn1

bn2

···

bnn

Para calcular detDB aplicamos n veces la propiedad 2: det(AB)

    =  

d1 b11 d2 b21 .. .

d1 b12 d2 b22 .. .

··· ···

d1 b1n d2 b2n .. .

dn bn1

dn bn2

···

dn bnn

= ±detDB

b11 b12 · · · b1n

d2 b21 d2 b22 · · · d2 b2n

= ±d1

.. .. ..

. . .

dn bn1 dn bn2 · · · dn bnn

b11 b12 · · · b1n

d2 b21 d2 b22 · · · d2 b2n

±d1 d2

.. .. ..

. . .

dn bn1 dn bn2 · · · dn bnn .. .

que es igual a

b11

d2 b21

±d1 d2 · · · dn

..

.

dn bn1

b12 d2 b22 .. .

··· ···

b1n d2 b2n .. .

dn bn2

···

dn bnn

    


2. Determinantes

118

detAB

= =

±detDdetB detA · detB

Q.E.D. Ejemplo 2.20 Comprobar que detAB = detAdetB dadas la matrices    −4 2 9 1 2 A =  3 −5 −6  y B= 9 5 1 −2 6 7 4

Solución: Veamos que:

 3 4  6

77 38 50

detAB =

−84 −43 −47

= −3885

25 16 31

Ahora bien, detA = 111 y detB = −35, luego detAdetB = 111 ∗ (−35) = −3885. Otro resultado importante en el cálculo del determinarte, tiene que ver con la traspuesta de una matriz. El siguiente teorema muestra que el determinante de una matriz y el de su traspuesta es el mismo. .:Teorema 2.16 Sea A un matriz cuadrada de orden n, entonces detA = detAt Demostración: Suponga que A se puede escribir de la siguiente forma: A = LU Asumiendo de que A no necesita permutaciones. Entonces, aplicando el teorema 1.7 At

=

(LU )t

=

U t Lt

Calculamos el determinante detAt

=

det U t Lt

=

detU t detLt

Sabemos que detL = 1 por el teorema 2.1, luego su traspuesta es una matriz triangular y por tanto detLt = 1, luego detAt = detU t


2. Determinantes

119

El mismo análisis se puede usar para afirmar que detA = detU . Pero sabemos que U es una matriz triangular superior, al trasponerla pasaría a ser una matriz triangular inferior, pero ambas U y U t tendrían los mismos elementos en la diagonal, aplicando el teorema 2.1, entonces: detU = detU t Luego detAt = detU t = detU = detA Por tanto detAt = detA Ahora bien, si A necesita permutaciones, entonces tenemos que detP A = det(P A)t = detAt P t Por el teorema 2.15 tenemos que detP detA = = =

detP A det At P t detAt detP t

Sólo nos queda ver que pasa con el determinante de una matriz de permutación, pero es muy fácil demostrar que detP = detP t y además detP = ±1. Por lo tanto detA = detAt Q.E.D. Ejemplo 2.21 Calcular el detA y detAt si 

−4 2 A =  3 −5 1 −2

Solución: Calculamos At

 9 −6  6

 −4 3 1 At =  2 −5 −2  9 −6 6

Luego, detA = 111 y detAt = 111


2. Determinantes

120

2.7. La inversa de una matriz y su determinante En la siguiente sección, encontraremos la relación entre el determinante de una matriz y el determinante de su inversa. De igual manera veremos como podemos usar el determinante de una matriz para calcular la matriz inversa. El siguiente teorema muestra que el determinante de una matriz y el determinante de su inversa son recíprocos: .:Teorema 2.17 Sea A una matriz cuadrada de orden n, Si A es invertible, entonces detA 6= 0 y además 1 detA−1 = detA Demostración: Si A es invertible, entonces por el teorema 2.13, que detA 6= 0, ahora bien, Sabemos que el determinante de una matriz identidad de tamaño n es 1, pues su determinarte se calcula multiplicando los elementos de la diagonal (teorema 2.1). Tambien recordemos que por definición de inversa de una matriz AA−1 = A−1 A = In Entonces 1

= detIn = det AA−1 = 1

= detAdetA−1 De lo cual deducimos que

detA−1 detA = 1 luego detA−1 =

1 detA Q.E.D.

Ejemplo 2.22 Tomamos 

−4 3 A =  2 −5 9 −6

Su inversa

−1

A

− 14 37

  10 =  − 37  11 37

 1 −2  6

8 37

1 − 111

11 − 37

2 − 37

1 37

14 111

     


2. Determinantes

121

Ahora, detA = 111 y el detA−1 = 0.0090090, se puede ver que 0.0090090 =

1 111

La siguiente definición se refiere al concepto de matriz Adjunta. .:Definición 2.7 (Matriz Adjunta) Sea A una matriz cuadrada de orden n. Tomemos la matriz B cuadrada de orden n cuyas componentes son los cofactores de A, de tal forma que coincidan con los componentes de la matriz, tal que aij = Aij   A11 A12 · · · A1n  A21 A22 · · · A2n    B= . ∀i, j con i = 1, 2, . . . , n y j = 1, 2, . . . , n .. ..  ..  .. . . .  An1

An2

···

Ann

La adjunta de A denotada como adjA se define como la traspuesta de la matriz de cofactores   A11 A21 · · · An1  A12 A22 · · · An2    adjA = B t =  . .. ..  ..  .. . . .  A1n A2n · · · Ann

El cálculo de la AdjA puede resultar muy largo, debido a la cantidad de cofactores implícitos en la matriz original. Ejemplo 2.23 Sea A definida de la siguiente forma:   2 4 −6 5 1  A =  −3 0 −7 3

Encuentre la AdjA

Solución: Para hallar la adjunta primero debemos hallar los cofactores de A, es decir, los componentes de la matriz B de la definición 2.7.

5 A11 = (−1)

−7

−3 A12 = (−1)3

0

−3 A13 = (−1)4

0 2

1

= 22 3

1

=9 3

5

= 21 −7

−3 5

A21 = (−1)

= 30 0 −7

2 −6

=6 A22 = (−1)4

0 3

4

5 2 A23 = (−1)

= 14 0 −7

3


2. Determinantes

122

4 −6

= 34 A31 = (−1)

5 1

2 −6

= 16 A32 = (−1)5

−3 1

4

A33

2 4

= 22 = (−1)

−3 5

6

Luego la matriz B sería

 22 9 21 B =  30 6 14  34 16 22

Entonces

 22 30 34 AdjA = B t =  9 6 16  21 14 22 Los siguientes teoremas muestran la relación existente entre una matriz, su adjunta y el determinante. .:Teorema 2.18 Sea A una matriz cuadrada de orden n, entonces ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn = 0

si i 6= j

Demostración: Sea 

a11 a21 .. .

      ai1  B= .  ..   ai1   .  .. an1

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

ai2 .. .

··· .. . ··· .. .

ain .. .

···

ann

ai2 .. . an2

ain .. .

            → fila j  

Como dos filas son iguales entonces el detB = 0, Pero B = A salvo por la fila j. Si expandimos la fila j por cofactores para hallar el determinantes, tenemos ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn = 0 y en este caso el teorema queda demostrado. Pero, si al hacer la expanción del renglón j, esta fila se elimina al calcular los cofactores de B. Así Bjk = Ajk para k = 1, 2, . . . , n. Q.E.D.


2. Determinantes

123

.:Teorema 2.19 Sea A una matriz cuadrada de orden n, entonces: A(AdjA) = (detA)In En otras palabras 

   (A)(AdjA) = (detA)   

1 0 0 .. . 0

0 0 1 0 0 1 .. .. . . 0 0

··· ··· ··· .. .

0 0 0

      =   0   0 1

detA 0 0 .. . 0

0 0 ··· detA 0 ··· 0 detA · · · .. .. .. . . . 0 0 0

0 0 0

     0  detA

Demostración: Sea C = (cij ) = (A)(AdjA), entonces:  a11 a12 · · ·  a21 a22 · · ·  C= . .. ..  .. . . an1

an2

···

a1n a2n .. . ann

    

A11 A12 .. .

A21 A22 .. .

··· ··· .. .

An1 An2 .. .

A1n

A2n

···

Ann

Entonces la componente cij de C tiene la siguiente forma: cij

=

=

Así,

    

(fila i de A) · (columna j de AdjA) 

  (ai1 ai2 · · · ain ) ·  

Aj1 Aj2 .. . Ajn

    

cij = ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn Si i = j, entonces ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn sería el detA. Pero si i 6= j tendríamos el caso del teorema 2.18, y en este caso ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn = 0, por lo tanto 

   (A)(AdjA) =   

detA 0 0 ··· 0 detA 0 ··· 0 0 detA · · · .. .. .. .. . . . . 0 0 0 0

0 0 0

     0  detA

Q.E.D.


2. Determinantes

124

Ejemplo 2.24 Tomemos la matriz 

 −6 1  3

2 4 5 A =  −3 0 −7

Sabemos que su ajunta es:

 22 30 34 AdjA =  9 6 16  21 14 22

Ahora bien, el detA = −46, veamos el producto de A(AdjA)      22 30 34 −46 0 0 2 4 −6  −3 0 −46 0  5 1   9 6 16  =  21 14 22 0 0 −46 0 −7 3 {z }| {z } | {z } | A AdjA (detA)I3

El siguiente teorema se puede considerar como una forma alternativa de encontrar la inversa de una matriz. .:Teorema 2.20 Sea A una matriz cuadrada de orden n, si A es invertible, entonces: 1 AdjA A−1 = detA

Demostración: Sabemos por el teorema 2.19 sabemos que: A(AdjA) = (detA)In y como A es invertible, entonces el detA 6= 0. Pero ¿Cómo saber que una matriz es la inversa de otra?. Es simple, recordemos que si B es la inversa de A, entonces AB = BA = In . Esta 1 propiedad la usaremos para ver si detA AdjA es la inversa de A. Entonces: AB = 1 AdjA = A detA | {z }

In In

B

1

recordemos que detA es un escalar, el cual puedo sacar del producto, es decir, primero puedo multiplicar las matrices y luego el escalar.

1 detA

A(AdjA)

=

1 detA

= In

(detA) In


2. Determinantes

125 Q.E.D.

Éste método para hallar la inversa es muy costoso computacionalmente, pues se requiere de calcular n2 determinantes de n − 1 y un determinante de orden n (ver [2]). Para hallar la inversa de una matriz se utiliza otro tipo de algoritmos más eficientes. Ejemplo 2.25 Hallar la inversa de A usando la AdjA y su determinante si:   2 4 −6 5 1  A =  −3 0 −7 3   22 30 34 Sabemos que detA = −46 y AdjA =  9 6 16 , aplicando el teorema 2.20 tenemos 21 14 22 que:

A−1

=

=

 22 30 1  9 6 − 46 21 14  11 15 − 23 − 23    −9 −3 23  46  7 21 − 23 − 46

 34 16  22  17 − 23   8  − 23   11 − 23

2.8. Regla de Cramer La regla de Cramer es una forma alternativa para hallar la solución a un sistema de la forma AX = b, con la ventaja de que se puede obtener una o algunas componentes de la solución (es decir, algunos componentes del vector b) sin calcular los demás. Cuando resolvíamos el sistema AX = b por el método de Gauss-Jordan, eliminación Gaussiana o la inversa, se encontraban todas la soluciones al sistema1 . Sin embargo, el calculo de los determinantes hace que el método sea poco eficiente. .:Teorema 2.21 Sea A una matriz cuadrada de orden n, si A es invertible y es la matriz de cofactores de un sistema cuya representación matricial es AX = b, entonces la j−ésima componente del vector b, esta definida por: xj =

detBj detA

Donde Bj es la matriz que se obtiene tomando A y sustituyendo la j−ésima columna por el vector b. 1 Por

lo menos se podían encontrar en orden descendente, es decir, primero xn , luego xn−1 así sucesivamente.


2. Determinantes

126

Demostración: Como A es invertible, entonces el sistema AX = b tiene solución única, la cual esta dada por X = A−1 b. El teorema 2.20 nos dice que A−1 =

1 AdjA detA

Así que usamos este resultado para reemplazarlo en X = A−1 b X

= A−1 b =

1 AdjA b detA

Ahora bien, la la j−ésima componente de xj estaría dada por 1 1 j−ésima componente de xj = AdjA detA detA h i 1 Veamos que es la j−ésima componente de det AdjA b A 

A11 A12 .. .

A21 A22 .. .

··· ···

An1 An2 .. .



b1 b2 .. .

                A1j A2j · · · Anj   bj      . ..   ..  ..  .. .  .  . bn A1n A2n · · · Ann   b1 A11 + b2 A21 + · · · + bn An1  b1 A12 + b2 A22 + · · · + bn An2      ..   .  =   b1 A1j + b2 A2j + · · · + bn Anj      ..   . b1 A1n + b2 A2n + · · · + bn Ann h i 1 Luego, la j−ésima componente de det AdjA b es = b1 A1j + b2 A2j + · · · + bn Anj , entonces A

1 AdjA b = detA

xj

=

1 (b1 A1j + b2 A2j + · · · + bn Anj ) detA

=

(b1 A1j + b2 A2j + · · · + bn Anj ) detA


2. Determinantes

127

Ahora bien, la ecuación anterior es el determinante de Recordemos que  a11 a12 · · · b1  a11 a22 · · · b2  Bj =  . .. ..  .. . . an1 an2 · · · bn

la matriz Bj del teorema en cuestión. ··· ···

a1n a2n .. .

···

ann

    

Es claro que la única diferencia entre la matriz A y la matriz B es la fila j−ésima columna, luego si hallamos el detB por cofactores usando la j-ésima columna tendremos que

luego entonces

detB = b1 A1j + b2 A2j + · · · + bn Anj xj =

detBj detA Q.E.D.

El teorema anterior permite encontrar la solución a un sistema de ecuaciones, permitiendo encontrar algunas y no todas las componentes del vector b. Ejemplo 2.26 Dado el siguiente sistema de ecuaciones lineales 6x1 + 4x2 − 5x3 + 9x4

=

8

= =

−3 0

3x1 + 3x2 + 5x3 − x4

=

7

x1 − 3x2 + x3 − 11x4 2x1 + 7x2 − 5x3 + 4x4

encuentre x2 y x3 usando la regla de Cramer. Solución: Tomemos la matriz A y su determinante 

6  1 A=  2 3

 4 −5 9 −3 1 −11   7 −5 4  3 5 −1

y el detA = −3322, como necesitamos encontrar x2 entonces reemplazamos la fila 2 por el vector b y obtenemos el determinante de esta nueva matriz (B2 ), luego dividimos por el detA.

6 8 −5 9

1 −3 1 −11

2 0 −5 4

3 7 5 −1 340 detB2

= =

= −0.1023480 x2 =

detA −3322 6 4 −5 9

1 −3 1 −11

2 7 −5 4

3 3 5 −1


2. Determinantes

128

El mismo procedimiento lo aplicamos para x3

6 4 8 9

1 −3 −3 −11

2 7 0 4

3 3 7 −1

detB3 −2568

= x3 = =

= 0.7730283

detA −3322 4 −5 9

6

1 −3 1 −11

2 7 −5 4

3 3 5 −1

Ejemplo 2.27 Aplicar la regla de Cramer para solucionar el siguiente sistema: −x1 x1 x1

+ − +

x2 x2 x2

+ x3 + x3 − x3

= 7 = 3 = 1

Solución:

−1 1 1

D = detA =

1 −1 1

1 1 −1

=4

Ahora hallamos los valores de x1 , x2 y x3 .

7 1 1

3 −1 1

1 1 −1

8 x1 = = =2 4 4

−1 7 1

1 3 1

1 1 −1

16 = =4 x2 = 4 4

−1 1 7

1 1 3

1 1 1

20 = =5 x3 = 4 4 Ejercicios 2.3

1. Resolver los siguientes determinantes por a) Método de los cofactores, b) Método de Chio y comparar el número de operaciones ejecutadas en cada uno de ellos:


2. Determinantes

129

2 −1 3 −2

0 1 3 2

a)

2 1 4

−1

0 1 3 2

1 2 −3 4

3 4 −7 6

b)

5 6 −7 5

−8 −9 1 2

2 3 −1 5

3 2 1 −6 c)

2 −8

−5 −7

4 1 −4 2

d)

e)

2 −1 1 3 −4 2 −2 1 6 −3 0 1 1 1 1 −1 2 0 3 1

a 0 0 0 0

0 0 b 0 0

0 0 0 0 c

0 0 0 d 0

0 e 0 0 0

1 0 0 2 1

2. Solucionar los siguientes sistemas, usando la regla de Cramer: a)

b)

5x + 2x2 − x3 = 3 2x1 + 3x2 + 4x3 = −1 3x1 + 4x2 + 2x3 = 8 Solución: x1 = −2, x2 = 5 y x3 = −3 −2x1 + −3x1 + x1 + Solución: x1

3x2 x2 2x2 = 3,

− x3 = −5 − 2x3 = −12 − 3x3 = −1 x2 = 1 y x3 = 2

x1 + 3x2 − x3 4x1 + x2 − 2x3 c) −x1 + 5x2 + 3x3 3x1 + 2x2 + x3 Solución: x1 = −2, x2 = 1 −2x1 x1 2x1

+

3x2

+ +

2x3 x3

+ − + , x3

3x4 x4 x4 = −1

− 2x4 d) + x2 − x4 − x2 + x3 − 4x4 Solución: x1 = 2, x2 = −1 , x3 = 3 y

= 2 = 4 = 1 = −2 y x4 = 3 = −1 = 3 = 2 = 0 x4 = 1

3. Hallar la inversa de las siguientes matrices usando determinantes y la matriz adjunta:   1 1 −1 0  −3 4 6 0   a) A =   2 5 −1 3  |A| = 183 4 0 3 0   2 5 −6 8 0  0 1 −7 6 0    0 4 0  b) B =   0 0 |B| = 640  0 2 1 5 1  4 −1 5 3 0


2. Determinantes

130

4. Sea A una matriz cuadrada de orden :n a) Demuestre que si A es antisimétrica y n es impar entonces A no es invertible n−1

b) Pruebe que si A es invertible, det (adjA) = (detA)

c) Demuestre que si A no es invertible entonces A (adjA) = 0 d) Si A, B, M son matrices cuadradas de orden n, tales que M es invertible y A = M −1 BM , muestre que detA = detB e) Dar un contraejemplo para det (A + B) = detA + detB f ) Si A, B son matrices invertibles de orden n, muestre que: adj (AB) = (adjB) (adjA) α −3 g) Para cuáles valores de α la matriz no es invertible? 4 1−α   −α α − 1 α + 1 2 3  no tiene una inversa? h) Para cuáles valores de α la matriz  1 2−α α+3 α+7

2.9. Interpretación geométrica del determinante 2.9.1. Determinantes 2 × 2

Tomemos el determinante de una matriz de 2 × 2 x1 A= y1

x2 y2

El determinante de A seria detA = |x1 y2 − y1 x2 |

x1 Ahora, graficamos los vectores columna de A. El primer vector u = y el segundo y1 x2 v = . Para graficar un vector, primero ubicamos el punto (x1 , y1 ) y extendemos una y2 recta entre el origen del sistema y el punto, esta “flecha” es la representación geométrica del vector u. De igual forma graficamos el vector v. (ver figura 2.1) A partir de u dibujamos de nuevo el vector v con la misma forma y misma dirección (paralelo). De igual manera hacemos con v, a partir de v dibujamos el vector u. Este paralelogramo que se forma con v y u tiene una área D. La interpretación geométrica del área del paralelogramo es el determinante de la matriz que tiene como vectores columna a u y a v. (ver figura 2.2) .:Teorema 2.22 Sea A una matriz cuadrada de orden 2, entonces el área D del paralelogramo que se forma con los vectores columna de A es igual al detA.


2. Determinantes

131

(x2 , y2 )

y2

b

v (x1 , y1 ) y1

b

u x2

x1

Figura 2.1: Representación geométrica de los determinantes u b

v Ár

u

ea

D

v b

Figura 2.2: Área del paralelogramo formado por u y v Demostración: Sin perder generalidad, abordaremos la demostración desde el punto de vista geométrico2. Otras demostraciones se pueden ver en [1] y [3]. Tomemos los vectores u y v las columnas de la matriz A x1 x2 A= u v = y1 y2

Ahora, tomaremos las siguientes consideraciones geométricas mostradas en las figuras 2.3 y 2.4. Nombraremos el paralelogramo como ABCO, esta área es la que queremos encontrar. Ahora veamos las áreas de los triángulos a los que llamaremos T1 , T2 , T3 y T4 y las áreas de los rectángulos nombrados como C1 y C2 . De otro lado, el punto B tiene coordenadas (x1 +x2 , y1 + y2 ), el punto D tiene coordenadas (x1 + x2 , y1 ) y el punto F tiene coordenadas (x2 , y1 + y2 ). Analicemos las áreas T1 y T2 determinadas por los triángulos F BC y AO (x1 ). Es fácil ver que ambos triángulos son triángulos rectángulos y además congruentes entre si, pues tienen la misma base y la misma altura. 2 Los autores han decidido usar una demostración geométrica, que aunque es mas larga, es más sencilla para lectores no expertos en vectores, recordemos que el tema de los vectores se abordará en el siguiente capítulo.


2. Determinantes

132

y1

B(x1 + x2 , y1 + y2 )

F

y2 + y1

b

C

y2

b

b

v

y2

y1

b b

A

u

x1 + x2

x1

x2

O

D

x2 Figura 2.3: Construcción del paralelogramo con los vectores u y v

b

b

Área C2

Área T1 b

Área T3 Área D Área T4 b b

Área T2

Área C1

Figura 2.4: Esquema de las áreas involucradas

T1 =

T2

x1 y1 2

=

[(x1 + x2 ) − x2 ] [(y1 + y2 ) − y2 ] 2

=

x1 y1 2

(2.19)

(2.20)

x1 y1 . Podemos hacer un análisis similar para las áreas T3 y T4 , pues los 2 triángulos DAB y OC (y2 ) son triángulos rectángulos y además congruentes, pues tiene la misma báse y la misma altura. Luego T1 = T2 =

T3 =

x2 y2 2

(2.21)


2. Determinantes

133

T4

=

[(x1 + x2 ) − x1 ] [(y1 + y2 ) − y1 ] 2

=

x2 y2 2

(2.22)

x2 y2 . Ahora, las áreas C1 y C2 representadas por los rectángulos 2 AD (x1 ) (x1 + x2 ) y F C(y2 )(y1 + y2 )

Entonces T3 = T4 =

C1

= =

[(x1 + x2 ) − x1 ] y1 x2 y1

(2.23)

x2 [(y1 + y2 ) − y2 ] x2 y1

(2.24)

y C2

= =

Luego C1 = C2 = x2 y1 . El área total del rectángulo O(x1 + x2 )B(y1 + y2 ) que contiene el paralelogramo ABCO es Área Total = (x1 + x2 )(y1 + y2 ) = x1 y1 + x1 y2 + x2 y1 + x2 y2

(2.25)

Pero el Áreat total es la suma de las áreas T1 , T2 , T3 y T2 , las áreas de los rectángulos C2 y C2 y el área D Área Total = T1 + T2 + T3 + T4 + C1 + C2 + área D

(2.26)

Entonces reemplazamos 2.19, 2.20, 2.21, 2.22, 2.23 y 2.24 en 2.26. Área Total = =

x1 y1 x1 y1 x2 y2 x2 y2 + + + + x2 y1 + x2 y1 + área D 2 2 2 2 x1 y1 + x2 y2 + 2x2 y1 + área D

(2.27) (2.28)

Calculemos el área D del Paralelogramo OABC y reemplazamos 2.25 en 2.28 y despejamos área D área D

= T1 + T2 + T3 + T4 + C1 + C2 − Área Total

= x1 y1 + x2 y2 + 2x2 y1 − (x1 y1 + x1 y2 + x2 y1 + x2 y2 ) = x1 y1 + x2 y2 + 2x2 y1 − x1 y1 − x1 y2 − x2 y1 − x2 y2

= 2x2 y1 − x1 y2 − x2 y1 = x2 y1 − x2 y1

Por lo tanto, el área D = x2 y1 − x2 y1 el cual se puede ver como |x2 y1 − x2 y1 |


2. Determinantes

134 Q.E.D.

Ejemplo 2.28 Hallar el determinante de la matriz A = paralelogramo formado por los vectores columnas de A

5 1

2 4

y comprobar el área del

Solución: El detA = (5)(4) − (1)(2) = 20 − 2 = 18, ahora veremos los vectores columnas de A 6

5

T1

C2 4

3

T4

T3

Área D

2

1

C1

T2

0 0

1

2

3

4

5

6

7

8

Figura 2.5: = 52 , como Es fácil ver que las áreas T1 y T2 de los triángulos son congruentes y su área es (5)(1) 2 5 5 son dos triángulos, entonces T1 + T2 = 2 + 2 = 5. De igual manera para los triángulos T3 y T4 , en este caso el área es (2)(4) = 4, como son dos triángulos tenemos T3 + T4 = 4 + 4 = 8, por 2 último tenemos los dos rectángulos C1 y C2 , los cuales tiene área 2, luego C1 + C2 = 2 + 2 = 4. El área total es (7)(5) = 35, luego Área del Rectángulo = Área D + T1 + T2 + T3 + T4 + C1 + C2

Área D

= = =

Área del Rectángulo − (T1 + T2 + T3 + T4 + C1 + C2 ) 35 − (5 + 8 + 4) 18

Podemos ver, que tanto el área como el determinante de la matriz son iguales, en este caso no se tubo en cuenta el valor absoluto en la ecuación, pues ambos resultados fueron positivos.


2. Determinantes

135

2.9.2. Longitud de un segmento de recta y el determinante Tomemos un segmento de recta que va desde a hasta b en la recta real de forma que a > b. La distancia ente ambos puntos estaría dada por a − b. b b

a

b a−b

Figura 2.6: Distancia entre a y b Ahora, calculemos el determinante de 2 × 2 cuya primera columna esta compuesta por a y b. La segunda columna esta dada por unos.

a

b

1

= a(1) − b(1) = a − b 1

Entonces, podemos ver que el determinante bajo las condiciones anteriores permite encontrar la distancia entre dos puntos sobre una recta. Ejemplo 2.29 Encuentre la distancia entre 5 y -2 en la recta real, usando el determinante. Solución:

−2

−1

0

1

2

3

4

5

5 − (−2) Como vemos 5 > −2. Ahora tomamos el determinarte

5 1

−2 1 = 5(1) − (−2)(1) = 7

2.9.3. Cálculo de área de un triángulo con determinantes El área de un triángulo se puede calcular de muchas maneras, por ejemplo se puede utilizar la fórmula de Herón o la que conocemos comúnmente, multiplicar la base por la altura y dividir entre dos. Para este caso, veremos cómo podemos usar el determinante para hallar el área de un triángulo. Tomemos el triángulo con vértices A(x1 , y1 ), B(x2 , y2 ) y C(x3 , y3 )


2. Determinantes

136 C(x3 , y3 )

A(x1 , y1 )

B(x2 , y2 ) Figura 2.7: Triángulo ABC Para hallar el área haremos una traslación al origen teniendo en cuenta el punto A, es decir, a cada coordenada x de todos los puntos le restamos la coordenada x del punto A, y de igual manera con las coordenadas y de los puntos. A(x1 , y1 ) −→ A′ ((x1 − x1 ), (y1 − y1 )) =

A′ (0, 0)

B(x2 , y2 ) −→ B ′ ((x2 − x1 ), (y2 − y1 )) =

B ′ (x2 − x1 , y2 − y1 )

C(x3 , y3 ) −→ B ′ ((x3 − x1 ), (y3 − y1 )) =

C ′ (x3 − x1 , y3 − y1 )

Como podemos observar, el punto A lo transformamos en el punto A′ , el cual tiene coordenadas en el origen. Bien, no podemos conocer el área del triángulo A′ B ′ C ′ , pero si podemos conocer el área del paralelogramo A′ B ′ C ′ D (ver figura 2.8) con el determinante de la sección 2.9.1 con los puntos B′ y C ′.

x2 − x1 y2 − y1

x3 − x1 y3 − y1 = (x2 − x1 )(y3 − y1 ) − (x3 − x1 )(y2 − y1 ) Pero, recordemos que con este cálculo es para el paralelogramo, asi que para obtener el área del triágulo debemos multiplicar por 21 Área del triángulo = =

1

x2 − x1 2 x3 − x1

y2 − y1

y3 − y1

1 [(x2 − x1 )(y3 − y1 ) − (x3 − x1 )(y2 − y1 )] 2

Ejemplo 2.30 Calcular el área del triángulo cuyos vértices son A(4, 4), B(6, 1) y C(1, 2) De acuerdo con la deducción anterior del área del triángulo se tiene que:


2. Determinantes

137

3

C ′ (x3 − x1 , y3 − y1 )

2 1 0

D 0

1

2

3

4

5

6

7

8

A′ (0, 0) B ′ (x2 − x1 , y2 − y1 ) Figura 2.8: El triángulo A′ B ′ C ′ y el paralelogramo A′ B ′ C ′ D

1

2

1

2

Área del triángulo = =

(6 − 4) (1 − 4)

(1 − 4) (2 − 4)

2 −3

−3 −2

13 1 [−4 − 9] = − 2 2

=

Como el área del es el valor absoluto del determinante de la matriz, entonces, el área

triángulo

= 6.5 del triangulo = − 13 2 4 b

A

a

3

b 2

C b

c 1

−1

b

1

2

3

4

5

−1

Figura 2.9: Área del triángulo ABC

6

B


2. Determinantes

138

2.9.4. Volumen del paralelepípedo como un determinante De forma similar a lo estudiado con el área del paralelogramo, se puede deducir geométricamente el valor absoluto del determinante:

x1 y1 z1

x2 y2 z2

x3 y3 z3

Es el volumen del paralelepípedo en el espacio tridimensional, formado por los puntos P (x1 , y1 , z1 ), Q(x2 , y2 , z2 ) y R(x3 , y3 , z3 ). El paralelepípedo se construye de forma análoga a como se construyó el paralelogramo del determinante 2 × 2. para construir los segmentos que conforman el largo, el ancho y el alto del paralelepípedo, se toma como punto inicial el origen del sistema como punto final las coordenadas de cada uno de los puntos y se traza el segmento, posteriormente, se trazan los otros ocho como lo muestra la figura 2.10:

Proyecciones formdas por los lados iniciales P R

Q

Figura 2.10: Paralelepípedo determinado por P , Q y R Ejemplo 2.31 Calcular el volumen del paralelepípedo formado por los puntos P (1, 0, 2), Q(2, 4, 2) y R(2, 1, 2) De acuerdo con la deducción anterior el volumen del paralelepípedo es:

1 0 2

Volumen =

2 4 2

= −6

2 1 2

Como el volumen del paralelepípedo es el valor absoluto del determinante, entonces el volumen =|−6| = 6. Ejercicios 2.4 1. Encuentre el área del paralelogramo determinado por los siguientes vectores −1 6 a) u = yv= 2 4 5 5 b) u = yv= −1 2


2. Determinantes

c) u = d) u =

139 2 9 a b

yv= yv=

6 3 b a

con a, b ∈ R

2. Encuentre la longitud de los segmentos de recta a partir de los puntos, usando el determinante. a) Entre 4 y 18 b) Entre 5 y 9 c) Entre -10 y 6.2 d) Entre −a y a 3. Encuentre el área los siguientes triángulos dados los puntos. a) A(4, 4), B(14, 2), B(1, 1) b) A(−2, 3), B(1, 0), B(−2, −3) c) A(0, 0), B(8, 1), B(5, −4)

4. Encuentre los resultados de los siguientes determinantes: a)

b)

1

1

1

a b c

a2 − bc b2 − ac c2 − ab

1 1

a b

b+c a+c

1 c a+b

Relaciona estos dos determinantes con el área de una figura plana. 5. Encuentre el volumen del paralelepípedo, dado los siguientes puntos: a) P (2, 0, 1), Q(1, 3, 1) y R(1, 2, 1) b) P (0, 0, 3), Q(1, 0, 0) y R(0, 9, 0) c) P (4, −2, 4), Q(7, 1, −2) y R(4, 2, −3)


“El científico encuentra su recompensa en lo que Henri Poincaré llama el placer de la comprensión, y no en las posibilidades de aplicación que cualquier descubrimiento pueda conllevar” — Albert Einstein (1879-1955)

3 Espacios vectoriales 3.1. Definición Un espacio vectorial se puede ver como un conjunto de vectores que cumplen una larga lista de axiomas, sin embargo, esta definición va mucho más allá de ser conjunto de vectores. La característica principal de los espacios vectoriales radica en que es una condición necesaria para ser una base para otros temas, tanto en álgebra lineal como en el cálculo. A continuación definiremos que es un espacio vectorial: .:Definición 3.1 Diremos que el conjunto de vectores V , con dos operaciones, adición y producto por escalar, son un espacio vectorial si satisfacen los siguientes axiomas: 1. Si v1 y v2 están en V , entonces v1 + v2 pertenece a V , diremos entonces que la suma es cerrada en V . 2. (v1 + v2 ) + v3 = v1 + (v2 + v3 ) para todo v1 , v2 , v3 ∈ V . La ley asociativa. 3. Existe un elemento 0 que pertenece a V , tal que v1 + 0 = 0 + v1 = v1 para toda v1 ∈ V . Elemento neutro de la suma o vector idéntico aditivo1 . 4. Para cada v que pertenece a V , existe un elemento −v en V , tal que v + (−v) = 0. Elemento inverso de la suma. 1 El

símbolo 0, hace referencia al vector nulo y no al cero de los números reales.

140


3. Espacios vectoriales

141

5. v1 + v2 = v2 + v1 para todo v1 , v2 en V . Ley conmutativa de la suma de vectores. 6. Si v ∈ V y α es un escalar (α ∈ R o α ∈ C), entonces αv ∈ V . Diremos que V es cerrado bajo producto escalar. 7. Para todo escalar α y para todo v1 y v2 ∈ V , se cumple que α(v1 + v2 ) = αv1 + αv2 . Distributiva del producto escalar frente a la suma de vectores. 8. Para todo α, β escalares y v ∈ V , se cumple que2 (α + β)v = αv + βv . 9. Para todo α, β escalares y v ∈ V , se cumple que α(βv) = (αβ)v . 10. Si se tienen el escalar 1, 1v = v para todo v ∈ V . Si estamos en el campo de los números reales, diremos que es un espacio vectorial real. Si estamos en el campo de los complejos, diremos que es un espacio vectorial complejo. Para empezar con los ejemplos, es muy importante reconocer cuando un conjunto de vectores es un espacio vectorial y cuando no lo es. Los siguientes ejemplos muestra tal situación: Ejemplo 3.1 Sea V , definido de la siguiente forma: V = {(x, y) : 2

ax + by = 0, a, b ∈ R}

V es el conjunto de puntos en R , tal que esta sobre el conjunto de rectas que pasan por el origen del sistema coordenado. Si queremos determinar si V es un espacio vectorial, debemos demostrar que V tanto en la suma y como en el el producto escalar, cumple con los 10 axiomas de la definición 3.1. 1. Sean v1 = (x1 , y1 ) y v2 = (x2 , y2 ), de forma que v1 , v2 ∈ V , entonces debemos demostrar que v1 + v2 también pertenece a V . Si v1 ∈ V entonces se cumple que: ax1 + by1 = 0

(3.1)

de igual forma si v2 ∈ V , se cumple que: ax2 + by2 = 0

(3.2)

Sumando las ecuaciones 3.1 y 3.2 tenemos que: ax1 + by1 + ax2 + by2 = 0 2 El signo + del el lado izquierdo de la ecuación, hace referencia a la operación aritmética suma. El signo + del lado derecho hace referencia a la suma de vectores.


3. Espacios vectoriales

142

Sacando factor común y agrupando tenemos: ax1 + ax2 + by1 + by2

=

0

a(x1 + x2 ) + b(y1 + y2 ) =

0

Lo que muestra, que es una recta que pasa por el origen de R2 . 2. Sean v1 = (x1 , y1 ), v2 = (x2 , y2 ) y v3 = (x3 , y3 ) de forma que v1 , v2 , v3 ∈ V , entonces debemos demostrar que v1 + (v2 + v3 ) = (v1 + v2 ) + v3 . Si v1 ∈ V entonces, ax1 + by1 = 0, de igual forma con v2 tendíamos ax2 + by2 = 0 y con v3 , ax3 + by3 = 0, entonces v2 + v3 ∈ V y por el paso 1 tenemos: a(x2 + x3 ) + b(y2 + y2 ) = 0 Ahora bien, si a la ecuación anterior le agregamos v1 tendremos que: a(x1 + x2 + x3 ) + b(y1 + y2 + y2 ) = 0 En esta ecuación, podemos aplicar la ley asociativa de los números reales de la siguiente forma: a ((x1 + x2 ) + x3 ) + b ((y1 + y2 ) + y2 ) = 0 lo que implica que: (v1 + v2 ) + v3 = v1 + (v2 + v3 ). 3. Sea 0 = (0, 0), entonces a0 + b0 = 0, luego 0 es el elemento neutro de la suma o vector idéntico aditivo. 4. Sea v1 que pertenecen a V , si tenemos v1 = (x1 , y1 ), entonces existe v1′ = (−x1 , −y1 ), pues recordemos que los componentes de los vectores son los números reales. Si sumamos v1 + v1′ , tenemos: v1 + v1′

= =

(x1 + (−x1 ), y1 + (−y1 )) (0, 0)

5. Tenemos v1 = (x1 , y1 ) y v2 = (x2 , y2 ), con v1 , v2 ∈ V , si tomamos v1 + v2 por el punto uno sabemos que: a(x1 + x2 ) + b(y1 + y2 ) = 0 Aplicando la ley conmutativa de la suma en los números reales, podemos reescribir la ecuación anterior de la siguiente forma: a(x2 + x1 ) + b(y2 + y1 ) = 0 Luego v1 + v2 = v2 + v1 . 6. Tomemos v1 = (x1 , y1 ), tal que v1 ∈ V y sea α ∈ R. Entonces αv1 = (αx1 , αy1 ) estaría dado de la siguiente forma: a(αx1 ) + b(αy1 ) = 0 y seguiría representando una recta que pasa por el origen.


3. Espacios vectoriales

143

7. Sea α ∈ R y v1 , v2 ∈ V , entonces α(v1 + v2 ), estaría dado por α(x1 + x2 , y1 + y2 ) que es igual a (α (x1 + x2 ) , α (y1 + y2 )) que representa la ecuación aα(x1 + x2 ) + bα(y1 + y2 ) = 0 reescribiendo la ecuación anterior tenemos: aαx1 + aαx2 + bαy1 + bαy2 aαx1 + bαy1 + aαx2 + bαy2

= =

0 0

α(ax1 + by1 ) + α(ax2 + by2 ) =

0

Lo que implica que α(v1 + v2 ) = αv1 + αv2 8. Sea α, β ∈ R y v1 = (x1 , y1 ) ∈ V , Si tenemos (α + β)v1 = ((α + β)x1 , (α + β)y1 ) entonces: a(α + β)x1 + b(α + β)y1 = 0 Reescribiendo la ecuación anterior: aαx1 + aβx1 + bαy1 + bβy1

=

0

aαx1 + bαy1 + aβx1 + bβy1 = α(ax1 + by1 ) + β(ax1 + by1 ) =

0 0

Lo que implica que (α + β)v1 = αv1 + βv1 . 9. Para todo α, β ∈ R y v1 ∈ V , se tiene que α(βv1 ) = α (β(x1 , y1 )) = α (βx1 , βy1 ), lo que implica que: α (βax1 + βby2 )

= 0

aplicando las propiedades de los números reales tenemos: αβax1 + αβby2 = 0 Lo que implica que (αβ)v1 . 10. Sea v1 ∈ V , i se tienen el escalar 1, (1)v1 = (1)(x1 , y1 ), lo que implica: (1)(ax1 + by1 ) = 0 ax1 + by1

= 0

Lo que implica que (1)v1 = v1 . .:Definición 3.2 Definimos Pn como el conjunto de todos los polinomios que tienen grado igual o menor a n. de modo que: Pn = P |p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0

donde a1 , a2 , . . . , an ∈ R.


3. Espacios vectoriales

144

Ejemplo 3.2 Sea V , definido de la siguiente forma: V = P2 :

ax2 + bx + c, a, b, c ∈ R

Es decir, los polinomios de grado menor o igual a dos. Determine si V es un espacio vectorial. 1. Sean p y q dos polinomios que pertenecen a V , tal que p = a1 x2 + b1 x + c1 y q = a2 x2 + b2 x + c2 , entonces p + q estaría dado de la siguiente forma: = a1 x2 + b1 x + c1 + a2 x2 + b2 x + c2

p+q

= (a1 + a2 ) x2 + (b1 + b2 ) x + (c1 + c2 ) Que también es un polinomio de grado menor o igual a dos, lo que implica que (p+q) ∈ V . 2. Supongamos que p, q, r ∈ V , de modo que p = a1 x2 + b1 x + c1 , q = a2 x2 + b2 x + c2 y r = a3 x2 + b3 x + c3 , entonces p + (q + r) = a1 x2 + b1 x + c1 + a2 x2 + b2 x + c2 + a3 x2 + b3 x + c3 = a1 x2 + b1 x + c1 + a2 x2 + b2 x + c2 + a3 x2 + b3 x + c3 =

(p + q) + r

Luego p + (q + r) = (p + q) + r, además, el polinomio (p + q) + r y el polinomio p + (q + r) pertenecen a V por ser polinomios de grado menor o igual a dos. 3. Sea p ∈ V y sea 0 = 0x2 + 0x + 0 el polinomio de grado cero3 , entonces al hacer la suma p + 0 tenemos: p+0 = = =

a1 x2 + b1 x + c1 + 0x2 + 0x + 0 a1 x2 + b1 x + c1 p

luego p + 0 = p 4. Tomemos p = a1 x2 + b1 x + c1 que pertenece a V , y −p = (−a1 )x2 + (−b1 )x + (−c1 ) también pertenece a V , entonces p + (−p) esta dado por: p + (−p) = a1 x2 + b1 x + c1 + (−a1 )x2 + (−b1 )x + (−c1 ) = 0x2 + 0x + 0 = 0 luego p + (−p) = 0 5. Sea p = a1 x2 + b1 x + c1 y q = a2 x2 + b2 x + c2 que pertenecen a V . Entonces: p+q

=

a1 x2 + b1 x + c1 + a2 x2 + b2 x + c2

= =

a2 x2 + b2 x + c2 + a1 x2 + b1 x + c1 q+p

Luego p + q = q + p. 3 En

este caso 0 representa el polinomio cero o nulo


3. Espacios vectoriales

145

6. Si p ∈ V y α es un escalar y p = ax2 + bx + c entonces αp = α(ax2 + bx + c), de lo cual se obtiene que αp = αax2 + αbx + αc, el cual pertenece a V . Diremos entonces que V es cerrado con respecto al producto escalar. 7. Sea α ∈ R un escalar y p y q ∈ V , entonces α(p + q) sería: α(p + q) = α(a1 x2 + b1 x + c1 + a2 x2 + b2 x + c2 ) = αa1 x2 + αb1 x + αc1 + αa2 x2 + αb2 x + αc2 = αa1 x2 + αb1 x + αc1 + αa2 x2 + αb2 x + αc2 = α a1 x2 + b1 x + c1 + α a2 x2 + b2 x + c2 = αp + αq Por lo cual se cumple la propiedad distributiva del producto escalar frente a la suma de vectores. 8. Para α, β ∈ R escalares y p ∈ V , si se tiene que: (α + β)p

= (α + β)(a1 x2 + b1 x + c1 ) = (α + β)a1 x2 + (α + β)b1 x + (α + β)c1 = αa1 x2 + βa1 x2 + αb1 x + βb1 x + αc1 + βc1 = αa1 x2 + αb1 x + αc1 + βa1 x2 + βb1 x + βc1 = αa1 x2 + αb1 x + αc1 + βa1 x2 + βb1 x + βc1 = α a1 x2 + b1 x + c1 + β a1 x2 + b1 x + c1 = αp + βp

Lo que implica que (α + β)p = αp + βp. 9. Para α, β ∈ R escalares y p ∈ V , se tiene que: α(βp)

= α β a1 x2 + b1 x + c1

= (αβ) a1 x2 + b1 x + c1 = (αβ) p

10. Dado p ∈ V entonces (1) p = (1)(a1 x2 + b1 x + c1 ) = a1 x2 + b1 x + c1 = p. Ya hemos visto la manera de demostrar que un grupo de vectores es un espacio vectorial. Los siguientes conjuntos de vectores no son espacios vectoriales, y por lo tanto veremos que no cumplen con algunos items de la definición 3.1. Ejemplo 3.3 Dado V = {(x, y) :

y = 3x + 1}

Es decir, el conjunto de puntos en el plano que están sobre la recta y = 3x + 1. Determine si V es un espacio vectorial.


3. Espacios vectoriales

146

Es fácil ver que V no es un espacio vectorial, sólo con comprobar el primer numeral de la definición 3.1. Por ejemplo, sea v1 = (x1 , y1 ) y v2 = (x2 , y2 ), luego v1 + v2 = (x1 + x2 ,

y1 + y2 )

Lo que implica que para v1 tendríamos y1 = 3x1 + 1 y para v2 tendríamos que y2 = 3x2 + 1, luego v1 + v2 tendríamos y1 y2

= =

3x1 + 1 3x2 + 1

Que al sumarlas tendríamos y1 + y2 = 3(x1 + x2 ) + 2 Pero esta nueva ecuación muestra que v1 + v2 no pertenece a V , pues su término constante es 2 y los elementos de V tienen término constante 1. Ejemplo 3.4 Dado V = {P2 | p(0) = 1}

Es decir, el conjunto de polinomios de grado menor o igual a dos tal que al evaluarse en cero da como resultado 1. De nuevo falla en la primera condición, pero veamos que también falla el item 6 de la definición 3.1. Tomemos α ∈ R y p ∈ V , es decir, p debería ser de la forma p(x) = ax2 + bx + 1

con a, b ∈ R

Al multiplicar α por p tenemos αp(x) = αax2 + αbx + α pero este polinomio no pertenece a V , pues al evaluarlo en cero da como resultado α y no 1. De acuerdo con las definiciones anteriores y los ejemplos tratados, podemos dar los siguientes ejemplos de espacios vectoriales. Ejemplo 3.5 Los siguientes, son ejemplos de espacios vectoriales. 1. Rn , con la operación de adición y producto por escalar. 2. Sea V = Pn = P/p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0 , ai ∈ R el conjunto de los polinomios de grado menor o igual que n. 3. Si V = Mnm El conjunto de todas las matrices de tamaño n×m, con la adición y producto por escalar. 4. Sea V = {(x, y, z) : ax + by + cz = 0, a, b, c ∈ R}, es decir, V es el conjunto de puntos en R3 que están en el plano con vector normal (a, b, c), el cual pasa por el origen del sistema coordenado.


3. Espacios vectoriales

147

3.1.1. Espacios vectoriales y sus propiedades Las siguientes propiedades se deducen directamente de la definición de espacio vectorial. .:Teorema 3.1 Sea V un espacio vectorial, que cumple con los axiomas de la definición 3.1. Entonces: 1. El 0 o vector nulo de V , es único. 2. Para todo x ∈ V existe un único x′ ∈ V tal que x + x′ = 0. 3. α0 = 0 para todo escalar α ∈ R. 4. 0x = 0 para todo x ∈ V . 5. Si αx = 0, entonces tenemos tres posibilidades, primero que α = 0, que x = 0 o ambos casos. 6. Si se toma el escalar -1, entonces (−1)x = −x para todo x ∈ V .

Demostración: 1. En este caso, debemos demostrar que un espacio vectorial sólo tiene un elemento neutro de la suma. Para demostrar un teorema de unicidad, sólo debemos negar la hipótesis, es decir, negar que sólo existe un 0, entonces supongamos que tenemos dos llamados 0 y 0′ tal que 0 6= 0′ y debemos llegar a una contradicción. Ahora bien, como 0 y 0′ pertenecen a V , entonces aplicando la propiedad 3. 0 + 0′ = 0′ Pues 0 es uno de los elementos neutros de la suma, ahora bien 0′ + 0 = 0 que por propiedad 5 se puede escribir de la forma 0 + 0′ = 0, entonces 0 + 0′ = 0 y también 0 + 0′ = 0′ , luego 0 = 0′ , lo que contradice que 0 6= 0′ , luego 0 es único. 3. Para demostrar que α0 = 0, debemos ver que     0=  

0 0 0 .. . 0

      


3. Espacios vectoriales

148

entonces

Luego α0 = 0

   α0 =   

α0 α0 α0 .. . α0

      =    

0 0 0 .. . 0

      

4. para esta demostración,iniciaremos con la igualdad aritmética 1 + (−1) = 0, podríamos escribir el vector 0 de la siguiente forma: 0 = 0x = [1 + (−1)] x distribuyendo tenemos 1x + (−1)x = 0 x + (−x) = 0 Ahora, 1x + (−1)x +(−x) = −x | {z } 0

Asociamos y tenemos

(x + (−x)) + (−1) x = −x Luego 0 + (−1) x = −x Por lo que (−1) x = −x. Ejercicios 3.1 1. Demuestre que: a) Rn es un espacio vectorial. b) Pn es un espacio vectorial. c) Mmn es un espacio vectorial. (Con la suma y multiplicación por escalar) d) Mnn es un espacio vectorial. (Con la suma y multiplicación por escalar) 2. En los siguientes ejercicios determine si V es o no espacio vectorial a) V el conjunto de todos los vectores (x, y) con y ≤ 0, con la operaciones usuales en R2 . b) V = {0}, con las operaciones ordinarias de suma y multiplicación en R. c) V = {k} (donde k ∈ R) con las operaciones de suma y producto en R.


3. Espacios vectoriales

149

d) V = R, con las operaciones ordinarias de suma y multiplicación en R. e) V = (x, y, z) ∈ R3 /x = 0, , y, z ∈ R con las operaciones usuales de R3 .

f) V el conjunto de matrices invertibles n × n con las operaciones matriciales ordinarias.

g) V el conjunto de matrices no invertibles n × n con las operaciones matriciales ordinarias.

3.2. Subespacio vectorial En muchas ocasiones dentro de cada espacio vectorial existen subconjuntos propios que por si mismo son espacios vectoriales. Por ejemplo, todo R2 es un espacio vectorial y el conjunto de puntos que esta sobre las rectas que pasan por el origen del sistema, forman un subespacio de R2 . .:Definición 3.3 Subespacio vectorial: Sea H un subconjunto de un espacio vectorial V y suponga que H en sí mismo es un espacio vectorial con las operaciones de suma y multiplicación por un escalar definidas en V . Entonces se afirma que H es un subespacio de V . El siguiente teorema determina las condiciones que se deben cumplir para que H sea un subespacio de V . .:Teorema 3.2 Sea V un espacio vectorial sobre un campo K. Decimos que H es un subespacio de V si H satisface las siguientes cuatro condiciones: 1. H es subconjunto de V 2. H es diferente de vacío. 3. H es cerrado con respecto a la suma, es decir, si x ∈ H e y ∈ H, entonces x + y ∈ H 4. H es cerrado con respecto a la multiplicación por escalar, es decir, si x ∈ H, entonces αx ∈ H para todo escalar α. Demostración: Consiste en verificar que si se tienen las dos propiedades uno y seis de la definición 3.1, entonces se verifican los demás axiomas de la definición de espacio vectorial: 1. Todos los vectores de H también pertenecen a V , entonces las leyes de asociativa, conmutativa, distributiva y de identidad multiplicativa (puntos 2, 5,7, 8, 9 y 10) se cumplen. 2. Si x ∈ H, entonces 0x ∈ H según el Teorema 3.2 y el Teorema 3.1. 3. Ahora bien, (−1)x ∈ H y (−1)x = −x por el Teorema 3.2, con lo que el punto 4 de la definición 3.1 se cumple.


3. Espacios vectoriales

150 Q.E.D

Nota: De lo anterior podemos concluir que: 1. Si H ⊂ V y H 6= Ø, entonces, para saber si H es un subespacio de V , basta con probar las reglas 3 y 4 del Teorema 3.2 donde se establece la cerradura con respecto a la suma y a la multiplicación por escalar. 2. Todo subespacio de un espacio vectorial V contiene al vector nulo 0. 3. Todo espacio vectorial tiene dos subespacios vectoriales triviales: a) V b) {0} Los subespacios distintos a V y {0} se llaman subespacios propios. Ejemplo 3.6 Sea H = (x, y) ∈ R2 /y = mx, m ∈ R y V = R2 . Comprobar que H es subespacio de V . 1. Vemos que H es subconjunto de V . 2. H 6= Ø por que H contiene al vector nulo, en este caso

0 0

.

3. Sean (x1 , y1 ) y (x2 , y2 ) ∈ H; entonces, (x1 , y2 ) = (x1 , mx1 ) y (x2 , y2 ) = (x2 , mx2 ) . (x1 + x2 , y1 + y2 )

= (x1 + x2 , mx1 + mx2 ) = (x1 + x2 , m (x1 + x2 )) .

Luego (x1 + x2 , y1 + y2 ) ∈ H Luego H es cerrada con respecto a la suma. 4. Ahora, sea (x, y) ∈ H y veamos si β(x, y) ∈ H (x, y = x, mx) , β(x, y) = β(x, mx) = (βx, m(βx)), (βx, m(βx)) Por lo tanto, β (x, y) ∈ H. Luego H es cerrada con respecto a la multiplicación por escalar. Lo que nos demuestra que H o el conjunto de las rectas que pasan por el origen, es subespacio de R2 .


3. Espacios vectoriales

151

Ejemplo 3.7 Sea H = (x, y) ∈ R2 /xy ≼ 0 y V = R2 . Comprobar que H es subespacio de V. 1. Por definiciĂłn, H ⊆ V porque representa el conjunto de puntos en el plano, que estĂĄn en el primer y tercer cuadrante incluyendo los puntos de los ejes coordenados. 2. El punto (0, 0) ∈ H, luego H es diferente de vacĂ­o. 3. Si v1 = (x1 , y1 ) y v2 = (x2 , y2 ) y v1 , v2 ∈ H, entonces x1 y1 ≼ 0 y x2 , y2 ≼ 0 y v1 +v2 = x1 + x2 , pero en este caso, puede suceder que (x1 + x2 ) (y1 + y2 ) < 0, por ejemplo, y1 + y2 si v1 = (−8, −10) y v2 = (3, 15), ambos pertenecen a H, pero v1 + v2 = (−5, 5), el cual, no pertenece a H, pues (x1 + x2 ) (y1 + y2 ) = (−8 + 3) (−10 + 15) = −25 < 0, luego, se concluye que H no es cerrado con respecto a la suma y por tanto H no es subespacio de R2 . Ejercicios 3.2 1. Demuestre que: a) Si H1 y H2 son subespacios de un espacio vectorial V . Entonces H1 ∊ H2 es un subespacio de V . b) Si H1 y H2 son subespacios de un espacio vectorial V . Entonces H1 âˆŞ H2 no necesariamente es un subespacio de V . 2. En los siguientes ejercicios, dado el espacio vectorial V y el subconjunto H. Comprobar si H es un subespacio de V a) V = R2 , H = {(x, y) : y = 0}

b) V = R2 , H = {(x, y) : x = 2y}

c) V = R2 , H = {(x, y) : x − 7y + 5 = 0}

d) V = P4 , W = {p ∈ P4 : p (0) = k, Para k ∈ R} e) V = Mnn , H = {A ∈ Mnn : A es simĂŠtrica} .

f) V = Mnn , H = {A ∈ Mnn : A es antisimĂŠtrica} .

g) V = Mnn , H = {A ∈ Mnn : A es triangular superior} .

h) V = Mnn , H = {A ∈ Mnn : A es invertible} y−4 1 i) V = R3 , H = (x, y, z) : x−7 4 = 5 =2 z− 6 j) V = R3 , H = (x, y, z) : x2 + y 2 + z 2 = 16 a 0 k) V = M22 , H = A ∈ M22 : A = 0 b

l) V = Mnn y H = {A ∈ Mnn : trA = 0} a b m) V = M23 , H = A ∈ M23 : A = d 0

c 0

, donde b = 2a + c .


3. Espacios vectoriales

152

3.3. Combinación lineal de vectores .:Definición 3.4 Sean v1 , v2 ,. . .,vn ∈ V . Decimos que x es combinación lineal de v1 , v2 ,. . .,vn si existen escalares α1 , α2 ,. . .,αn , tales que: x

= α1 v1 + α2 v2 + · · · + αn vn n X αi vi = i=1

Nota: 1. En un espacio vectorial, cualquier combinación lineal de vectores, da como resultado otro vector del mismo espacio vectorial. 2. El vector nulo se puede escribir como combinación lineal de cualquier cantidad de vectores del espacio vectorial, tomando como escalares a el cero en todos los casos. 0 = 0v1 + 0v2 + . . . + 0vn . 3. Un vector de un espacio vectorial, es combinación lineal de si mismo, tomando como escalar el 1. x1 = 1x1     5 4 Ejemplo 3.8 Tomemos los vectores en R3 : v1 =  −9  y v2 =  5 , tomando α1 = 1 y 1 7 α2 = −2, obtenemos:       −3 5 4  −19  = 1  −9  + (−2)  5  −13 1 7  −3 Decimos que  −19  es combinación lineal de v1 y v2 con los escalares α1 = 1 y α2 = −2. −13 

Ejemplo 3.9 Las matrices de M22 : A = y α2 = 4, obtenemos: La matriz

−20 −2 28 34

−20 −2 28 34

= (−2)

2 3 −4 1

2 3 −4 1

yB =

+4

−4 1 5 9

, tomando α1 = −2

−4 1 5 9

es combinación lineal de las matrices A y B, con α1 = −2 y α2 = 4.


3. Espacios vectoriales

153

Ejemplo 3.10 En P3 , tenemos los polinomios P (x) = 3x2 + 2x − 1 y Q (x) = −8x2 + 1 H(x)

= = =

5P (x) − 2Q(x)

5(3x2 + 2x − 1) − 2(−8x2 + 1) 31 x2 + 10 x − 7

Luego, el polinomio H(x) es una combinaciĂłn lineal de los polinomios P (x) y Q(x) con Îą1 = 5 y Îą2 = −2

3.3.1. Conjunto generador de un subespacio vectorial .:DefiniciĂłn 3.5 Sea V un espacio vectorial sobre un campo K y sea S = {v1 , v2 , . . . , vr } un subconjunto finito, no vacĂ­o de V . El subespacio H que consta de todas las combinaciones lineales de v1 , v2 , . . . , vr , es llamado subespacio generado por S y se denota por gen {S} o gen {v1 , v2 , . . . , vr }

1 0 y , pueden generar cualquier vector del plano, por lo 0 1 tanto generan al espacio vectorial R2 , por lo tanto el subespacio es: 1 0 gen , 0 1 Ejemplo 3.11 Los vectores

−8 Ď€

El vector se puede generar como una combinaciĂłn lineal de los vectores 0 , como se muestra a continuaciĂłn: 1

−8 Ď€

= (−8)

1 0

+Ď€

0 1

1 0

y

2 De igual manera, cualquier vector del plano R se puede expresar como una combinaciĂłn lineal 1 0 de los vectores y . 0 1

Ejemplo 3.12 Pn representa todo polinomio de grado menor o igual a n, se puede expresar cualquier polinomio como una combinaciĂłn lineal de los monomios 1, x, x2 , . . . , xn ; luego generan a Pn . por ejemplo, el polinomio 6x2 + 5x − 4 se puede expresar como combinaciĂłn lineal de los monomios 1, x, x2 , . . . , xn 6x2 + 5x − 4 = 0xn + 0xn−1 + ¡ ¡ ¡ + 6x2 + 5x − 4 a Ejemplo 3.13 M22 es el conjunto de matrices de tamaĂąo 2 Ă— 2, si M22 = c 1 0 0 1 0 0 se puede generar con el conjunto , , , 0 0 0 0 1 0

b , entonces, d 0 0 , por 0 1


3. Espacios vectoriales

ejemplo, la matriz

154

−7 4 8 2

se puede expresar:

1 0 0 1 0 0 0 = (−7) +4 +8 +2 0 0 0 0 1 0 0 −7 4 = 8 2 1 0 0 1 0 0 0 0 Entonces, , , , generan M22 . 0 0 0 0 1 0 0 1 −7 4 8 2

0 1

.

3.3.2. Espacio generado de un subespacio vectorial .:DefiniciĂłn 3.6 Sean v1 , v2 , . . . , vn , n vectores de un espacio vectorial V . El conjunto de todas las combinaciones lineales de los vectores v1 , v2 , . . . , vn , se conoce como el generado de v1 , v2 , . . . , vn y se denota: gen {v1 , v2 , . . . , vn } = {x : x = Îą1 v1 , Îą2 v2 , . . . , Îąn vn } donde Îą1 , Îą2 , . . . , Îąn son escalares. El espacio generado y el conjunto generador, nos muestran los posibles conjuntos de vectores que podemos obtener con ellos. Por ejemplo, vimos como con sĂłlo pudimos construir dos vectores 1 0 cualquier vector de R2 usado como “baseâ€? los vectores y , y como con un conjunto 0 1 de monomios podemos generar cualquier polinomio, mĂĄs adelante veremos que la clave de los conjuntos generadores esta en la escogencia de las contantes. El siguiente teorema muestra la relaciĂłn entre el generado y el espacio vectorial. .:Teorema 3.3 Si v1 , v2 , . . . , vn vectores del espacio vectorial V , el gen{v1 , v2 , . . . , vn } es un subespacio de V .

Ejemplo 3.14 Tomemos el espacio vectorial R, y sea R = {1}. El conjunto R sĂłlo tiene un elemento, sin embargo podemos generar cualquier real con dicho conjunto, sĂłlo debemos escoger la constate. gen {R} = {x/x = Îą(1), a ∈ R} = R Por ejemplo: queremos generar el nĂşmero real 4, entonces tomamos Îą = 4. TĂŠcnicamente, cualquier nĂşmero real, excepto el cero puede generar a los reales.

2

Ejemplo 3.15 Tomemos el espacio vectorial R y el conjunto S =

gen

2 1

=

x y

x 2

=Îą ,

y 1

2 1

, entonces:

ÎąâˆˆR


3. Espacios vectoriales

155

x y

=

α2 α

Luego x =

y

α

=

Luego x = 2y, es decir, y = 12 x, lo que me representa el conjunto de puntos en el plano que esta sobre la recta y = 21 x. Por ejemplo tomemos α = 2, entonces x (2)2 4 = = y 2 2 Con α = −1 tenemos

x y

=

(−1)2 −1

=

−2 −1

Figura 3.1.

2 1

−4

−3

−2

−1

−2 −1

b

La recta y = 21 x 1

2

3

4

−1 b

4 2

Figura 3.1:

  Ejemplo 3.16 Tomemos R3 y el conjunto S =  

   1 1  2  ,  0  , entonces:  −1 1              1 1   x

x 1 1  gen  2  ,  0  =  y 

 y  = α1  2  + α2  0  ,    −1 1 z

z −1 1 Para encontrar la relación entre x, y y z y los vectores, tomamos:     x α1 + α2  y = 2α1  z −α1 + α2

α1 , α2 ∈ R

  


3. Espacios vectoriales

156

x = y = z =

α1 + α2 2α1 −α1 + α2

 1 | x 0 | y  1 | z

En forma matricial tenemos: 1  2 −1

Ahora procedemos aplicar eliminación Gaussiana.    1 1 | x  2 0 | y  f2 → f2 + (−2)f1  −1 1 | z −−−−−−−−−−−−→

   x 1 1

 0 −2 −2x + y  f3 → f3 + f1 

−−−−−−−−−→ z −1 1

Luego los elementos de gen {S} deben satisfacer.

 x 1 1

0 −2

−2x + y  z −1 1

 x 1 1

0 −2

−2x + y  0 0 −x + y + z

−x + y + z = 0 

   x

 Entonces gen {S} =  y 

− x + y + z = 0 , lo que representa los puntos de R3 que   z

están sobre el plano que pasa por el origen. Ejemplo 3.17 Describa el espacio generado por los siguientes polinomios: P1 (x) = 3x + 2 P2 (x) = −x − 4 El problema consiste en determinar que clase de polinomios se generan de las posibles combinaciones lineales de dichos vectores. Entonces sea P = {3x + 2, −x − 4} gen(P) = {P (x)/P (x) = k1 (3x + 2) + k2 (−x − 4), k1 , k2 ∈ R} Sumando las componentes internas tenemos: gen(P) = {P (x)/P (x) = 3k1 x + 2k1 − xk2 − 4k2 , k1 , k2 ∈ R} Agrupando términos semejantes: gen(P) = =

{P (x)/P (x) = 3k1 x − xk2 + 2k1 − 4k2 , k1 , k2 ∈ R} {P (x)/P (x) = (3k1 − k2 )x + 2(k1 − 2k2 ), k1 , k2 ∈ R}


3. Espacios vectoriales

157

El espacio generado son todos los polinomios de grado menor o igual a 1. .:Teorema 3.4 Sean v1 , v2 , . . . , vn , vn+1 , n + 1 vectores de un espacio vectorial V . Si v1 , v2 , . . . , vn genera a V , entonces v1 , v2 , . . . , vn , vn+1 tambiĂŠn genera a V . DemostraciĂłn: Tomemos v ∈ V ; y se tiene que el conjunto de vectores {v1 , v2 , . . . , vn } genera a V , entonces si a1 , a2 , . . . , an , son escalares, tales que v = a1 v1 + a2 v2 + . . . + an vn . AsĂ­ que v tambiĂŠn puede expresarse como: v = a1 v1 + a2 v2 + . . . + an vn + 0vn+1 Es decir, al nuevo vector vn+1 lo multiplicamos por el escalar cero, lo cual muestra que {v1 , v2 , . . . , vn , vn+1 } tambiĂŠn genera V . Q.E.D Ejemplo 3.18 El espacio vectorial R2 puede ser generado por el conjunto 1 0 A= , 0 1 Muestre que se puede generar R2 con el conjunto de vectores: 1 0 2 S= , , 0 1 3 Tomamos: Îą1

1 0

1 0

+ Îą2

Ahora, tomamos Îą3 = 0 y se tiene que:

Îą1

+ Îą2 Îą1

0 1

0 1

+ Îą3

+ (0)

+ Îą2

Îą1

=

x

Îą2

=

1 0

2 3 0 1

2 3

=

= =

x y

x y x y

Quedando el sistema

x = y espacio vectorial R2 .

Entonces

y Îą1 , por que lo se concluye que, el conjunto de vectores S genera el Îą2

Ejercicios 3.3 1. Encuentre el subespacio generado por cada uno de los siguientes conjuntos de vectores, en el espacio vectorial correspondiente:


3. Espacios vectoriales

a) S

b) S

c) S d) S e) S f) S g) S

158

    0  −1  =  1 , 1    0 −1     4   4 =  5 , 2    0 0 2 4 = , −3 −6 0 0 = , 4 −2 1 0 0 0 = , 0 0 0 1 0 1 1 1 0 0 = , , −1 0 0 0 −1 1 2 4 3 = x + 2x, x + 2x, x + 2x

2. Sean p1 = x2 − x, p2 = x3 − x − 1, p3 = x4 − x. Determine si los siguientes polinomios son combinaciĂłn lineal de p1 , p2 y p3 . a) x2 + 4x b) x3 + 4x − 2

c) 4x3 − 2x2 + 2

d) −5x5 + 7x2 − x       −1 1 4 3. Sean v1 =  4 , v2 =  5 , v3 =  −1 . Determine (si es posible) los 9 6 2 escalares apropiados para que los vectores generen al vector dado.     5 8 a)  2  d)  9  25 6     5 1 b)  6  e)  1  2 0     7 1 c)  4  f)  0  9 0 4. Dado el espacio vectorial dado, determine si los vectores generan dicho espacio vectorial. 5 4 a) R2 con , . −1 1


3. Espacios vectoriales

2

b) En R ;



c) En R3 ;  

d) En R2 ; 

0 . −1   1 1 ,  0   1 0 ,  1

159

  1 0 ,  −9   0 −1 ,  4

 1 −2 . −2    7 0 4 , 0  2 −1

5. Muestre que un conjunto de n − 1 vectores de Rn no puede generar a Rn .

3.4. Dependencia e independencia lineal de vectores Los conceptos de independencia y dependencia lineal serån muy usados de ahora en adelante. Son útiles porque nos permiten determinar si existe algún tipo de vínculo entre un conjunto de vectores, es decir, si podemos determinar, que dados un conjunto de vectores, al menos uno de ellos es múltiplo escalar de otro. En ese caso diremos que el conjunto de vectores dado es linealmente dependiente, en caso contrario diremos que el conjunto de vectores es independiente. .:Definición 3.7 Sea S = v1 , v2 , . . . , vn , n vectores distintos del espacio vectorial V . Se dice que los vectores de S son linealmente dependiente o LD, si existen n escalares k1 , k2 , . . . , kn , no todos cero, tales que: k1 v1 + k2 v2 + . . . + kn vn = 0 (3.3) Si los vectores no son linealmente dependientes, entonces se les llama linealmente independientes, LI, es decir, si la ecuación: k1 v1 + k2 v2 + . . . + kn vn = 0 es valida si y solamente si k1 = k2 = ¡ ¡ ¡ = kn = 0. La ecuación (3.3) puede llegar a ser cero si escogemos todos los k iguales a cero, es decir, k1 = k2 = ¡ ¡ ¡ = kn = 0. Lo interesante sería averiguar si un conjunto de vectores es L.D usando valores diferentes de cero para los k. Ejemplo 3.19 En R2 , sea A =

1 5

−4 , y veamos si A es LD o LI. 1

SoluciĂłn Para determinar si A es L.I. o L.D planteamos la siguiente ecuaciĂłn: −4 0 1 = + c2 c1 1 0 5 Queda como resultado el siguiente sistema de ecuaciones lineales: c1 − 4c2

5c1 + c2

= 0 = 0


3. Espacios vectoriales

160

Si resolvemos el sistema se obtiene que c1 = c2 = 0. Además, el sistema tiene solución única que es la solución trivial, por lo tanto no existe otra posible solución, lo que implica que es L.I        5 2   1 Ejemplo 3.20 En R3 , sea A =  2  ,  7  ,  4  y veamos si A es LD o LI.   1 0 2 Solución:

De nuevo planteamos el sistema de ecuaciones:         1 5 2 0 c1  2  + c2  7  + c3  4  =  0  1 0 2 0 Luego se obtiene que:

c1 + 5c2 + 2c3

=

0

2c1 + 7c2 + 4c3

=

0

c1 + 0c2 + 2c3

=

0

Simplicando el sistema de ecuaciones:

   1 5 2

0 1  2 7 4 0  f3 → f3 + (−1)f1  2

−−−−−−−−−−−−→ 0 1 0 2 0

   1 5 2

0 1  2 7 4

0  f2 → f2 + (−2)f1  0 −−−−−−−−−−−−→ 0 0 −5 0 0

   1 1 5 2

0 1  0 −3 0 0  f2 → − f2  0

3 0 −5 0 0 −−−−−−−−−−−→ 0

   1 5 2

0 1  0 1 0

0  f3 → f3 + 5f2  0 −−−−−−−−−−→ 0 0 −5 0 0

El nuevo sistema quedaría de la siguiente forma:

c1 + 5c2 + 2c3 c2

 5 2

0 7 4

0  −5 0 0

 5 2

0 −3 0

0  −5 0 0

 5 2

0 1 0

0  −5 0 0

 5 2

0 1 0

0  0 0 0

= 0 = 0

Entonces c3 = c3 por ser variable libre, de acuerdo a la reducción anterior, de lo cual se obtiene también que c1 + 2c3 = 0, luego c1 = −2c3 , la solución final sería:


3. Espacios vectoriales

161

   −2 c1  c2  = c3  0  1 c3 

De lo que se puede concluir  que el sistema tiene múltiples soluciones, en este caso cualquier  −2 múltiplo escalar del vector  0 . Luego, hemos encontrado un conjunto de escalares 1 diferentes de cero la combinación lineal de vectores, luego A es L.D. El siguiente teorema se pueden deducir de la definición de L.D y L.I: .:Teorema 3.5 Sean v1 y v2 dos vectores de un espacio vectorial V . v1 y v2 son L.D si y sólo si uno d ellos es múltiplo escalar del otro. El teorema nos muestra, que el hecho de que un vector se pueda escribir como el múltiplo escalar de otro, los convierte en un conjunto de vectores L.D. La dependencia esta relacionada específicamente con la construcción de uno de los vectores como producto escalar del otro, hecho que implica necesariamente la dependencia de ambos vectores.

Ejemplo 3.21 Tomemos v1 =

−2 3

y v2 =

6 −9

, Determine si son L.I o L.D

Es fácil ver que v2 = −3v1 , luego ambos vectores son L.D. 6 0 −2 = + c2 c1 −9 0 3 Luego el sistema asociado es: −2c1 + 6c2 3c1 − 9c2

= 0 = 0

Al simplificar obtenemos que c1 = 3c2 , luego existe una dependencia entre ambos vectores. Veamos la siguiente propiedad: .:Teorema 3.6 Sea S un conjunto de n vectores de Rm , si n > m, es decir, la dimensión de los vectores es más grande que la cantidad de vectores, entonces S es L.D La demostración de este teorema se deja como ejercicio al lector pero, es fácil comprobar esta afirmación, pues se construye un sistema que tiene más columnas que filas, por lo tanto tendrá múltiples soluciones, lo que implica que será L.D


3. Espacios vectoriales

162

Ejemplo 3.22 Tomemos v1 =

1 0

y v2 =

2 1

y v3 =

4 7

Para determinar si los vectores son L.D, Se debe construir y resolver el sistema de ecuaciones homogéneo que resulta de ellos: c1 + 2c2 + 4c3 c2 + 7c3 En forma matricial:

1 0

= 0 = 0

2 4

0 1 f1 → f1 − 2f2 1 7 0 −− 0 −−−−−−−−→

Luego el sistema quedaría:

0 −10

0 1 7 0

c1 + 4c3 = 0 c2 + 7c3 = 0 −4 , lo que implica, infinitas soluciones. La solución estaría dada por c3 −7 .:Corolario 3.1 Todo conjunto de vectores L.I en Rn contiene máximo n vectores. El siguiente teorema relaciona la independencia lineal con los sistemas de ecuaciones homogéneos. Donde los vectores se pueden ver como las columnas de la matriz del sistema AX = 0 .:Teorema 3.7 Sean H = {v1 , v2 , . . . vn }, n vectores en Rn , y sea A una matriz n × n que tiene como columnas a los vectores v1 , v2 , . . . vn . Entonces v1 , v2 , . . . vn son L.I si y sólo si, la única solución al sistema homogéneo Ax = 0 es la trivial, es decir, sólo cuando x = 0. Demostración: m

Sean H = {v1 , v2 , . . . vn } un subconjunto de R , A =

c1 , c2 , . . . , cn ; entonces: c1 v1 + c2 v2 + · · · + cn vn

=

=

c1

v1 |

v2 |

···

vn |

y los escalares

v2 vn v1 +c2 + · · · + cn | | | | {z } | {z } | {z } Primera columna de A Segunda columna de A n−ésima columna de A

c1  c2  A .  .. cn

    

=⇒ Supongamos que H es L.I, entonces la única combinación lineal de v1 , v2 , . . . vn que produce el vector cero, es la trivial, es decir: c1 v1 + c2 v2 + · · · + cn vn = 0, únicamente cuando


3. Espacios vectoriales

163

c1 = c2 = · · · = cn = 0, luego: 

  Sólo si  

c1 c2 .. .

    =  

0 0 .. .

  A 

c1 c2 .. . cn

    =  

0 0 .. . 0

    

  . Por consiguiente AX = 0 tiene únicamente la solución trivial. 

cn 0 ⇐= Si AX = 0 tiene únicamente la solución trivial, veamos que H es L.I: Sean los escalares c1 , c2 , . . . , cn , entonces c1 v1 + c2 v2 + · · · + cn vn = 0, entonces:     c1 0  c2   0      A .  =  .   ..   ..  cn 0

y como AX tiene únicamente la solución trivial, se tiene que c1 = c2 = · · · = cn = 0. Por lo tanto, el conjunto de vectores {v1 , v2 , . . . vn } son L.I. Q.E.D Las demostraciones de los siguientes teoremas los dejamos como ejercicio al lector, pues son relativamente sencillas y es una oportunidad para aplicar los conceptos ya vistos. .:Teorema 3.8 Sea: 

  A= 

a11 a21 .. .

a12 a22 .. .

··· ···

a1n a2n .. .

am1

am2

···

amn

    

Las columnas de A se consideran como vectores L.D, si y sólo si, el sistema AX = 0 tiene soluciones no triviales.

.:Teorema 3.9 Sea A una matriz de tamaño n×n. Entonces, el detA 6= 0 si y solo si las columnas de A son L.I.

.:Teorema 3.10 Sea H = {v1 , v2 , . . . , vn }un conjunto de n vectores L.I en Rn , entonces H genera Rn .


3. Espacios vectoriales

164

.:Teorema 3.11 Sea H = {v1 , v2 , . . . , vn } un subconjunto de un espacio vectorial V , H es L.D si y sólo si existe al menos un vector de H que pueda expresarse como combinación lineal de los vectores restantes de H. Demostración i. Supongamos que H es L.D. Existen a1 , a2 , . . . , an escalares, no todos nulos, tal que: a1 v1 + a2 v2 + . . . + an vn = 0 Sea ai 6= 0, entonces,

a1 a2 an v1 – v2 – . . . – vn . ai ai ai Luego vi es una combinación lineal de los restantes n − 1 vectores de H. Ahora bien, si vi es una combinación lineal de los restantes vectores de H, entonces vi = –

vi = α1 v1 + α2 v2 + . . . + αi−1 vi−1 + αi+1 vi+1 + · · · + αn vn . Por tanto, α1 v1 + α2 α2 + . . . + αi−1 vi−1 + (–1) vi + αi+1 vi+1 + · · · + αn vn . En esta combinación lineal de los vectores de H igualada a cero, al menos el coeficiente de vi (−1) es diferente de cero y por tanto H es LD. Q.E.D Si H es L.D, y genera a V , al eliminar en H el vector que es combinación lineal de los otros vectores de H generando así mismo el espacio vectorial V . Ejemplo 3.23 Sea H = {v1 , v2 , v3 , v4 } con     1 1  0   1     v1 =   0  , v2 =  1  , 0 0

 0  1   v3 =   1 , 0 

y

 2  1   v4 =   1  0 

y sea Z = gen H. Como v4 = v1 + v2 , entonces Z = gen H1 , donde H1 = {v1 , v2 , v3 }

Ejercicios 3.4 1. En los siguientes ejercicios determine si el conjunto de vectores dados es L.D o L.I


3. Espacios vectoriales

165

a) v1 = (7, 1), v2 = (11, −9), en R2 . b) v1 = (4, 0, 0), v2 = (0, −1, −1), v3 = (1, −1, 2), v4 = (−7, 0, 0), en R3 . c) P1 = 1 + 2x, P2 = 4–x, en P1 . d) P1 = x2 − 1, P2 = x2 + 7, en P2 . 1 1 2 2 −7 e) A1 = , A2 = , A3 = 0 1 0 2 −7

0 1

, en M22 .

f) P1 = 2 + 4x + 2x2 , P2 = 4 + 7x + x2 , P3 = 3 + 4x + 8x2 , en P2 . g) A1 =

4 8 1 1

8 0

, A2 =

0 0 0 1

0 0

0 1 , A3 = 0 0

0 1

, en M23 .

2. Si {v1 , v2 , v3 } es L.I, demuestre {v1 , v2 } , {v1 , v3 } , {v1 } , {v2 } es L.I. 3. Si {v1 , . . . , vn } es L.I, demuestre que todo subconjunto diferente de vacío de este conjunto es LI. 4. Si {v1 , . . . , vn } es L.D, pruebe que {v1 , . . . , vn , vn+1 , . . . , vk } también es L.D. 5. Demuestre que si los vectores v1 , v2 , . . . vn son L.D en Rm y si vn+1 es cualquier otro vector en Rm , entonces el conjunto v1 , v2 , . . . vn , vn+1 es L.D . 6. Sea A una matriz de n × n que tiene como columnas a los vectores v1 , v2 , . . . , vn . Demuestre que v1 , v2 , . . . , vn son L.I si y sólo si A esta en la forma escalonada reducida por filas y no puede tener filas nulas. 7. Prueba que todo n + 2 polinomios en Pn , son LD. 8. Demuestre que si los vectores v1 y v2 diferentes de cero en Rn son ortogonales, entonces el conjunto {v1 , v2 } es L.I. 9. Demuestre que cualquiera siete matrices en M32 son L.D. 10. Para cada uno de los conjuntos H dados a continuación: Probar que H es L.I Hallar el espacio generado por H. Hallar, si es posible, un vector v, del espacio vectorial correspondiente, tal que el conjunto H ′ obtenido al agregar a H el vector v sea también L.I       1 −1 1           −1 0 1  4       a) V = R , H =  , , 2   1   1       0 0 1


3. Espacios vectoriales

166

1 2 b) V = R , H = , −1 1     4  1        0 4 , 1  c) V = R , H =     0     1   2 1 2

3.5. Bases y dimensión de un espacio vectorial .:Definición 3.8 Base Un conjunto finito de vectores {v1 , v2 , . . . , vn } es base para el espacio vectorial V sí: i. {v1 , v2 , . . . , vn } es linealmente independiente. ii. {v1 , v2 , . . . , vn } genera a V . Tengamos en cuenta que: Todo conjunto de n vectores L.I de Rn es una base en Rn . .:Definición 3.9 En Rn se define:    1  0       ..    .     e1 =  .  , e2 =   .  .       .    ..  0

0 1 0 .. . .. . 0





0 0 .. .





                 , . . . , ei =   , . . . , en =     1         ..     .  0

0 0 .. . .. . 0 1

         

y como los vectores ei son las columnas de una matriz identidad, entonces {e1 , e2 , . . . , en } es un conjunto L.I y, por lo tanto, constituye una base en Rn , a la cual se le denomina base canĂłnica en Rn .

Ejemplo 3.24 Los vectores e1 = (1, 0) y e2 = (0, 1) forman una base de R2 , pues cualquier vector de R2 se puede escribir como una combinación lineal de e1 y e2 . El vector (2, π) se puede escribir como: 2 1 0 =2 +π π 0 1


3. Espacios vectoriales

167

Ejemplo 3.25 En Pn el conjunto 1, x, x2 , . . . , xn es la base estĂĄndar para los polinomios de grado n, pues cualquier polinomio de grado n se puede escribir como combinaciĂłn lineal de 1, x, x2 , . . . , xn . El polinomio 6x2 + 3x + 5 se puede escribir de la forma: 6x2 + 3x + 5 = (5)1 + (3)x + (6)x2 + 0x3 +, . . . , +0xn

1 0 0 1 0 0 0 0 Ejemplo 3.26 El conjunto de matrices , , , 0 0 0 0 1 0 0 1 es una base para el espacio vectorial M22 . llamada base estĂĄndar o canĂłnica, si tenemos la matriz A : A =

1 = −5 0 −5 4 −5 = 2 6 0 −5 4 2 6

0 +4 0 0 0 + 0 0

0 1 0 0 0 0 +2 +6 0 0 1 0 0 1 4 0 0 0 0 + + 0 2 0 0 6

Ahora bien, dado un conjunto de vectores en el espacio, vamos a determinar una base para dicho conjunto. En este caso, debemos realizar un anĂĄlisis a dicho conjunto, que nos permita conocer la base.     x  Ejemplo 3.27 Sea H =  y  : 2x+3y + z = 0 un subespacio de R3 . Determine una   z base para H. Inicialmente despejamos una de las variables z = −2x − 3y

Luego los vectores deben ser de la forma: 

 x  , y −2x − 3y

Para cualquier x e y , expandimos el vector en dos nuevos vectores para simplificar la suma interna:       x 1 0   = x 0  + y 1  y −2x − 3y −2 −3     1 0 El resultado anterior muestra dos hechos, el primero es que los vectores  0  y  1  −2 −3 son L.I y los segundo es que cualquier vector  que pertenezca a H se puede escribir como     1 0   combinaciĂłn lineal de estos dos vectores, luego  0  ,  1  forman una base para   −3 2 H.


3. Espacios vectoriales

168

3.5.1. Bases y sus propiedades Los siguientes teoremas muestran las propiedades de las bases. .:Teorema 3.12 Si {v1 , v2 , . . . , vn } es una base de V y si v ∈ V , entonces existe un y sólo un conjunto de escalares c1 , c2 , . . . , cn tal que: v = c1 v1 + c2 v2 + · · · + cn vn Demostración: Suponga que v pude expresarse expresarse de dos maneras diferentes, es decir, supongamos que tenemos dos conjuntos constantes {c1 , c2 , . . . , cn } y {d1 , d2 , . . . , dn } tal que ci 6= di para i = 1, 2, . . . , n, que permiten escribir a v como una combinación lineal de los vectores. Con base en lo anterior podemos afirmar que: v = c1 v1 + c2 v2 + . . . + cn vn = d1 v1 + d2 v2 + · · · + dn vn , Agrupando tenemos: (c1 − d1 ) v1 + (c2 − d2 ) v2 + · · · + (cn − dn ) vn = 0 Como {v1 , v2 , . . . , vn } es L.I, entonces c1 − d1 = c2 − d2 = · · · = cn − dn = 0 es decir ci − di = 0, ∀i. Lo que implica que el conjunto de escalares es único para cualquier vector.

Q.E.D El teorema anterior, muestra que todo vector de un espacio vectorial se puede escribir como la combinación lineal de su base de manera única. El siguiente teorema hace referencia al tamaño mínimo que debe tener un espacio vectorial. .:Teorema 3.13 Si {u1 , u2 , . . . , um } y {v1 , v2 , . . . , vn } son bases del mismo espacio vectorial V , entonces m = n. Demostración Sean H1 = {u1 , u2 , . . . , um } y H2 = {v1 , v2 , . . . , vn } dos bases para el espacio vectorial V . Suponga que m 6= n, entonces tenemos dos posibles opciones, primero que m > n o que n > m. Si m > n, veamos que H1 es L.D.


3. Espacios vectoriales

169

Cada vector de H1 se puede expresar como combinación lineal de los vectores de la base H2 . v1 u2

= =

a11 v1 a21 v1 .. .

un

= am1 v1

+ +

a12 v2 a22 v2 .. .

+ ··· + ···

+ +

a1n vn a2n vn .. .

+ am2 v2

+ ···

+

amn vn

Ahora bien, si H1 es L.D la combinación lineal.

c1 u 1 + c2 u 2 + . . . + cm u m = 0

(3.4)

Entonces existe ci 6= 0 tal que: c1 (a11 v1 + a12 v2 + · · · + a1n vn ) + c2 (a21 v1 + a22 v2 + · · · + a2n vn ) + · · · Como es L.I, entonces:

+cm (am1 v1 + am2 v2 + · · · + amn vn ) = 0.

(c1 a11 + c2 a21 + . . . + cm am1 ) v1 + (c1 a12 + c2 a22 + . . . + cm am2 ) v2 + . . . + (c1 a1n + c2 a2n + . . . + cm amn ) vn = 0. Ahora bien, como {v1 , v2 , . . . , vn } es L.I, entonces: a11 c1 a12 c1 .. .

+ +

a21 c2 a22 c2 .. .

+ +

··· ···

+ +

am1 cm am2 cm .. .

= =

0 0

a1n c1

+

a2n c2

+

···

+

amn cm

=

0

Este sistema homogéneo de n ecuaciones con m incógnitas, con m > n, tiene infinitas soluciones, por tanto, existen escalares c1 , c2 , . . . , cm , no todos cero, que verifiquen (3.4), y en consecuencia H1 es L.D. De forma análoga se puede hacer la demostración para n > m. Q.E.D El teorema anterior no abre el camino para uno de los conceptos más importantes en el tema de bases. Se trata del concepto de Dimensión.

3.6. Dimensión de un espacio vectorial .:Definición 3.10 Sea V un espacio vectorial no nulo. La dimensión del espacio vectorial V es el número de vectores en la base de V , y se denota como: dim (V ) Como el conjunto {0} es linealmente dependiente, se dice que el espacio vectorial {0} tiene dimensión cero.


3. Espacios vectoriales

170

En nuestro caso, vamos a asumir que la dimensión de un espacio vectorial es finita. Sin embargo, existen espacios vectoriales que tiene dimensión infinita. Veremos algunos ejemplos de la dimensión de un espacio vectorial. Ejemplo 3.28 Tomemos el caso de R2 , la base de este espacio vectorial es 2, pues se requieren dos vectores como mínimo para generar cualquier vector en el plano. De igual manera, con el espacio vectorial R3 , en este caso la dimensión es 3, pues la base para este espacio vectorial tiene tres vectores. En general, dim (Rn ) = n, pues su base tiene n vectores. En el caso de los polinomios, el espacio vectorial P2 necesita tres términos para generar cualquier polinomio de grado menor o igual a dos: un término para generar los x2 , otro para los términos lineales x, y otro para las constantes. De igual manera, para el espacio vectorial P3 , que tiene dimensión 4. En general, dim (Pn ) = n + 1. Para calcular la dimensión de matrices de tamaño m × n se multiplica el número de filas por el numero de columnas, por ejemplo, la base para el espacio vectorial de matrices de 2 × 2 necesita de cuatro matrices, lo que implica que dim (M22 ) = 4. La base de un espacio vectorial de matrices M23 tiene seis elementos, por lo tanto dim (M23 ) = 6.

.:Teorema 3.14 Si dim (V ) = n y {v1 , v2 , . . . , vm } es un conjunto L.I de m vectores de V , entonces m ≤ n. En este teorema, podemos ver a la dimensión del espacio vectorial, como la cota máxima que puede tener un conjunto de vectores L.I. En el caso de tener más vectores que el número de la dimensión, tendríamos un conjunto de vectores L.D. .:Teorema 3.15 Sea V un espacio vectorial de dimensión finita y sea H un subespacio deV , entonces, dim (H) ≤ dim (V ).

Ejemplo 3.29 Determine un base para el espacio solución del sistema homogéneo x − 2y + 2z = 0 x−z =0 Inicialmente tomamos la matriz de coeficientes del sistema: 1 −1 2 1 0 −1 Como vimos, la dimensión de M23 es seis, pero en este caso nos piden una base para el espacio solución del sistema. Entonces procedemos a realizar la eliminación gaussiana: 1 −1 2 1 −1 2 f → f2 + (−1)f1 1 0 −1 −2−−−−− −−−−−−→ 0 1 −3


3. Espacios vectoriales

171

1 −1 0 1

2 −3

Luego, el nuevo sistema es:

f1 → f1 + (1)f2 −−−−−−−−−−−→ x−z

y − 3z

=

0

=

0

1 0 0 1

−1 −3

De donde: x=z y = 3z z=z Entonces, el espacio  solución del sistema homogéneo esta determinado por los múltiplos  escalares 1 1 del vector  3 . Si H es el espacio solución del sistema, su base es el vector  3  y por lo 1 1 tanto dim (H) = 1. Podemos ver que dim (H) ≤ dim (M23 ). .:Teorema 3.16 Sea V un espacio vectorial de dimensión n y sea H = {v1 , v2 , . . . , vn } un conjunto de n vectores en V . i. Si H es L.I, es una base para V . ii. Si H genera a V , entonces es una base para V . La demostración de este teorema la podemos encontrar en [2, 1]. Pero es fácil ver que si el conjunto H es L.I entonces, puede generar a V , pues reúne las dos condiciones necesarias, que sea L.I y el tamaño. De otro lado Si Hgenera a V necesariamente debe tener el tamaño de la dimensión de V y de otra parte si genera a todo V es L.I. .:Teorema 3.17 Sea V un espacio vectorial de dimensión finita, y sea H un conjunto L.I de vectores de V . Entonces, existe una base B para V que contiene a H. El teorema garantiza que en caso de tener un conjunto de vectores de V que sean L.I se pueden obtener dos opciones: 1. Si H tiene menos elementos que la dimensión de V , entonces es posible encontrar una base B que contenga los vectores de H. 2. Si H tiene los mismos elementos que la dimensión de V , por el teorema 3.16, H es una base para V , lo que implica que H = B. Ejercicios 3.5


3. Espacios vectoriales

172

1. Determine si el conjunto de vectores forma una base para el espacio vectorial dado (Justifique la respuesta): a) v1 = (3, −5) , v2 = (7, 2) , v3 = (8, 2) , con R2       2 1 1  3   1   2  4      b) v1 =   4 , v1 =  1 , v1 =  3  con R 7 0 0        7 1 8 2  −6   6   1   3       c) v1 =   5 , v1 =  1 , v1 =  7 , v1 =  4 4 1 2 5 d) P1 = x + x2 , 2

P2 = x,

P3 = 3x,

2

e) P1 = x + 6x, P2 = 4x   1 0 0 f) M1 =  1 0 0  , 1 0 0   0 0 0 M4 =  0 0 0  ,M5 0 0 1    0 0 0 0  0 1 0 , M 8 =  0 0 1 0 1

  con R4 

P4 = x + 8, con P2 .

,

P3 = 4x − 7, P4 = πx, con P3 .     1 0 0 1 0 0 M2 =  0 0 0  , M3 =  0 0 0  , 1 1 1 1 0 1     0 0 0 0 0 0 =  0 1 0 , M 6 =  1 1 0 , M 7 = 0 0 0 0 0 0    0 0 1 0 0 1 0 , M9 =  0 1 0  con M33 . 0 0 0 0 0

2. Encuentre una base del espacio vectorial dado y determine su dimensión. a) Todos los vectores en R3 cuyas componentes suman 1. b) Todas las matrices simétricas de 2 × 2 diagonales superiores. c) Todas las matrices antisimétricas de n × n.

d) Todos los vectores de R3 que pertenecen al plano x − 5y − 9z = 0.

e) Todos los polinomios de P2 de la forma a0 + a1 x + a2 x2 , con a0 = 0

3. Determine una base para R4 que contenga los siguientes vectores: (1, 1, 4, 2), (1, 2, 3, 8), (5, 4, 7, 8) 4. Determine los posibles valores de k para que el conjunto k 2 , 0, 1 , (0, k, 2) , (1, 0, 1) sea una base para R3 . 5. Encuentre una base para el espacio solución del sistema homogéneo dado. a) 2x − 7y 5x − 7y

= =

0 0


3. Espacios vectoriales

173

b)

d) 6x + 8y − z x−y−z x−z

=

0

= =

0 0

11x − 9y + z + 4w

=

0

= =

0 0

y+y

=

0

−x + 2y − z x+z−w

c) x − y + 9z

= 0

4x + 7y − 11z y − 11z

= 0 = 0

3.7. Subespacios asociados con una matriz 3.7.1. Espacio nulo de una matriz .:Definición 3.11 Sea A una matriz m × n. El conjunto N (A) = {X ∈ Rn /AX = 0} Se llama espacio nulo de A y se denota por N (A). A la dimensión de N (A) se le llama nulidad de A y se denota por v (A).

Ejemplo 3.30 Sea A =

1 3

1 0

1 1

. Determine N (A)

El sistema homogéneo que se genera a partir de la matriz A es: x+y+z

=

0

3x + z

=

0

Resolvemos el sistema homogéneo 1 1 1 1 1 1 f2 → f2 + (−3)f1 3 0 1 −−−−−−−−−−−−→ 0 −3 −2 1 1 1 1 1 1 0 3 f1 → f1 + f2 0 −3 −2 0 −3 −2 3 −−−−−−−−−−−−−→ La variable libre es z, por lo tanto la solución sería:  1   1  −3 −3z       x  2   2       y =  −3z  = z  −3      z 1 z


3. Espacios vectoriales

174

 1 −3       2 N (A) = gen   −3      1

1 Ejemplo 3.31 Sea A =  0 7

       , v (A) = 1.     

 0 −1 4 2 −5 2 1 2  . Determine N (A) −3 0 4 −1

La matriz A de coeficientes del sistema x − z + 4v + 2w

−5y + 2z + v + 2w 7x − 3y + 4v − w

=

0

= =

0 0

Resolvemos el sistema homogéneo     1 0 −1 4 2 1 0 −1 4 2  0 −5 2 1 2  f3 → f3 + (−7)f1  0 −5 2 1 2  −−−−−−−−−−−−→ 7 −3 0 4 −1 0 −3 7 −24 −15 

  0 −1 4 2 3 −5 2 1 2  f3 → f3 + − f2  5 −3 7 −24 −15 −−−−−−−−−−−−−−→    1 0 −1 4 2 1 5  0 −5 2 1 2  f3 → f3  0 29 29 0 0 − 123 − 81 0 −−−−−−−−−−→ 5 5 5

1  0 0

1  0 0 

0 −1 4 −5 2 1 0 1 − 123 29

1  0 0

0 0 −5 0 0 1

7 − 29

275 29 − 123 29

0 −5 0 1

 2 f1 → f1 + f3   0 2  f2 → f2 + (−2)f3  81 − 29 −−−−−−−−−−−−−−→  0 − 23 29 220 29 − 81 29

1

   f2 → f2   0 −−−−−−−−−−−→  0 − 51

 2 2  − 81 5

1 0 −1 4 0 −5 2 1 123 29 − 0 0 5 5

 2 2  81 − 29

−1 4 2 1 1 − 123 29 0

7 − 29

− 23 29

−5 0

275 29

220 29

0

0

1 − 123 29

0

7 − 29

23 − 29

1

0

− 275 145

220 − 145

0

1 − 123 29

81 − 29

0

− 81 29      

     


3. Espacios vectoriales

175

Las variables libres son v y w, por lo tanto la solución sería:    23  7  7 23 29 v + 29 w 29 29            275  220    220  275  x  145 v + 145 w   145  145     y       123      81  = v  123  + w  81  z = v + w   29    29  29  29      v           0  1  w v           0 1 w  7   23    29 29                   275   220       145 145                    123 81 ,  , v (A) = 2. N (A) = gen  29 29                          1 0                      0 1 .:Definición 3.12 Sea A de tamaño m × n  a11  a21  A= .  ..

am1

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

am2

···

amn

i. El espacio generado por las filas de A,

             

    

f1 = (a11 , a12 , . . . , a1n ) , f2 = (a21 , a22 , . . . , a2n ) , . . . , fm = (a11 , a12 , . . . , a1n ) es un subespacio de Rn llamado espacio fila de A y se denota F (A). ii. El espacio generado por las columnas de A    a11 a12  a21   a22    c1 =  .  , c2 =  .  ..   .. am1

am2

     , . . . , cn =   

a1n a2n .. . amn

    

Es un subespacio de Rm llamado espacio columna de A y se denota C(A).

3.7.2. Propiedades .:Teorema 3.18 Si A y B son matrices m × n equivalentes por filas, entonces los espacios generados por las filas de A y de B son iguales.


3. Espacios vectoriales

176

Demostración Si A y B son equivalentes por filas, entonces B se obtiene de A aplicando operaciones elementales por fila. La permutación de filas no afecta el espacio fila. Las otras operaciones kfi y fj + kfi , son combinaciones lineales entre las filas de A, que pertenecen al espacio fila de A. Por tanto, el espacio generado por las filas de B está contenido en el espacio generado por las filas de A, F (B) ⊂ F (A). De forma análoga se ve que F (A) ⊂ F (B). En consecuencia, F (A) = F (B). Q.E.D Ejemplo 3.32 Sea:

    1 4   H =  −1  ,  0    2 −1

Determine una base para gen H.

Tomemos los vectores de H como filas de la matriz A y aplicando operaciones elementales por fila obtenemos otra matriz equivalente a la que llamaremos B, la cual, es una matriz triangular superior. Las filas no nulas de B son L.I y forman una base para F (B) el cual es igual a F (A). Estos vectores tomados como columnas serán una base para gen H. 1 −1 2 A= 4 0 −1 Aplicamos operaciones elementales por fila tenemos que: 1 −1 2 f → f2 + (−4)f1 4 0 −1 −2−−−−− −−−−−−→  1 1 1 −1 2 f2  f2 → 0 4 −9 4 0 −−−−−−−−−→    1 −1 2 1   f1 → f1 + f2  −−−−−−−−−→ 0 1 − 49 0

1 −1 0 4 −1

2

1

− 49

0

− 41

1

− 49

Entonces la solución sería:

 x   y =   z

1 4z 9 4z

z

     = z    

1 4 9 4

1

2 −9 

     

=B


3. Espacios vectoriales

177

       Base para gen H =       

El gen H es una base para F (B) y a su vez para F (A).

1 4 9 4

1

           

.:Teorema 3.19 Sea B una matriz m × n en la forma escalonada por filas. Las columnas de B que contienen los pivotes forman una base para C(B) y, por tanto, dim (C(B)) es igual al número de pivotes de B. Demostración Si B es una matriz escalonada por filas y tiene n pivotes, estas filas son L.I. Además, si las columnas generan a C(B), los primeros k pivotes de B son diferentes de cero y los últimos m − k pivotes son cero. Si tomamos a b ∈ C(B) entonces b es una combinación lineal de las columnas de b, luego los últimos m–k componentes de b son todos cero. Formemos una matriz Pm×k (k : # de renglones de B diferente de cero) tomando las columnas de B que contienen los pivotes y las colocamos ordenadamente, 

Pm×k

∗ ···  0 ∗   ..  . =  0 0   . ..  .. . 0 0

··· ··· ··· ···

     ∗     0

   

k

  

Las entradas señaladas con ∗ son los pivotes de B y por tanto diferentes de cero. Por la forma especial de P y b, la ecuación P X = b puede resolverse por sustitución regresiva. Luego k×1

m×1

b es combinación lineal de las columnas de P y, por tanto, de las columnas de B que contienen pivotes. Q.E.D El siguiente teorema puede considerarse como un conjunto de propiedades relacionadas con F (A) y C(A). .:Teorema 3.20 Sea A de tamaño m × n y B es la matriz de tamaño m × n que resulta al reducir A a su forma escalonada. Los vectores columna de B que contienen los pivotes forman una base para C(B) y, entonces los vectores columna correspondientes de A formarán una base para C(A) y, en consecuencia podemos tener los siguientes resultados:


3. Espacios vectoriales

178

dim (C(A)) = dim (C(B)) F (A) = F (B) k : número de pivotes de B, entonces, dim (F (B)) = dim (F (A)) = k dim (C(B)) = k dim (C(B)) = dim (C(A)) Por lo tanto dim (C(A)) = dim (F (A)) = k.

La siguiente definición hace referencia a la dimensión de los espacios fila y columna de A, es decir de F (A) y C(A). .:Definición 3.13 El rango de A, denotado por ρ(A), es la dimensión de los espacios fila y columna de A.

Ejemplo 3.33 En el ejemplo anterior tenemos la matriz: 1 −1 2 A= 4 0 −1

En la cual encontramos la base para F (A), el cual tiene dimensión 1, pues sólo cuenta con un vector:  1    4         9     4           1

Entonces ρ(A) = 1

Ahora bien, sean A y B de tamaño n × m, donde B se obtiene de A haciendo operaciones elementales por fila, es decir, B estaría en forma escalonada. Sabemos por los teoremas 3.18 y 3.20 que: N (A) = N (B) F (A) = F (B) Esto implica que la dimensión de F (A) es igual al número de parámetros en la solución del sistema equivalente reducido BX = 0. La dimensión de F (B) es igual al número de variables principales del sistema BX = 0. y a su vez, el número de variables principales más el número de parámetros es n. En pocas palabras, la dimensión del espacio fila de A más la dimensión del espacio nulo de A, debe dar la cantidad de filas de A. De igual manera la dimensión del espacio columna y el espacio nulo.


3. Espacios vectoriales

179

.:Teorema 3.21 Sea A es una matriz m × n, entonces: dim (F(A)) + dim (N (A)) = n dim (C(A)) + dim (N (A)) = n Es decir: ρ(A) + v(A) = n Ahora bien, el siguiente teorema muestra la forma como se relaciona el espacio fila con el espacio numo de A. .:Teorema 3.22 Sea A de tamaño n × m, entonces, cada vector del espacio fila de A, F (A) es ortogonal a todo vector del espacio nulo de A, N (A), es decir (F (A) ⊥ N (A))4 Demostración Si se tiene la ecuación: AX = 0 De la siguiente forma:     

a11 a21 .. .

a12 a22 .. .

··· ···

a1n a2n .. .

am1

am2

···

amn

    

x1 x2 .. . xn

    =  

0 0 .. . 0

    

Ahora, si X ∈ N (A) , entonces AX = 0, luego, si fi es la i-ésima fila de A, fi X = 0, para i = 1, 2, . . . , m. Ahora bien, si Y ∈ F (A), entonces: Y = k1 f1 + k2 f2 + · · · + km fm y Y X = k1 f1 · X + k2 f2 · X + · · · + km fm · X = 0 Entonces, todo vector del espacio fila es ortogonal a todo vector del espacio nulo. Q.E.D 4 El

símbolo ⊥ significa que todo vector del espacio fila es ortogonal a todo vector del espacio nulo.


3. Espacios vectoriales Ejemplo 3.34 Sea

180

 1 −1 2 3  −2 2 −4 −6   A=  2 −2 4 6  3 −3 6 9

Determinemos N (A), F (A), ρ(A), v(A). Solución

Tomemos la matriz y efectuemos las operaciones elementales por fila:    1 −1 2 1 −1 2 3 f → f + (2)f 2 2 1  0   −2 0 0 2 −4 −6  f → f3 + (−2)f1    0  2 −2 0 0 4 6  3 f4 → f4 + (−3)f1 0 0 0 3 −3 6 9 −−−−−−−−−−−−−−→ Tenemos tres variables libres: y,z y w, luego la solución sería:          −2 1 y − 2z − 3w x        y   y  = y 1 +z 0 +w           z = 1 0 z 0 0 w w

Entonces N (A) esta determinado por:  1    1 gen   0    0

Entonces v(A) = 3.

  −3 −2   0   0   ,   1 , 0 1 0  

 3 0   0  0  −3 0   0  1

       

1 −1 2 3 Ahora bien, F (A) = gen , pues es la única fila que tiene pivote, además es la única que no se anuló. Luego, ρ(A) = 1, y donde podemos apreciar que v(A) + ρ(A) = 4. Los siguientes teoremas muestran las relaciones entre una matriz y su rango: .:Teorema 3.23 Sea A una matriz de n × n. Entonces A es invertible si y solo si: a. v(A) = 0 b. ρ(A) = n La demostración del teorema anterior se deja como ejercicio al lector, pero es fácil ver la forma de la demostración. Recordemos que si una matriz de tamaño n × n es invertible, entonces tiene n pivotes, por tanto tiene n filas no nulas. Entonces el sistema homogéneo asociado a dicha matriz tendrá solución trivial, lo que implica N (A) no tendrá elementos y por tanto v(A) = 0.


3. Espacios vectoriales

181

.:Teorema 3.24 Sea A de tamaño m×n. El sistema AX = b tiene solución si y solo si b ∈ C(A). El teorema anterior, nos muestra que en un sistema de la forma AX = b, b debe pertenecer al espacio columna de A, es decir, debe poder escribirse como una combinación lineal de las columnas de A. Ejercicios 3.6 1. Encuentre bases para los espacios nulo, fila y columna de la matriz dada. encuentre el rango y la nulidad (recuerde que ρ(A) + v(A) = n.) a)

e) 

b)

c)

d)

5  1 1

4 2 5 7 4 8

7 5 8 5 8 5

1  2   2 0 

1  1   1 0

1 1 1 1

1 1 1 0

1 0  5 f)

 7 1   2  1

4 0 0 0 1 0 1 0

5 0 5 2 5 4

0 1 1 1

0 0 0 0

1 1 1 1

g)  0 0   1  0

1 0 1 0

h)

1  4   1 0

2 9 2 1

 0 1 4 5  1 2

2  0 2 

1 2

1  7   1 1

 5 5   4  2

0 1 0 0

5 0

2 1 4 1

 4 2   2  1

5 0 5 0

2. Dados los siguientes conjuntos de vectores, encuentre una base para el espacio generado por dichos vectores. 1 0 a) , 2 −1       1 1 2  0   4   1       b)   ,   ,   0 7 2  0 9 1 1 0 0 −1 c) , 0 −1 1 0 3. Si A es una matriz demuestre:


3. Espacios vectoriales

182

a) ρ (A) = ρ (At ) b) Si A es una matriz diagonal. Demuestre que ρ (A) es el número de componentes diferentes de cero en la diagonal. c) Si A una matriz triangular n × n con ceros en la diagonal. Demuestre que ρ (A) < n.


“Se ha convertido casi en un comentario cliché, que nadie hoy en día alardea de ser un ignorante en literatura, pero es aceptable socialmente alardear de ignorar la ciencia y afirmar orgulloso que se es un incompetente en matemáticas.” — Richard Dawkins.

4 Transformaciones Lineales 4.1. Definición Una función es una regla que asigna a cada elemento de un conjunto exactamente un elemento de otro conjunto. Las funciones se emplean en muchas áreas de las matemáticas y son importantes en las aplicaciones para describir la relación de una variable con otra. Por ejemplo, la distancia que alcanza un objeto en función del tiempo, el costo total de un producción en función de los números de artículos producidos, y en fin, una variedad de situaciones que se involucran el proceso humano. Esto nos permite mostrar una clase importante de funciones entre espacios vectoriales denominadas transformaciones lineales. Tome por ejemplo la función f (x) = x2 , esta función toma un número y lo “transforma” en en cuadrado del número original. En una transformación lineal, el cambio se realiza teniendo en cuenta ciertas reglas especiales. A continuación, veremos la definición formal de transformación lineal. .:Definición 4.1 Una transformación T de Rn en Rm , que se denota T : Rn → Rm , es una regla que asigna a cada vector u en Rn un vector único v en Rm . Rn recibe el nombre de dominio de T y Rm es el codominio. Se representa esta relación mediante T (u) = v; v es la imagen de u bajo T. El conjunto de imágenes recibe el nombre de rango de T. El rango está formado por Rm o una parte de éste. Los términos aplicación y función son sinónimos de transformación. Ejemplo 4.1 Considere la transformación T : R3 → R2 , definida mediante T (x , y , z) = (3x, z − y). 183


4. Transformaciones Lineales

184

El dominio de T es R3 , y el codominio es R2 . La imagen de cualquier vector de R3 se puede determinar usando la definición. Por ejemplo, la imagen del vector (4, 1, 3) se puede determinar estableciendo la correspondencia x = 4, y = 1, z = 3. La imagen es (12, 2). Espacio vectorial R3 : (4, 1, 3)

Transformación lineal T

Espacio vectorial R2 : (12, 2)

Un espacio vectorial Rn posee dos operaciones definidas sobre él: la adición y la multiplicación por un escalar. Las transformaciones entre espacios vectoriales con mayor importancia son aquellas que conservan estas estructuras lineales en el siguiente sentido.

.:Definición 4.2 Sea V y W espacios vectoriales reales. Una transformación lineal T : V → W es una función que asigna a cada vector u ∈ V un único vector T (u) ∈ W y que satisface cada u, v en V y cada α ∈ R. 1. T (u + v) = T (u) + T (v) 2. T (αv) = αT (v)

Ejemplo 4.2 La transformación T : R3 → R2 definida por:     x x 1 0 2 x + 2z     y y T = = 2 0 4 2x + 4z z z Es una transformación lineal porque: 1. T (x + y) = T (x) + T (y) 2. T (αx) = αT (x) Por ejemplo:


4. Transformaciones Lineales

185

 1 7 T 2 = 14 3

Entonces

 −1 3 T 0 = 6 2



Si α = 4

     1 −1 0 10 7 3         2 0 2 T + =T = = + 20 14 6 3 2 5  

   1 4 28 7 T 4  2  = T  8  = =4 56 14 3 12 Ejemplo 4.3 La transformación T : R3 → R2 definida por: T (x, y, z) = (x, yz) no es lineal. Haciendo la prueba de la adición. Sean (x1 , y1 , z1 ) y (x2 , y2 , z2 ) elementos de R3 . Entonces. T ((x1 , y1 , z1 ) + (x2 , y2 , z2 ))

= T (x1 + x2 , y1 + y2 , z1 + z2 ) = ((x1 + x2 ) , (y1 + y2 ) (z1 + z2 )) = (x1 + x2 , y1 z1 + y1 z2 + y2 z1 + y2 z2 )

y

T (x1 , y1 , z1 ) + T (x2 , y2 , z2 )

= (x1 , y1 z1 ) + (x2 , y2 z2 ) = (x1 + x2 , y1 z1 + y2 z2 )

Se tiene que, T ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) 6=T (x1 , y1 , z1 ) + T (x2 , y2 , z2 ) por lo tanto, como la adición vectorial no se conserva. Entonces T no es lineal. Para continuar con la definición de una transformación se mostrará, que una matriz, es lineal. Por ejemplo, considere la matriz A.   x 2 3 −1 A= y el vector columna x =  y  de R3 . 4 0 1 z Esta matriz define la transformación T (x) = Ax de R3 en R2 , usando la multiplicación entre matrices de la siguiente manera.


4. Transformaciones Lineales

T (x) =

186

2 4

3 −1 0 1

 x  y  = 2x + 3y − z 4x + z z

Las imágenes de los vectores se pueden determinar utilizando valores adecuados de x, y, z. Por ejemplo, se tiene que: 

   2 −1 12 −11         T 3 = yT −2 = 9 −1 1 3

.:Teorema 4.1 Sea A una matriz m × n. Sea x un elemento de Rn , interpretado como una matriz columna. La transformación T : Rn → Rm , definida por T (x) = Ax, es lineal. En dicha transformación lineal A recibe el nombre de matriz de transformación, es decir la matriz asociada a la transformación. Demostración: Puesto que A es una matriz de m × n y x es una matriz de n × 1, entonces Ax es una matriz de m × 1. Así T (x) = Ax define una transformación de Rn en Rm . Es necesario demostrar que T es lineal. Sean x y y elementos de Rn , expresados como matrices columna, y sea c ∈ R un escalar. De las definiciones 4.1 y 4.2, y por las propiedades de las matrices, se tiene: T (x + y) = A (x + y) = Ax+Ay = T (x) + T (y). La adición se conserva. T (cx) = A (cx) = cAx = c T (x) . La multiplicación por un escalar se conserva. Por lo tanto, la transformación es lineal. Q.E.D. El teorema anterior, nos informa como una matriz representa una transformación. El siguiente teorema, muestra que las trasformaciones se pueden ver como funciones entre vectores y matrices. La función compuesta entre funciones reales también es válida en transformaciones. .:Teorema 4.2 La transformación compuesta T de las dos transformaciones matriciales T1 : Rn → Rm y T2 : Rm → Rs , definidas por las matrices A1 y A2 respectivamente, es una transformación matricial T : Rn → Rs , definida por el producto matricial A2 A1 . Demostración: De acuerdo con la definición de T, se tiene que: T (x) = T2 (T1 (x)) = T2 (A1 x) = A2 (A1 x)


4. Transformaciones Lineales

187

Ya que la multiplicación de matrices es asociativa, la expresión anterior se puede escribir de la siguiente manera: T (x) = (A2 A1 ) x Como A2 es una matriz de orden s × m, y A1 es una matriz de orden m × n. La matriz resultante del producto A2 A1 es una matriz de orden s × n. Por lo tanto, T es una transformación de Rn en Rs , definida por el producto matricial A2 A1 . Q.E.D. Ejemplo 4.4 Sean T1 (x) = A1 x y T2 (x) = A2 x, definidas por las siguientes matrices A1 y A2 .

A1 =

2 1 3 0

0 −1

, A2 =

1 2 −2 0

 2 yx= 1  3

Sea, además, T = T2 ◦ T1 . Determine la imagen del vector x, bajo T.

T se encuentra definida por el producto matricial A2 A1 . Se tiene que 1 2 2 1 0 8 1 −2 A2 A1 = = −2 0 3 0 −1 −4 −2 0 Por lo tanto, T (x) =

8 1 −2 −4 −2 0

 2 11  1 = −10 3

Generalizando los resultados de manera natural llegamos al siguiente teorema: .:Teorema 4.3 Sea T1 , . . . , Tn una sucesión de transformaciones lineales en Rp , · · · , Rs , definidas por las matrices A1 , . . . , An . La composición T = Tn ◦ · · · ◦ T1 , está determinada por el producto de matrices An · · · A1 , si el producto existe. El teorema 4.3, nos muestra que las trasformaciones, al igual que las funciones, son susceptibles de componerse entre ellas, sin embargo, la composición entre matrices requiere más cuidado, pues es necesario tener en cuenta que el producto de matrices no es conmutativo. .:Teorema 4.4 Sea T : U → V una transformación lineal. Sean 0V y 0U los vectores cero de U y V Así T (0U ) = 0V . Es decir, que una transformación lineal convierte el vector cero de un espacio vectorial en un vector cero de otro espacio vectorial.


4. Transformaciones Lineales

188

Demostración: Sea u un vector en U y sea T (u) = v. Sea 0 el escalar cero. Ya que 0u = 0U y 0v = 0V y T es lineal, se tiene que: T (0U ) = T (0u) = 0T (u) = 0v = 0V . Q.E.D. Era de esperarse que una transformación lineal entre dos espacios vectoriales, el vector nulo del dominio estuviera relacionado con el vector cero del codominio. La siguiente definición tiene una gran importancia para el desarrollo posterior del tema. .:Definición 4.3 Sea T : U → V una transformación lineal. El conjunto de vectores transformados en el vector cero de V , recibe el nombre de Núcleo, espacio nulo o kernel, es decir, Núcleo (T ) = {x ∈ V | T (x) = 0} El núcleo se representa por Núcleo (T )a El conjunto de vectores en V que constituyen las imágenes de los vectores en U , recibe el nombre de rango de T , es decir, Im (T ) = {y ∈ V | ∃x ∈ U

y

T (x) = y}

El rango se representa por Im (T ). a En

algunos textos lo escriben como N u(T ) o Núcleo(T )

El Núcleo (T ) puede verse como todos aquellos vectores del espacio vectorial U que son transformados en el vector nulo de V , como se muestra en la figura 4.1.

U

Ker(T )

T

x1 x2 .. . xi xj .. . xk

Figura 4.1: El Núcleo (T )

V

0


4. Transformaciones Lineales

189

Mientras que Im (T ) hace alusión aquellos vectores de V que son relacionados por vectores de U. .:Teorema 4.5 Sea T : U → V una transformación lineal. El Núcleo (T ) es un subespacio de U.

Demostración: Según el teorema anterior, se sabe que el núcleo no es vacío ya que contiene al vector cero de U. Para demostrar que el núcleo es un subespacio de U, pruebe que es cerrado bajo la adición y la multiplicación por un escalar: 1. Empezando por la propiedad de cerradura bajo la adición. Sean u1 y u2 elementos del Núcleo (T ) . Por consiguiente, T (u1 ) = 0 y T (u2 ) = 0. De acuerdo con la propiedad de linealidad de T, se tiene que: T (u1 + u2 ) = T (u1 ) + T (u2 ) = 0 + 0 = 0 El vector u1 + u2 se transforma en 0. Por lo tanto, u1 + u2 se encuentra en el Núcleo (T ) . 2. Ahora que el Núcleo (T ) es cerrado bajo la multiplicación por un escalar. Sea c un escalar, de acuerdo a la propiedad de linealidad de T, se tiene que T (cu1 ) = cT (u1 ) = c0 = 0 se observa que, cu1 se encuentra en el Núcleo (T ) El núcleo es cerrado bajo la adición y la multiplicación por un escalar. Es decir, que se trata de un subespacio de U. Q.E.D

.:Teorema 4.6 Sea T : U → V una transformación lineal. El rango de T es un subespacio de V.

Demostración: El teorema anterior indica que el rango no es vacío, ya que contiene al vector cero de V. Para demostrar que el rango es un subespacio de V, es necesario probar que es cerrado bajo la adición y la multiplicación por un escalar. Sean v1 y v2 elementos del rango (T ) . Por supuesto, existen vectores w1 y w2 en el dominio de U , tales que T (w1 ) = v1 y T (w2 ) = v2


4. Transformaciones Lineales

190

Según la propiedad de linealidad de T, T (w1 + w2 ) = T (w1 ) + T (w2 ) = v1 + v2 El vector v1 + v2 se encuentra en la imagen de w1 + w2 . Por lo tanto, v1 + v2 se encuentra en el rango. Sea c un escalar, según la propiedad de linealidad de T. T (cw1 ) = cT (w1 ) = cv1 . El vector cv1 se encuentra en la imagen de cw1 . Por lo tanto, cv1 pertenece al rango. El rango es cerrado bajo la adición y la multiplicación por un escalar. Así que es un subespacio de V. Q.E.D.

Ejemplo 4.5 Determine el núcleo y el rango del operador lineal T (x, y, z) = (x, 0, z) Solución: Puesto que el operador lineal T transforma R3 en R3 , el núcleo y el rango serán subespacios de R3 . El n´ ucleo : Núcleo (T ) es el subconjunto transformado en (0, 0, 0) . Teniendo en cuenta T (x, y, z) = (x, 0, z) = (0, 0, 0) , si x = 0, z = 0 Sin embargo, Núcleo (T ) es el conjunto de vectores (0, y, 0) ; lo anterior se expresa como Núcleo (T ) = {(0, y, 0)} . Según la perspectiva geométrica, el Núcleo (T ) es el conjunto de vectores que se localizan en el eje y. El rango de T es el conjunto de vectores de la forma (x, 0, z) . Entonces, rango(T ) = {(x, 0, z)} . El rango(T ) es el conjunto de vectores que se localizan en el plano xz. Imagínese que T proyecta el vector (x, y, z) en el vector (x, 0, z) en el plano xz. Donde T es un ejemplo de operador de proyección. Lo anterior permite afirmar que f (x, y, z) = (x, 0, z) . .:Teorema 4.7 Los vectores columna de A generan el rango de T : Rn → Rm , definido por T (u) = Au. Demostración: Sea v un vector en el rango. Existe un vector u, tal que T (u) = v. Se debe expresar u en términos de la base canónica de Rn .


4. Transformaciones Lineales

u=

n X i=1

191

ai ei = a1 e1 + a2 e2 + · · · · · · + an en

Esto permite, v =T (a1 e1 + a2 e2 + · · · · · · + an en ) = a1 T (e1 ) + a2 T (e2 ) + · · · + an T (en ). Por lo tanto, los vectores columna de A, a saber, T (e1), · · · T (en ), generan el rango de A. Q.E.D Ejemplo 4.6 Determine el núcleo y el rango de la transformación definida por la siguiente matriz.

A

1 =  1 2

 3 2 0 6  6 4

Sea A es una matriz de 3x 3. De esta manera, A define un operador lineal T : R3 → R3 . Con T (x) = A (x) . Los elementos de R3 se expresan en forma de matriz columna para poder efectuar la multiplicación de matrices.   x1 Nu ´cleo : el núcleo constará de todos los vectores x =  x2  en R3 , tales que T (x) = 0. x3 Así,

1  1 2

    3 2 x1 0 0 6   x2  =  0  , 6 4 x3 0

esta ecuación matricial corresponde al sistema de ecuaciones lineales. 1x1 + 3x2 + 2x3 = 0 1x1 + 0x2 + 6x3 = 0 2x1 + 6x2 + 4x3 = 0 al resolver el sistema, se obtiene las siguientes soluciones, x1 = −6r, x2 = 34 r, x3 = r, con r ǫ R. Por el núcleo es el conjunto de vectores −6r, 43 r, r , es decir, Núcleo (T ) = lo tanto, −6r, 34 r, r . El Núcleo (T )es un subespacio unidimensional de R3 cuya base es (−18, 4, 3)con r = 3. Rango : los vectores columna de A generan el rango. Para ello escriba los vectores columna renglones de una matriz y calcule la forma escalonada de la matriz. Los vectores renglón distintos de cero proporcionan una base para el rango, así:


4. Transformaciones Lineales 

1  3  2 1  0 0

1 0 6 0 1 0

    2 1 1 2 1 6  ≈  0 −3 0  ≈  0 4  2 6 4 0 2 0  0

192   1 2 1 1 −3 0 ≈  0 1 4 0 0 4

  2 1 0  ≈  0 0 0

 1 2 1 0  ≈ 0 0

Los vectores (1, 0, 2) y (0, 1, 0) generan el rango de T. Cualquier vector del rango es una combinación lineal de estos vectores, así: s (1, 0, 2) + t (0, 1, 0) Por lo tanto, el rango de T es Rango(T ) = {(s, t, 2s)}

Rango(T ) es un subespacio bidimensional de R3 con bases {(1, 0, 2) , (0, 1, 0)} .:Teorema 4.8 Sea T : U → V una tranformación lineal, así: Dim Núcleo (T ) + Dim Rango(T ) = Dim Dominio(T ) Se deja para su demostración, por parte del estudiante.

Ejemplo 4.7 En el caso de la transformación lineal T del ejemplo anterior: Dim Núcleo (T ) = 1, Dim Rango(T ) = 2, Dim Dominio(T ) = 3. La dimensión del rango de una transformación matricial es el rango de la matriz.

Ejemplo 4.8 Determine las dimensiones del núcleo definida por la matriz  1 0 A= 0 1 0 0

y el rango de la transformación lineal T  5 3  0

Solución: Como la matriz A tiene forma escalonada. Los vectores renglón son linealmente independientes. Por lo tanto, el Rango(A) = 2, lo que implica que Dim Rango(T ) = 2. El dominio de T pertenece a R3 ; Dim Dominio(T ) = 3. Por lo tanto, Dim Núcleo (T ) = 1.


4. Transformaciones Lineales

193

.:Teorema 4.9 Existen términos como el núcleo de una aplicación lineal T que recibe el nombre de espacio nulo. Dim Núcleo (T ) recibe el nombre de nulidad, y Dim Rango(T ) recibe el nombre de rango de la transformación. Este último término proviene de la observación de que el rango de una transformación matricial es el rango de la matriz. Se considera que el teorema anterior se denomina teorema del rango y la nulidad y se expresa de la siguiente forma: Rango(T ) + N ulidad(T ) = Dim Dominio(T ) .:Definición 4.4 Se dice que una transformación T es uno a uno, si cada elemento del rango de T corresponde exactamente a un elemento del dominio de T. Esto significa que T es uno a uno si T (u) = T (v) implica que u = v.

.:Teorema 4.10 Una transformación lineal T es uno a uno si y sólo si el núcleo es el vector cero. [Se deja para ejercitación su demostración] .:Teorema 4.11 La transformación T : Rn → Rn , definida por T (x) = Ax, es uno a uno si y sólo si A es no singular. Demostración: Sea T uno a uno, por lo tanto, Núcleo (T ) = 0. El teorema del rango y la nulidad implica que Dim Rango(T ) = n. Y, las columnas de A son linealmente independientes, lo que induce que el rango es n y det(A)6=0. Adicionalmente, suponga que A es no singular. Esto implica que el rango de A es n y que sus n vectores columna son linealmente independientes. Significa que Dim Rango(T ) = n. El teorema del rango y la nulidad ahora soporta que Núcleo (T ) = 0. Por lo tanto, T es uno a uno. Q.E.D. .:Teorema 4.12 Sea T : U → V una transformación lineal uno a uno. Si el conjunto {u1 , u2 , . . . , un } es linealmente independiente en U, entonces {T (u1 ) , . . . , T (u2 )} es linealmente independiente en V ; es decir, que las transformaciones lineales uno a uno conservan la independencia lineal. Demostración: Considere la identidad a1 T (u1 ) + · · · + an T (un ) = 0 para los escalares a1 , a2 , . . . , an . Ya que T es lineal, se puede expresar de la siguiente manera: T (a1 u1 + · · · +an un ) = 0 T es uno a uno; argumentando, el núcleo es el vector cero. Por lo tanto, a1 u1 + · · · +an un = 0. Sin embargo, el conjunto {u1 , . . . , un } es linealmente independiente. Así, a1 = 0, . . . , an = 0. De acuerdo con la identidad definida previamente, esto implica que {T (u1 ) , . . . , T (u2 )} es linealmente independiente.


4. Transformaciones Lineales

194 Q.E.D.

Ejercicios 4.1 1. Muestre que la transformación T : R2 → R2 , definida por T (x, y) = (2x, x − y) es lineal. Determine las imágenes de los elementos (1, 2) y (−1, 4) bajo esta transformación.

2. Muestre que T : R3 → R3 , definida por T (x, y, z) = (0, 0, 0) es lineal.

Esta transformación recibe el nombre proyección ¿Porqué es adecuado el término?

3. Muestre que las transformaciones siguientes T : R3 → R2 , no son lineales. Para T (x, y, z) = (3x, y 2 ) o T (x, y, z) = (x + 3, 6y).

4. Determine si la transformación es lineal para T : R3 → R2 , donde T (x, y, z) = (2x, y). 5. Determine si la transformación es lineal para T : R2 → R3 , donde T (x, y) = (x, y, z), cuando z = 2 ó z = −1. 6. Determine si la transformación es lineal para T : R3 → R3 , donde T (x, y, z) = (x + 2y, x + y + z, 3z). 7. Considere la transformación lineal T : R2 → R3 , definida por la siguiente matriz A. Determine las imágenes de los vectores dados x, y, z.   1 2 −1 2 5   A = −1 3 ; x = ,y= ,z= 1 3 2 1 2

8. Sean T1 (x, y) = (2x, −y) y T2 (x, y) = (0, x + y) .

Sea T = T2 ◦ T1 . Encuentre una ecuación para T y utilícela para determinar la imagen de (2, −3) bajo T.

9. Sean T1 (x, y) = (x + y, 2x, 3y) y T2 (x, y, z) = (x, x + y, 2x − z) .

Sea T = T2 ◦ T1 . Encuentre una ecuación para T y utilícela para determinar la imagen de (−2, 5) bajo T.

10. Demuestre que la transformación T : P2 → P2 , definida de la manera siguiente es lineal: T ax2 + bx + c = cx2 + a.

Encuentre la imagen de 3x2 − x + 2. Determine otro elemento de P2 con la misma imagen.

11. Considere la transformación lineal T, definida por cada una de las matrices siguientes. Determine el núcleo y el rango de cada transformación. Muestre que Dim Núcleo (T ) + Dim Rango (T ) = Dim Dominio (T ) para cada transformación.   1 2 1 0 0 a) A = 4 0 c) A =  0 2 0  0 0 3 1 2 3 b) A = 0 1 2


4. Transformaciones Lineales 

 1 2 1 d) A =  −1 −2 0  2 4 1

195 

1 1 e) A =  0 1 2 1

 3 3  7

12. Determine el núcleo y el rango para cada una de las transformaciones siguientes: Demuestre que Dim Núcleo (T ) + Dim Rango (T ) = Dim Dominio (T ) para cada transformación. a) T (x, y, z) = (x, 0, 0) de R3 → R3

b) T (x, y, z) = (x + y, z) deR3 → R2

c) T (x, y) = (3x, x − y, y) deR2 → R3

13. Aplique el teorema del rango y la nulidad para calcular la dimensión del núcleo y el rango de cada una de las transformaciones lineales definidas por las matrices siguientes. Indique si las transformación es uno a uno.     1 8 2 1 2 −3  −2 4 −6  a) A =  0 1 4   d) A =   0 1 −2  0 0 0   0 4 −2 2 7 14   b) A =  0 9 1  1 4 2 0 0 1 e) A =  0 1 7    0 0 1 1 2 3 4 c) A =  1 −1 6 7  0 0 7 2 14. Use determinantes para decidir si las transformaciones lineales definidas por las matrices siguientes son uno a uno.     1 2 5 0 1 7 4  2 0 3 1  a) A =  0 3 6   d) A =   0 0 6 3  0 0 4   0 0 0 −2 3 2 4 b) A =  −2 0 0    2 1 5 2 1 3 0    5 2 0 1  −1 2 4   e) A =  1 9 3 2  c) A =  3 2 1  10 5 1 0 3 2 0 15. Sea T : U → V lineal. Demuestre que Dim Núcleo (T ) + Dim Rango (T ) = Dim Dominio (T ) cuando Núcleo (T ) = 0 ó Núcleo (T ) = U. 16. Sea T : U → V una transformación lineal. Sea v un vector distinto de cero en V. Sea W el conjunto de vectores en U , tales que T (w) = v 17. ¿Es W un subespacio de U ?


4. Transformaciones Lineales

196

4.2. Tipos de transformaciones 4.2.1. Transformación de reflexión 1) Reflexión respecto al eje x: Es una transformación que forma un punto o vector (x, y) y lo hace girar alrededor del eje x: 2 2 T : R → R x x → y −y

y ✻

(x, y) ✒

✲x

❘ (x, −y)

Figura 4.2: Reflexion eje x 2 T : R → −x → y

2 R

−x −y

2) Reflexión respecto al eje y: Es una transformación que forma un punto o vector (x, y) y lo hace girar alrededor del eje y: 2 2 T : R → R x −x → y y 2 T : R x −y

2 → R −x → −y


4. Transformaciones Lineales

197 y ✻

(−x, y) ■

✲x

✠ (−x, −y)

Figura 4.3: Reflexion eje x 3) Reflexión respecto a la recta y = x:

2 T : R → x → y

R2

y x

4.2.2. Transformación de rotación en el plano Es una transformación que toma un vector v = sentido contrario al de las del reloj. manecillas ′ x El vector se llama v′ = y′

x y

en el plano y lo rota un ángulo θ en

2 2 T : R → R ′ x x → y y′

Por trigonometría se tiene que: x = r cos α

x′ = r cos (θ + α)

y = r sin α

y ′ = r sin (θ + α)

x′ = r cos (θ + α) = =

r cos α cos θ − r sin α sin θ x cos θ − y sin θ


4. Transformaciones Lineales

198 y ✻

(−x, y) ■

(x, y) ✒

✲x

❄ Figura 4.4: Reflexion eje y y ✻

✲x

✠ (−x, −y)

❘ (x, −y)

Figura 4.5: Reflexion eje y y ✻

y=x (y, x) ✕

(x, y) ✯ ✲x Figura 4.6: Reflexion recta y = x


4. Transformaciones Lineales

199 y ✻

y=x

(2, 5) ✕

(5, 2) ✶

✲x Figura 4.7: Ejemplo reflexion recta y = x y ✻

(x′ , y ′ ) ■

(x, y) r

π−α−θ

θ+α ✠ ❂

✸ r

θ ♦α

✲ x

❄ Figura 4.8: Rotación en el plano

y ′ = r sin (θ + α)

= =

r cos α sin θ + r sin α cos θ x sin θ + y cos θ

.:Teorema 4.13 Sea T : Rn → Rm una transformación lineal, entonces existe una matriz única m × n AT tal que T x = AT x ∀x ∈ Rn AT se llama matriz de transformación correspondiente a T o representación matricial de T . El anterior teorema indica que toda transformacion lineal T se puede expresar como el producto AT x


4. Transformaciones Lineales

200

Ejemplo 4.9 a) Reflexión respecto al eje x: x x T = Se expresa como: y −y x x x 1 0 = T = −y y y 0 −1 {z }| {z } | AT

x

b) Reflexión respecto al eje y:

x −x T = Se expresa como: y y x −1 0 −x x T = = y 0 1 y y | {z }| {z } AT

x

c) Reflexión respecto a la recta y = x: x y T = Se expresa como: y x y x x 0 1 = T = x y y 1 0 | {z }| {z } AT

x

d) Transformación de rotación: ′ x x x cos θ − y sin θ T = = Se expresa como: y y′ x sin θ + y cos θ x x cos θ − sin θ T = y y sin θ cos θ {z } | {z } | Tx = Aθ x √ Ejemplo 4.10 Hallar las coordenadas del punto imagen del punto P 5, 3 cuando se ha hecho √ una rotación alrededor del origen de θ = 30°, cos 30° = 23 , sin 30° = 21 . T

√5 3

cos 30° − sin 30° √5 sin 30° cos 30° 3 ! √ 1 3 − 2 √5 √2 = 1 3 3 2 2 √ ′ x 2 3 = = y′ 4 =


4. Transformaciones Lineales

201

y ✻ (x′ , y ′ ) ✼ √ (5, 3) ✶ ✐ 30 ✲x

0 Figura 4.9: Ejemplo 4.10

.:Teorema 4.14 Si se conoce el efecto de una transformación lineal sobre los vectores de la base, entonces se conoce el efecto sobre cualquier otro vector.

  3 2 −1 5 Ejemplo 4.11 Si Ti = , Tj = , Tk = , calcular T  −4  3 4 −3 5         3 1 0 0  −4  = 3  0  − 4  1  + 5  0  5 0 0 1 = 3i − 4j + 5k

 3 T  −4  5

= 3i − 4j + 5k 2 −1 5 = 3 −4 +5 3 4 −3 6 4 25 = + + 9 −16 −15 35 = −22

4.3. Geometría de las transformaciones lineales Sea T : R2 → R2 una transformación lineal lineal con respresentación matricial AT . Si AT es invertible, entonces T se puede escribir como una sucesión de una o más transformaciones especiales, llamadas expansiones, compresiones, reflexiones y cortes.


4. Transformaciones Lineales

202

y ✻

(4, 2) ✯ x ✲x

0

Figura 4.10: Vector inicial (ejemplo 4.12)

4.3.1. Expansión a lo largo de los ejes: (Escalamiento) a) Una expansión a lo largo del eje x es una transformación lineal que multiplica a la coordenada x de un vector en R2 por una constante c > 1. x cx T = , entonces y y 1 c 0 0 c 0 T = ,T = , entonces AT = por lo tanto 0 0 1 1 0 1 x c 0 x cx T = AT x = = y 0 1 y y b) Una expansión a lo largo del eje y es una transformación lineal que multiplica a la coordeana y de un vector en R2 por una constante c > 1. x x T = , entonces y cy 1 1 0 0 1 0 T = ,T = , entonces AT = por lo tanto 0 0 1 c 0 c x 1 0 x x T = AT x = = y 0 c y cy Ejemplo 4.12 Supongamos que el vector inicial es x =

4 2

y c = 2.

4.3.2. Compresión a lo largo de los ejes x o y La transformación lineal que hace la compresión a lo largo de los ejes x o y es la misma de la expansión pero considerando 0 < c < 1, entonces:


4. Transformaciones Lineales

203

y ✻

(8, 2) ✿ Tr ✲x

0

Figura 4.11: Expansión de x a lo largo del eje x con c = 2 (Ejemplo 4.12)

y ✻ (4, 4) ✒

0

✲x

Figura 4.12: Expansión de x a lo largo del eje y con c = 2 (Ejemplo 4.12)


4. Transformaciones Lineales

204

y ✻

(3, 3) ✒ x

✲x

0

Figura 4.13: Vector inicial (ejemplo 4.13) y ✻

(1, 3) ✍ Tx

✲x

0

Figura 4.14: Compresión sobre el eje x con c =

1 3

(Ejemplo 4.13)

a) Compresión sobre el eje x T

x y

=

cx y

con 0 < c < 1

b) Compresión sobre el eje y T

x y

=

x cy

con 0 < c < 1 1 0 x = 0 c y

Ejemplo 4.13 Supongamos que el vector inicial es x =

3 3

yc=

1 3

< 1.


4. Transformaciones Lineales

205

y ✻

(3, 1) ✶ Tx

✲x

0

Figura 4.15: Compresión sobre el eje y con c =

1 3

(Ejemplo 4.13)

4.3.3. Cortes x a) Un corte a lo largo del eje x es una transformación que toma al vector x = y lo y x + cy convierte en otro de la forma con c como una constante positiva o negativa. y

x + cy entonces y x 1 c x x + cy T = = y 0 1 y y T

x y

=

Observese que la coordenada x se modifica adicionandole la cantidad cy. La coordenada y no se modifica. Un corte a lo largo del eje x deja sin cambios a los vectores con coordenadas y = 0.

Ejemplo 4.14 Supongamos que se parte del rectángulo cuya diagonal es x = La matriz de transformación es: AT =

x + cy y

=

x + 2y y

4 3

y c = 2.

Vectorialmente x = (4, 3) = (4, 0) + (0, 3) entonces se debe aplicar la transformación a los 3 vectores anteriores. 0 0 + 2 (3) 6 T = = 3 3 3 4 4 + 2 (0) 4 T = = 0 0 0


4. Transformaciones Lineales

206 y ✻

(4, 3) ❃

(0, 3)

0

✲x

(4, 0)

Figura 4.16: Rectangulo con diagonal (4, 3) (Ejemplo 4.14) y ✻

(10, 3)

(6, 3)

0

✲x

(4, 0) Figura 4.17: Transformación con c = 2 (Ejemplo 4.14)

T

4 3

=

4 + 2 (3) 3

=

10 3

Los resultados anteriores indican que: 0 6 Se transforma en 3 3 4 4 Se transforma en 0 0 4 10 Se transforma en 3 3 Si c = −2 el corte se efectúa hacia el otro lado del eje x. 0 0 − 2 (3) −6 T = = 3 3 3


4. Transformaciones Lineales

207 y ✻

(−6, 3)

(−2, 3)

✛ (4, 0)

0

✲x

Figura 4.18: Transformación con c = −2 (Ejemplo 4.14)

T T

4 0 4 3

=

=

4 − 2 (0) 0 4 − 2 (3) 3

=

=

4 0

−2 3

x y

b) Un corte a lo largo del eje y es una transformación que toma al vector x = y lo x convierte en otro de la forma con c como una constante positiva o negativa. y + cx Un corte a lo largo del eje y no produce cambios en los vectores con coordenadas x = 0. Ejemplo 4.15 Supongamos que se parte del rectángulo cuya diagonal es x = (2, 4) y c = 3. La matriz de transformación es: AT =

x y + cx

=

x y + 3x

Como x = (2, 4) = (2, 0) + (0, 4) entonces se aplica la transformación a estos 3 vectores. 2 2 2 T = = 4 4 + 3 (2) 10 2 2 2 T = = 0 0 + 3 (2) 6 0 0 0 T = = 4 4 + 3 (0) 4


4. Transformaciones Lineales

208

y ✻ (2, 4) ✕

(0, 4)

x

0

✲x

(2, 0)

Figura 4.19: Rectangulo con diagonal (2, 4) (Ejemplo 4.15)

y ✻ (2, 10)

(2, 6)

(0, 4)

0

✲x

Figura 4.20: Transformación con c = 3 (Ejemplo 4.15)


4. Transformaciones Lineales

209 y ✻ (0, 4)

✲x

0

(2, −2)

(2, −6)

Figura 4.21: Transformación con c = −3 (Ejemplo 4.15) Si c = −3 entonces: T T

T

2 4 2 0 0 4

= =

=

2 4 − 3 (2) 2 0 − 3 (2)

0 4 − 3 (0)

= =

=

2 −2 2 −6 0 4

4.4. Transformación de proyección ortogonal .:Definición 4.5 Sea H un subespacio de Rn . La transformación de proyección ortogonal P : V → H se define por PV = P royH V. Por ejemplo un vector V = (x, y, z)que esta en R3 se puede proyectar en el plano xy que es el subespacio H de R3 entonces la proyección obtenida es (x, y, 0). 3 T : R → x  y  → z

R3 

 x  y  0


4. Transformaciones Lineales

210 z ✻

(x, y, z) ✸ V ✲y PV s (x, y, 0) ✠ x Figura 4.22: Proyección en el plano xy En este caso: 

1 0 AT =  0 1 0 0   1 0 0 PV =  0 1 0  0 0 0

 0 0 ⇒ 0    x x y = y  z 0

Si el vector V = (x, y, z) se proyecta sobre el plano yz, entonces:

3 R3  T : R →  x 0  y  →  y  z z

0 PV =  0 0

    0 0 x 0 1 0  y  =  y  0 1 z 1

Si el vector V = (x, y, z) se proyecta sobre el plano xz, entonces: 3 T : R → x  y  → z

R3 

 x  0  z


4. Transformaciones Lineales

211

1 PV =  0 0

Ejercicios 4.2

    0 0 x x 0 0  y  =  0  0 1 z z

1. Hallar el vector resultante después de ejecutar al vector V = transformaciones:

3 −2

las siguientes

i) Cortar a lo largo del eje x con c = 2 ii) Expandir a lo largo del eje y con c = 2 iii) Reflejar respecto al eje x iv) Cortar a lo largo del eje y con c = 3 y ✻ Tv ❦ ✛

✲ x V s (3, −2)

3 −2

Corte −−−→

1 0

2 1

Expandir −−−−−→

1 0

0 2

Reflexión −−−−−−→

1 0

Corte −−−→

1 3

3 −2

=

−1 −2

−1 −1 = −2 −4 0 −1 −1 = −1 −4 4 0 −1 −1 = = Tv 1 4 1

2. Obtener la matriz AT de las siguientes transformaciones a)

  x−y x  y+z T y =  2x − y − z z −x + y + 2z 

   

 1 −1 0  0 1 1   AT =   2 −1 −1  −1 1 2 


4. Transformaciones Lineales b)

212

   x 2x − y + 3z T  y  =  4x − 2y + 6z  z −6x + 3y − 9z

3. Sea T : R2 → R3 tal que T

1 0

a)

 1 = 2  3 T

T

2 4

b)

1 = 2 3

T

−3 7

1 = 2 3

4. Hallar la posición del vector

T

2 4

0 1

 −4 =  0  hallar: 5

,

     −4 2 − 16 −14 2 0  = 4+0 = 4  4 5 6 + 20 26 T

 2 −1 3 AT =  4 −2 6  −6 3 −9

−3 7

,

     −31 −3 − 28 −4 −3 0  =  −6 + 0  =  −6  7 26 −9 + 35 5

−3 4

cuando rota θ =

π 3

5. Hallar el vector resultante después de ejecutarle al vector V = transformaciones:

−3 4

las siguientes

i) Expandir a lo largo del eje x con c = 3 ii) Cortar a lo largo del eje x con c =

1 2

iii) Reflejar a lo largo del eje y iv) Cortar a lo largo del eje y con c = 2, 5 v) Comprimir a lo largo del eje y con c = 0, 75

4.5. Transformaciones Lineales Especiales de R2 en R3 N°

Transformación

Representación Matricial AT


4. Transformaciones Lineales

213

Expanción a lo largo del eje x

c 0

0 1

,c>1

2

Expanción a lo largo del eje y

1 0

0 c

,c>1

3

Compresión a lo largo del eje x

c 0

0 1

,0<c<1

4

Compresión a lo largo del eje y

1 0

0 c

,0<c<1

5

Reflexión respecto a la recta y = x

6

Reflexión respecto al eje x

1 0 0 −1

7

Reflexión respecto al eje y

−1 0 0 1

8

Corte a lo largo del eje x

1 0

c 1

9

Corte a lo largo del eje y

1 c

0 1

1

10

11

12

13

Rotación en el plano xy

Aθ =

Proyección sobre el plano xy

Proyección sobre el plano xz

Proyección sobre el plano yz

0 1

cos θ sin θ

1 0  0 1 0 0 1 0  0 0 0 0 0 0  0 1 0 0

1 0

− sin θ cos θ  0 0  0  0 0  1  0 0  1


4. Transformaciones Lineales

214

.:Definición 4.6 Transformación Lineal Inversa Si T1 : Rn → Rn y T2 : Rn → Rn son transformaciones lineales tales que para todo v en Rn . Como T2 (T1 (v)) = v y T1 (T2 (v)) = v, entonces T2 , se denomina inversa de T1 y se escribe T2 = T1−1 .

.:Teorema 4.15 Existencia de una Transformación Inversa Sea T : Rn → Rn una transformación lineal con matriz estándar A. Entonces, las condiciones siguientes son equivalentes. 1. T es invertible. 2. T es un isomorfismo. 3. A es invertible. Además, si T es invertible con matriz estándar A, entonces la matriz estándar de T −1 es A−1 .

Ejemplo 4.16 Determinación de la inversa de una transformación lineal La transformación lineal T : R3 → R3 esta definida por: T (x1 , x2 , x3 ) = (2x1 + 2x2 + x3 , x1 + 3x2 + 3x3 , 4x1 + 2x2 + x3 ) . Demuestre que T es invetible y encuentre su inversa. Solución:

2 La matiz estándar de T es A =  1 4

2 3 2

 1 3  1

Por medio de técnicas para invertir matrices, se encuentra que A es invertible, teniendo en cuenta que el detA = 6.   −0.5 0 0.5 Se tiene que la inversa de A es A−1 , y esta definida por: A−1 =  1.8¯3 −0.¯3 −0.8¯3  −1.¯6 0.¯6 0.¯6 Por lo tanto, T es invertible y su matriz estándar es A−1 .


4. Transformaciones Lineales

215

.:Definición 4.7 Matriz de Transformación para Bases no Estándar Sean V y W espacios vectoriales de dimensión finita con bases B y B´ , respectivamente donde B = {v1 , v2 , . . . , vn } . Si T : V → W es una transformación lineal tal que:      a1n a12 a11  a2n  a22   a21        .  .   .         .   .   , . . . . . . , [T (vn )] =  .  , [T (v2 )] =  [T (v1 )]B´ =  B´ B´  .  .   .        .  .   .        .  .   .  amn am2 am1

     ,     

entonces la matriz m x n cuyas n columnas corresponden a [T (v1 )]B´,   a11 a12 . . . . a1n  a21 a22 . . . . a2n     . . . . . . .    es tal que T (v) = A [v] para todo v en V. A= B . . . . . .   .   . . . . . . .  am1 am2 . . . . amn

Ejemplo 4.17 Determinación de una Matriz con respecto a Bases no Estándar Sea T = R2 → R2 es una transformación lineal definida por T (x1 , x2 ) = (x1 + x2 , 2x1 − x2 ) Encuentre la matriz de T con respecto a las bases: B = {(1, 2) , (−1, 1)} y B´= {(1, 0) , (0, 1)} Solución: Por definición de T, se tiene:

T (v1 ) = T (1, 2) = (3, 0) = 3w1 +0w2 T (v2 ) = T (−1, 1) = (0, −3) = 0w1 − 3w2 Por lo tanto, las matrices de coordenadas de T (v1 ) y T (v2 ) con respecto a B´son: 3 0 [T (v1 )]B´ = y [T (v2 )]B´ = 0 −3 La matriz T con respecto a B y B´se forma al usar estas matrices de coordenadas como columnas 3 0 para obtener A = 0 −3


4. Transformaciones Lineales

216

Ejemplo 4.18 Determinación de una matriz para una Transformación Lineal 2

Sean B = {(−3, 2) , (4, −2)} y B´= {(−1, 2) , (2, −2)} bases de R , y sea A =

−2 7 −3 7

La matriz de T : R2 → R2 con respecto a B. Encuentre A´, la matriz T con respecto a B´.

Solución: Se forma la matriz  . .. −1 2 .. B´. B =  . 2 −2 ..  .. −1 −1 0 I2 .P = 0 −1

−3

4  y se usa la eliminación Gauss-Jordan para obtener 2 −2  .. . −1 2  −1 2 −1 , así se obtiene P = .. −2 3 . −2 3

En caso alguno se puede determinar la matriz de transición de B´a B, se puede obtener mediante:   .. .. −3 4 . −1 2  que se reduce a: B .B´ =  .. 2 −2 . 2 −2   .. .. . 3 −2 1 0  , así se obtiene la matriz de transición de B´ a B es P = I2 .P =  .. 0 1 . 2 −1 3 2 2 −1 Por lo tanto, la matriz de T con respecto a B´está definida por:

A´= P

−1

AP =

−1 2 −2 3

−2 7 −3 7

3 2

−2 −1

=

2 1 −1 3

.:Definición 4.8 Matrices Semejantes Para matrices cuadradas A y A´de orden n, se dice que A´es semejante a A si existe una matriz invertible P tal que: A´= P −1 AP. .:Teorema 4.16 Propiedades de las Matrices Semejantes Sean A, B y C matrices cuadradas de orden n. Entonces, las siguientes propiedades son verdaderas.


4. Transformaciones Lineales

217

1. A es semejante a A. 2. Si A es semejante a B, entonces B es semejante a A. 3. Si A es semejante a B y B es semejante a C, entonces A es semejante a C. Demostración: La primera propiedad se concluye de la forma que A = In AIn . Para la segunda propiedad, se tiene: A = P −1 BP P −1 AP = P (P −1 BP )P −1 P −1 AP = B Q−1 AQ = B donde Q = P −1 . La tercera propiedad se deja como ejercicio para el lector. Q.E.D. Ejemplo 4.19 Determine si las matrices son semejantes. 2 −2 3 −2 Las matrices A = yB = son semejantes porque −1 3 −1 2 1 1 A´= P −1 AP, donde P = 0 1 Ejemplo 4.20 Una casa editora publica un libro en tres ediciones diferentes: cubierta dura, cubierta blanda y cubierta de lujo. Cada libro requiere cierta cantidad de papel y de material para la cubierta. Los requisitos están dados en gramos por la siguiente matriz:

Cantidad de P apel M aterial para la Cubierta

Cubierta Dura Cubierta Blanda Cubierta De Lujo 300 500 800 40 50 60


4. Transformaciones Lineales

218

 x1 Deja que x =  x2  representa el vector producción, donde x1 , x2 , x3 representan el número x3 de libros con cubierta dura, cubierta blanda y cubierta de lujo respectivamente, que se publican. y1 , La transformación lineal es T : R3 → R2 , definida por T (x) = Ax, nos da el vector y2 donde y1 representa la cantidad  totalde papel requerido y y2 la cantidad de material para la 1000 cubierta. Suponga que x =  900 , entonces: 1500   1000 800 700 500  2180000  900 T (x) = Ax = = 70 50 80 235000 1500 Ejemplo 4.21 Dada la transformación lineal T : R3 → R2 , definida por T (x, y, z) = (5x − 2y + 3z, x + 4y − 2z) . Determinar la matriz asociada a T en la base canónica de cada espacio.

Solución: Sean C = {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)} , C´= {(1, 0) , (0, 1)} , las bases canónicas de R3 , R2 , respectivamente. Calculemos: T (1, 0, 0) = (5, 1); T (0, 1, 0) = (−2, 4); T (0, 0, 1) = (3, −2). Escribamos cada vector en forma de combinación lineal de la base C, así:

(5, 1) = 5 (1, 0) + 1 (0, 1) = (5, 1) (−2, 4) = −2 (1, 0) + 4 (0, 1) = (−2, 4) (3, −2) = 3 (1, 0) − 2 (0, 1) = (3, −2) Luego,

c´ [T ]c =

5 −2 3 1 4 −2

Ejemplo 4.22 Sea P3 el espacio vectorial de polinomios de grado máximo 3 y sea B la base ordenada 1, x, x2 , x3 para P3 .


4. Transformaciones Lineales

219

La operación de cálculo de diferenciación, aplicada a polinomios de P3 , es una transformación lineal T de P3 en sí mismo tal que T (1) = 0, T (x) = 1, T x2 = 2x, T x3 = 3x2 . Hallar la matriz AT que representa T respecto a las bases B, B y usar AT para diferenciar el polinomio 4x3 − x2 + 7x − 5.

A continuación, hallar la representación matricial de T 2 = T ◦ T para B, B y usarla para diferenciar dos veces (hallar la segunda derivada) el polinomio 2x3 − 8x2 + 4x + 3. Solución:

0  0  Por los valores dados para T en los vectores de la base B, hallamos que AT =  0 0   −5  7  3 2  El vector coordenado de 4x − x + 7x − 5 respecto a B es   −1  4 Calculamos T 4x3 − x2 + 7x − 5 usando AT .   0 1 −5  7   0 0   AT   −1  =  0 0 0 0 4 

0 2 0 0

 −5 0  7 0   3   −1 4 0

1 0 0 0

 7   −2   =   12  0 

Así, T 4x3 − x2 + 7x − 5 = 7 (1) + (−2) x + 12x2 + 0x3 = 12x2 − 2x + 7.

La representación matricial de T2 respecto a B, B es:

AT AT

=

0  0   0 0

1 0 0 0

0 2 0 0

 0 0  0 0   3  0 0 0

1 0 0 0

0 2 0 0

  0  0  =   3 0

0 0 0 0

0 0 0 0

Así, podemos hallar la segunda derivada de 2x3 − 8x2 + 4x + 3 calculando 

0  0   0 0

0 0 0 0

2 0 0 0

 3 0  4 6   0   −8 2 0

   

 −16  12   =   0  0 

2 0 0 0

 0 6   0  0

0 2 0 0

 0 0   3  0


4. Transformaciones Lineales

y obtenemos la respuesta 12x − 16.

220


“Si piensas que tu profesor es duro, espera a que tengas un jefe. Ese sí que no tendrá vocación de enseñanza ni la paciencia requerida” — Bill Gates - Cofundador de Microsoft

5 Vectores y valores propios Para comenzar este capítulo, empezarnos con la siguiente pregunta ¿Existe un vector x no nulo en Rn tal que Ax sea múltiplo escalar de x? esta pregunta es conocida como el problema de del valor característico, donde el escalar denotado por λ se llama valor característico de A y el vector x no nulo se llama vector característico de A correspondiente a λ, es decir : Ax = λx La anterior expresión tiene una interpretación geométrica. Por ejemplo en R2 , si λ es un valor característico de una matriz A y x es un vector característico de A correspondiente a λ, entonces, el producto de xA da como resultado un vector λx paralelo a x, como se ilustra en la figura.

b

λx

x

Ax = λx Figura 5.1: Ax = λx

221


5. Vectores y valores propios

222

5.1. Vectores y valores propios .:Definición 5.1 Sea T : Rn → Rn ,una transformación lineal. Diremos que λ ∈ R es un valor propio o Eigenvalor de la transformación T si existe un x ∈ Rn con x no nulo, tal que T (x) = λx

(5.1)

Si T esta determinada por una matriz A de n × n, entonces se obtiene la expresión Ax = λx

(5.2)

Este x se le denomina un vector propio o Eigenvectora de T (o de la matriz A) correspondiente a λ. a Eigenvalor y Eigenvector provienen del término Alemán Eigenwert que quiere decir “valor propio”. También es conocido como Valor característico y Vector Característico

NOTA: 1. Si T tiene dimensión finita, entonces T se puede representar por una transformación AT , donde A es una matriz de n × n. 2. Los vectores propios de una transformación lineal T : Rn → Rn asociados al valor propio λ, junto con el 0 (cero) de Rn conforman un subespacio de Rn . 3. Un vector propio no puede ser cero por que si lo fuese, la definición carecería de sentido, porque A0 = λ0 y se cumpliría para todos los valores reales de λ. Sin embargo, un valor propio si puede ser λ = 0. 10 −18 2 Ejemplo 5.1 Sea A = , y el vector v = 6 −11 1 Av

En este caso λ = 1. 3 Para v = se obtiene: 2

10 −18 2 6 −11 1 20 − 18 = 12 − 11 2 = 1 = 1v ⇒ Av = 1v =


5. Vectores y valores propios

223

Av

10 −18 3 6 −11 2 −6 = −4 3 = −2 = −2v ⇒ Av 2 =

Entonces λ = −2

Es un valor propio de A para el correspondiente vector v =

3 2

.

Ejemplo 5.2 Cuando A = I entonces ∀x ∈ Rn se cumple que: Ax = Ix = x entonces, Ax = 1x donde λ = 1 es el único valor propio de I y para todo x 6= 0 es un vector propio de I.

5.1.1. Calculo de los valores y vectores propios Supóngase que λ es un valor propio de A, entonces existe un vector x 6= 0 tal que Ax = λx

(5.3)

entonces (A − λI) x = 0. Como x 6= 0, para que la igualdad se cumpla requiere que A − λI sea cero, entonces: A − λI = 0 Como A es una matriz n × n, la ecuación (5.3) es un sistema homogéneo de n ecuaciones y n incógnitas y como x 6= 0, el sistema tiene soluciones no triviales, por lo tanto: det (A − λI) = 0 En términos generales, tenemos un sistema homogéneo de la siguiente forma: (a11 − λ)x1 + a12 x2 + · · · + a1n xn a21 x1 + (a22 − λ)x2 + · · · + a2n xn .. .

= = .. .

0 0 .. .

an1 x1 + an2 x2 + · · · + (ann − λ)xn

=

0

(5.4)

donde x = (x1 . . . xn )t , para que el sistema de la ecuación 5.4 tenga una solución no trivial, se necesita que el determinante de la matriz del sistema sea nula. Es decir, que:   a11 − λ a12 ··· a1n  a21  a22 − λ · · · a2n   det  =0 .. .. .. ..   . . . . an1 an2 · · · ann − λ


5. Vectores y valores propios

224

Al desarrollar este determinante obtenemos los valores propios de la transformación T representada por A. El resultado de expandir el determinante produce un polinomio cuyas raíces son los valores propios de T . Al polinomio generado se le denomina Polinomio Característico de T , término acuñado por Cauchy en 1840. El siguiente teorema, permite encontrar los valores propios de una matriz A correspondiente a una transformación. .:Teorema 5.1 Sea A ∈ C de tamaño n × n, entonces λ ∈ C es un valor propio de A si y sólo si: P (λ) = det (A − λI) = 0 Donde P (λ) es el polinomio característico de la transformación T y P (λ) = 0 se le denomina la Ecuación Característica de T . Demostración: λ es un valor propio de A ⇐⇒Existe x ∈ C n , x 6= 0, tal que Ax = λx ⇐⇒Existe x ∈ C n , x 6= 0, tal que Ax − λx = 0 ⇐⇒Existe x ∈ C n , x 6= 0, tal que Ax − (λIn ) x = 0 ⇐⇒Existe x ∈ C n , x 6= 0, tal que (A − λIn ) x = 0 ⇐⇒El sistema homogéneo con matriz de coeficiente A − λIn posee al menos una solución no trivial ⇐⇒La matriz A − λIn no es invertible ⇐⇒det (A − λIn ) = 0 Q.E.D. Del teorema anterior, podemos concluir que para cada matriz dada A, sus valores propios son los elementos del conjunto solución det (A − λIn ) = 0. Esta estrategia permite, al menos en teoría, saber cuáles escales son los valores propios de una matriz A .

, encuentre los valores propios para A. 2 3 1 0 A − λI = −λ 5 −6 0 1 2 3 λ 0 2−λ 3 − = 5 −6 0 λ 5 (−6) − λ

Ejemplo 5.3 Si A =

2 3 5 −6

Entonces, P (λ) = detP (λ) = det

2−λ 5

3 (−6) − λ

Expandiendo el determinante, tenemos: (2 − λ)(−6 − λ) − 15 = 0

=0


5. Vectores y valores propios

225

λ2 + 4λ − 24 = √ √ (λ − ( 31 − 4))(λ + ( 31 + 4)) = √ √ Entonces λ = 31 − 4 y λ = − 31 − 4

0 0

.:Teorema 5.2 Toda matriz A de n × n tiene exactamente n valores propios El teorema 5.2 nos muestra que el tamaño de la matriz esta asociado directamente con la cantidad de valores propios, y por ende a la cantidad de vectores propios. Sin embargo, algunos valores propios pueden repetirse, debido a que surgen como raíces del polinomio que se genera cuando hallamos el determinante. En este caso, se dice que tiene multiplicidad dos o tres, etc, dependiendo de las raíces generadas. Ejemplo 5.4 Encuentre los valores y vectores propios sí:   1 −1 4 A= 3 2 −1  2 1 −1

Primero hallamos el determinante de la matriz resultante de hacer A − λI

det (A − λI)

= = =

1−λ −1 4

3 2−λ −1

2 1 −1 − λ

− λ3 − 2λ2 − 5λ + 6 − (λ − 1) (λ + 2) (λ − 3) = 0

Los valores propios de A son: λ1 = 1, λ2 = −2 y λ3 = 3 Para cada valor propio λ existirá un vector propio v como se muestra a continuación: a) Hallar el vector propio correspondiente a λ = 1, para ello, realizamos la siguiente operación (A − 1I) v = 0, donde v es el vector propio:         1 −1 4 1 0 0 0 x1 2 −1  − (1)  0 1 0   x2  =  0  (A − 1I) v =  3 2 1 −1 0 0 1 x3 0 de donde

0  3 2

    0 −1 4 x1 1 −1   x2  =  0  0 1 −2 x3


5. Vectores y valores propios

226

Reducimos la matriz ampliada     .. .. 4 . 0  4 . 0   0 −1  0 −1     .. . f2 → f2 − f3 tenemos  1 , ahora a f3 →  3 1 −1 . 0  0 1 .. 0      .. .. 2 1 −2 . 0 2 1 −2 . 0   ..  0 −1 4 . 0    .. f3 + f1 y obtenemos:  1 , posteriormente aplicamos la operación elemental 0 1 . 0   .. 2 0 2 . 0   .. 0 −1 4 . 0     .. f3 → f3 − 2f2 y obtenemos  1 . Finalmente se llega al siguiente sistema: 0 1 . 0    .. 0 0 0 . 0 x1

−x2

+4x3 +x3

= =

0 0

Donde x1 = −x3 , x2 = 4x3 y x3 = variable independiente. Los vectores propios a λ = 1 son vectores diferentes de cero y de la forma   de A correspondientes   −1 x1 v =  x2  =  4  x3 de modo que un vector propio se obtiene, por ejemplo cuando x3 1  −1 x3 = 1 ⇒ v1 =  4  1

b) Hallar el vector propio correspondiente a λ = −2, procedemos de la misma manera pero con (A − (−2)I) v = 0 

1 (A − (−2)I) v =  3 2

obteniendo

       −1 4 −2 0 0 x1 0 2 −1  −  0 −2 0   x2  =  0  1 −1 0 0 −2 x3 0

3  3 2

Reducimos la matriz ampliada 

 3 −1   3 4  2

1

    −1 4 0 x1 4 −1   x2  =  0  1 1 x3 0

 .. . 0   f1 → f1 − f2 . −1 .. 0   f2 → f2 − f3 . 1 .. 0 4

 1   1 

2

−2 3 1

.. . . −2 .. . 1 .. 3

 0   0   0


5. Vectores y valores propios

227

. 1 −2 3 ..  f2 → f2 − f1  .  5 −5 .. f3 → f3 − 2f1  0 . 0 5 −5 ..

Para finalmente llegar al sistema:

x1

0   1 −2   f3 → f3 − f2  0 5 0    0 0 0

−2x2 5x2

+3x3 −5x3

= =

 .. 3 . 0   . −5 .. 0   .. 0 . 0

0 0

Donde x1 = 2x2 − 3x3 , x2 ⇒ x1 = −x3 , x2 = x3 y x3 = variable independiente Los vectores propios de a λ = −2 son vectores diferentes de cero y de   A correspondientes   x1 −1 la forma v =  x2  =  1  x3 de modo que un vector propio se obtiene cuando x 1  3    −1 1 x3 = 1 ⇒ v2 =  1  y cuando x3 = −1 ⇒ v2 =  −1  1 −1 c) Hallar el vector propio correspondiente a λ3 = 3, de nuevo resolvemos (A − 3I) v = 0         x1 0 3 0 0 1 −1 4 2 −1  −  0 3 0   x2  =  0  (A − 3I) v =  3 0 0 0 3 x3 2 1 −1 Donde

    −2 −1 4 x1 0  3 −1 −1   x2  =  0  2 1 −4 x3 0

Ahora reducimos la matriz ampliada

   .. .. . 0 4 4 . 0    −2 −1  −2 −1   f3 → f3 + f1   .. .  5  3 −1 −1 .. 0  0 −5 . 0    f2 → f2 − f1   .. .. 0 0 0 . 0 2 1 −4 . 0    . . 2 −1 0 .. 0 −2 −1 4 .. 0    1 f2 → 5 f2    . . f1 → f1 + 4f2  1  1 0 −1 .. 0 0 −1 .. 0     . . 0 0 0 .. 0 0 0 0 .. 0 

Llegando al sistema

2x1 x1 Luego x2 = 2x1 , x3 = x1 ,

−x2

−x3

= =

0 0

y x1 = variable independiente

    


5. Vectores y valores propios

228

Los vectores propios deA correspondientes a λ = 3 son vectores diferentes de cero y de    1 x1 la forma v =  x2  =  2  x1 de modo que un vector propio se obtiene cuando 1  x3   1 −1 x1 = 1 ⇒ v3 =  2  y cuando x1 = −1 ⇒ v3 =  −2  1 −1 Ejemplo 5.5 Hallar los valores y vectores propios de una matriz triangular sí:   2 5 6 A =  0 −3 2  0 0 5 Ahora

det (A − λI)

= =

2−λ 5 6

0 −3 − λ 2

0 0 5−λ

(2 − λ) (−3 − λ) (5 − λ) = 0

Los valores propios de A son: λ1 = 2, λ2 = −3 y λ3 = 5 Para cada valor propio λ existirá un vector propio v como se muestra a continuación: a) Hallar el vector propio correspondiente a λ1 = 2    2 5 6 2 0 (A − 2I) v =  0 −3 2  −  0 2 0 0 5 0 0

Luego,

     0 0 x1 0   x2  =  0  2 x3 0

    0 5 6 x1 0  0 −5 2   x2  =  0  0 0 3 x3 0 5x2 −5x2

+6x3 +2x3 3x3

= = =

0 0 0

Al resolver el sistema tenemos que x1 = 0, x2 = 0

 0 y x3 = 0 ⇒ v =  0  0

b) Hallar el vector propio correspondiente a λ2 = −3


5. Vectores y valores propios

229



  5 6 3 −3 2  +  0 0 5 0

2 (A − (−3)I) v =  0 0

Obteniendo:

5  0 0

Resultando el siguiente sistema:

     0 0 0 x1 3 0   x2  =  0  0 3 x3 0

    5 6 x1 0 0 2   x2  =  0  0 8 x3 0

5x1

+5x2 2x2

+6x3 8x3

= 0 = 0 = 0

Donde x1 = 0, x2 = 0,

y

 0 x3 = 0 ⇒ v =  0  0

c) Hallar el vector propio correspondiente a λ3 = 5    2 5 6 5 (A − (5)I) v =  0 −3 2  +  0 0 0 5 0 Obteniendo:

7  0 0

Resultando el siguiente sistema:

     0 0 x1 0 5 0   x2  =  0  0 5 x3 0

    5 6 x1 0 2 2   x2  =  0  0 10 x3 0 7x1

+5x2 2x2

+6x3 +2x3 10x3

= 0 = 0 = 0

Donde x1 = 0, x2 = 0,

y

 0 x3 = 0 ⇒ v =  0  0

.:Teorema 5.3 Sea A una matriz de n × n, la matriz de una transformación. Entonces n det (A − λI) es un polinomio de grado n, donde el coeficiente de λn es (−1) y su término n n n−1 independiente es detA; es decir, det (A − λI) = (−1) λ + an−1 λ + · · · + a1 λ + a0 donde a0 = detA


5. Vectores y valores propios

230

Demostración: 

  det (A − λI) =  

a11 − λ a12 ··· a21 a22 − λ · · · .. .. .. . . . an1 an2 ···

a1n a2n .. . ann − λ

    

Antes de realizar la demostración veremos la siguiente proposición sobre determinantes Sea A una matriz cuadrada de orden n. Entonces el detA es igual a la suma de todos los n! productos posibles (con signos adecuados) de n entradas de la matriz A en donde, en cada producto hay exactamente una entrada de cada fila y exactamente una entrada de cada columna de A. a a Para

ver la demostración consultar [2]

Teniendo en cuenta la anterior proposición: el determinante de A − λI es la suma de n! productos (con signos adecuados) de n entradas de la matriz A − λI, tal que cada uno de estos productos envuelve exactamente una entrada de cada fila y exactamente una entrada de cada columna de A − λI. Esto nos muestra que det (A − λI) es un polinomio en λ y el único de los n! productos que figuran en el cálculo de det (A − λI), tal que n factores envuelven λ, es (a11 − λ) (a22 − λ) · · · (ann − λ), el cual a su vez es un polinomio de grado n donde n el término de mayor potencia es (−1) λn . Obsérvese que los otros productos que figuran en det (A − λI) poseen a lo sumo n − 1 factores que envuelven λ y por tanto estos productos son a lo sumo polinomios de grado n − 1. Así que det (A − λI) es un polinomio de grado n n cuyo término de mayor potencia es (−1) λn y podemos decir entonces, que existen escalares an−1 , an−2 , . . . , a1 , a0 tales que: n

det (A − λI) = (−1) λn + an−1 λn−1 + · · · + a1 λ + a0 = p (λ) Ahora, como el término independiente de un polinomio se obtiene evaluando el polinomio en cero, entonces a0 = p (0) = det (A − 0I) = detA, es decir, n

det (A − λI) = (−1) λn + an−1 λn−1 + · · · + a1 λ + detA Q.E.D. .:Teorema 5.4 Sea A ∈ C de tamaño n×n es una matriz triangular, entonces los valores propios de A, contando sus multiplicidades, están dados por λ1 = a11 , λ2 = a22 , · · · , λn = ann , donde a11 , a22 , . . . , ann son las entradas de la diagonal principal de A. Demostración: Se A ∈ C de tamaño n × n, una matriz triangular. Si A es triangular superior, entonces para todo escalar λ, la matriz A − λI es también triangular superior y por teorema 2.1 tenemos que:


5. Vectores y valores propios

P (λ)

231

a11 − λ a12

0 a −λ 22

= det(A − λI) =

.. ..

. .

0 0 = (a11 − λ) (a22 − λ) · · · (ann − λ) .

··· ··· .. . ···

ann − λ

a1n a2n .. .

Luego, la ecuación característica P (λ) = 0, es (a11 − λ) (a22 − λ) · · · (ann − λ) = 0 y por lo tanto, los valores propios de A son λ1 = a11 , λ2 = a22 , · · · , λn = ann . Cuando A es matriz triangular inferior, el resultado puede obtenerse análogamente. Q.E.D. .:Teorema 5.5 Si una matriz A de tamaño n×n y tiene valores propios λ1 , λ2 , · · · , λk entonces: a) Los valores propios de At son λ1 , λ2 , · · · , λk b) Los valores propios de αA son αλ1 , αλ2 , · · · , αλk m m c) Los valores propios de Am son λm 1 , λ2 , · · · , λk

.:Teorema 5.6 Si A es de tamaño de n × n, entonces A−1 existe si y sólo si sus valores propios son todos diferentes de cero.

.:Teorema 5.7 Sea A de tamaño n × n y λ1 , λ2 , · · · , λn los valores propios de A, entonces: 1. detA = λ1 . λ2 .λ3 · · · λn 2. trA = λ1 + λ2 + λ3 + · · · + λn Demostración: Sean A ∈ Cnxn y λ1 , λ2 , · · · , λn sus valores propios contando sus multiplicidades: 1) Sabemos que su polinomio característico está dado por: P (λ)

= =

n

det (A − λI) = (−1) λn + an−1 λn−1 + · · · + a1 λ + a0 (−1)n λn + bn−1 λn−1 + · · · + b1 λ + b0

ai−1 n + bn−1 λn−1 + · · · + b1 λ + b0 es un polinomio donde bi−1 = (−1) n i = 1,1 2, . . . n y como λ 1 mónico , entonces él posee factorización sobre los números complejos, así: 1 Un

polinomio es mónico cuando el coeficiente de la variable de mayor potencia es 1.


5. Vectores y valores propios

p (λ)

232

det (A − λI) = (−1)n (λ − λ1 ) (λ − λ2 ) . . . (λ − λn )

=

n

=

n

(−1) (−1) (λ1 − λ) (λ2 − λ) . . . (λn − λ)

La demostración del punto dos del teorema se deja como ejercicio al lector. Q.E.D. Ejemplo 5.6 Hallar los valores y vectores propios de la siguiente matriz:   −1 2 0 A =  −4 5 0  −4 2 3 Para solucionarlo tomamos

−1 − λ

−4 det (A − λI) =

−4

2 0 5−λ 0 2 3−λ

an = −1, divisores de an = ±1 a0 = 9, divisores de a0 = ±1, ±3, ±9

= −λ3 + 7λ2 − 15λ + 9 = 0

Posibles raíces racionales: ±

a0 = ±1, ±3, ±9 an

Por división sintética tenemos que: −1

.. . 3 .. 12 −9 . · · · ⇒λ=3 . · · · · · · .. . −3 0 ..

7 −15 −3

···

···

−1

4

9

es una raíz

Luego volvemos ha hacer el mismo problema . −3 .. . −1 3 .. . · · · · · · · · · .. . −1 3 0 .. −1

4

1 ···

⇒ λ = 1 es una raíz

Entonces tenemos el polinomio factorizado (λ − 3) (λ − 1) (−λ + 3) = 0


5. Vectores y valores propios

233

Los valores propios de A son λ = 1, λ = 3. Los vectores propios correspondientes a λ = 1 son: a) Hallar el vector propio correspondiente a λ1 = 2    −1 2 0 1 0 (A − 1I) v =  −4 5 0  −  0 1 −4 2 3 0 0

Al efectuar la operación se tiene que:  −2  −4 −4  1 ⇒ ··· 0 0 Teniendo al final el sistema x1 x2

−x3 −x3

 2 0 x1 4 0   x2 2 2 x3  0 −1 1 −1   0 0 = = 

     0 x1 0 0   x2  =  0  1 x3 0 

 0 = 0  0    x1 0 x2  =  0  x3 0

0 entonces x1 = x3 y x2 = x3 0 

1 Cuando x3 = 1 ⇒el vector propio es  1  1 Ahora para λ = 3

Resolviendo

−4 2 (A − 3I) V =  −4 2 −4 2 

1  0 0

 0 0 v 0

 − 21 0 0 0 v = 0 0 0

1 ⇒ x1 = x2 , Significa que x2 es variable independiente 2    1    1 x1 2 ⇒ v =  x2  = x2  1  Si x2 = 2r ⇒ v =  2  r 0 0 x3   1 El vector propio es:  2  0

Ejemplo 5.7 Dada la matriz A de 3 × 3 con 2 valores propios distintos y 3 vectores propios L.I   3 2 4 A= 2 0 2  4 2 3


5. Vectores y valores propios

234

Procedemos como en el ejemplo anterior

3−λ

2 =

4

det (A − λI)

2 4 −λ 2 2 3−λ

= −λ3 + 6λ2 + 15λ + 8 = 0 2 = − (λ + 1) (λ − 8) = 0 Los valores propios de A son: λ1 = 8, λ2 = −1 (con multiplicidad algebraica 2) a) Para λ1 = 8 se obtiene: 

    2 4 x1 0 −8 2   x2  =  0  2 −5 x3 0

−5 (A − 8I) v =  2 4 Reduciendo por renglones se tiene:

.. . . 2 .. . −5 .. . 4 .. . 1 .. . −9 ..

2  −5   2 −8  4

4

2

 −5 2   −1 0  9 0

Quedando el sistema

   .. −5 2 4 . 0 0       .. → →   0   −18 0 18 . 0  . 9 0 −9 .. 0 0    .. 0 2 −1 . 0 0       .. →   0  1 . 0    −1 0 .. 0 0 0 . 0 0

1 0 ⇒ x2 = x3 y x1 = x3 0 2 Si x3 = 2 el vector propio correspondiente a λ1 = 8 es (2, 1, 2) 2x2

−x1

−x3 +x3

= =

b) Para λ2 = −1 se obtiene: 

    4 x1 0 2   x2  =  0  4 x3 0

4 2 (A + I) v =  2 1 4 2 Reduciendo por renglones se tiene: 

 0 0   2 1  0 0

. 0 .. . 2 .. . 0 ..

0   → 2x1 + x2 + 2x3 = 0 0   0


5. Vectores y valores propios

235

Se despeja cualquiera de las variables x2 = −2x1 − 2x3 , cuando x1 = 1

y x3 = 0 se obtiene el vector propio v2 = (1, −2, 0)

Otra forma de hallar los vectores propios es: a) Para λ1 = 8 se obtuvo x1 = x3

y

x2 =

x3 2

,x3 Variable independiente       2r 2 2 Sea x3 = 2r ⇒ x1 = 2r y x2 = r ⇒ v1 =  r  =  1  r ⇒ v =  1  2r 2 2 es el vector propio básico, para λ1 = 8

b) Para λ2 = 1 se obtuvo x1 = − x22 − x3 . Las variables independientes son x2 , x3 sea x3 = S,   −r − s 2r  = x2 = 2r ⇒ x1 = −r − s los vectores propios son de la forma  s         −1 −1 −1 −1  2  r +  0  s ⇒ v2 =  2  , v3 =  0  son los vectores básicos. 0 1 0 1 Ejercicios 5.1 1. Calcule los valores y los vectores propios de las siguientes matrices:   7 −2 −4 2 1 a) 6 −2 d)  3 0 −2  6 −2 −3 −3 2 b)   0 −4 4 1 0 1    2 3 0 1  1 1 −2  e)   −2 1 2 −3    c) −1 2 1 2 −1 0 5 0 1 −1 2. Demuestre que para cualquier número real a y b, la matriz a b A= −b a 1 1 Tiene vectores propios y i −i

5.1.2. Ecuación característica para calcular la inversa de una matriz cuadrada .:Teorema 5.8 (Teorema de Cayley - Hamilton) Toda matriz cuadrada satisface su propia ecuación característica. Es decir, si P (λ) = 0 es la ecuación característica de A, entonces P (A) = 0


5. Vectores y valores propios

236

Veamos una aplicación del teorema anterior, que se puede ver como como una forma alternativa de expresar la inversa de una matriz, usando los valores propios. Sea P (λ) = λn + an−1 λn−1 + · · ·+ a1 λ+ a0 la ecuación característica de A, según el enunciado P (A) = An + an−1 An−1 + · · · + a1 A + a0 I = 0

entonces multiplicamos por A−1 en la ecuación anterior.

A−1 P (A) = An−1 + an−1 An−2 + · · · + a2 A + a1 I + a0 A−1 = 0 Luego; An−1 + an−1 An−2 + · · · + a2 A + a1 I = −a0 A−1 Entonces; 1 −An−1 − an−1 An−2 − · · · − a2 A + −a1 I a0   1 −1 4 2 −1  Ejemplo 5.8 Usar el teorema anterior para hallar A−1 de A =  2 2 1 −1 A−1 =

det (A − λI)

=

1−λ −1 4

3 2 − λ −1

2 1 −1 − λ

⇒ P (λ) = λ3 − 2λ2 − 5λ + 6 = 0 donde n = 3, a2 = −2, a1 = −5, a0 = 6 Entonces; A−1 =

A−1

=

=



1 −A2 + 2A + 5I 6

  −6 −1 −1 2 1  −7 0 −11  +  6 6 −3 1 −8 4   1 −3 7 1 −1 9 −13  6 1 3 −5

  −2 8 5 4 −2  +  0 2 −2 0

 0 0 5 0  0 5


5. Vectores y valores propios

237

5.2. Matrices Semejantes y Diagonalización .:Definición 5.2 Se dice que dos matrices A y B de tamaño n × n, son semejantes si existe una matriz invertible C de tamaño n × n tal que B = C −1 AC

(5.5)

Esto es equivalente, a decir que: CB = AC La función definida por 5.2 que lleva la matriz A en la matriz B se llama transformación de semejanza y se puede escribir como: T (A) = C −1 AC Ejemplo 5.9 Dos matrices semejantes 3 2 3 5.2 Sea A = ,B= 0 −4 0 −4

y

C=

5 4 0 −1

detC 6= 0 entonces C −1 existe

como:

CB =

5 4 0 −1

3 5.2 0 −4

=

15 10 0 4

AC =

3 0

5 0

=

15 10 0 4

Entonces: CB = AC ⇒ A

y

2 −4

4 −1

B son semejantes

Ejemplo 5.10 Ejemplo de una matriz semejante a una matriz diagonal Sea 

  4 0 0 1 0 , A =  3 D =  0 −2 0 0 −2 0

  3 0 1 1 0 , C =  1 0 −2 0

C es invertible porque detC 6= 0 

 4 4 0 CA =  −2 2 0 , 0 0 −2

y

4 4 DC =  −2 2 0 0

 0 0  −2

Entonces CA = DC ⇒ A = C −1 DC ⇒ A y D son matrices semejantes .:Teorema 5.9 Si dos matrices A y B son semejantes, entonces:

 1 0 −1 0  0 1


5. Vectores y valores propios

238

1. A y B tienen el mismo polinomio característico 2. A y B tienen los mismos valores propios, con las mismas multiplicidades algebráicas. 3. El detA = detB 4. tr(A)=tr(B) 5. rango(A)=rango(B) Demostración: Supongamos que A y B son semejantes; entonces existe una matriz C invertible, tal que B = C −1 AC. 1. Sea PA (λ) y PB (λ) los polinomios característicos de A y B respectivamente, entonces:

PB (λ)

= det(B − λI)

= det(C −1 AC − λI) ya queB = C −1 AC = det(C −1 AC − λC −1 IC) = det C −1 (A − λI)C = det(C −1 )det(A − λI)detC = det(A − λI)det(C −1 )detC

= det(A − λI) = PA (λ)

Observe que como In = C −1 C, entonces, el detC −1 detC = det(C −1 C) = detIn = 1 2. Recordemos que los valores propios de una matriz son las raíces de su polinomio característico, Luego para las matrices A y B, el polinomio característico es el mismo, por lo tanto , su valores propios son los mismos, con las mismas multiplicidades algebráicas. 3. Tal como lo vimos anteriormente, el determinante de una matriz, es el producto de sus valores propios contando sus multiplicidades y como las matrices A y B posen los mimos valores propios, entonces, las matrices A y B poseen el mismo determinante, luego, el detA = detB. La demostración de los puntos 4 y 5 se dejan como ejercicio al lector. Q.E.D. Ejemplo 5.11 Tomemos de nuevo las matrices:    4 0 0 1 0 , A =  3 D =  0 −2 0 0 −2 0

  3 0 1 1 0 , C =  1 0 −2 0

 1 0 −1 0  0 1


5. Vectores y valores propios

239

De acuerdo a lo que se resolvió en el ejemplo anterior, los valores propios de D son 4, -2, -2 y los valores propios de A son: 4, -2, -2. Esto se puede verificar viendo si se cumple: det (A − 4I) = det (A + 2I) = det (A + 2I) = 0 Es importante, que antes de definir que es una matriz diagonalizable, recordar que es una matriz diagonal: Una matriz de tamaño n × n, se llama matriz diagonal, cuando las componentes a11 , a22 , a33 , . . . , ann son distintos de cero, las demás componentes son cero.   a11 0 · · · 0  0 a22 · · · 0    A= . ..  . . .. ..  .. .  0

0

···

ann

.:Definición 5.3 Una matriz A de tamaño n × n es diagonalizable si existe una matriz diagonal D tal que A es semejante a D.

Nota: Si A es diagonalizable, entonces A es semejante a una matriz diagonal cuyas componentes de la diagonal son los valores propios de A. La definición anterior nos lleva al siguiente teorema: .:Teorema 5.10 Una matriz A es de tamaño n × n es diagonalizable si y sólo si tiene n vectores propios linealmente independientes. En tal caso, la matriz diagonal D semejante a A esta dada por:   λ1 0 ··· ··· 0  0 λ2 · · · · · · 0     0 0 λ3 · · · 0  D=   .. .. .. ..   . . . ··· .  0

0

0

···

λn

Donde los λi son los valores propios de A.

Si C es una matriz cuyas columnas son los vectores propios linealmente independientes de A, entonces: D = C −1 AC Demostración: Supongamos que A tiene n vectores propios que son l.i, v1 , v2 , . . . , vn , que corresponden a los valores propios, no necesariamente diferentes λ1 , λ2 , . . . , λn .


5. Vectores y valores propios

240

Sea: 

  v1 =  

Y sea:

c11 c21 .. . cn1

  , 

  v1 =   

  C= 

c12 c22 .. . cn2

     , . . . , vn =   

c11 c21 .. .

c12 c22 .. .

··· ···

c1n c2n .. .

cn1

cn2

···

cnn

an2

y se ve que la columna i de AC es

···

  A 

c1i c2i .. . cni

ann

cn1

    

CD

=

=

Entonces AC = CD.

    

···

··· ···

λn c1n λn c2n .. .

···

λn cnn

cnn

    

   = Avi = λi vi 

λ2 cn2

c11 c21 .. .

c12 c22 .. .

··· ···

c1n c2n .. .

cn1

cn2

···

cnn

λ1 c11  λ1 c21   ..  . λ1 cn1

cn2

c1n c2n .. .

Así, AC, es la matriz cuya columna i es λi vi y  λ1 c11 λ2 c12  λ1 c21 λ2 c22  AC =  .. ..  . . λ1 cn1

  , 

cnn

Entonces C es invertible, ya que sus columnas son l.i. Ahora bien,   a11 a12 · · · a1n c11 c12 · · ·  a21 a22 · · · a2n   c21 c22 · · ·   AC =  . .. ..   .. ..  .. . .  . . an1

c1n c2n .. .

λ2 c12 λ2 c22 .. .

··· ···

λ2 cn2

···

     

λ1 0 0 λ2 0 0 .. .. . . 0 0 

λn c1n λn c2n .. .

λn cnn

   

   

··· ··· λ3 .. . 0

··· ··· ··· ··· ···

0 0 0 .. . λn

      


5. Vectores y valores propios

241

Y como C es invertible, se pueden multiplicar ambos lados de la igualdad por C −1 y se obtiene que: D = C −1 AC Esto demuestra que, si A tiene vectores propios l.i, entonces A es diagonalizable. Inversamente, suponga que A es diagonalizable; esto es, suponer que D = C −1 AC se cumple para alguna matriz invertible C. Sean v1 , v2 , . . . , vn las columnas de C. Entonces AC = CD, invirtiendo los argumentos anteriores, se tiene que Avi = λi vi para i = 1, 2, . . . , n. Entonces v1 ,v2 , . . . , vn son los vectores propios de A y son l.i. porque C es invertible. Q.E.D. .:Corolario 5.1 Si la matriz A de tamaño n × n, tiene n valores propios diferentes, entonces A es diagonalizable.

Ejemplo 5.12 Sea A =

4 3

2 3

, encuentre la matriz diagonal D.

Hallamos los valores propios de A, para ello utilizamos la ecuación característica de A,

det (A − λI)

=

4−λ 2 3 3−λ

=0

= (λ − 1) (λ − 6) = 0 a) Encontramos el vector propios para λ2 = 6 0 0 3 2 x1 x1 = = ⇒ (A − λI) v = 0 ⇒ (A − 1I) ⇒ 0 0 3 2 x2 x2 3x1 + 2x2 = 0 esta ecuación se cumple cuando x1 = 2, x2 = −3, entonces un vector 2 propio es v1 = para λ1 = 1 −3 b) Para λ1 = 1

−2 2 x1 0 (A − 6I) v = 0 ⇒ = ⇒ x1 = x2 ⇒ un vector propio de 3 −3 0 x2 1 A para λ2 = 6 es v2 = v1 y v2 son Linealmente Independientes ya que uno no es 1 múltiplo del otro 2 1 Sea C = recordemos que C se construye con los vectores propios de A como −3 1 columnas, y su inversa es 1 1 −1 C −1 = 3 2 5 Ahora calculemos la matriz D:


5. Vectores y valores propios

D

242

= = = = =

C −1 AC 1 5 1 5 1 5 1 0

1 −1 3 2 1 −1 3 2 5 0 0 30 0 6

4 3

2 3

2 6 −3 6

2 −3

1 1

Como podemos ver los elementos de la diagonal de la matriz D son los valores propios de la matriz A. NOTA: Diagonalizar una matriz A es encontrar una matriz diagonal D que es semejante a A o sea que, se cumpla que D = C −1 AC donde C es la matriz de vectores propios linealmente Independientes. .:Teorema 5.11 Si A es semenjante con B es decir, B = C −1 AC entonces An = CB n C −1 n ∈ Z + El siguiente ejemplo ilustra la situación: 1 0 1 4 5 −4 −1 Ejemplo 5.13 Si A = ,C = ,C = y B = C −1 AC, 0 2 1 5 −1 1 calcular B 5 Solución:

C −1 AC

= =

5 −4 −1 1 −3 20 1 6

1 0 0 2

1 1

4 5

=B

Para calcular B 5 primero se calcula A5 , lo cual es fácil porque A es una matriz diagonal

2

A =

12 0 0 22

3

,A =

13 0 0 23

4

,A =

14 0

0 24

5

,A =

15 0 0 25

=

1 0 0 32


5. Vectores y valores propios

243

Por el teorema anterior, B5

−1 5 = C A C 5 −4 1 0 1 = −1 1 0 32 1 5 −128 1 4 = −1 32 1 5 −123 −620 = 31 156

4 5

Ejercicios 5.2 1. Dada la matriz A, determine si es diagonalizable y si lo es, encuentre la ecuación característica, la matriz C y la matriz D, tal que D = C −1 AC   4 −9 1 1 −1 a) 6 2 0 6  h)  4 −2 −2 2 7 −1 b) −5 4   0.236 0.214 0.974 9 0 c) i)  0.012 0.047 0.3258  1 2 0.987 0.325 −0.78 0 3 d)   1 0 8 9 5 1 4 5  2 4 7 5  e)  j)  −8 −10  8 9 5 4    5 8 9 2 3 1 4 f)  5 1− 9    6 5 5 3 2 1 4    7 −8 5 −4  8 9 6  k)     0 5 5 4 −5 8 5  g) 0 1 5 4 5 −5 7 2. Demuestre que si A tiene valores propios λ1 , λ2 , λ3 , . . . , λn , entonces los valores propios de At son λ1 , λ2 , λ3 , . . . , λn . 3. Si A tiene valores propios λ1 , λ2 , λ3 , . . . , λn , Demuestre que αA tiene valores propios αλ1 , αλ2 , αλ3 , . . . , αλn . 4. Demuestre que si A es invertible y tiene valores propios λ1 , λ2 , λ3 , . . . , λn , entonces todos los valores propios de A−1 son distintos de cero y son λ11 , λ12 , λ13 , . . . , λ1n y además, A y A−1 tienen los mismos vectores característicos. 5. De muestre que si A es semejante a B, entonces a) An es semejante a B n , n ∈ Z +


5. Vectores y valores propios

244

b) detA = detB. 6. Demuestre que si A tiene λ1 , λ2 , λ3 , . . . , λn valores propios, entonces detA = λ1 · λ2 · λ3 · · · λn . 7. Si A tiene un valor propio λi = 0, entonces A es una matriz Singular. 8. Tomemos la matriz A de la siguiente forma: a A= 0

b c

Si la matriz A tiene valores propios λ1 = 0 y λ2 = 1, ¿cuales serían los posibles valores de a y c? 9. Demuestre que A=

0 1 −1 0

no tiene valores propios. 10. Si la siguiente afirmación “Una matriz es semejante a dos matrices diagonales distintas” es verdadera, demuéstrela, de lo contrario de un contra ejemplo. 11. Dada la matriz A de tamaño 2 × 2 A=

a c

b d

Encuentre un criterio sobre a, b, c y d para determinar si A es diagonalizable. 12. Pruebe que la siguiente matriz es diagonalizable cos θ − sin θ A= sin θ cos θ 13. Pruebe que si A y B son matrices cuadradas de tamaño n × n y alguna de las dos es invertible, entonces AB y BA tienen valores propios iguales.


Bibliografía [1] G ROSSMAN, S. Álgebra Lineal. McGraw-Hill, México-DF. (1996). [2] R ESTREPO P, F RANCO R, S IERRA L. Álgebra lineal con aplicaciones, Universidad Nacional de Colombia, Sede Medellín. Medellín (1995). [3] M ONSALVE, S. Álgebra Lineal - con notas históricas y contextos económicos. Edt Universidad Nacional de Colombia. Bogotá (2010). [4] Strang, G. Álgebra Lineal y sus aplicaciones. Fondo educativo Interamericano. (1982). [5] N ICHOLSON, W. Álgebra Lineal con aplicaciones. Edt Mcgraw-Hill, Madrid (2003). [6] KOLMAN, B. Álgebra lineal con aplicaciones y Matlab. México: Prentice Hall (1999). [7] F RALEIGH, J, Álgebra Lineal, Edt Addison -Wesley, Wilmington - Delawere EEUU (1986). [8] L ARSON , R. & E DWARDS B. Introducción al Álgebra lineal, Edt Limusa, México DF (2000). [9] M EJÍA, C. Álgebra lineal elemental y aplicaciones, Edt Ediciones Ude@, Medellín Colombia (2006). [10] F LOREY, F. Fundamentos de Álgebra Lineal y aplicaciones. México: Prentice Hall (1980). [11] H ILL, R. Álgebra lineal elemental con aplicaciones. México: Prentice Hall Hispanoamericana (1997). [12] P ERRY, W. Álgebra lineal con aplicaciones. México: McGraw - Hill (1990). [13] P ITA RUIZ C. Álgebra lineal. México: McGraw - Hill (1991). [14] A POSTOL, T. Calculus Vol 1 y 2, Edt Reverte S.A, México (1985).

245


Índice alfabético Cálculo

de área de un determinantes, 135 Cofactor de una matriz, 93

triángulo

con Inversa de una matriz, 51 Inversa de una matriz y su determinante, 120

Determinante de una matriz, 89 Determinante de una matriz de orden 2, 89 Determinante de una matriz de orden 3, 90 Determinante de una matriz de orden n × n, 93 Determinantes, 89 Determinantes - Propiedad 1, 100 Determinantes - Propiedad 2, 100 Determinantes - Propiedad 3, 101 Determinantes - Propiedad 4, 102 Determinantes - Propiedad 5, 104 Determinantes - Propiedad 6, 105 Determinantes - Propiedad 7, 106 Determinantes - Propiedades, 95 Determinantes 2 × 2, 130 Determinantes y matrices especiales, 113 Diferencia de matrices, 32 Dos ecuaciones lineales con dos incógnitas, 3

La Menor de una Matriz, 92 Ley Asociativa en el producto de matrices, 40 Ley distributiva de la multiplicación de matrices, 41 Longitud de un segmento de recta y el determinante, 135

Método de Chió, 111 Método de Sarrus, 91 Método por cofactores, 92 Métodos para hallar la inversa de una matriz, 58 Matrices, 18 Matrices - Factorización, 65 Matrices iguales, 30 Matriz - La inversa, 53 Matriz Adjunta, 121 Matriz Antisimétrica, 49 Matriz cuadrada, 30 ecuaciones lineales, 3 Matriz de coeficientes, 19 El rango, 16 Matriz de coeficientes aumentada., 19 Eliminación de Gauss-Jordan, 10 Matriz diagonal, 30 Eliminación Gaussiana, 8, 20 Matriz Elemental, 66, 149 Espacios vectoriales y sus propiedades, 147 Matriz invertible, 54 Matriz nula, 30 Factorización A=LDU, 82 Matriz simétrica, 48 Factorización A=LU, 75 Matriz transpuesta - Propiedades, 47 Factorización PA=LU, 83 Matriz Triangular inferior, 75 FER, 26 Matriz Triangular superior, 75 Forma escalonada por renglones., 26 Matriz, Definición formal, 29 Forma escalonada reducida por renglones Multiplicación de matrices y vectores, 35 (FERR), 26 Formas escalonadas para una matriz, 26 Operaciones elementales por fila, 24 Operaciones elementales por filas, 19 Gauss-Jordan, 21 Pierre Frédéric Sarrus, 91 Interpretación geométrica del determinante, Producto entre matrices, 38 130 246


ÍNDICE ALFABÉTICO

247

Producto escalar, 36 Regla de Cramer, 125 Sistema con solución única, 3 Sistema de m ecuaciones lineales con n incógnitas, 7 Sistema sin solución, 5 Sistema y infinito número de soluciones, 4 Sistemas de Ecuaciones Homogéneos, 14 Sistemas de ecuaciones lineales, 1 Sistemas Homogéneos, 14 Sistemas Inconsistentes y Consistentes, 13 Suma de Matrices, 31 Teorema de factorización única, 66 Transpuesta de una matriz, 46 Vector Fila y Columna, 28 vectores fila y columna, 27 Volumen del paralelepípedo determinante, 138

como

un


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.