Saltar al contenido principal

Álgebra lineal

Ecuaciones lineales en álgebra lineal

Operaciones elementales de fila

Las operaciones elementales de fila son tres operaciones que se pueden realizar en las filas de una matriz:

  1. (Reemplazo) Sustituir una fila por la suma de sí misma y un múltiplo de otra fila.
  2. (Intercambio) Intercambiar dos filas.
  3. (Escalamiento) Multiplicar todos los elementos de una fila por una constante diferente de cero.

Forma escalonada de una matriz

Una matriz rectangular está en forma escalonada (o forma escalonada por filas) si tiene las siguientes tres propiedades:

  1. Todas las filas diferentes de cero están arriba de las filas que solo contienen ceros.
  2. Cada entrada principal de una fila está en una columna a la derecha de la entrada principal de la fila superior.
  3. En una columna todas las entradas debajo de la entrada principal son ceros.

Si una matriz de forma escalonada satisface las siguientes condiciones adicionales, entonces está en forma escalonada reducida (o forma escalonada reducida por filas):

  1. La entrada principal en cada fila diferente de cero es 11.
  2. Cada entrada principal 11 es la única entrada distinta de cero en su columna.

Por ejemplo, las matrices

[232101480005/2] y [10029010160013]\left[\begin{array}{rrrc} 2 & -3 & 2 & 1 \\ 0 & 1 & -4 & 8 \\ 0 & 0 & 0 & 5 / 2 \end{array}\right] \text { y }\left[\begin{array}{llll} 1 & 0 & 0 & 29 \\ 0 & 1 & 0 & 16 \\ 0 & 0 & 1 & 3 \end{array}\right]

están en forma escalonada y forma escalonada reducida, respectivamente.

De forma general, las matrices en forma escalonada pueden tener entradas principales (\small\blacksquare) con cualquier valor diferente de cero, pero las entradas con asterisco (*) pueden tener cualquier valor, incluyendo cero.

[000000000]\left[\begin{array}{llll} \small\blacksquare & * & * & * \\ 0 & \small\blacksquare & * & * \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array}\right]

En cambio, las matrices en forma escalonada reducida tienen entradas principales iguales a 11 y hay ceros abajo y arriba de cada entrada principal 11.

[100100000000]\left[\begin{array}{llll} 1 & 0 & * & * \\ 0 & 1 & * & * \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array}\right]

Unicidad de la forma escalonada reducida

Teorema

Cada matriz es equivalente por filas a una, y solo a una, matriz escalonada reducida.

Si una matriz AA es equivalente por filas a una matriz escalonada UU, entonces UU se llama una forma escalonada (o una forma escalonada por filas) de AA; si UU está en forma escalonada reducida, entonces UU es la forma escalonada reducida de AA.

Posiciones pivote

Una posición pivote en una matriz AA es una ubicación en AA que corresponde a un 11 principal en la forma escalonada reducida de AA. Una columna pivote es una columna de AA que contiene una posición pivote.

En los ejemplos anteriores, los cuadrados (\small\blacksquare) identifican las posiciones pivote.

Algoritmo de reducción por filas

El algoritmo que sigue consta de cuatro pasos y produce una matriz en forma escalonada. Un quinto paso da por resultado una matriz en forma escalonada reducida.

  1. Se inicia con la columna diferente de cero del extremo izquierdo. Esta es una columna pivote. La posición pivote se ubica en la parte superior.
  2. Seleccione como pivote una entrada diferente de cero en la columna pivote. Si es necesario, intercambie filas para mover esta entrada a la posición pivote.
  3. Utilice operaciones de remplazo de filas para crear ceros en todas las posiciones ubicadas debajo del pivote.
  4. Cubra (o ignore) la fila que contiene la posición pivote y cubra todas las filas, si las hay, por encima de esta. Aplique los pasos 1 a 3 a la submatriz restante. Repita el proceso hasta que no haya filas diferentes de cero por modificar.
  5. Empezando con la posición pivote del extremo derecho y trabajando hacia arriba y hacia la izquierda, genere ceros arriba de cada pivote. Si un pivote no es 1 , conviértalo en 1 mediante una operación de escalamiento.

La combinación de los pasos 1 a 4 se conoce como fase progresiva del algoritmo de reducción por filas. El paso 5, que produce la única forma escalonada reducida, se conoce como fase regresiva.

Ejemplo: Algoritmo de reducción por filas

Transforme la siguiente matriz a la forma escalonada, y luego a la forma escalonada reducida:

[03664537858939129615]\left[\begin{array}{rrrrrr} 0 & 3 & -6 & 6 & 4 & -5 \\ 3 & -7 & 8 & -5 & 8 & 9 \\ 3 & -9 & 12 & -9 & 6 & 15 \end{array}\right]

Paso 1: Elegimos el pivote.

Paso 1

Paso 2: Intercambiamos las filas 1 y 3. (O bien, también se podrían intercambiar las filas 1 y 2).

Paso 2

Paso 3: Como paso preliminar, se podría dividir la fila superior entre el pivote, 33. Pero con dos números 33 en la columna 1, esto es tan fácil como sumar la fila 1 multiplicada por 1-1 a la fila 2.

Paso 3

Paso 4: Con la fila 1 cubierta, el paso 1 muestra que la columna 2 es la próxima columna pivote; para el paso 2, seleccione como pivote la entrada "superior" en esa columna.

Paso 4

En el paso 3, se podría insertar un paso adicional de dividir la fila "superior" de la submatriz entre el pivote, 22. En vez de ello, se suma la fila "superior" multiplicada por 3/2-3 / 2 a la fila de abajo. Esto produce

Paso 3

Para el paso 4, cuando se cubre la fila que contiene la segunda posición pivote, se obtiene una nueva submatriz con una sola fila:

Paso 4

Los pasos 1 a 3 no necesitan aplicarse para esta submatriz, pues ya se ha alcanzado una forma escalonada para la matriz completa. Si se desea la forma escalonada reducida, se efectúa un paso más.

Paso 5: El pivote del extremo derecho está en la fila 3. Genere ceros sobre él, sumando múltiplos adecuados de la fila 3 a las filas 1 y 2.

Paso 5

El siguiente pivote se encuentra en la fila 2 . Se escala esta fila dividiéndola entre el pivote.

Paso 5

Cree un cero en la columna 2 sumando la fila 2 multiplicada por 9 a la fila 1.

Paso 5

Finalmente, escale la fila 1 dividiéndola entre el pivote, 3.

Paso 5

Esta es la forma escalonada reducida de la matriz original.

Soluciones de sistemas lineales

El algoritmo de reducción por filas conduce directamente a una descripción explícita del conjunto solución de un sistema lineal cuando se aplica a la matriz aumentada del sistema.

Suponga, por ejemplo, que la matriz aumentada de un sistema lineal se transformó a la forma escalonada reducida equivalente

[105101140000]\left[\begin{array}{rrrr}1 & 0 & -5 & 1 \\ 0 & 1 & 1 & 4 \\ 0 & 0 & 0 & 0\end{array}\right]

Existen tres variables porque la matriz aumentada tiene cuatro columnas. El sistema de ecuaciones asociado es

x15x3=1x2+x3=40=0\begin{aligned} x_1-5 x_3 & =1 \\ x_2+x_3 & =4 \\ 0 & =0 \end{aligned}

Las variables x1x_1 y x2x_2 correspondientes a las columnas pivote se conocen como variables básicas. La otra variable, x3x_3, se denomina variable libre.

Siempre que un sistema es consistente, como el anterior, el conjunto solución se puede describir explícitamente al despejar en el sistema de ecuaciones reducido las variables básicas en términos de las variables libres. Esta operación es posible porque la forma escalonada reducida coloca a cada variable básica en una y solo una ecuación. En el sistema anterior, despeje x1x_1 de la primera ecuación y x2x_2 de la segunda. (Ignore la tercera ecuación, ya que no ofrece restricciones sobre las variables).

{x1=1+5x3x2=4x3x3 es libre \left\{\begin{array}{l} x_1=1+5 x_3 \\ x_2=4-x_3 \\ x_3 \text { es libre } \end{array}\right.

El enunciado "x3x_3 es libre" significa que existe libertad de elegir cualquier valor para x3x_3. Una vez hecho esto, las fórmulas anteriores determinan los valores de x1x_1 y x2x_2. Por ejemplo, cuando x3=0x_3=0, la solución es (1,4,0)(1,4,0); cuando x3=1x_3=1, la solución es (6,3,1)(6,3,1). Cada asignación diferente de x3x_3 determina una solución (distinta) del sistema, y cada solución del sistema está determinada por una asignación de x3x_3.

Preguntas de existencia y unicidad

Teorema de existencia y unicidad

Un sistema lineal es consistente si y solo si la columna más a la derecha de la matriz aumentada no es una columna pivote, es decir, si y solo si una forma escalonada de la matriz aumentada no tiene filas del tipo

[00b]con b diferente de cero\left[\begin{array}{llll}0 & \cdots & 0 & b\end{array}\right] \quad \text{con } b \text{ diferente de cero}

Si un sistema lineal es consistente, entonces el conjunto solución contiene: i. una única solución, cuando no existen variables libres, o ii. una infinidad de soluciones, cuando hay al menos una variable libre.

El siguiente procedimiento indica cómo encontrar y describir todas las soluciones de un sistema lineal.

  1. Escriba la matriz aumentada del sistema.
  2. Emplee el algoritmo de reducción por filas para obtener una matriz aumentada equivalente en forma escalonada. Determine si el sistema es consistente o no. Si no existe solución, deténgase; en caso contrario, continúe con el siguiente paso.
  3. Prosiga con la reducción por filas para obtener la forma escalonada reducida.
  4. Escriba el sistema de ecuaciones correspondiente a la matriz obtenida en el paso 3.
  5. Rescriba cada ecuación no nula del paso 4 de manera que su única variable básica se exprese en términos de cualquiera de las variables libres que aparecen en la ecuación.

Combinaciones lineales

Dados los vectores v1,v2,,vp\mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_p en Rn\mathbb{R}^n y dados los escalares c1,c2,,cpc_1, c_2, \ldots, c_p, el vector y\mathbf{y} definido por

y=c1v1++cpvp\mathbf{y}=c_1 \mathbf{v}_1+\cdots+c_p \mathbf{v}_p

se llama combinación lineal de v1,,vp\mathbf{v}_1, \ldots, \mathbf{v}_p con pesos c1,,cpc_1, \ldots, c_p.

La siguiente figura identifica combinaciones lineales seleccionadas de v1=[11]\mathbf{v}_1=\left[\begin{array}{r}-1 \\ 1\end{array}\right] y v2=[21]\mathbf{v}_2=\left[\begin{array}{l}2 \\ 1\end{array}\right].

Combinación lineal
Ejemplo de combinación lineal

Espacio generado

Si v1,,vp\mathbf{v}_1, \ldots, \mathbf{v}_p están en Rn\mathbb{R}^n, entonces el conjunto de todas las combinaciones lineales de v1,,vp\mathbf{v}_1, \ldots, \mathbf{v}_p se denota como Gen{v1,,vp}\text{Gen}\left\{\mathbf{v}_1, \ldots, \mathbf{v}_p\right\} y se llama el subconjunto de Rn\mathbb{R}^n extendido o generado por v1,,vp\mathbf{v}_1, \ldots, \mathbf{v}_p. Es decir, Gen{v1,,vp}\text{Gen}\left\{\mathbf{v}_1, \ldots, \mathbf{v}_p\right\} es el conjunto de todos los vectores que se pueden escribir en la forma

c1v1+c2v2++cpvpc_1 \mathbf{v}_1+c_2 \mathbf{v}_2+\cdots+c_p \mathbf{v}_p

con escalares c1,,cpc_1, \ldots, c_p.

Sea v\mathbf{v} un vector diferente de cero en R3\mathbb{R}^3. Entonces Gen{v}\text{Gen}\{\mathbf{v}\} es el conjunto de todos los múltiplos escalares de v\mathbf{v}, que es el conjunto de puntos sobre la recta en R3\mathbb{R}^3 que pasa por v\mathbf{v} y 0\mathbf{0}.

Si u\mathbf{u} y v\mathbf{v} son vectores diferentes de cero en R3\mathbb{R}^3, y v\mathbf{v} no es un múltiplo de u\mathbf{u}, entonces Gen {u,v}\{\mathbf{u}, \mathbf{v}\} es el plano en R3\mathbb{R}^3 que contiene a u,v\mathbf{u}, \mathbf{v} y 0\mathbf{0}. En particular, Gen {u,v}\{\mathbf{u}, \mathbf{v}\} contiene la recta en R3\mathbb{R}^3 que pasa por u\mathbf{u} y 0\mathbf{0}, y la recta que pasa por v\mathbf{v} y 0\mathbf{0}.

Espacio generado
Espacio generado

Ecuación matricial

Si AA es una matriz de m×nm \times n, con columnas a1,,an\mathbf{a}_1, \ldots, \mathbf{a}_n, y si x\mathbf{x} está en Rn\mathbb{R}^n, entonces el producto de AA y x\mathbf{x}, denotado como AxA \mathbf{x}, es la combinación lineal de las columnas de AA utilizando como pesos las entradas correspondientes en x\mathbf{x}; es decir,

Ax=[a1a2an][x1xn]=x1a1+x2a2++xnanA \mathbf{x}=\left[\begin{array}{llll} \mathbf{a}_1 & \mathbf{a}_2 & \cdots & \mathbf{a}_n \end{array}\right]\left[\begin{array}{c} x_1 \\ \vdots \\ x_n \end{array}\right]=x_1 \mathbf{a}_1+x_2 \mathbf{a}_2+\cdots+x_n \mathbf{a}_n
Teorema

Si AA es una matriz de m×nm \times n, con columnas a1,,an\mathbf{a}_1, \ldots, \mathbf{a}_n, y si b\mathbf{b} está en Rm\mathbb{R}^m, la ecuación matricial

Ax=bA \mathbf{x}=\mathbf{b}

tiene el mismo conjunto solución que la ecuación vectorial

x1a1+x2a2++xnan=bx_1 \mathbf{a}_1+x_2 \mathbf{a}_2+\cdots+x_n \mathbf{a}_n=\mathbf{b}

la cual, a la vez, tiene el mismo conjunto solución que el sistema de ecuaciones lineales cuya matriz aumentada es

[a1a2anb]\left[\begin{array}{lllll} \mathbf{a}_1 & \mathbf{a}_2 & \cdots & \mathbf{a}_n & \mathbf{b} \end{array}\right]

La definición de AxA \mathbf{x} conduce directamente al siguiente hecho que resulta útil:

Existencia de solución

La ecuación Ax=bA \mathbf{x}=\mathbf{b} tiene una solución si y solo si b es una combinación lineal de las columnas de AA.

Dado lo anterior, podemos enunciar el siguiente teorema:

Teorema

Sea AA una matriz de m×nm \times n. Entonces, los siguientes enunciados son lógicamente equivalentes. Es decir, para una AA particular, todos los enunciados son verdaderos o todos son falsos.

  • Para cada b\mathbf{b} en Rm\mathbb{R}^m, la ecuación Ax=bA \mathbf{x}=\mathbf{b} tiene una solución.
  • Cada b\mathbf{b} en Rm\mathbb{R}^m es una combinación lineal de las columnas de AA.
  • Las columnas de AA generan Rm\mathbb{R}^m.
  • AA tiene una posición pivote en cada fila.

Sistemas lineales homogéneos

Se dice que un sistema de ecuaciones lineales es homogéneo si se puede escribir en la forma Ax=0A \mathbf{x}=\mathbf{0}, donde AA es una matriz de m×nm \times n, y 0\mathbf{0} es el vector cero en Rm\mathbb{R}^m. Tal sistema Ax=0A \mathbf{x}=\mathbf{0} siempre tiene al menos una solución, a saber, x=0\mathbf{x}=\mathbf{0} (el vector cero en Rn\mathbb{R}^n ). Esta solución cero generalmente se conoce como solución trivial. Para una ecuación dada Ax=0A \mathbf{x}=\mathbf{0}, la pregunta importante es si existe una solución no trivial, es decir, un vector x\mathbf{x} diferente de cero que satisfaga Ax=0A \mathbf{x}=\mathbf{0}. El teorema de existencia y unicidad conduce de inmediato al siguiente resultado.

Resultado

La ecuación homogénea Ax=0A \mathbf{x}=\mathbf{0} tiene una solución no trivial si y solo si la ecuación tiene al menos una variable libre.

Independencia lineal

Las ecuaciones homogéneas se pueden estudiar desde una perspectiva diferente si las escribimos como ecuaciones vectoriales. De esta manera, la atención se transfiere de las soluciones desconocidas de Ax=0A \mathbf{x}=\mathbf{0} a los vectores que aparecen en las ecuaciones vectoriales.

Por ejemplo, considere la ecuación

x1[123]+x2[456]+x3[210]=[000]x_1\left[\begin{array}{l} 1 \\ 2 \\ 3 \end{array}\right]+x_2\left[\begin{array}{l} 4 \\ 5 \\ 6 \end{array}\right]+x_3\left[\begin{array}{l} 2 \\ 1 \\ 0 \end{array}\right]=\left[\begin{array}{l} 0 \\ 0 \\ 0 \end{array}\right]

Esta ecuación tiene una solución trivial, desde luego, donde x1=x2=x3=0x_1=x_2=x_3=0. Al igual que hemos discutido antes, el asunto principal es si la solución trivial es la única.

Definición

Se dice que un conjunto indexado de vectores {v1,,vp}\left\{\mathbf{v}_1, \ldots, \mathbf{v}_p\right\} en Rn\mathbb{R}^n es linealmente independiente si la ecuación vectorial

x1v1+x2v2++xpvp=0x_1 \mathbf{v}_1+x_2 \mathbf{v}_2+\cdots+x_p \mathbf{v}_p=\mathbf{0}

solo tiene la solución trivial.

Se dice que el conjunto {v1,,vp}\left\{\mathbf{v}_1, \ldots, \mathbf{v}_p\right\} es linealmente dependiente si existen pesos c1,,cpc_1, \ldots, c_p, no todos cero, tales que

c1v1+c2v2++cpvp=0c_1 \mathbf{v}_1+c_2 \mathbf{v}_2+\cdots+c_p \mathbf{v}_p=\mathbf{0}

La ecuación que define el concepto de "linealmente dependiente" se llama relación de dependencia lineal entre v1,,vp\mathbf{v}_1, \ldots, \mathbf{v}_p cuando no todos los pesos son cero. Un conjunto indexado es linealmente dependiente si y solo si no es linealmente independiente. Por brevedad, puede decirse que v1,,vp\mathbf{v}_1, \ldots, \mathbf{v}_p son linealmente dependientes cuando queremos decir que {v1,,vp}\left\{\mathbf{v}_1, \ldots, \mathbf{v}_p\right\} es un conjunto linealmente dependiente. Se utiliza una terminología semejante para los conjuntos linealmente independientes.

Independencia lineal en columnas de una matriz

Suponga que, en vez de utilizar un conjunto de vectores, se inicia con una matriz A=[a1an]A=\left[\begin{array}{lll}\mathbf{a}_1 & \cdots & \mathbf{a}_n\end{array}\right]. En tal caso, la ecuación matricial Ax=0A \mathbf{x}=\mathbf{0} se puede escribir como

x1a1+x2a2++xnan=0x_1 \mathbf{a}_1+x_2 \mathbf{a}_2+\cdots+x_n \mathbf{a}_n=\mathbf{0}

Cada relación de dependencia lineal entre las columnas de A corresponde a una solución no trivial de Ax=0A \mathbf{x}=\mathbf{0}. Así, tenemos el siguiente resultado importante.

Teorema

Las columnas de una matriz AA son linealmente independientes si y solo si la ecuación Ax=0A \mathbf{x}=\mathbf{0} tiene solo la solución trivial.

Geometría de la dependencia lineal

Siempre es posible determinar por inspección cuándo un conjunto de dos vectores es linealmente dependiente. Las operaciones de fila son innecesarias. Basta con comprobar si al menos uno de los vectores es un escalar multiplicado por el otro. (La prueba solo se aplica a conjuntos de dos vectores).

Dependencia lineal entre dos vectores

Un conjunto de dos vectores {v1,v2}\left\{\mathbf{v}_1, \mathbf{v}_2\right\} es linealmente dependiente si al menos uno de los vectores es un múltiplo del otro. El conjunto es linealmente independiente si y solo si ninguno de los vectores es un múltiplo del otro.

Dependencia lineal
Dependencia lineal

En términos geométricos, dos vectores son linealmente dependientes si y solo si ambos están sobre la misma recta que pasa por el origen.

Para dos o más vectores, tenemos el siguiente resultado:

Caracterización de conjuntos linealmente dependientes

Un conjunto indexado S={v1,,vp}S=\left\{\mathbf{v}_1, \ldots, \mathbf{v}_p\right\} de dos o más vectores es linealmente dependiente si y solo si al menos uno de los vectores en SS es una combinación lineal de los otros. De hecho, si SS es linealmente dependiente y v10\mathbf{v}_1 \neq \mathbf{0}, entonces alguna vj(conj>1\mathbf{v}_j(\operatorname{con} j>1 ) es una combinación lineal de los vectores precedentes, v1,,vj1\mathbf{v}_1, \ldots, \mathbf{v}_{j-1}.

Los siguientes dos teoremas describen casos especiales en los cuales la dependencia lineal de un conjunto es automática.

Teorema

Si un conjunto contiene más vectores que entradas en cada vector, entonces el conjunto es linealmente dependiente. Es decir, cualquier conjunto {v1,,vp}\left\{\mathbf{v}_1, \ldots, \mathbf{v}_p\right\} en Rn\mathbb{R}^n es linealmente dependiente si p>np>n.

Teorema

Si un conjunto S={v1,,vp}S=\left\{\mathbf{v}_1, \ldots, \mathbf{v}_p\right\} en Rn\mathbb{R}^n contiene al vector cero, entonces el conjunto es linealmente dependiente.

Transformaciones lineales

La correspondencia de x\mathbf{x} a AxA\mathbf{x} es una función de un conjunto de vectores a otro. Este concepto generaliza la noción común de una función como una regla que transforma un número real en otro.

Una transformación (o función o mapeo) TT de Rn\mathbb{R}^n a Rm\mathbb{R}^m es una regla que asigna a cada vector x\mathbf{x} en Rn\mathbb{R}^n un vector T(x)T(\mathbf{x}) en Rm\mathbb{R}^m. El conjunto Rn\mathbb{R}^n se llama el dominio de TT, y Rm\mathbb{R}^m se llama el codominio de TT. La notación T:RnRmT: \mathbb{R}^n \rightarrow \mathbb{R}^m indica que el dominio de TT es Rn\mathbb{R}^n y que el codominio es Rm\mathbb{R}^m. Para x\mathbf{x} en Rn\mathbb{R}^n, el vector T(x)T(\mathbf{x}) en Rm\mathbb{R}^m es la imagen de x\mathbf{x} (bajo la acción de TT ). El conjunto de todas las imágenes T(x)T(\mathbf{x}) es el rango de TT.

Transformación lineal

Para cada x\mathbf{x} en Rn,T(x)\mathbb{R}^n, T(\mathbf{x}) se calcula como AxA \mathbf{x}, donde AA es una matriz de m×nm \times n. Para simplificar, algunas veces esta transformación matricial se denota como xAx\mathbf{x} \mapsto A \mathbf{x}. Observe que el dominio de TT es Rn\mathbb{R}^n cuando AA tiene nn columnas, y el codominio de TT es Rm\mathbb{R}^m cuando cada columna de AA tiene mm entradas. El rango de TT es el conjunto de todas las combinaciones lineales de las columnas de AA, porque cada imagen T(x)T(\mathbf{x}) es de la forma AxA \mathbf{x}.

Definición

Una transformación (o mapeo) TT es lineal si:

  • T(u+v)=T(u)+T(v)T(\mathbf{u}+\mathbf{v})=T(\mathbf{u})+T(\mathbf{v}) para todas las u\mathbf{u}, v\mathbf{v} en el dominio de TT;
  • T(cu)=cT(u)T(c \mathbf{u})=c T(\mathbf{u}) para todos los escalares cc y para todas las u\mathbf{u} en el dominio de TT.

Álgebra de matrices

Operaciones básicas

Sean A,BA, B y CC matrices del mismo tamaño, y sean rr y ss escalares.

  • A+B=B+AA+B=B+A
  • r(A+B)=rA+rBr(A+B)=r A+r B
  • (A+B)+C=A+(B+C)(A+B)+C=A+(B+C)
  • (r+s)A=rA+sA(r+s) A=r A+s A
  • A+0=AA+0=A
  • r(sA)=(rs)Ar(s A)=(r s) A
  • Ak=AAkA^k=\underbrace{A \cdots A}_k

Multiplicación de matrices

Si AA es una matriz de m×nm \times n, y si BB es una matriz de n×pn \times p con columnas b1,,bp\mathbf{b}_1, \ldots, \mathbf{b}_p entonces el producto ABA B es la matriz de m×pm \times p cuyas columnas son Ab1,,AbpA \mathbf{b}_1, \ldots, A \mathbf{b}_p. Es decir,

AB=A[b1b2bp]=[Ab1Ab2Abp]A B=A\left[\begin{array}{llll} \mathbf{b}_1 & \mathbf{b}_2 & \cdots & \mathbf{b}_p \end{array}\right]=\left[\begin{array}{llll} A \mathbf{b}_1 & A \mathbf{b}_2 & \cdots & A \mathbf{b}_p \end{array}\right]

Es decir, cada columna de ABA B es una combinación lineal de las columnas de AA usando pesos de la columna correspondiente de BB.

Regla fila-columna para calcular AB

Si el producto ABA B está definido, entonces la entrada en la fila ii y la columna jj de ABA B es la suma de los productos de las entradas correspondientes de la fila ii de AA y la columna jj de BB. Si (AB)ij(A B)_{i j} denota la entrada (i,j)(i, j) en ABA B, y si AA es una matriz de m×nm \times n, entonces

(AB)ij=ai1b1j+ai2b2j++ainbnj(A B)_{i j}=a_{i 1} b_{1 j}+a_{i 2} b_{2 j}+\cdots+a_{i n} b_{n j}
Propiedades de la multiplicación de matrices

Sea AA una matriz de m×nm \times n, y sean BB y CC matrices con tamaños para los que las sumas y los productos indicados están definidos.

  • A(BC)=(AB)CA(B C)=(A B) C
  • A(B+C)=AB+ACA(B+C)=A B+A C
  • (B+C)A=BA+CA(B+C) A=B A+C A
  • r(AB)=(rA)B=A(rB)r(A B)=(r A) B=A(r B) para cualquier escalar rr
  • ImA=A=AInI_m A=A=A I_n
Advertencias
  1. En general, ABBAA B \neq B A.
  2. Las leyes de la cancelación no se aplican en la multiplicación de matrices. Es decir, si AB=ACA B=A C, en general no es cierto que B=CB=C.
  3. Si un producto ABA B es la matriz cero, en general, no se puede concluir que A=0A=0 o B=0B=0.

La transpuesta de una matriz

Dada una matriz AA de m×nm \times n, la transpuesta de AA es la matriz de n×mn \times m, que se denota con ATA^T, cuyas columnas se forman a partir de las filas correspondientes de AA.

Teorema

Sean AA y BB matrices cuyos tamaños son adecuados para las siguientes sumas y productos.

  • (AT)T=A\left(A^T\right)^T=A
  • (A+B)T=AT+BT(A+B)^T=A^T+B^T
  • Para cualquier escalar r,(rA)T=rATr,(r A)^T=r A^T
  • (AB)T=BTAT(A B)^T=B^T A^T

Inversa de una matriz

Se dice que una matriz AA de n×nn \times n es invertible si existe otra matriz A1A^{-1} de n×nn \times n tal que

A1A=I y AA1=IA^{-1} A=I \quad \text { y } \quad A A^{-1}=I

donde I=InI=I_n, la matriz identidad de n×nn \times n. En este caso, A1A^{-1} es una inversa de AA.

Teorema

Sea A=[abcd]A=\left[\begin{array}{ll}a & b \\ c & d\end{array}\right]. Si adbc0a d-b c \neq 0, entonces AA es invertible y

A1=1det(A)[dbca]A^{-1}=\frac{1}{\text{det}(A)}\left[\begin{array}{rr} d & -b \\ -c & a \end{array}\right]

Si det(A)=adbc=0\text{det}(A)=a d-b c=0, entonces AA no es invertible.

La definición de matriz inversa nos entrega el siguiente teorema:

Teorema

Si AA es una matriz invertible de n×nn \times n, entonces, para cada b\mathbf{b} en Rn\mathbb{R}^n, la ecuación Ax=bA \mathbf{x}=\boldsymbol{b} tiene la solución única x=A1b\mathbf{x}=A^{-1} \mathbf{b}.

Además, podemos definir las siguientes propiedades para matrices invertibles:

  • Si AA es una matriz invertible, entonces A1A^{-1} es invertible y (A1)1=A\left(A^{-1}\right)^{-1}=A
  • Si AA y BB son matrices invertibles de n×nn \times n, entonces también lo es ABA B, y la inversa de ABA B es el producto de las inversas de AA y BB en el orden opuesto. Es decir, (AB)1=B1A1(A B)^{-1}=B^{-1} A^{-1}
  • Si AA es una matriz invertible, también lo es ATA^T, y la inversa de ATA^T es la transpuesta de A1A^{-1}. Es decir, (AT)1=(A1)T\left(A^T\right)^{-1}=\left(A^{-1}\right)^T

Matrices elementales

Una matriz elemental es aquella que se obtiene al realizar una única operación elemental de fila sobre una matriz identidad. El siguiente ejemplo ilustra los tres tipos de matrices elementales.

Si se realiza una operación elemental de fila con una matriz AA de m×nm \times n, la matriz resultante se puede escribir como EAE A, donde la matriz EE de m×mm \times m se crea al realizar la misma operación de fila sobre ImI_m.

Por ejemplo, si

Matriz elemental

entonces

Matriz elemental

Al sumar a la fila 3 la fila 1 de AA multiplicada por 4-4 , se obtiene E1AE_1 A. (Esta es una operación de remplazo de filas). Con un intercambio de las filas 1 y 2 de AA se obtiene E2AE_2 A, y multiplicando la fila 3 de AA por 55 se obtiene E3AE_3 A.

Teorema

Toda matriz elemental EE es invertible. La inversa de EE es la matriz elemental del mismo tipo que transforma a EE de nuevo en II.

Una matriz AA de n×nn \times n es invertible si y solo si AA es equivalente por filas a InI_n, y, en este caso, cualquier secuencia de operaciones elementales de fila que reduzca AA a InI_n también transforma a InI_n en A1A^{-1}.

El teorema anterior nos da el siguiente algoritmo para determinar la inversa de una matriz AA de n×nn \times n:

Algoritmo para determinar la inversa de una matriz

Reduzca por filas la matriz aumentada [AI]\left[\begin{array}{ll}A & I\end{array}\right]. Si AA es equivalente por filas a II, entonces [AI]\left[\begin{array}{ll}A & I\end{array}\right] es equivalente por filas a [IA1]\left[\begin{array}{ll}I & A^{-1}\end{array}\right]. De otra manera, AA no tiene inversa.

El teorema de la matriz invertible

El resultado principal de todo el estudio anterior es el siguiente teorema.

Teorema

Sea AA una matriz cuadrada de n×nn \times n. Entonces, los siguientes enunciados son equivalentes. Es decir, para una AA dada, los enunciados son todos ciertos o todos falsos.

  • AA es una matriz invertible.
  • AA es equivalente por filas a la matriz identidad de n×nn \times n.
  • AA tiene nn posiciones pivote.
  • La ecuación Ax=0A \mathbf{x}=\mathbf{0} tiene solamente la solución trivial.
  • Las columnas de AA forman un conjunto linealmente independiente.
  • La transformación lineal xAx\mathbf{x} \mapsto A \mathbf{x} es uno a uno.
  • La ecuación Ax=bA \mathbf{x}=\mathbf{b} tiene al menos una solución para toda b\mathbf{b} en Rn\mathbb{R}^n.
  • Las columnas de AA generan Rn\mathbb{R}^n.
  • La transformación lineal xAx\mathbf{x} \mapsto A \mathbf{x} mapea Rn\mathbb{R}^n sobre Rn\mathbb{R}^n.
  • Existe una matriz CC de n×nn \times n tal que CA=IC A=I,
  • Existe una matriz DD de n×nn \times n tal que AD=IA D=I.
  • ATA^T es una matriz invertible.

Transformación lineal invertible

Se dice que una transformación lineal T:RnRnT: \mathbb{R}^n \rightarrow \mathbb{R}^n es invertible si existe una función S:RnRnS: \mathbb{R}^n \rightarrow \mathbb{R}^n tal que

S(T(x))=x para toda x en RnT(S(x))=x para toda x en Rn\begin{array}{ll} S(T(\mathbf{x}))=\mathbf{x} & \text { para toda } \mathbf{x} \text { en } \mathbb{R}^n \\ T(S(\mathbf{x}))=\mathbf{x} & \text { para toda } \mathbf{x} \text { en } \mathbb{R}^n \end{array}

El siguiente teorema establece que si dicha SS existe, es única y debe ser una transformación lineal. Se dice que SS es la inversa de TT y se escribe como T1T^{-1}.

Teorema

Sea T:RnRnT: \mathbb{R}^n \rightarrow \mathbb{R}^n una transformación lineal y sea AA la matriz estándar para TT. Así, TT es invertible si y solo si AA es una matriz invertible. En tal caso, la transformación lineal SS dada por S(x)=A1xS(\mathbf{x})=A^{-1} \mathbf{x} es la única función que satisface las ecuaciones mostradas.

Subespacios

Un subespacio de Rn\mathbb{R}^n es cualquier conjunto HH en Rn\mathbb{R}^n que tenga tres propiedades:

  • El vector cero está en HH.
  • Para cada u\mathbf{u} y v\mathbf{v} en HH, la suma u+v\mathbf{u}+\mathbf{v} está en HH.
  • Para cada u\mathbf{u} en HH y cada escalar cc, el vector cuc \mathbf{u} está en HH.

Dicho con palabras, un subespacio es cerrado bajo la suma y la multiplicación escalar.

Subespacio

Espacio de columnas

Los subespacios de Rn\mathbb{R}^n generalmente se presentan en aplicaciones y en la teoría en una de dos formas. En ambos casos, es posible relacionar el subespacio con una matriz.

Definición

El espacio de columnas de una matriz AA es el conjunto ColA\mathrm{Col} A de todas las combinaciones de las columnas de AA.

Si A=[a1an]A=\left[\begin{array}{lll}\mathbf{a}_1 & \cdots & \mathbf{a}_n\end{array}\right], con las columnas en Rm\mathbb{R}^m, entonces ColA\text{Col} A es lo mismo que Gen{a1,,an}\text{Gen}\left\{\mathbf{a}_1, \ldots, \mathbf{a}_n\right\}. De hecho, el espacio columna de una matriz de m×n\boldsymbol{m} \times \boldsymbol{n} es un subespacio de Rm\mathbb{R}^m. Observe que ColA\text{Col} A es igual a Rm\mathbb{R}^m solo cuando las columnas de AA generan a Rm\mathbb{R}^m. Si no la generan, ColA\text{Col}A es solo una parte de Rm\mathbb{R}^m.

Cuando un sistema de ecuaciones lineales está escrito en la forma Ax=bA \mathbf{x}=\mathbf{b}, el espacio columna de AA es el conjunto de todas las b\mathbf{b} para las que el sistema tiene una solución.

Espacio nulo

El espacio nulo de una matriz AA es el conjunto NulA\mathrm{Nul} A de todas las soluciones posibles para la ecuación homogénea Ax=0A \mathbf{x}=\mathbf{0}.

Cuando AA tiene nn columnas, las soluciones de Ax=0A \mathbf{x}=\mathbf{0} pertenecen a Rn\mathbb{R}^n, y el espacio nulo de AA es un subconjunto de Rn\mathbb{R}^n. De hecho, Nul AA tiene las propiedades de un subespacio de matrices de Rn\mathbb{R}^n.

Teorema

El espacio nulo de una matriz AA de m×nm \times n es un subespacio de Rn\mathbb{R}^n. De manera equivalente, el conjunto de todas las soluciones posibles para un sistema Ax=0A \mathbf{x}=\mathbf{0} de mm ecuaciones lineales homogéneas con nn incógnitas es un subespacio de Rn\mathbb{R}^n.

Base para un subespacio

Como, por lo general, un subespacio contiene un número infinito de vectores, algunos problemas relacionados con subespacios se manejan mejor trabajando con un conjunto finito y pequeño de vectores que genere el subespacio. Cuanto menor sea el conjunto, será mejor. Es factible demostrar que el conjunto generador más pequeño posible debe ser linealmente independiente.

Definición

Una base de un subespacio HH de Rn\mathbb{R}^n es un conjunto linealmente independiente en HH, que genera a HH.

Base
La base estándar para todo el espacio
warning

Solo son 4 preguntas de Lineal, después me sigo pegando el show terminando esto 😢