Sean A y B matrices y c y d escalares.
Clausura: Si A es matriz y c es escalar, entonces cA es matriz.
Diagrama esquemático que ilustra el producto de dos matrices A and B dando como resultado la matriz AB.
El producto de dos matrices se puede definir sólo si el número de columnas de la matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una matriz m×n y B es una matriz n×p, entonces su producto matricial AB es la matriz m×p (m filas, p columnas) dada por:
Por ejemplo:
Propiedades
Si los elementos de la matriz pertenecen a un cuerpo, y puede definirse el producto, el producto de matrices tiene las siguientes propiedades:
-Propiedad asociativa: (AB)C = A(BC).
-Propiedad distributiva por la derecha: (A + B)C = AC + BC.
-Propiedad distributiva por la izquierda: C(A + B) = CA + CB.
El producto de dos matrices generalmente no es conmutativo, es decir, AB ≠ BA. La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices cuadradas.
Las matrices pueden representar convenientemente
aplicaciones lineales (también conocidas como "transformaciones lineales") entre dos
espacios vectoriales de dimensión finita. Así, si Rn es el
espacio euclídeo n-dimensional cuyos vectores se pueden representar como
vectores columna (matrices n-por-1), para cada aplicación lineal f : Rn → Rm existe una única matriz A m por n de tal forma que
para cada vector x de Rn.
Se dice que la matriz A "representa" la aplicación lineal f, o que A es la
matriz coordenada de f.
El producto de matrices claramente corresponde a la
composición de las aplicaciones. Si la matriz k por m B representa otra aplicación lineal g : Rm → Rk, entonces la composición g o f se representa por BA:
Esto se desprende de la mencionada propiedad asociativa del producto de matrices.
Más en general, una aplicación lineal de un espacio vectorial n-dimensional en otro espacio vectorial m-dimensional (no necesariamente Rn) se representa por una matriz m por n, a condición de que se haya elegido una
base para cada uno de ellos.
Rango
Artículo principal:
Rango de una matrizEl
rango de una matriz A es la
dimensión de la
imagen de la aplicación lineal representada por A, que coincide con la dimensión de los espacios vectoriales generados por las filas o columnas de A. También puede ser definido sin referencia al álgebra lineal de la siguiente manera: el rango de una matriz m por n A es el más pequeño número k de tal manera que A puede escribirse como un producto BC donde B es una matriz m por k y C es una matriz k por n (aunque ésta no es una manera práctica de calcular el rango).
Transpuesta
Artículo principal:
Matriz transpuestaLa
transpuesta de una matriz m-por-n A es la matriz n-por-m AT (algunas veces denotada por At) formada al intercambiar las filas y columnas, i.e.
La transposición de matrices tiene las siguientes propiedades:
Si A describe una aplicación lineal respecto a dos bases, entonces la matriz AT describe la
transpuesta de una aplicación lineal respecto a las bases del
espacio dual.
Matrices cuadradas y definiciones relacionadas
Una
matriz cuadrada es una matriz que tiene el mismo número de filas que de columnas. El conjunto de todas las matrices cuadradas n-por-n junto a la suma y la multiplicación de matrices, es un
anillo que generalmente no es
conmutativo.
M(n,R), el anillo de las matrices cuadradas reales, es un
álgebra asociativa real unitaria. M(n,C), el anillo de las matrices cuadradas complejas, es un álgebra asociativa compleja.
La
matriz identidad In de orden n es la matriz n por n en la cual todos los elementos de la
diagonal principal son iguales a 1 y todos los demás elementos son iguales a 0. La matriz identidad se denomina así porque satisface las ecuaciones MIn = M y InN = N para cualquier matriz M m por n y N n por k. Por ejemplo, si n = 3:
La matriz identidad es el elemento unitario en el anillo de matrices cuadradas.
Los elementos invertibles de este anillo se llaman
matrices invertibles o matrices no singulares. Una matriz A n por n es invertible si y sólo si existe una matriz B tal que
AB = In = BA.
En este caso, B es la
matriz inversa de A, identificada por A-1 . El conjunto de todas las matrices invertibles n por n forma un
grupo (concretamente un
grupo de Lie) bajo la multiplicación de matrices, el
grupo lineal general.
Si λ es un número y v no es un vector nulo tal que Av = λv, entonces se dice que v es un
vector propio de A y que λ es su
valor propio asociado. El número λ es un valor propio de A si y sólo si A−λIn no es invertible, lo que sucede si y sólo si pA(λ) = 0, donde pA(x) es el
polinomio característico de A. pA(x) es un
polinomio de grado n y por lo tanto, tiene n raíces complejas múltiples raíces si se cuentan de acuerdo a su multiplicidad. Cada matriz cuadrada tiene como mucho n valores propios complejos.
El
determinante de una matriz cuadrada A es el producto de sus n valores propios, pero también puede ser definida por la
fórmula de Leibniz. Las matrices invertibles son precisamente las matrices cuyo determinante es distinto de cero.
El algoritmo de
eliminación gaussiana puede ser usado para calcular el determinante, el rango y la inversa de una matriz y para resolver
sistemas de ecuaciones lineales.
La
traza de una
matriz cuadrada es la suma de los elementos de la diagonal, lo que equivale a la suma de sus n valores propios.
Clases de matrices
Algunas matrices presentan características particulares en la posición o en la naturaleza de sus elementos. Muchas de ellas son tan importantes en la teoría y en las aplicaciones, que han recibido denominaciones específicas.
Matriz antisimétricaMatriz bandaMatriz cuadradaMatriz de adjuntosMatrices elementalesMatriz definida positivamenteMatriz diagonalMatriz de diagonal estrictamente dominanteMatriz hermíticaMatriz idempotenteMatriz identidadMatriz inversaMatriz invertibleMatriz involutivaMatriz jacobianaMatriz nilpotenteMatriz no singularMatriz normalMatriz nulaMatriz ortogonalMatriz permutaciónMatriz simétricaMatriz singularMatriz traspuestaMatriz triangular (superior o inferior)
Las matrices en la Computación
Las matrices son utilizadas ampliamente en la computación, por su facilidad y liviandad para manipular información. En este contexto, son la mejor forma para representar
grafos, y son muy utilizadas en el
cálculo numérico.
Historia
El origen de las matrices es muy antiguo. Un
cuadrado mágico, 3 por 3, se registra en la
literatura china hacia el
650 a. C.[1]Es larga la historia del uso de las matrices para resolver
ecuaciones lineales. Un importante texto matemático
chino que proviene del año
300 a. C. a
200 a. C., Nueve capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer ejemplo conocido de uso del método de matrices para resolver un
sistema de ecuaciones simultáneas.
[2] En el capítulo séptimo, "Ni mucho ni poco", el concepto de
determinante apareció por primera vez, dos mil años antes de su publicación por el matemático
japonés Seki Kowa en
1683 y el matemático
alemán Gottfried Leibniz en
1693.
Los "cuadrados mágicos" eran conocidos por los matemáticos
árabes, posiblemente desde comienzos del
siglo VII, quienes a su vez pudieron tomarlos de los matemáticos y astrónomos de la
India, junto con otros aspectos de las matemáticas
combinatorias. Todo esto sugiere que la idea provino de
China. Los primeros "cuadrados mágicos" de orden 5 y 6 aparecieron en
Bagdad en el
983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).
[1]Después del desarrollo de la teoría de
determinantes por Seki Kowa y Leibniz, a finales del
siglo XVII,
Cramer presentó en
1750 la ahora denominada
regla de Cramer.
Carl Friedrich Gauss y
Wilhelm Jordan desarrollaron la
eliminación de Gauss-Jordan en el
siglo XIX.
El término "matriz" fue acuñado en
1848, por
J. J. Sylvester. En
1853,
Hamilton hizo algunos aportes a la teoría de matrices.
Cayley introdujo en
1858 la notación matricial, como forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas.
Grassmann,
Frobenius y
von Neumann están entre los matemáticos famosos que trabajaron sobre la teoría de matrices.
Olga Taussky-Todd (1906-1995), durante la
II Guerra Mundial, usó la teoría de matrices para investigar el fenómeno de
aeroelasticidad llamado fluttering.
Referencias Bibliográficas
↑
a b Swaney, Mark.
History of Magic Squares.
↑ Shen Kangshen et al. (ed.) (1999). Nine Chapters of the Mathematical Art, Companion and Commentary. Oxford University Press. cited by Otto Bretscher (2005). Linear Algebra with Applications, 3rd ed. edición, Prentice-Hall, págs. p. 1.