Algebra lineal

Post on 19-Feb-2023

1 views 0 download

Transcript of Algebra lineal

Instituto Tecnológico de Veracruz

Algebra lineal

Monola Guzmán Bryan

Ing. Santiago Almeida

Unidad 3: Sistemas de ecuaciones lineales

3.1 Definición de sistemas de ecuaciones lineales.

En matemáticas y álgebra lineal, un sistema de ecuacioneslineales, también conocido como sistema lineal de ecuaciones osimplemente sistema lineal, es un conjunto de ecuaciones lineales(es decir, un sistema de ecuaciones en donde cada ecuación es deprimer grado), definidas sobre un cuerpo o un anillo conmutativo.Un ejemplo de sistema lineal de ecuaciones sería el siguiente:

El problema consiste en encontrar los valores desconocidos de lasvariables x1, x2 y x3 que satisfacen las tres ecuaciones.

El problema de los sistemas lineales de ecuaciones es uno de losmás antiguos de la matemática y tiene una infinidad deaplicaciones, como en procesamiento digital de señales, análisisestructural, estimación, predicción y más generalmente enprogramación lineal así como en la aproximación de problemas nolineales de análisis numérico.

En general, un sistema con m ecuaciones lineales y n incógnitaspuede ser escrito en forma normal como:

Donde   son las incógnitas y los números   son loscoeficientes del sistema sobre el cuerpo  . Esposible reescribir el sistema separando con coeficientes connotación matricial:

Si representamos cada matriz con una única letraobtenemos: 

Donde A es una matriz m por n, x es un vector columna de longitudn y b es otro vector columna de longitud m. El sistema deeliminación de Gauss-Jordan se aplica a este tipo de sistemas, seacual sea el cuerpo del que provengan los coeficientes.

3.2 Clasificación de los sistemas de ecuaciones lineales y tiposde solución.

= Clasificación =

Podemos clasificar los sistemas de ecuaciones lineales según sunúmero de soluciones de la siguiente forma: Sistemas con una solución: Las ecuaciones del sistema sonrectas secantes. Se cortan en un punto (x, y) que es la solucióndel sistema Sistemas sin solución: Las ecuaciones del sistema son rectasparalelas. No tienen ningún punto en común, y por tanto no haysolución Sistemas con infinitas soluciones: Las ecuaciones del sistemason rectas coincidentes. Tienen todos los puntos en común, y portanto todos ellos son soluciónCondiciones que deben cumplir las ecuaciones para que el sistematenga una, ninguna o infinitas soluciones: Una solución: Los coeficientes de x e y de las dos ecuacionesno son proporcionales.

Ejemplo:  Ninguna solución: Los coeficientes de x e y de una ecuaciónson proporcionales a los de la otra, mientras que los términosindependientes no lo son.

Ejemplo: 

Infinitas soluciones: Los coeficientes de x e y, y el términoindependiente de una ecuación, son proporcionales a los de laotra.

Ejemplo: 

=Tipos de Solución==Sustitución=El método de sustitución consiste en despejar en una de lasecuaciones cualquier incógnita, preferiblemente la que tenga menorcoeficiente, para, a continuación, sustituirla en otra ecuaciónpor su valor.

En caso de sistemas con más de dos incógnitas, la seleccionadadebe ser sustituida por su valor equivalente en todas lasecuaciones excepto en la que la hemos despejado. En ese instante,tendremos un sistema con una ecuación y una incógnita menos que elinicial, en el que podemos seguir aplicando este métodoreiteradamente. Por ejemplo, supongamos que queremos resolver porsustitución este sistema:

En la primera ecuación, seleccionamos la incógnita y por ser la demenor coeficiente y que posiblemente nos facilite más lasoperaciones, y la despejamos, obteniendo la siguiente ecuación.

El siguiente paso será sustituir cada ocurrencia de la incógnitay en la otra ecuación, para así obtener una ecuación donde laúnica incógnita sea la x.

Al resolver la ecuación obtenemos el resultado x=5, y si ahorasustituimos esta incógnita por su valor en alguna de lasecuaciones originales obtendremos y=7, con lo que el sistema quedaya resuelto.

=Igualación=El método de igualación se puede entender como un caso particulardel método de sustitución en el que se despeja la misma incógnitaen dos ecuaciones y a continuación se igualan entre sí la partederecha de ambas ecuaciones.

Tomando el mismo sistema utilizado como ejemplo para el método desustitución, si despejamos la incógnita   en ambas ecuaciones nosqueda de la siguiente manera:

Como se puede observar, ambas ecuaciones comparten la misma parteizquierda, por lo que podemos afirmar que las partes derechastambién son iguales entre sí.

Una vez obtenido el valor de la incógnita x, se substituye suvalor en una de las ecuaciones originales, y se obtiene el valorde la y.

La forma más fácil de tener el método de sustitución es realizandoun cambio para despejar x después de averiguar el valor de la y.

=Reducción=Este método suele emplearse mayoritariamente en los sistemaslineales, siendo pocos los casos en que se utiliza para resolversistemas no lineales. El procedimiento, diseñado para sistemas condos ecuaciones e incógnitas, consiste en transformar una de lasecuaciones (generalmente, mediante productos), de manera queobtengamos dos ecuaciones en la que una misma incógnita aparezcacon el mismo coeficiente y distinto signo. A continuación, sesuman ambas ecuaciones produciéndose así la reducción ocancelación de dicha incógnita, obteniendo así una ecuación conuna sola incógnita, donde el método de resolución es simple. Porejemplo, en el sistema:

no tenemos más que multiplicar la primera ecuación por -2 parapoder cancelar la incógnita y. Al multiplicar, dicha ecuación nosqueda así:

Si sumamos esta ecuación a la segunda del sistema original,obtenemos una nueva ecuación donde la incógnita y ha sido reducida

y que, en este caso, nos da directamente el valor de la incógnitax:

El siguiente paso consiste únicamente en sustituir el valor de laincógnita x en cualquiera de las ecuaciones donde aparecían ambasincógnitas, y obtener así que el valor de y es igual a:

=Método Gráfico=Consiste en construir la gráfica de cada una de las ecuaciones delsistema. El método (manualmente aplicado) solo resulta eficienteen el plano cartesiano, es decir para un espacio de dimensión 2.

El proceso de resolución de un sistema de ecuaciones mediante elmétodo gráfico se resuelve en los siguientes pasos: Se despeja la incógnita (y) en ambas ecuaciones. Se construye para cada una de las dos ecuaciones de primergrado obteniendo la tabla de valores correspondientes. Se representan gráficamente ambas rectas en los ejescoordenados. En este último paso hay tres posibilidades: Si ambas rectas se cortan, las coordenadas del punto de corteson los únicos valores de las incógnitas (x,y). "Sistemacompatible determinado". Si ambas rectas son coincidentes, el sistema tiene infinitassoluciones que son las respectivas coordenadas de todos los puntosde esa recta en la que coinciden ambas. «Sistema compatibleindeterminado». Si ambas rectas son paralelas, el sistema no tiene solución.=Método de Gauss=La eliminación de Gauss-Jordan, más conocida como método de Gauss,es un método aplicable únicamente a los sistemas lineales deecuaciones, y consistente en triangular la matriz aumentada delsistema mediante transformaciones elementales, hasta obtenerecuaciones de una sola incógnita, cuyo valor será igual alcoeficiente situado en la misma fila de la matriz. Este

procedimiento es similar al anterior de reducción, pero ejecutadode manera reiterada y siguiendo un cierto orden algorítmico.

El Método de Gauss consiste en convertir un sistema normal de 3ecuaciones con 3 incognitas en uno escalonado, en la que laprimera ecuación tiene 3 incógnitas, la segunda ecuación tiene 2incógnitas, y la tercera ecuación tiene 1 incógnita. De esta formaserá fácil a partir de la última ecuación y subiendo, calcular elvalor de las tres incógnitas.

En primer lugar, reducimos la incógnita x, sumando a la segundafila, la primera multiplicada por 2/3, y a la tercera, la primerafila. La matriz queda así:

El siguiente paso consiste en eliminar la incógnita y en laprimera y tercera fila, para lo cual les sumamos la segundamultiplicada por -2 y por -4, respectivamente.

Por último, eliminamos la z, tanto de la primera como de lasegunda fila, sumándoles la tercera multiplicada por -2 y por 1/2,respectivamente:

Llegados a este punto podemos resolver directamente las ecuacionesque se nos plantean:

O, si lo preferimos, podemos multiplicar las tres filas de lamatriz por: 1/2, 2 y -1 respectivamente, y obtener asíautomáticamente los valores de las incógnitas en la últimacolumna.

Pongamos un ejemplo del cálculo de un sistema de ecuaciones por elmétodo de Gauss:Se reúnen 30 personas entre hombres, mujeres yniños. Se sabe que entre los hombres y el triple de mujeresexceden en 20 el doble de los niños. También se sabe que entrehombres y mujeres se duplican al número de niños. Plantear yresolver el sistema de ecuaciones.x=numero de hombres; y=numero demujeres; y z=numero de niños. Se reúnen 30 personas entre hombres,mujeres y niños: x+y+z=30. Se sabe que entre los hombres y eltriple de mujeres exceden en 20 el doble de los niños:x+3y=2z+20. También se sabe que entre hombres y mujeres seduplican al número de niños: x+y=2z.

Agrupando las tres ecuaciones tenemos el sistema, que ordenado

resulta:

Aplicamos Gauss, restando la primera ecuación a las dossiguientes:

En este caso en la tercera ecuación se ha eliminado la y, por loque no es necesario hacer más operaciones. Por lo tanto obtenemosque z = 10 de la tercera ecuación:

Sustituyendo z en la segunda ecuación obtenemos que y = 10:

Sustituyendo z é y en la primera ecuación obtenemos x = 10.

Con lo que hemos obtenido el resultado del sistema:

=Método de Cramer=La regla de Cramer da una solución para sistemas compatiblesdeterminados en términos de determinantes y adjuntos dada por:

Donde Aj es la matriz resultante de remplazar la j-ésima columnade A por el vector columna b. Para un sistema de dos ecuaciones ydos incógnitas:

La regla de Cramer da la siguiente solución:

Nota: Cuando en la determinante original det(A) el resultado es 0,el sistema indica múltiples o sin coincidencia.

3.3 Interpretación geométrica de las soluciones.

Cada ecuación representa un plano en el espacio tridimensional.Luego se trata de estudiar la posición relativa de tres planos enel espacio. Las soluciones del sistema son geométricamente lospuntos de intersección de los tres planos, los casos son:

=Un punto único. Sistema compatible determinado.. Los tres planosse cortan en P.

=Una recta. Son soluciones todos los puntos representativos de larecta común. Sistema compatible indeterminado con un grado delibertad. Los planos se cortan en r.

=Un plano. Los planos son coincidentes. El sistema es compatibleindeterminado con dos grados de libertad.

=Ningún punto. El sistema es incompatible. Esta situación sepresenta geométricamente de distintas maneras. Para estudiar lasposiciones relativas de los planos hay que tomarlos de dos en dos.

=Se pueden presentar varios casos: Que los planos sean paralelos:

3.4 Métodos de solución de un sistema de ecuaciones lineales:Gauss, Gauss-Jordan, inversa de una matriz y regla de Cramer.MÉTODO DE RESOLUCIÓN DE GAUSS-JORDAN

Es el método de resolución de sistemas de ecuaciones lineales, queconsiste en llegar a un sistema "escalonado" transformando lamatriz ampliada en una matriz escalonada por filas. El método deGauss es una generalización del método de reducción, queutilizamos para eliminar una incógnita en los sistemas de dosecuaciones con dos incógnitas. Consiste en la aplicación sucesiva

del método de reducción, utilizando los criterios de equivalenciade sistemas, para transformar la matriz ampliada con los términosindependientes ( A* ) en una matriz triangular, de modo que cadafila (ecuación) tenga una incógnita menos que la inmediatamenteanterior. Se obtiene así un sistema, que llamaremos escalonado,tal que la última ecuación tiene una única incógnita, la penúltimados incógnitas, la antepenúltima tres incógnitas, ..., y laprimera todas las incógnitas.

El siguiente esquema muestra cómo podemos resolver un sistema deecuaciones lineales aplicando este método.

Partimos, inicialmente, de un sistema de n ecuaciones lineales conn incógnitas, compatible determinado:

En primer lugar, aplicando sucesivamente el método de reducción,eliminamos en todas las ecuaciones, excepto en la primera, laincógnita x1, obteniéndose un sistema equivalente:

En segundo lugar, aplicando nuevamente el método de reducción deforma sucesiva, eliminamos en todas las ecuaciones, excepto en lasdos primeras, la incógnita x2, obteniéndose un sistemaequivalente:

Para resolverlo despejamos, en primer lugar, la única incógnita dela última ecuación. Luego sustituimos ésta en la penúltimaecuación y despejamos la otra incógnita. Posteriormente,sustituimos dos de las tres incógnitas de la antepenúltima

ecuación por sus valores y despejamos la que queda, y asísucesivamente hasta llegar a la primera ecuación.

Las transformaciones que podemos realizar en dicha matriz paratransformar el sistema inicial en otro equivalente son lassiguientes: Multiplicar o dividir una fila por un número real distinto decero. Sumarle o restarle a una fila otra fila. Sumarle a una fila otra fila multiplicada por un númerodistinto de cero. Cambiar el orden de las filas. Cambiar el orden de las columnas que corresponden a lasincógnitas del sistema, teniendo en cuenta los cambios realizadosa la hora de escribir el nuevo sistema equivalente. Es decir: si,por ejemplo, la 2ª columna corresponde a la incógnita y y latercera a la incógnita z, y cambiamos el orden de las columnas,ahora la 2ª columna corresponde a la incógnita z y la tercera a laincógnita y. Eliminar filas proporcionales o que sean combinación linealde otras. Eliminar filas nulas (0 0 0 ... 0).Después de realizar las transformaciones que se considerenpertinentes, se obtendrá un sistema escalonado. Suponiendo quehubiésemos eliminado, si las hubiera, las filas nulas (0 0 0 ...0), que corresponden a ecuaciones del tipo 0 = 0, el sistemaequivalente tendría ahora k ecuaciones lineales con n incógnitas.

Analizando el sistema resultante, podemos efectuar su discusióndel siguiente modo: Si alguna de las ecuaciones es del tipo 0 = b (siendo bdistinto de cero), el sistema es incompatible y no tiene solución. Si no hay ecuaciones del tipo 0 = b, y además k = n, esdecir, el número de ecuaciones del sistema equivalente es igual alnúmero de incógnitas, el sistema es compatible determinado y, porlo tanto, tiene una única solución. Si no hay ecuaciones del tipo 0 = b y k < n, es decir, elnúmero de ecuaciones es menor que el número de incógnitas, elsistema es compatible indeterminado y, en consecuencia, tieneinfinitas soluciones. En este caso, tenemos que separar lasincógnitas principales de las no principales.

Pero, ¿cuáles son las incógnitas principales? Se puede dar elsiguiente criterio: Si el sistema es escalonado y tiene kecuaciones, las k primeras incógnitas serán las principales y lasn - k restantes serán las no principales que pasaremos al segundomiembro como parámetros.

MÉTODO DE RESOLUCIÓN DE CRAMER. REGLA DE CRAMER

La regla de Cramer utiliza las propiedades de las matrices y susdeterminantes para despejar, por separado, una cualquiera de lasincógnitas de un sistema de ecuaciones lineales.

REGLA DE CRAMERUn sistema de ecuaciones lineales recibe el nombre de sistema deCramer cuando se cumplen las dos condiciones siguientes: El número de ecuaciones es igual al número de incógnitas. El determinante de la matriz de los coeficientes (matriz delsistema) es distinto de cero (det ( A ) ≠ 0)Un sistema de Cramer es, por definición, compatible determinado,puesto que se cumple que rango (A) = rango (A*) = n (nº deincógnitas).

Consideremos un sistema de Cramer, es decir, un sistema de necuaciones lineales con n incógnitas, cuya expresión general es lasiguiente:

Sean A la matriz del sistema , entonces det (A) ≠0.

Llamaremos matriz asociada a la incógnita xi y la designaremos porAi a la matriz que se obtiene al sustituir en la matriz delsistema la columna i por la matriz columna de los términosindependientes. Es decir:

Todos los sistemas de Cramer son compatibles determinados. Elvalor de cada incógnita se obtiene dividiendo el determinante dela matriz asociada a dicha incógnita por la matriz del sistema(matriz de los coeficientes de las incógnitas).

¿Se puede aplicar la regla de Cramer para resolver sistemas deecuaciones lineales compatibles que tengan más ecuaciones queincógnitas? La respuesta es afirmativa. Basta con obtener unsistema equivalente al inicial eliminando las ecuacionessuperfluas o dependientes (proporcionales, nulas o que seancombinación lineal de otras).

El procedimiento a seguir es el siguiente: Supongamos que tenemosun sistema de m ecuaciones lineales con n incógnitas, siendo m > ny tal que: rango (A) = rango (A*) = n. Por lo tanto, sobran m - necuaciones. Para averiguar cuáles son las ecuaciones de las que

podemos prescindir, basta encontrar en la matriz de loscoeficientes ( A ) un menor de orden n distinto de cero, porejemplo, el que utilizamos para averiguar el rango de la matriz A.

Las filas que intervienen en este menor son las que corresponden alas ecuaciones principales. Las restantes ecuaciones las podemossuprimir.

Ejemplo: Sea el sistema de ecuaciones lineales formado por dosecuaciones con dos incógnitas:

Encontrar el valor de x e y mediante la regla de Cramer.

Empezaremos con el primer paso, que consiste en hallar la matrizampliada A b asociada al sistema de ecuaciones lineales:

El segundo paso es calcular el determinante de A. Así pues:

Y el tercero y último paso consiste en calcular las incógnitas:

MÉTODO DE LA MATRIZ INVERSA

Consideremos un sistema de n ecuaciones lineales con n incógnitas,cuya expresión general es la siguiente:

Hemos visto que este sistema se puede escribir en forma matricialdel siguiente modo: A X = B.

La matriz A se llama matriz del sistema, es de dimensión n x n ysus elementos son los coeficientes de las incógnitas.

La matriz X es una matriz columna, de dimensión n x 1, formada porlas incógnitas del sistema. Por último, la matriz B es otra matrizcolumna, de dimensión n x 1, formada por los términosindependientes. Es decir:

Si el determinante de la matriz A es distinto de cero (det (A) ≠ 0), la matriz A tiene inversa ( A-1 ). Por lo tanto, podemoscalcular la matriz de las incógnitas X del siguiente modo:

Es decir, para calcular la matriz columna de las incógnitas ( X ),multiplicamos la inversa de la matriz A ( A-1 ) por la matrizcolumna de los términos independientes, obteniéndose otra matrizcolumna de la misma dimensión que X.

¿Se puede aplicar el método de la matriz inversa para resolversistemas de ecuaciones lineales compatibles que tengan másecuaciones que incógnitas? La respuesta es afirmativa. Basta conobtener un sistema equivalente al inicial eliminando lasecuaciones superfluas o dependientes (proporcionales, nulas o quesean combinación lineal de otras).

El procedimiento a seguir es el siguiente: Supongamos que tenemosun sistema de m ecuaciones lineales con n incógnitas, siendo m > ny tal que: rango (A) = rango (A*) = n. Por lo tanto, sobran m - n

ecuaciones. Para averiguar cuáles son las ecuaciones de las quepodemos prescindir, basta encontrar en la matriz de loscoeficientes ( A ) un menor de orden n distinto de cero, porejemplo, el que utilizamos para averiguar el rango de la matriz A.Las filas que intervienen en este menor son las que corresponden alas ecuaciones principales. Las restantes ecuaciones las podemossuprimir.

¿Se puede aplicar el método de la matriz inversa para resolversistemas de ecuaciones lineales compatibles indeterminados? Larespuesta es también afirmativa. El procedimiento a seguir es elsiguiente: Supongamos que tenemos un sistema de m ecuacioneslineales con n incógnitas, tal que: rango (A) = rango (A*) = k <n. Por lo tanto, sobran m - k ecuaciones y, además, hay n - kincógnitas no principales. Para averiguar cuáles son lasecuaciones de las que podemos prescindir, y cuáles son lasincógnitas no principales, basta encontrar en la matriz de loscoeficientes ( A ) un menor de orden k distinto de cero, porejemplo, el que utilizamos para averiguar el rango de la matriz A.Las filas que intervienen en este menor son las que corresponden alas ecuaciones principales o independientes. Las restantesecuaciones las podemos suprimir. Las columnas que figuran en dichomenor corresponden a las incógnitas principales. Las incógnitas noprincipales las pasamos al otro miembro y pasan a formar un únicotérmino junto con el término independiente. Se obtiene, de estemodo, un sistema de k ecuaciones lineales con k incógnitas, cuyassoluciones van a depender de n - k parámetros (correspondientes alas incógnitas no principales).

3.5 Aplicaciones.=Fracciones parciales =Una técnica muy conveniente utilizada en algunas tareasmatemáticas es aquella conocida como fracciones idea principalconsiste en cambiar la forma que puede ser expresado un cocienteentre polinomios a otra forma más conveniente para cierto tipo decálculo.

Ejemplo 4.1 Determine los valores de las constantes a y b para quesatisfagan:

= Determinación de curvas =Un problema comun en diferentes ´areas es la determinaci´on decurvas. es decir el problema de encontrar la función que pasa porun conjunto de puntos. Usualmente se conoce la naturaleza de lafunción, es decir, se conoce la forma que debe tener la función.Por ejemplo, línea recta, parábola o exponencial etc. Lo que sehace para resolver este tipo de problemas es describir la formamás general de la función mediante parámetros constantes. Yposteriormente se determinan estos parámetros haciendo pasar lafunción por los puntos conocidos.

Ejemplo: Determine la función cudrática que pasa por los puntos P(1, 4), Q(−1, 2), y R(2, 3).

SoluciónLa forma más general de una cuadrática es: f (x) = a x2 + b x + cdonde los coe cientes a, b, y c son constantes num´ericas. Elfiproblema consiste en determinar estos coe cientes.fi

Así pues los parámetros a, b, y c se vuelven ahora las incógnitas.Y para poderlas determinar requerimos de ecuaciones o igualdades

que deben satisfacer. Para determinar estas ecuaciones debemosusar los puntos.

Para que la función pase por el punto P (1, 4) se debe cumplir quef (x = 1) = 4,es decir, se debe cumplir: a (1)2 + b (1) + c = 4es decir, se debe cumplir: a + b + c =4

Procediendo de igual manera con el punto Q(−1, 2): formulamos laecuación: a − b + c =2 y para R(2, 3): 4a + 2b + c = 3.Resumiendo para que la función f (x) = a x2 + b x + c pase por lospuntos P , Q, y R deben cumplirse las ecuaciones:a + b + c = 4a − b + c = 24a + 2b + c = 3La solución a este sistema es: a = 2/3, b = 1, y c =11/3

La misma situación presentada en el problema de las fraccionesparciales que originaba un sistema inconsistente, se puedepresentar en la determinación de funciones. Y la conclusión essimilar: si el sistema originado es inconsistente lo que seconcluye es que no existe una funci´on con esa forma general quepase exactamente por los puntos dados.

=Balanceo de Reacciones Químicas=Una aplicación sencilla de los sistemas de ecuaciones se da en elbalanceo de reacciones químicas. Laproblemática consiste en determinar el número entero de moléculasque intervienen en una reacción químicacuidando siempre que el número de átomos de cada sustancia sepreserve.

Ejemplo Balancee la reacción química: aCH4 + bO2=cCO2 + dH2O

Solución: Para determinar los coeficientes a, b, c, y d querepresentan el numero de moléculas de las sustancias enla reacción debemos igualar el numero de átomos en cada miembro:Por los átomos de carbono: a = c. Por los átomos de oxigeno: 2 b =2 c + d. Por los átomos de hidrógeno: 4 a = 2 d

Este sistema es consistente y origina infinitas soluciones. La f´ormula general para las soluciones queda:a = 1/2 d

b = dc = 1/2 d

El valor más pequeño de d que hace que los números de moléculassean enteros positivos es d = 2: a = 1, b = 2, c = 1, y d = 2

=Aplicaciones a Manufactura=Ejemplo: Patito computers fabrica tres modelos de computadoraspersonales: ca˜non, clon, y lenta-pero-segura. Para armar unacomputadora modelo ca˜non necesita 12 horas de ensamblado, 2.5para probarla, y 2 mas para instalar sus programas. Para una clonrequiere 10 horas de ensamblado, 2 para probarla, y 2 parainstalar programas. Y por ´ultimo, para una lenta-pero-segurarequiere 6 para ensamblado, 1.5 para probarla, y 1.5 para instalarprogramas. Si la f´abrica dispone en horas por mes de 556 paraensamble, 120 para pruebas, y 103 horas para instalación deprogramas, ¿cu´antas computadoras se pueden producir por mes?

SoluciónEn nuestro caso las incógnitas el n´umero de cada tipo decomputadora a producir:x = n´umero de computadoras cañóny = n´umero de computadoras clonz = n´umero de computadoras lenta-pero-segura

Para determinar las ecuaciones debemos utilizar los tiempos deensamblado, pruebas, e instalación de programas.

Ensamblado: 556(total) = 12 x(cañon) + 10 y(clon) + 6 z(lenta)Pruebas: 120(total) = 2.5 x(cañon) + 2 y(clon) + 1.5 z(lenta)Instalación de programas: 103(total) = 2 x(cañon) + 2 y(clon) +1.5 z(lenta)Al resolver este sistema obtenemos: x = 34, y = 4, z = 18

Dado lo común de las aplicaciones hacia el área de manufactura,existe una forma simple de construir la matriz del sistema deecuaciones que en general se trabaja como una tabla: En la ultima columna aparecen los recursos: un renglón paracada tipo de recursos y en cuya posición final se pone el total derecursos disponibles. En las primera columnas se colocan los objetos o modelos aser ensamblados o construidos: en cada posición se coloca el totalde recursos que consume en forma unitaria cada tipo de objeto.

Instituto Tecnológico de Veracruz

Algebra lineal

Monola Guzman Bryan

Ing. Santiago Almeida

Unidad 4 : Espacios vectoriales

4.1 Definición de espacio vectorial.Sean K un cuerpo dado y V un conjunto no vacio, con reglas de sumay producto por escalar que asigna a cada par u, vϵV una suma u+vϵVy a cada par uϵV, kϵK un producto kuϵV. V recibe el nombre deespacio vectorial sobre K (y los elementos de V se llamanvectores) si satisfacen los siguientes axiomas.

[A1] para toda terna de vectores u, v, wϵV, (u+v)+w=u+(v+w).[A2] existe un vector en V, denotado por 0 y denominado el vectorcero, tal que u+0=u para todo vector uϵV.[A3] para todo vector uϵV existe un único vector en V, denotadopor –u, tal que u+(-u)=0.[A4] para todo par de vectores u, vϵV, u+v=v+u.[M1] para todo escalar kϵK y todo par de vectores u, vϵV,k(u+v)=ku+kv.[M2] para todo par de escalares a, bϵK y todo vector uϵV,(a+b)u=au+bu.[M3] para todo par de escalares a, bϵK y todo vector uϵV,(ab)u=a(bu).

[M4] el escalar unidad 1ϵK cumple 1u=u para todo vector uϵV.

Los axiomas precedentes se desdoblan de forma natural en doscategorías. Los cuatro primeros atañen únicamente a la estructuraaditiva de V y pueden resumirse diciendo que V es un grupoconmutativo bajo la suma. De ello se deriva que cualquier suma devectores de la forma v1+v2+…+vm no requieren paréntesis y nodepende del orden de los sumandos, que el vector cero, 0, esúnico, que el opuesto –u de u es único y que se verifica la ley decancelación; esto es, para tres vectores cualesquiera u, v, wϵV.

U+w=v+w implica u=v. Asimismo, la resta se define según u-v=u+(-v).

Por otra parte, los cuatro axiomas restantes se refieren a la<<acción>> del cuerpo K sobre V. observece que la rotulación delos axiomas refleja este desdoblamiento. Empleando estos axiomasadicionales probaremos las siguientes propiedades elementales deun espacio vectorial.

Teorema: sea V un espacio vectorial sobre un cuerpo K.1. Para todo escalar kϵK y 0ϵV, k0-0.2. Para 0ϵK y todo vector uϵV, 0u=0.3. Si ku=0, donde kϵK y uϵV, entonces k=0 o u=0.4. Para todo kϵK y todo uϵV, (-k)u=-ku.

4.2 Definición de subespacio vectorial y sus propiedades.Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K.W se denomina un subespacio de V si es a su vez un espaciovectorial sobre K con respecto a las operaciones de V, sumavectorial y producto por un escalar. Un criterio simple paraidentificar subespacios es el siguiente.

Teorema: supongamos que W es un subconjunto de un espaciovectorial V. entonces W es un subespacio de V si y solo si secumple:1. 0єW2. W es cerrado bajo la suma de vectores, es decir: para todopar de vectores u, vєW, la suma u+vєW.3. W es cerrado bajo el producto por un escalar, esto es: paratodo uєW y para todo kєK el múltiplo kuєW.

Corolario: W es un subespacio de V si y solo si:1. 0єW.2. au+bvєW para todos los u, vєW y a, bєK.

Ejemplo: sean U y W subespacios de un espacio vectorial V.probemos que la intersección UW es también subespacio de V.claramente, 0U y 0W, porque U y W son subespacios, de donde0UW. supongamos ahora que u, vUW. entonces u, vU y u, vE y,dado que U y W son subespacios, u+v, kuU y u+v, kuW paracualquier escalar k. así u+v, kuUW y por consiguiente UW es unsubespacio de V. El resultado del ejemplo precedente se generalizacomo sigue.

Teorema: la intersección de cualquier número de subespacios de unespacio vectorial V es un subespacio de V.

Recuérdese que toda solución de un sistema de ecuaciones linealescon n incógnitas AX=B puede verse como un punto en Kn y por tantoel conjunto solución de tal sistema es un subconjunto de Kn.Supongamos que el sistema homogéneo, es decir, supongamos que elsistema tiene la forma AX=0. Denotemos por W su conjunto solución.Como A0=0, el vector cero 0W además, si u y v pertenecen a W,esto es, si u y v son soluciones de AX=0, necesariamente Au=0 yAv=0. Por esta razón, para todo par de escalares a y b en K,tendremos A(au+bv)=aAu+bAv=a0+b0=0+0=0. De esta manera, au + bv estambién una solución de AX=0 o, dicho de otro modo, au+bvW. Enconsecuencia, según el corolario, hemos demostrado:

Teorema: el conjunto solución W de un sistema homogéneo con nincógnitas AX=0 es un subespacio de kn.

Hacemos énfasis en que el conjunto solución de un sistemainhomogéneo AX=B no es subespacio de Kn. De hecho, el vector cero,0, no pertenece a dicho conjunto solución.

4.3 Combinación lineal. Independencia lineal.COMBINACIÓN LINEAL

Sean v1, v2, …, vn, vectores en un espacio vectorial V. entonces

cualquier vector de la forma: a1v1+a2v2+…+anvn, donde a1,a2,…,anson escalares se denomina una combinación lineal de v1, v2,…,vn.

Una combinación lineal en M23

Conjunto generador.

Se dice que los vectores v1, v2, …, vn de un espacio vectorial Vgeneran a V si todo vector en V se puede escribir como unacombinación lineal de los mismo. Es decir, para todo vÎV, existenescalares a1, a2, …, an tales que v=a1v1+a2v2+…+anvn

Cuatro vectores que generan a M22

Espacio generado por un conjunto de vectores.

Sean v, v2, …, vk, k vectores de un espacio vectorial V. elespacio generado por {v1, v2, …, vk} es el conjunto decombinaciones lineales v1, v2, …, vk. Es decir

donde a1, a2, …, ak,son escalares arbitrarios.

Teorema: si v1, v2, …, vk son vectores en un espacio vectorial V,entonces gen{v1, v2, …, vk} es un subespacio de V.

Ejemplo: el espacio generado por dos vectores en R3

Sea v1=(2,-1,4) y v2=(4,1,6). Entonces H=gen{v1, v2}={v:v=a1(2,-1,4)+a2(4,1,6)}. ¿Cuál es la apariencia de H? si v=(x, y,z)ÎH,

entonces tiene x=2a1+4a 2, y=-a1+a2 y z=4a 1+6ª 2. Si se piensaque (x, y, z) esta fijo, entonces estas ecuaciones se pueden vercomo un sistema de tres ecuaciones con tres incognitas a1, a2.Este sistema se resuelve en la forma usual:

INDEPENDENCIA LINEALEn el estudio del algebra lineal, una de las ideas centrales es lade dependencia o independencia lineal de los vectores. En estasección se define el significado de independencia lineal y semuestra su relación con la teoría de sistemas homogéneos deecuaciones y determinantes.

Existe una relación espacial entre los

vectores  , se puede apreciar que v2=2v1; osi se escribe esta ecuación de otra manera. 2v1-v2=0.

En otras palabras, el vector cero se puede escribir como unacombinación no trivial de v1 y v2 (es decir, donde loscoeficientes en la combinación lineal no son ambos cero). ¿Quétienen de especial los

vectores  ? La respuesta a estapregunta es más difícil a simple vista. Sin embargo, es sencilloverificar que v3=3v1+2v2; rescribiendo esto se obtiene

 .

Se ha escrito el vector cero como una combinación lineal de v1,v2, y v3. Parece que los dos vectores de la ecuación y los tresvectores de la otra ecuación tienen una relación más cercana queun par arbitrario de 2-vectores a una terna arbitraria de 3-vectores. En cada caso, se dice que los vectores son linealmentedependientes. En términos generales, se tiene la importantedefinición a continuación presentada.

Definición: sean v1, v2, …, vn vectores en un espacio vectorial V.entonces se dice que lois vectores son linealmente dependientes siexisten n escalares c1, c2, …, cn no todos ceros tales

que  .

Si los vectores no son linealmente dependientes, se dice que sonlinealmente independientes.

Para decirlo de otra forma, v1, v2, .., vn son linealmenteindependientes si la ecuación c1v1+c2v2+…+cnvn=0 se cumpleúnicamente para c1=c2=…=cn=0. Son linealmente dependientes si elvector cero en V se puede expresar como una combinación lienal dev1, v2,…,vn con coeficientes no todos iguales a cero.

Nota. Se dice que los vectores v1, v2, …, vn son linealmenteindependientes (o dependientes), o que el conjunto de vectores{v1, v2, …, vn} es linealmente independiente (o pendiente). Estoes, se usan las dos frases indistintivamente.

Teorema:dependencia e independencia lineal

Dos vectores en un espacio vectorial son linealmente dependientessi y solo si uno de ellos es un múltiplo escalar del otro.

Demostración: primero suponga que v2=cv1 para elgun escalar c≠0.Entonces cv1-v2=0 y v1 y v2 son linealmente dependientes. Por otroparte, suponga que v1 y v2 son linealmente dependientes. Entoncesexisten constantes c1 y c2 al menos uno distinto a cero, tales quec1v1+c2v2=0. Si c1≠0, entonces dividiendo entre c1 se obtiene v1+

(c2/c1)v2=0, o sea, 

Es decir, v1 es un múltiplo escalar de v2. Si c1=0, entonces c2≠0y, por lo tanto, v2=0=0v1.

4.3 Combinación lineal. Independencia lineal.COMBINACIÓN LINEAL

Sean v1, v2, …, vn, vectores en un espacio vectorial V. entoncescualquier vector de la forma: a1v1+a2v2+…+anvn, donde a1,a2,…,anson escalares se denomina una combinación lineal de v1, v2,…,vn.

Una combinación lineal en M23

Conjunto generador.

Se dice que los vectores v1, v2, …, vn de un espacio vectorial Vgeneran a V si todo vector en V se puede escribir como unacombinación lineal de los mismo. Es decir, para todo vÎV, existenescalares a1, a2, …, an tales que v=a1v1+a2v2+…+anvn

Cuatro vectores que generan a M22

Espacio generado por un conjunto de vectores.

Sean v, v2, …, vk, k vectores de un espacio vectorial V. elespacio generado por {v1, v2, …, vk} es el conjunto decombinaciones lineales v1, v2, …, vk. Es decir

donde a1, a2, …, ak,son escalares arbitrarios.

Teorema: si v1, v2, …, vk son vectores en un espacio vectorial V,entonces gen{v1, v2, …, vk} es un subespacio de V.

Ejemplo: el espacio generado por dos vectores en R3

Sea v1=(2,-1,4) y v2=(4,1,6). Entonces H=gen{v1, v2}={v:v=a1(2,-1,4)+a2(4,1,6)}. ¿Cuál es la apariencia de H? si v=(x, y,z)ÎH,entonces tiene x=2a1+4a 2, y=-a1+a2 y z=4a 1+6ª 2. Si se piensaque (x, y, z) esta fijo, entonces estas ecuaciones se pueden vercomo un sistema de tres ecuaciones con tres incognitas a1, a2.Este sistema se resuelve en la forma usual:

INDEPENDENCIA LINEALEn el estudio del algebra lineal, una de las ideas centrales es lade dependencia o independencia lineal de los vectores. En estasección se define el significado de independencia lineal y semuestra su relación con la teoría de sistemas homogéneos deecuaciones y determinantes.

Existe una relación espacial entre los

vectores  , se puede apreciar que v2=2v1; osi se escribe esta ecuación de otra manera. 2v1-v2=0.

En otras palabras, el vector cero se puede escribir como unacombinación no trivial de v1 y v2 (es decir, donde loscoeficientes en la combinación lineal no son ambos cero). ¿Quétienen de especial los

vectores  ? La respuesta a estapregunta es más difícil a simple vista. Sin embargo, es sencilloverificar que v3=3v1+2v2; rescribiendo esto se obtiene

 .

Se ha escrito el vector cero como una combinación lineal de v1,v2, y v3. Parece que los dos vectores de la ecuación y los tresvectores de la otra ecuación tienen una relación más cercana queun par arbitrario de 2-vectores a una terna arbitraria de 3-vectores. En cada caso, se dice que los vectores son linealmentedependientes. En términos generales, se tiene la importantedefinición a continuación presentada.

Definición: sean v1, v2, …, vn vectores en un espacio vectorial V.entonces se dice que lois vectores son linealmente dependientes siexisten n escalares c1, c2, …, cn no todos ceros tales

que  .

Si los vectores no son linealmente dependientes, se dice que sonlinealmente independientes.

Para decirlo de otra forma, v1, v2, .., vn son linealmenteindependientes si la ecuación c1v1+c2v2+…+cnvn=0 se cumpleúnicamente para c1=c2=…=cn=0. Son linealmente dependientes si elvector cero en V se puede expresar como una combinación lienal dev1, v2,…,vn con coeficientes no todos iguales a cero.

Nota. Se dice que los vectores v1, v2, …, vn son linealmenteindependientes (o dependientes), o que el conjunto de vectores{v1, v2, …, vn} es linealmente independiente (o pendiente). Estoes, se usan las dos frases indistintivamente.

Teorema:dependencia e independencia lineal

Dos vectores en un espacio vectorial son linealmente dependientessi y solo si uno de ellos es un múltiplo escalar del otro.

Demostración: primero suponga que v2=cv1 para elgun escalar c≠0.Entonces cv1-v2=0 y v1 y v2 son linealmente dependientes. Por otroparte, suponga que v1 y v2 son linealmente dependientes. Entoncesexisten constantes c1 y c2 al menos uno distinto a cero, tales quec1v1+c2v2=0. Si c1≠0, entonces dividiendo entre c1 se obtiene v1+

(c2/c1)v2=0, o sea, 

Es decir, v1 es un múltiplo escalar de v2. Si c1=0, entonces c2≠0y, por lo tanto, v2=0=0v1.

4.4 Base y dimensión de un espacio vectorial, cambio de base.Se ha visto en R2 conviene escribir vectores como una combinación

lineal de los vectores   . En R3 se escribieron

los vectores en términos de  . Ahora segeneralizara esta idea.

BASEUn conjunto finito de vectores  es una base para

un espacio vectorial V si 

Todo conjunto de n vectores linealmente independiente en Rn es unabase en Rn.

En Rn se define 

Puesto que los vectores e, son las columnas d una matriz identidad

(que tiene determinante 1), es un conjuntolinealmente independiente y, por lo tanto, constituye una base enRn. Esta base especial se denomina base canonica en Rn. Ahora seencontraran bases para otros espacios.

EJEMPLO: base canonica para M22

Se vio que  generana 

, entonces es evidentemente que  . Así, estascuatro matrices son linealmente independientes y forman una basepara M22, lo que se denomina base cononica para M22.

TEOREMA: si es una base para V y si vÎV, entoncesexiste un conjunto único de escalares  tales que

Existe cuando menos un conjunto de dichos escalares

porque  genera a V. suponga entonces que v se puede

escribir e dos maneras como una combinación lineal de los vectoresde la base.

Es decir, suponga que

Sea   dos bases para V. debedemostrarse que m=n. esto se prueba mostrando que si m>n, entoncesS es un conjunto literalmente independiente, lo que contradice lahipótesis de que S es una bse. Esto demostrara que m≤n. la mismaprueba demostrara que ≤m y esto prueba el teorema. Así, bastademostrar que si m>n, entonces S es independiente. Como Sconstituye una base, todo u se puede expresar como una combinación

lineal de las v. se tiene (1)TEOREMA: suponga que dimV=n. si

Entonces, restando se obtiene la ecuaciónpero como los v son

linealmente independientes, esta ecuación se cumple si y solo si

Así,  y el teorema queda demostrado.

TEOREMA: si  son bases en unespacio vectorial V, entonces m=n; es decir, cualesquiera dosbases en un espacio vectorial V tienen el mismo numero devectores.

Para demostrar que S es dependiente, deben encontrarse escalares

no todos cero, tales que (2)

Sustituyendo (1) en (2) se obtiene (3)

La ecuación (3) se puede reescribir como

Pero como  son linealmente independientes, se debe

tener (5)

El sistema (5) es un sistema homogéneo de n ecuaciones con lasm incógnitas y como m>n, el teorema dice que elsistema tiene un numero infinito de soluciones. De esta forma,existen escalares  no todos cero, tales que (2) sesatisface y, por lo tanto, S es un conjunto linealmentedependiente. Esta contradicción prueba que m≤n si se cambian lospapeles de S1 y S2, se demuestra que n≤m y la prueba quedacompleta.

Por este teorema se puede definir uno de los conceptos centralesen el  algebra lineal.

DIMENSIÓN

Si el espacio vectorial V tiene una base con un numero finito deelementos, entonces la dimensión de V es el numero de vectores entodas las bases y V se denomina espacio vectorial de dimensiónfinita. De otra manera, V se denomina espacio vectorial dedimensión infinita. Si V={0}, entonces se dice que V tienedimensión cero.

Notación. La dimensión V se denota por dimV.

EJEMPLO: la dimensión de Mmn

En Mmn sea A la matriz de mxn con un uno en la posición ij y ceroen otra parte. Es sencillo demostrar que las matrices a parai=1,2,…,m y j=1,2,…,n forman una base para Mmn. Así, dimMmn=mn.

TEOREMA: suponga que dimV=n. si  es un conjunto de mvectores linealmente independientes en V, entonces m≤n.

Sea entonces, igual que la prueba del teorema, sepueden encontrar constantes no todas cero, tales quela ecuación (2) se satisface. Esto contradice la independencialineal de los vectores u. así, m≤n.

TEOREMA: sea H un subespacio de un espacio vectorial de dimensión

finita V. entonces H tiene dimensión finita y (6)

Sea dimV=n. cualquier conjunto de vectores linealmenteindependientes en H es también linealmente independiente en V. porel teorema anterior, cualquier conjunto linealmente independiente

en H puede contener a lis mas n vectores. Si H={0}, entoncesdimH=0. Si dimH≠{0}, sea v≠0 un vector en H y H=gen{v}. si H=H,dimH=1 y la prueba queda completa. De lo contrario, elija a vÎHtal que vÏH y sea H=gen{v1,v2}, y así sucesivamente. Continuamos

hasta encontrar vectores linealmente independientes

tales que H=gen{  }. El proceso tiene que terminarporque se pueden encontrar a lo mas n vectores linealmenteindependientes en H. entonces H-k≤n.

EJEMPLO: una base para el espacio de solución de un sistemahomogéneo

Encuentre una base (y la dimensión) para el espacio de solución S

del sistema homogéneo 

SOLUCIÓN: aquí  . Como A es una matriz de 2x3, Ses un subespacio de R3. Reduciendo por renglones, se encuentra,sucesivamente,

Entonces y=z y x=-z de manera que todas las soluciones son de la

forma .Así, es una base para S y dimS=1. Obsérvese que Ses el conjunto de vectores que se encuentran en la recta x=-t,y=t, z=t.

TEOREMA: cualquier conjunto de n vectores linealmenteindependientes en eun espacio vectorial V de dimensión nconstituyen una base apara V.

Sean , n vectores. Si generan el espacio V, entoncesconstituyen una base. De lo contrario, existe un vector uÎV tal

que uÏgen  . Esto significa que los n+1 vectores

, u donde linealmente independientes. Para ver estoobserve que si (8) 

Entonces  porque de lo contrario podríamos escribir u como

una combinación lineal de dividiendo la ecuación (8)

entre  y poniendo todos los términos, excepto u, en el

lado derecho. Pero si entonces (8) es

Lo que significa que ya que los v son

linealmente independientes. Ahora sea W=gen{ ,u}. comotodos los vectores entre las llaves están en V, W es un subespacio

de V. como  ,u son linealmente independientes, formanuna base para W, y dimW=n+1. Pero por el teorema, dimW≤n. estacontradicción muestra que no existe el vector uÎV tal que uÏgen{

}. Así,  genera a V y, por lo tanto,constituye una base para V.

CAMBIO DE BASE

En R2 se expresaron vectores en términos de la base canónica

. En Rn se definió la base canonica  

. En Pn se definió la base estandra como . Estasbases se usan ampliamente por la sencillez que ofrecen a la horade trabajar con ellas. Pero en ocasiones ocurre que es masconveniente alguna otra base. Existe un numero infinito de basespara elegir, ya que en un espacio vectorial de dimensión n,cualesquiera n vectores, linealmente independientes, forman unabase. En esta sección se vera como cambiar de una base a otramediante el calculo de cierta matriz. Iniciaremos por un ejemplo

sencillo. Sean u . entonces,  es la

base canonica en R2. Sean Como v1 y v2 sonlinealmente independientes (porque v1 no es un múltiplo de v2),

 es una segunda base en R2. Sea un vector enR2. Esta notación significa que

Es decir, x esta expresando en términos de los vectores de la base

B. para hacer hincapié en este hecho, se escribe  ComoB es otra base en R2, existen escalares c1 y c2 tales que (1)

Una vez que se encuentran estos escalares. Se

puede escribir  para indicar que x esta ahoraexpresado en términos de los vectores en B. para encontrar los

Por ejemplo, si

entonces

4.5 Espacio vectorial con producto interno y sus propiedades.Un espacio vectorial complejo V se denomina espacio con productointerno si para cada par ordenado de vectores u y v en V, existeun numero complejo único (u,v), denominado producto interno de u yv, tal que si u, v y w están en V y αϵC, entonces

La barra es las condiciones v) y vii) denota el conjugadocomplejo.

Nota. Si (u,v) es real, entonces (u,v)=(u,v) y se puede eliminarla barra en v).

EJEMPLO: producto interno de dos vectores en C3

En C3 sean x=(1+i, -3, 4-3i) y y=(2-i, -i, 2+i). entonces

Sea V un espacio con producto interno y suponga que u y v están enV. entonces

Nota 1. Aquí se usa la doble barra en lugar de una sola paraevitar confusión con el valor absoluto. Por ejemplo ǁsen tǁ denotala norma de sen t como un “vector” en C[0, 2π] mientras que |sent| denota el valor absoluto de la función sen t.

Nota 2. La ecuación anterior tiene sentido ya que (u, u)≥0.

EJEMPLO: dos vectores ortogonales en C2

En C2 los vectores (3,-i) y (2,6i) son ortogonales porque

Conjunto ortonormal

El conjunto de vectores  es un conjunto ortonormal

en V si y

Si solo el primero se cumple, se dice que el conjunto esortonormal.

TEOREMA: cualquier conjunto finito de vectores ortonormalesdiferentes de cero en un espacio con producto interno eslinealmente independiente.

TEOREMA: cualquier conjunto finito linealmente independiente en unespacio con producto interno se puede convertir en un conjuntoortonormal mediante el proceso de Gram-Schmidt. En particular,cualquier espacio con producto interno tiene una base ortonormal.

Proyección ortogonal

Sea H un subespacio del espacio con producto interno V con base

ortonormal

Si vϵV, entonces la proyección ortonormal de v sobre H denotadapor proyHv esta dada por (6)

Las demostraciones de los siguientes teoremas son idénticas a suscontrapartes en Rn.

TEOREMA: sea H un subespacio de dimensión finita con productointerno V. suponga que H tiene dos bases ortonormales

Sea vϵV. entonces

Complemento ortogonal

Sea H un subespacio del espacio con producto interno V. entoncesel complemento ortogonal de H, denotado por H, esta dado por (7)

TEOREMA: si H es un subespacio del espacio con producto interno V,entonces

TEOREMA DE PROYECCIÓN: sea H un subespacio de dimensión finita delespacio con producto interno V y suponga que vϵV. entonces existeun par único de vectores h y p tales que hϵH, pϵH, y(8) v=h+p donde h=proyHv.

Si V tiene dimensión finita, entonces p=proyHv.

TEOREMA: sea A una matriz de nxn; entonces A tiene vectorespropios linealmente independientes si y solo si multiplicidadgeométrica de cada valor propio es igual a su multiplicidadesalgebraica. En particular, A tiene n vectores propios linealmenteindependientes si todos los valores propios son distintos (ya queentonces la multiplicidad algebraica de cada valor propio es 1).

4.6 Base ortonormal, proceso de ortonormalización de Gram-Schmidt.Conjunto ortonormal en Rn

Se dice que un conjunto de vectores S={u1, u2, …, uk} en Rn es unconjunto ortonormal si (1) (2)

Si solo satisface la ecuación (1), se dice que el conjunto esortogonal.

Si u, v y w en Rn y α es un numero real, entonces (3) (4) (5) (6)(7)

Ahora se presenta otra definición útil

Si vϵRn, entonces la longitud o norma de v, denotada por |v|, esta

dada por (8)

Nota. Si  entonces v*v=  Esto

significa que (9)

De esta forma se puede obtener la raíz cuadrada en (8), y se tiene(10)(11)

TEOREMA:  si S= es un conjunto ortogonal de vectoresdiferentes de cero, entonces S es linealmente independiente.

Suponga que 

Entonces, para cualquier i=1,2,…,k

Como v≠0 por hipótesis |v|2>0 y se dice que c=0. Esto es ciertopara i=1,2,…,k, lo que completa la prueba.

Proceso de ortonormalizacion de Gram-Schmidt

Sea H un subespacio de dimensión m de Rn. Entonces H tiene unabase ortonormal.

Sea S=  una base de H. se probara el teoremaconstruyendo una base ortonormal a partir de vectores en S. antesde dar los pasios para esta construccion, se observa el hechosencillo de que un conjunto de vectores linealmente independienteno contiene al vector cero.

Paso 1. Eleccion del primer vector unitario

Sea (12) 

Entonces

De manera que |u|=1.

Paso 2. Eleccion de un segundo vector ortogonal a u

Como anteriormente se ha visto que, en R2, el vector

 es la ortogonal a v. en este caso  es laproyeccion de u sobre v. esto se ilustra en la siguiente figura.

Resulta que el vector w dado es ortogonal a v cuando w y v estánen Rn para cualquier n≥2. Obsérvese que como u es un vector

unitario,  para cualquier vector v.

Sea (13) entonces   de maneraque v’ es ortogonal a u. mas aun, por el teorema, u y v´sonlinealmente independientes. v’≠0 porque de otra

manera   lo que contradice laindependencia de v1 y v2.

Paso 3. Elección de un segundo vector unitario

Sea (14)   entonces es evidente que {u1,u2} es un conjuntoortonormal.

Suponga que se han construido los vectores u1, u2,…,uk(k<m) y queforman un conjunto ortonormal. Se mostrara como construir uk+1.

Paso 4. Continuación del proceso

Sea (15)   entonces

para i=1,2,…,k 

Pero   Por lo

tanto, 

Así,   es un conjunto linealmente independiente,ortogonal y v´k+1≠0.

Paso 5

Sea 

Entonces es claro que   es un conjuntoortonormal y se puede continuar de esta manera hasta que k+1=m conlo que se completa la prueba.

Nota. Como cada u es una combinación lineal de vectores v,

gen   es un subespacio de gen   y comocada espacio tiene dimensión k, los espacio son iguales.

Instituto Tecnológico de Veracruz

Algebra lineal

Monola Guzman Bryan

Ing. Santiago Almeida

Unidad 5 : Transformaciones lineales.

5.1 Introducción a las transformaciones lineales.

El presente capitulo aborda una clase especial de funcionesdenominadas transformaciones lineales que ocurren con mucha frecuenciaen el algebra lineal y otras ramas de las matematicas. Estastienen una gran variedad de aplicaciones importantes. Antes dedefinirlas, se estudiaran dos ejemplos sencillos para ver lo quees posible realizar.

Ejemplo 1: reflexión respecto al eje x

En R2 se define una función T mediante la formula T(x;y)=(x;-y).Geométricamente, T toma un vector en R2 y lo refleja respecto aleje x. esto se ilustra en la figura. Una vez que se ha dado ladefinición básica, se vera que T es una transformación lineal deR2 en R2.

Ejemplo 2: transformación de un vector de producción en un vectorde materia prima.

Un fabricante elabora cuatro tipos de productos distintos, de loscuales cada uno requiere  tres tipos de materiales. Se identifican

los cuatro productos como P1, P2, P3, y P4 y a los materiales por R1,R2 y R3. La tabla siguiente muestra el numero de unidades de cadamateria prima que se requieren para fabricar 1 unidad de cadaproducto.

Ejemplo 2: transformación de un vector de producción en un vectorde materia prima.

Un fabricante elabora cuatro tipos de productos distintos, de loscuales cada uno requiere  tres tipos de materiales. Se identificanlos cuatro productos como P1, P2, P3, y P4 y a los materiales por R1,R2 y R3. La tabla siguiente muestra el numero de unidades de cadamateria prima que se requieren para fabricar 1 unidad de cadaproducto.

Surge una pregunta natural: si se produce cierto número de loscuatro productos, ¿Cuántas unidades de cada material se necesitan?Seanp1, p2, p3 y p4 el número de artículos fabricados en los cuatroproductos y sean r1, r2, y r3 el número de unidades necesarios de lostres materiales. Entonces se define

Por ejemplo, suponga que P=(10,30,20,50). ¿Cuántas unidadesde R1 se necesitan para producir estos números de unidades de loscuatro productos? De la tabla se tiene que

r=p1*2+p2*1+p3*3+p4*4=10*2+30*1+20*3+50*4=310 unidades

de manera similar  r2=10*4+30*2+20*2+50*1=190 unidades

y r3=10*3+30*3+20*1+50*2=240 unidades

en general se ve que

o Ap= r.

Esto se puede ver de otra manera. Si a p se le conoce como levector de producción y a r como el vector de materia prima, sedefine la función T por = T(p) = Ap. Esto es, T es la función que“transforma” el vector de producción en el vector de materia primay se hace mediante la multiplicación  de matrices ordinaria. Comose verá , esta función es también una transformación lineal.

Antes de definir una transformación lineal, hablaremos un pocosobre las funciones. En la sección 1.7 se escribió un sistema deecuaciones como

Ax=b

Donde A es una matriz de m*n, x  R” y b  R”. Se pidió encontrar xcuando  A y b se conocían . No obstante, esta ecuación se puedever de otra forma: suponga que A se conoce. Entonces la ecuaciónAx=b “dice” : proporcione una x en R´´ y yo le daré una b en R´´´;es decir , A representa una función con dominio R´´ e imagen en R´´´.

La función que se acaba de definir tiene las propiedades de que A(      si  es un escalar y A(x + y) = Ax + Ay. Esta propiedadcaracteriza las transformaciones lineales.

Definición 1  transformación lineal

Sean V y W espacios vectoriales reales. Una transformación linealT de V en W es una función que asigna a cada vector v  V un vectorúnico Tv  W y que satisface, para cada u y v en V y cada escalar .

T(u + v) = Tu + Tv

Y

T(av)=aTv

TRES OBSERVACIONES SOBRE NOTACIÓN

1. Se escribe T: v W para indicar que T toma el espacio vectorialreal V y lo lleva al espacio vectorial real W; esto es, T es unafunción  con V como su dominio y un subconjunto de W como suimagen.

2. Se escriben indistintamente Tv y T(v). Denotan lo mismo; lasdos se leen “T de v”. Esto es análogo a la notación funcionalʄ(x), que se lee “ʄ de x”.

3. Gran parte de las definiciones y teoremas en este capítulotambién se cumplen para los espacios vectoriales complejos(espacios vectoriales en donde los escalares son númeroscomplejos).

Ejemplo 5 La transformación identidad

Sea V un espacio vectorial y definida I: V V por Iv = v para todov en V. Aquí es obvio que es I es una transformación lineal, lacual se denomina transformación identidad u operador identidad.

Ejemplo 6    Transformación de reflexión

Sea T:R2 R2 definida por T(x;y)=(x;-y). Es fácil verificar que T eslineal. En términos geométricos, T toma un vector en R2 y lorefleja respecto al eje y (vea la figura 5.2)

Ejemplo 7   Transformaciones de Rn Rm dada por la multiplicaciónpor una matriz de m*n.

Sea A una matriz de m*n y definida T:R´´ R´´´ por Tx = Ax. ComoA(x + y) = Ax + Ay y A(  si x y y están en R´´, se observa que Tes una transformación lineal. Entonces: toda matriz A de m*n sepuede utilizar  para definir  una transformación lineal de R´´ enR´´´.

5.2 Núcleo e imagen de una transformación lineal.

En esta sección se desarrollan algunas propiedades  básicas de lastransformaciones lineales.

Teorema 1. Sea T: V  W una transformación lineal. Entonces paratodos los vectores u, v, v1, v2,….vn en V y todos los escalares

Nota  en la parte i el 0 de la izquierda es el vector cero en v;mientras que el cero de la derecha es el vector cero en W.

i. T(0) = T(0 + 0)= T(0) + T(0). Así 0= T(0) – T(0) = T(0) + t(0)– T(0) = T(0)

ii.T(u-v) = T[u + (-1)v] = Tu + T[(-1)v] = Tu + (-1)Tv = Tu – Tv.

iii.Esta parte se prueba por inducción (vea el apéndice 1). Para n= 2 se tiene T(α1v1 + α2v2) = T (α1v1) + T(α2v2) = α1Tv1 + α2Tv2. Así,la ecuación (1) se cumple para n = 2. Se supone que se cumple paran = k y se prueba para n=k + 1: T(α1v1 + α2v2+ ….+ αkvk+αk+1vk-1 ) =T(α1v1 + α2v2+….+αkvk) + T(αk+1vk+1), y usando la ecuación en la parteiii para n= k, esto es igual a (α1Tv1 + α2Tv2+….αkTvk) + αk+1Tvk+1, quees lo que se quería demostrar. Esto completa la prueba.

Observación. Los incisos i) y ii) del teorema 1 son casosespeciales del inciso iii). Un dato importante sobre lastransformaciones lineales es que están completamente determinadaspor el efecto sobre los vectores de la base.

Teorema 2      Sea v un espacio vectorial de dimensión finita conbase B= {v1,v2,….vn}. Sean w1,w2,….wn vectores en W. Suponga que T1 yT2 son dos transformaciones lineales de V en W tales que T1vi =T2vi = wi para i = 1, 2,…,n. Entonces para cualquier vector v ϵ v,T 1v = T2v; es decir T1 = T2.

Como B es una base para V, existe un conjunto único de escalaresα1, α2,…., αn. Tales que  v = α1v1 + α2v2 + …+ αn vn.

Entonces, del inciso iii) del teorema 1, T1v = T1(α1 v1 + α2v2 + …+ αnvn) = α1T2v1 + α2T2v2 +… + αnTnvn= α1w1 + α2w2 +…+ αnTnvn

De manera similar T2v = T2(α1v1 + α2v2 + …+ αnvn)  = α1T2v1 + α2T2v2 +…+ αnTnvn                                            = α1w1 + α2w2 +…+αnvn

Por lo tanto, T1v =T2v.

El teorema 2 indica que si T:v W y V tiene dimensión finita,entonces sólo es necesario conocer el efecto que tiene T sobre losvectores de la base en V. Esto es, si se conoce la imagen de cadavector básico, se puede determinar la imagen de cualquier vectoren V. Esto determina T por completo. Para ver esto, sean v1, v2,….vn una base en V y sea v otro vector en V. Entonces, igual que enl aprueba del teorema 2, Tv = α1Tv1 + α2Tv2 +…+ αnTvn

Así, se puede calcular Tv para cualquier vector vϵ V si se conocenTv1,Tv2,….Tvn

Ejemplo 1 Si se conoce el efecto de una transformación linealsobre los vectores de la base, se conoce el efecto sobre cualquierotro vector.

Sea T una transformación lineal de R3 en R2 y suponga que

Solución. Se tiene

Entonces

Surge otra pregunta; si w1,w2,….,wn son n vectores en W, ¿existe unatransformación lineal T tal que Tv1 = w1 para i = 1,2,…,n? Larespuesta es sí. Como lo muestra el siguiente teorema.

Definición 1 Núcleo e imagen de una transformación lineal

Sean V y W dos espacios vectoriales y sea T:V W una transformaciónlineal. Entonces

i . El núcleo de T, denotado por un, está dado por

ii. La imagen de T, denotado por Im T, esta dado por

Observacion 1. Observe que un T es no vacio porque, de acuerdo alteorema 1, T(0) = 0 de manera que 0 ϵ un T para cualquiertransformación lineal T. Se tiene interés en encontrar otrosvectores en V que “se transformen en 0”. De nuevo, observe quecuando escribimos T(0) = 0, el 0 de la izquierda está en V y el dela derecha en W.

Observación 2. La imagen  de T es simplemente el conjunto de“imajenes” de los vectores en V bajo la transformación T. Dehecho, si w = Tv, se dice que w es la imagen de v bajo T.

Antes de dar ejemplos de núcleos e imágenes , se demostrará unteorema de gran utilidad.

Teorema 4 Si T:V W es una transformación lineal, entonces

i.Un T es un subespacio de V.

ii.Im T es un subespacio de W.

Demostracion

i.Sean u y v en un T; Entonces T(u + v) = Tu + Tv =0 + 0 =0 y T( )=  = 0 = 0 de forma que u + v y ∝u están en un T.

ii. Sean w y x en Im T. Entonces w = Tu y x = Tv para dos vestoresu y v en V. Esto significa que T(u + v)= Tu + Tv = w + x y T(∝u) =∝Tu =∝w. Por lo tanto, w + x y ∝w están en Im T.

Ejemplo 3.  Núcleo e imagen de la transformación cero

Sea Tv = 0 para todo vϵ V(T es la transformación cero). Entoncesun T = v e Im T = {0}.

Ejemplo 4   Núcleo e imagen de la transformación identidad

Sea Tv = v para vϵ V(T es la transformación identidad). Entoncesun T= {0} e Im T = V.

Las transformaciones cero e identidad proporcionan dos extremos.En la primera todo se                     encuentra en el núcleo.En la segunda sólo el vector cero se encuentra en el núcleo. Loscasos intermedios son más interesantes.

Ejemplo 5 Núcleo e imagen de un operador de proyección

Sea T:R3 R3 definida por 

T es el operador de proyección de R3 en el plano xy.

Entonces x = y = 0. Así, nu T = {(x,y,z):x  = y = 0, zϵR}, esdecir, el eje z, e Im T = {(x,y,z): z = 0}, es decir el  plano xy.Observe que dim un T = 1 y dim Im T = 2.

Definición 2      Nulidad y rango de una transformación lineal

Si T es una transformación lineal de v en w, entonces se define.

Observación. En la sección 4.7 se definieron el rango, la imagen,el espacio nulo y la nulidad de una matriz. Según el ejemplo5.1.7, Toda matriz A de m*n da lugar a una transformación linealT:R´´ R´´´ definida por Tx = Ax. Es evidente que un T = NA, Im T = ImA = CA, v(T) = v(A) y p(T) = p(A). Entonces se ve que lasdefiniciones de núcleo, imagen, nulidad y rango de unatransformación lineal son extensiones del espacio nulo, la imagen,la nulidad y el rango de una matriz.

Ejemplo 6.   Núcleo y nulidad de un operador de proyección

Sea H un subespacio de R´´ y sea Tv = proyH v. Es obvio que la Im T= H. Se tiene que toda vϵ V si v=h + proyH v + proyHv. Si Tv = 0,entonces h=0, lo que significa498

5.3 La matriz de una transformación lineal.

Si A es una matriz de m*n y T: Rn-Rm está definida por Tx = Ax,entonces, T es una transformación lineal. Ahora se verá que paratoda transformación lineal de Rn en Rm existe una matriz A de m*ntal que Tx = Ax para todo x ϵ Rn. Este hecho es de gran utilidad.Si Tx = Ax. Entonces un T = NA e Im T = RA. más aun, v(T) = dim unT = v(A) y p(T) = dim Im T = p(A). Así se puede determinar elnúcleo, la imagen, la nulidad y el rango de una transformaciónlineal de Rn-Rm determinando el espacio nulo y la imagen de lamatriz correspondiente. Adicionalmente, una vez que se sabe que Tx= Ax. Se puede evaluar Tx para cualquier x en Rn mediante unasimple multiplicación de matrices.

Pero esto no es todo. Como se verá, cualquier transformaciónlineal entre espacios vectoriales de dimensión finita se puederepresentar mediante una matriz.

Teorema 1

Sea T:Rn -Rm una transformación lineal. Existe entonces una matrizúnica de m*n, AT tal que

Demostración

Sea w1 = Te1,w2 = Te2,….,wn = Ten. Sea AT la matriz cuyas columnasson w1, w2,…., wn y hagamos que AT denote también ala transformaciónde Rn-Rm, que multiplica un vector en Rn por AT. si

Entonces

De esta forma, ATei = wi para i = 1,2,….n., T y la transformaciónAT son las mismas porque coinciden en los vectores básicos.

Ahora  se puede demostrar que AT es única. Suponga que Tx = ATx yque Tx = BTx para todo x ϵ Rn. Entonces ATx = BTx, o estableciendoCT= AT – BT, se tiene que CTx = 0 para todo x ϵ Rn. En particular,CTei es la columna i de CT. Así, cada una de las n columnas de CT esel m-vector cero, la matriz cero de m*n. Esto muestra que AT = BT yel teorema queda demostrado.

Definición 1    Matriz de transformación

La matriz AT en el teorema 1 se denomina matriz de transformacióncorrespondiente a T o representación matricial de T.

NOTA. La matriz de transformación AT está definida usando las basesestándar tanto en Rn como en R3. Si se utilizan otras bases, seobtendrá  una matriz de transformación diferente.

TEOREMA 2   sea AT la matriz de transformación correspondiente alaa transformación lineal T. entonces.

i.                     Im T = Im A = CAT

ii.                   P(T) = p(AT)

iii.                  Un T = NAT

iv.                 v(T) = v(AT

Ejemplo 1    Representación matricial de una transformación deproyección

Encuentre la matriz de transformación AT correspondiente alaproyección de un vector en R3 sobre el plano xy.

Solución

Teorema 4

Sean V y W espacios vectoriales de dimensión finita con dim V = n.sea T:V-W una transformación lineal y sea AT una representaciónmatricial de T respecto a las bases B1 en V y B2  en W. entonces

i.                     p(T) =p(AT)         ii. V(A) =v(AT)           iii. V(a) + p(T) = n

Teorema 5 Sea T:Rn-Rm una transformación lineal. Suponga que C es lamatriz de transformación de T respecto a las bases estándar Sn ySm en Rn y Rm, respectivamente. Sea A1 la matriz de transición  deB2 a base Sm en Rm. Si AT denota la matriz de transformación de Trespecto a las bases B1 y B2, entonces.

Geometría de las transformaciones lineales de R2 en R2.

Sea T:R2-R2 una transformación lineal con representación matricialAT Ahora de demostrará que si AT es invertible, entonces T se puedeescribir como una sucesión de una o más transformacionesespeciales, denominadas expansiones, compresiones, reflexiones ycortes.

Expansiones a lo largo de los ejes x o y

Una expansión a lo largo del eje x es una transformación linealque multiplica a la coordenada x de un vector en R2 por unaconstante C >1. Esto es

De manera similar, una expansión a lo largo del eje y es unatransformación lineal que multiplica la coordenada y de todo

vector en R2 por una constante C>1. Como antes ,

entonces la representación matricial de T es   de

manera que

a)      se comienza con este rectángulo.

b)      Expansión en la dirección de x c = 2.

c)       Expansión en la dirección de y con c = 4.

Compresión a lo largo de los ejes x o y.

Una compresión a lo largo de los ejes x o y es una transformaciónlineal que multiplica ala coordenada x o y de un vector en R2 poruna constante positiva 0<c<1, mientras que para la expansión c<1.

a)      se comienza con este rectángulo.

b)      Compresión a lo largo del eje x con c =1/3.

c)       Compresión a lo largo del eje x con c=1/2.

5.4 Aplicación de las transformaciones lineales: reflexión,dilatación, contracción y rotación.

Una transformación es un conjunto de operaciones que se realizansobre un vector para convertirlo en otro vector.

Los espacios vectoriales son conjuntos con una estructuraadicional, al saber, sus elementos se pueden sumar y multiplicarpor escalares del campo dado, conviene utilizar funciones quepreserven dicha estructura. Estas funciones se llamarantransformaciones lineales.

Se denomina transformación lineal a toda función cuyo dominio eimagen sean espacios vectoriales y se cumplan las condicionesnecesarias. Las transformaciones lineales ocurren con muchafrecuencia en el álgebra lineal y en otras ramas de lasmatemáticas, tienen una gran variedad de aplicaciones importantes.Las transformaciones lineales tienen gran aplicación en la física,la ingeniería y en diversas ramas de la matemática.

EJEMPLOS

Rotación por un ángulo Ө

Sea 0 ≤ Ө < 2π un ángulo medido en radianes. Queremos averiguarcual es la transformación T de R^2

en R^2 que gira cada vector U=( U1,U2) un ángulo θ para obtener unvector T(u)=(v1,v2)

En una gráfica, vemos la situación como sigue:

Si usamos las funciones trigonométricas, tenemos que:

v1= ||T(u)||٠cos(α+Ө) = ||(u)||٠(cos α ٠ cos Ө - sen α ٠ sen Ө )v2= ||T(u)||٠sen(α+Ө) = ||(u)||٠(sen α ٠ cos Ө - cos α ٠ sen Ө )Distribuyendo y usando el hecho de que U1=||u|| cos α y U2=||u||sen α

tenemos que:

v1= U1 cos Ө - U2 sen Ө

v2= U2 cos Ө + U1 sen Ө

Por lo tanto, ya descubrimos cómo debe estar definida latransformación T:R^2 → R^2

tal que: T (U1 , U2) = (U1 cos Ө - U2senӨ,U2 cos Ө + U1 sen Ө )

Esta transformación se llama la rotación por un ángulo Ө

y es lineal, ya que:

T [(U1 , U2)+ λ(v1 , v 2)] = T (u1 + λ v1 , u2 + λ v2 )

= ((u1 + λ v1)cos Ө - (u2 + λ v2) sen Ө, (u2 + λ v2) cos Ө + (u1 +λ v1) sen Ө)

= (u1 cos Ө - u2 sen Ө, u2 cos Ө + u1 sen Ө) + λ (v1cos Ө - v2 senӨ , v2 cos Ө + v1 sen Ө)

= T(u1 , u2) + λ T (v1 , v2)

Reflexión sobre el eje x

En este caso, queremos averiguar como está definida latransformación T de R^2 en R^2 que cada vector u = (u1 , u2) lorefleja sobre el eje x, para obtener un vector T (u) = ( v1 , v2)

En una gráfica, vemos la situación como sigue:

↑→

En este caso, la situación es más sencilla ya que claramentetenemos dos triángulos rectángulos que son congruentes, de donde Tqueda definida como sigue:

T(u1 , u2)=(u1 , - u2)

Esta transformación se llama la reflexión sobre el eje x, y eslineal, ya que:

T[(u1 , u2)+ λ (v1 , v2)] = T(u1 + λ v1 , u2 + λ v2)

=(u1 + λ v1 , - u2 - λ v2)

=(u1 , - u2) + λ (v1 , - v2)

T=(u1 , u2) + λ T (v1 , v2)

Proyección ortogonal sobre el eje x

En este caso, queremos averiguar como está definida latransformación T de R^2 en R^2 que a cada vector u=(u1 , u2) loproyecta perpendicularmente sobre el eje x, para obtener un vectorT(u)=(v1, v2)

En una gráfica, vemos la situación como sigue:

↑→

También este caso es sencillo, pues es obvio que T queda definidacomo sigue:

T(u1, u2) = (u1 , 0)

Esta transformación se llama la proyección sobre el eje x, y eslineal, ya que:

T[(U1 , u2) + λ (v1 , v2)] = T (u1+ λ v1 , u2 + λ v2)

=(u1 + λ v1 , O) = (u1 , O) + λ (v1 , O)

= T (u1 , u2) + λ T(v1, v2)

Este último ejemplo tiene más fondo desde el punto de vista deÁlgebra Lineal. Consideremos el siguiente subespacio de R^2

W1 = {(x,0)/x Є R }

Vemos que éste no es sino el eje x (sobre quien se efectuó laproyección). Ahora bien, W1 tiene un complemento directo, a saber,

W2 = {(0,y)/y Є R }

De tal forma que cada vector (x , y) Є R^2 se escribe en formaúnica como suma de un vector de W1 más un vector de W2 como sigue:

(x,y) = (x,0)+(0,y)

Notamos que la proyección sobre el eje x, mandaa (x,y) sobre (x,0) , el cual es precisamente el términocorrespondiente a W1 en la descomposición anterior.

Todo esto nos induce a definir proyecciones sobre subespacios engeneral como sigue:

Definición. Sea V un espacio vectorial y sea W1 c V un subespaciotal que existe W2 el complemento directo de W1 en V, es decir talque V = W1 + W2 , de tal forma que cada vector v Є V se escribe enforma única como:

v = x + y

Con: x Є W1 y y Є W2

Definimos entonces la proyección sobre W 1 , como aquellatransformación T:V→V tal que T(v) = x.

Lo primero que observamos es que esta transformación es lineal, yaque si v1=x1+y1 , v2=x2+y2 con xi Є W1 y yi Є W2 , entonces v1+λv2=x1+y1+λ(x2+y2)=(x1+λx2)+(y1+λy2) con x1+λx2 Є W1 y y1+λy2 Є W2

Por lo tanto, de acuerdo a la definición de T, tenemos que:

T(v1+ λ v2)=x1+λ x2=T(v1+λ T(v2)

En segundo lugar, vemos que esta definición, incluye como casoespecial a la de la proyección sobre el eje x. Sin embargo, vemosque no es suficiente con especificar sobre que subespacio queremosproyectar, sino también es necesario aclarar cual es elcomplemento directo que se estará usando, ya que un mismosubespacio puede tener distintos complementos directos. El mismoeje x, tiene el siguiente complemento directo:

W2= {(X , X) / X Є R }

En efecto, es claro que W2 es un subespacio de R^2 y W1 --- W2= (0, 0)

Además, cada (X , Y) Є R^2 se escribe como:

(x,y) = (x-y,0) + (y,y) Є W1 --- w2

Todo esto demuestra que R^2 = W1+W2

Usando esta descomposición y la definición de proyección,tendremos que en este caso, la transformación queda dada comosigue:

T(x,y)=(x-y,0)