Exercícios de sistemas linares e matrizes

From Applied Science
Revision as of 20:28, 3 February 2024 by Wikiadmin (talk | contribs)
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
  • Método de Gauss-Jordan para calcular a inversa de uma matriz.

[math]\displaystyle{ \left[\begin{matrix} 1 & 0 & 0 \\ a & 1 & 0 \\ b & c & 1 \end{matrix}\right] }[/math]

Escreva a matriz identidade ao lado da matriz que se quer inverter:

[math]\displaystyle{ \left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ a & 1 & 0 & | & 0 & 1 & 0\\ b & c & 1 & | & 0 & 0 & 1 \end{matrix}\right] }[/math]

Aplique operações elementares sobre as linhas da matriz aumentada a fim de transformar a matriz da esquerda na identidade, como resultado, teremos à direita a matriz inversa:

[math]\displaystyle{ L_2 - aL_1\left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ 0 & 1 & 0 & | & -a & 1 & 0\\ b & c & 1 & | & 0 & 0 & 1 \end{matrix}\right] \thicksim L_3 - bL_1\left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ 0 & 1 & 0 & | & -a & 1 & 0\\ 0 & c & 1 & | & -b & 0 & 1 \end{matrix}\right] \thicksim }[/math]

[math]\displaystyle{ L_3 - cL_2\left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ 0 & 1 & 0 & | & -a & 1 & 0\\ 0 & 0 & 1 & | & ac - b & -c & 1 \end{matrix}\right] }[/math]


  • Método pela definição da matriz inversa

[math]\displaystyle{ \left[\begin{matrix} 1 & 1 & 2 \\ 2 & 2 & 3 \\ 1 & 0 & 0 \end{matrix}\right] }[/math]

A matriz inversa é tal que multiplicando uma matriz pela sua inversa resulta a identidade:

[math]\displaystyle{ \left[\begin{matrix} 1 & 1 & 2 \\ 2 & 2 & 3 \\ 1 & 0 & 0 \end{matrix}\right] \left[\begin{matrix} a & b & c \\ d & e & f \\ g & h & i \end{matrix}\right] = \left[\begin{matrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{matrix}\right] }[/math]

Realizando a multiplicação obtemos três sistemas lineares (para economizar tempo não realize a multiplicação da forma usual, uma linha da primeira por cada coluna da segunda. Faça ao contrário, cada linha da primeira por uma coluna da segunda. Assim o sistema já sai com equações ordenadas):

[math]\displaystyle{ \begin{cases} a & + & d & + & 2g & = & 1 \\ 2a & + & 2d & + & 3g & = & 0 \\ a & & & & & = & 0 \\ \end{cases} }[/math]

[math]\displaystyle{ \begin{cases} b & + & e & + & 2h & = & 0 \\ 2b & + & 2e & + & 3h & = & 1 \\ b & & & & & = & 0 \\ \end{cases} }[/math]

[math]\displaystyle{ \begin{cases} c & + & f & + & 2i & = & 0 \\ 2c & + & 2f & + & 3i & = & 0 \\ c & & & & & = & 1 \end{cases} }[/math]

Resolvendo os sistemas encontramos a matriz inversa:

[math]\displaystyle{ \left[\begin{matrix} 0 & 0 & 1 \\ -3 & 2 & -1 \\ 2 & -1 & 0 \end{matrix}\right] }[/math]

O custo deste método é proibitivo com matrizes muito grandes, sendo melhor utilizar o método de Gauss-Jordan.


  • Se A é inversível e A comuta com C, mostre que [math]\displaystyle{ A^{-1} }[/math] tambem comuta com C. Se A e C são inversíveis e comutam, mostre que [math]\displaystyle{ A^{-1} }[/math] e [math]\displaystyle{ C^{-1} }[/math] tambem comutam.

[math]\displaystyle{ \begin{align*} AC & = CA \\ A^{-1}(AC) & = A^{-1}(CA) \\ (A^{-1}A)C & = (A^{-1}C)A \\ C & = (A^{-1}C)A \\ CA^{-1} & = [(A^{-1}C)A]A^{-1} \\ CA^{-1} & = (A^{-1}C)(AA^{-1}) \\ CA^{-1} & = A^{-1}C \end{align*} }[/math]

Quando as matrizes não comutam não é possível utilizar a propriedade associativa, mas A e C comutam. Multiplicando ambos os lados por uma mesma matriz a igualdade se mantem. Desenvolvendo a expressão provamos que [math]\displaystyle{ A^{-1} }[/math] comuta com C.

[math]\displaystyle{ \begin{align*} CA^{-1} & = A^{-1}C \\ C^{-1}(A^{-1}C) & = C^{-1}(CA^{-1}) \\ C^{-1}(A^{-1}C) & = A^{-1} \\ [C^{-1}(A^{-1}C)]C^{-1} & = A^{-1}C^{-1} \\ C^{-1}A^{-1} & = A^{-1}C^{-1} \end{align*} }[/math]

Com um desenvolvimento análogo ao anterior provamos que [math]\displaystyle{ A^{-1} }[/math] e [math]\displaystyle{ C^{-1} }[/math] comutam.


  • Encontre a matriz A
  • [math]\displaystyle{ [2A^T - 3I]^{-1} = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right] }[/math]

Vamos usar a seguinte propriedade para resolver a equação: [math]\displaystyle{ A^{-1} = B \iff B^{-1} = A }[/math]

[math]\displaystyle{ A = \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] \implies A^T = \left[\begin{matrix} a & c \\ b & d \end{matrix}\right] }[/math]

[math]\displaystyle{ [2A^T - 3I]^{-1} = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right] \iff 2A^T - 3I = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right]^{-1} }[/math]

Calculando a inversa:

[math]\displaystyle{ \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right]^{-1} = \left[\begin{matrix} 1 & -2 \\ -1 & 3 \end{matrix}\right] }[/math]

Escrevendo a equação matricial (I é a matriz identidade):

[math]\displaystyle{ \left[\begin{matrix} 2a - 3 & 2c \\ 2b & 2d - 3 \end{matrix}\right] = \left[\begin{matrix} 1 & -2 \\ -1 & 3 \end{matrix}\right] }[/math]

Fazendo a igualdade elemento a elemento das matrizes encontramos a matriz A:

[math]\displaystyle{ A = \left[\begin{matrix} 2 & -\frac{1}{2} \\ -1 & 3 \end{matrix}\right] }[/math]


  • Resolva o sistema AX = 0 por eliminação de Gauss. Escreva as matrizes elementares que transformam A na matriz na forma escalonada U. Calcule a matriz M tal que MA = U.

[math]\displaystyle{ A = \left[\begin{matrix} 1 & 2 & 3 \\ -1 & 1 & -2 \\ 2 & 1 & 1 \end{matrix}\right] }[/math]

O método de resolução é aplicar o algoritmo de Gauss-Jordan para escalonar a matriz, ao final do processo teremos à direita a matriz M. Como tambem são pedidas as matrizes elementares a estratégia é aplicar apenas uma operação elementar por vez:

[math]\displaystyle{ \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ -1 & 1 & -2 & | & 0 & 1 & 0 \\ 2 & 1 & 1 & | & 0 & 0 & 1 \end{matrix}\right] \thicksim L_2 + L_1 \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 2 & 1 & 1 & | & 0 & 0 & 1 \end{matrix}\right] \thicksim -2L_1 \left[\begin{matrix} -2 & -4 & -6 & | & -2 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 2 & 1 & 1 & | & 0 & 0 & 1 \end{matrix}\right] }[/math]

[math]\displaystyle{ \thicksim L_1 + L_3 \left[\begin{matrix} -2 & -4 & -6 & | & -2 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 0 & -3 & -5 & | & -2 & 0 & 1 \end{matrix}\right] \thicksim L_2 + L_3 \left[\begin{matrix} -2 & -4 & -6 & | & -2 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 0 & 0 & -4 & | & -1 & 1 & 1 \end{matrix}\right] \thicksim }[/math]

[math]\displaystyle{ \frac{L_1}{-2} \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 0 & 0 & -4 & | & -1 & 1 & 1 \end{matrix}\right] \thicksim \frac{L_2}{3} \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 1 & \frac{1}{3} & | & \frac{1}{3} & \frac{1}{3} & 0 \\ 0 & 0 & -4 & | & -1 & 1 & 1 \end{matrix}\right] \thicksim \frac{L_3}{-4} \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 1 & \frac{1}{3} & | & \frac{1}{3} & \frac{1}{3} & 0 \\ 0 & 0 & 1 & | & \frac{1}{4} & -\frac{1}{4} & -\frac{1}{4} \end{matrix}\right] }[/math]

Resolução do sistema linear homogêneo:

[math]\displaystyle{ \begin{cases} x & + & 2y & + & 3z & = & 0 \\ & & y & + & \frac{1}{3}z & = & 0 \\ & & & & z & = & 0 \end{cases} }[/math]

Solução: x = y = z = 0

Ou, na forma de um vetor: [math]\displaystyle{ X = \left[\begin{matrix} 0 \\ 0 \\ 0 \end{matrix}\right] }[/math]

As matrizes elementares são:

[math]\displaystyle{ E_1 = \left[\begin{matrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 1 \end{matrix}\right], E_2 = \left[\begin{matrix} -2 & 0 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 1 \end{matrix}\right], E_3 = \left[\begin{matrix} -2 & 0 & 0 \\ 1 & 1 & 0 \\ -2 & 0 & 1 \end{matrix}\right], E_4 = \left[\begin{matrix} -2 & 0 & 0 \\ 1 & 1 & 0 \\ -1 & 1 & 1 \end{matrix}\right], E_5 = \left[\begin{matrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ -1 & 1 & 1 \end{matrix}\right], }[/math]

[math]\displaystyle{ E_6 = \left[\begin{matrix} 1 & 0 & 0 \\ \frac{1}{3} & \frac{1}{3} & 0 \\ -1 & 1 & 1 \end{matrix}\right], E_7 = \left[\begin{matrix} 1 & 0 & 0 \\ \frac{1}{3} & \frac{1}{3} & 0 \\ \frac{1}{4} & -\frac{1}{4} & -\frac{1}{4} \end{matrix}\right]. }[/math]


  • Em cada caso, ou mostre que a afirmação é verdadeira ou dê um exemplo mostrando que ela é falsa. Suponhamos que A, B e C são matrizes quadradas.
  • Se [math]\displaystyle{ A^3 = 3I }[/math], então A é inversível.

Se ambas as matrizes são iguais, então os determinantes também o são.

[math]\displaystyle{ \begin{align*} det(A^3) & = det(3I) \\ det(3I) & \ne 0 \implies det(A^3) \ne 0 \\ det(A)det(A)det(A) & \ne 0 \\ (det(A))^3 & \ne 0 \\ \therefore det(A) & \ne 0 \end{align*} }[/math]

A é inversível [math]\displaystyle{ \iff det(A) \ne 0 }[/math]


  • Se [math]\displaystyle{ A^2 = A }[/math] e [math]\displaystyle{ A \ne 0 }[/math], então A é inversível.

[math]\displaystyle{ \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] = \left[\begin{matrix} a^2 + bc & (a + d)b \\ (a + d)c & bc + d^2 \end{matrix}\right] = \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] }[/math]

Note que [math]\displaystyle{ a^2 + bc = a }[/math], ou a = 1 e bc = 0 ou a = bc = 0. O mesmo ocorre com [math]\displaystyle{ bc + d^2 = d }[/math] (a + d)b = b, ou a + d = 1, ou b = 0, ou a ou b é nulo e o outro um. O mesmo ocorre com (a + d)c = c

Ou seja, os valores possíveis para as quatro incógnitas são 0 ou 1. A matriz [math]\displaystyle{ \left[\begin{matrix} 0 & 0 \\ 1 & 1 \end{matrix}\right] }[/math] obedece a [math]\displaystyle{ A^2 = A }[/math] mas det(A) = 0 e ela não é inversível.


  • Se A e B são inversíveis, então A + B é inversível

A soma de duas matrizes inversíveis não é necessariamente inversível. [math]\displaystyle{ A = \left[\begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix}\right] }[/math] e [math]\displaystyle{ B = \left[\begin{matrix} -1 & 0 \\ 0 & -1 \end{matrix}\right] }[/math], A e B são inversíveis mas A + B não.


  • Se A e B são inversíveis, então AB é inversível.

det(A) ≠ 0 e det(B) ≠ 0. Como det(AB) = det(A)det(B), então det(AB) ≠ 0 e AB é inversível.


  • Se AB = 0 e A ≠ 0, então B = 0.

Falso. [math]\displaystyle{ \left[\begin{matrix} 1 & 0 \\ 0 & 0 \end{matrix}\right] \left[\begin{matrix} 0 & 0 \\ 0 & 1 \end{matrix}\right] = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right] }[/math]


  • Se AC = I, então [math]\displaystyle{ C = A^{-1} }[/math]

Primeiro vamos verificar que A é inversível:

det(AC) = det(I) det(A)det(C) = 1

Como C é a inversa e det(I) = 1, só resta que det(A) ≠ 0.

[math]\displaystyle{ A^{-1}(AC) = A^{-1}I }[/math] [math]\displaystyle{ (A^{-1}A)C = A^{-1} }[/math] [math]\displaystyle{ C = A^{-1} }[/math]


  • Se AB = AC, então B = C.

Falso. É possível obter uma mesma matriz a partir de duas multiplicações diferentes. [math]\displaystyle{ A = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right] }[/math], [math]\displaystyle{ B = \left[\begin{matrix} 0 & 1 \\ 0 & 1 \end{matrix}\right] }[/math] e [math]\displaystyle{ C = \left[\begin{matrix} 1 & 0 \\ 1 & 0 \end{matrix}\right] }[/math]


  • Se AB = 0, então nem A nem B tem inversa.

Falso. [math]\displaystyle{ A = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right] }[/math] e [math]\displaystyle{ B = \left[\begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix}\right] }[/math]


  • Se AB é inversível, então A e B são inversíveis.

Se AB é inversível, então det(AB) ≠ 0 [math]\displaystyle{ \iff }[/math] det(A)det(B) ≠ 0 [math]\displaystyle{ \implies }[/math] det(A) ≠ 0 e det(B) ≠ 0. Portanto, A e B são inversíveis.


  • Se A é simétrica e inversível, então [math]\displaystyle{ A^{-1} }[/math] tambem é simétrica.

Temos que verificar se [math]\displaystyle{ (A^{-1})^T = A^{-1} }[/math] Vamos aplicar a propriedade [math]\displaystyle{ (A^{-1})^T = (A^T)^{-1} }[/math] //(a transposta da inversa é igual a inversa da transposta. Ora, se a matriz é simétrica, então inverter antes ou depois de transpor dá na mesma)// A é simétrica, então [math]\displaystyle{ A^{-1} = (A^T)^{-1} }[/math] (a inversa é igual a inversa da transposta) Portanto, [math]\displaystyle{ A^{-1} = (A^T)^{-1} }[/math]