Exercícios de sistemas linares e matrizes: Difference between revisions
(Created page with "<center> '''Método da substituição'''</center> <math> \begin{cases} x & + & y & + & z & = & 1 \\ x & - & y & + & 3z & = & 2 \\ 2x & + & 4y & - & z & = & 0 \\ \end{cases} </math> Isolando x na primeira equação e substituindo nas outras duas: <math> \begin{cases} -y & - & z & + & 1 & - & y & + & 3z & = & 2 \\ 2(-y & - & z & + & 1) & + & 4y & - & z & = & 0 \end{cases} </math> Isolando y e substituindo na equação restante: <math> \begin{matrix} y = & z - \frac{1...") Tag: wikieditor |
No edit summary Tag: wikieditor |
||
(3 intermediate revisions by the same user not shown) | |||
Line 1: | Line 1: | ||
* Método de Gauss-Jordan para calcular a inversa de uma matriz. | |||
<math> | <math> | ||
\begin{ | \left[\begin{matrix} | ||
1 & 0 & 0 \\ | |||
a & 1 & 0 \\ | |||
b & c & 1 | |||
\end{ | \end{matrix}\right] | ||
</math> | </math> | ||
Escreva a matriz identidade ao lado da matriz que se quer inverter: | |||
<math> | <math> | ||
\begin{ | \left[\begin{matrix} | ||
1 & 0 & 0 & | & 1 & 0 & 0\\ | |||
a & 1 & 0 & | & 0 & 1 & 0\\ | |||
\end{ | b & c & 1 & | & 0 & 0 & 1 | ||
\end{matrix}\right] | |||
</math> | </math> | ||
Aplique operações elementares sobre as linhas da matriz aumentada a fim de transformar a matriz da esquerda na identidade, como resultado, teremos à direita a matriz inversa: | |||
<math> | <math> | ||
\begin{matrix} | L_2 - aL_1\left[\begin{matrix} | ||
1 & 0 & 0 & | & 1 & 0 & 0\\ | |||
\\ | 0 & 1 & 0 & | & -a & 1 & 0\\ | ||
b & c & 1 & | & 0 & 0 & 1 | |||
\end{matrix}\right] \thicksim | |||
L_3 - bL_1\left[\begin{matrix} | |||
\end{matrix} | 1 & 0 & 0 & | & 1 & 0 & 0\\ | ||
0 & 1 & 0 & | & -a & 1 & 0\\ | |||
0 & c & 1 & | & -b & 0 & 1 | |||
\end{matrix}\right] \thicksim | |||
</math> | </math> | ||
<math> | <math> | ||
L_3 - cL_2\left[\begin{matrix} | |||
1 & 0 & 0 & | & 1 & 0 & 0\\ | |||
0 & 1 & 0 & | & -a & 1 & 0\\ | |||
0 & 0 & 1 & | & ac - b & -c & 1 | |||
\end{matrix}\right] | |||
</math> | </math> | ||
<hr> | |||
* Método pela definição da matriz inversa | |||
<math> | <math> | ||
\left[\begin{matrix} | |||
1 & 1 & 2 \\ | |||
2 & 2 & 3 \\ | |||
1 & 0 & 0 | |||
\end{matrix}\right] | |||
</math> | </math> | ||
A | A matriz inversa é tal que multiplicando uma matriz pela sua inversa resulta a identidade: | ||
<math> | |||
\left[\begin{matrix} | |||
1 & 1 & 2 \\ | |||
2 & 2 & 3 \\ | |||
1 & 0 & 0 | |||
\end{matrix}\right] | |||
\left[\begin{matrix} | |||
a & b & c \\ | |||
d & e & f \\ | |||
g & h & i | |||
\end{matrix}\right] = | |||
\left[\begin{matrix} | |||
1 & 0 & 0 \\ | |||
0 & 1 & 0 \\ | |||
0 & 0 & 1 | |||
\end{matrix}\right] | |||
</math> | |||
Realizando a multiplicação obtemos três sistemas lineares ''(para economizar tempo não realize a multiplicação da forma usual, uma linha da primeira por cada coluna da segunda. Faça ao contrário, cada linha da primeira por uma coluna da segunda. Assim o sistema já sai com equações ordenadas)'': | |||
<math> | <math> | ||
\begin{cases} | \begin{cases} | ||
a & + & d & + & 2g & = & 1 \\ | |||
2a & + & 2d & + & 3g & = & 0 \\ | |||
a & & & & & = & 0 \\ | |||
\end{cases} | \end{cases} | ||
</math> | </math> | ||
<math> | <math> | ||
\begin{cases} | \begin{cases} | ||
b & + & e & + & 2h & = & 0 \\ | |||
2b & + & 2e & + & 3h & = & 1 \\ | |||
b & & & & & = & 0 \\ | |||
\end{cases} | \end{cases} | ||
</math> | </math> | ||
<math> | <math> | ||
\begin{cases} | \begin{cases} | ||
c & + & f & + & 2i & = & 0 \\ | |||
2c & + & 2f & + & 3i & = & 0 \\ | |||
c & & & & & = & 1 | |||
\end{cases} | \end{cases} | ||
</math> | </math> | ||
Resolvendo os sistemas encontramos a matriz inversa: | |||
<math> | <math> | ||
\begin{ | \left[\begin{matrix} | ||
0 & 0 & 1 \\ | |||
-3 & 2 & -1 \\ | |||
2 & -1 & 0 | |||
\end{ | \end{matrix}\right] | ||
</math> | </math> | ||
O custo deste método é proibitivo com matrizes muito grandes, sendo melhor utilizar o método de Gauss-Jordan. | |||
<hr> | |||
<math> | * Se A é inversível e A comuta com C, mostre que <math>A^{-1}</math> tambem comuta com C. Se A e C são inversíveis e comutam, mostre que <math>A^{-1}</math> e <math>C^{-1}</math> tambem comutam. | ||
\begin{ | |||
<math>\begin{align*} | |||
AC & = CA \\ | |||
A^{-1}(AC) & = A^{-1}(CA) \\ | |||
\end{ | (A^{-1}A)C & = (A^{-1}C)A \\ | ||
C & = (A^{-1}C)A \\ | |||
CA^{-1} & = [(A^{-1}C)A]A^{-1} \\ | |||
CA^{-1} & = (A^{-1}C)(AA^{-1}) \\ | |||
CA^{-1} & = A^{-1}C | |||
\end{align*} | |||
</math> | |||
Quando as matrizes não comutam não é possível utilizar a propriedade associativa, mas A e C comutam. Multiplicando ambos os lados por uma mesma matriz a igualdade se mantem. Desenvolvendo a expressão provamos que <math>A^{-1}</math> comuta com C. | |||
<math>\begin{align*} | |||
CA^{-1} & = A^{-1}C \\ | |||
C^{-1}(A^{-1}C) & = C^{-1}(CA^{-1}) \\ | |||
C^{-1}(A^{-1}C) & = A^{-1} \\ | |||
[C^{-1}(A^{-1}C)]C^{-1} & = A^{-1}C^{-1} \\ | |||
C^{-1}A^{-1} & = A^{-1}C^{-1} | |||
\end{align*} | |||
</math> | </math> | ||
Com um desenvolvimento análogo ao anterior provamos que <math>A^{-1}</math> e <math>C^{-1}</math> comutam. | |||
<hr> | |||
* Encontre a matriz A | |||
* <math>[2A^T - 3I]^{-1} = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right]</math> | |||
Vamos usar a seguinte propriedade para resolver a equação: <math>A^{-1} = B \iff B^{-1} = A</math> | |||
<math>A = \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] \implies A^T = \left[\begin{matrix} a & c \\ b & d \end{matrix}\right]</math> | |||
<math> | <math> | ||
\begin{ | [2A^T - 3I]^{-1} = \left[\begin{matrix} | ||
3 & 2 \\ | |||
\\ | 1 & 1 | ||
\end{matrix}\right] \iff 2A^T - 3I = \left[\begin{matrix} | |||
3 & 2 \\ | |||
1 & 1 | |||
\end{ | \end{matrix}\right]^{-1} | ||
</math> | </math> | ||
Calculando a inversa: | |||
<math> | <math> | ||
\left[\begin{matrix} | \left[\begin{matrix} | ||
3 & 2 \\ | |||
1 & - | 1 & 1 | ||
\end{matrix}\right]^{-1} = | |||
\left[\begin{matrix} | |||
1 & -2 \\ | |||
-1 & 3 | |||
\end{matrix}\right] | \end{matrix}\right] | ||
</math> | </math> | ||
Escrevendo a equação matricial ''(I é a matriz identidade)'': | |||
<math> | <math> | ||
\left[\begin{matrix} | \left[\begin{matrix} | ||
2a - 3 & 2c \\ | |||
2b & 2d - 3 | |||
\end{matrix}\right] = | |||
\left[\begin{matrix} | |||
1 & -2 \\ | |||
-1 & 3 | |||
\end{matrix}\right] | \end{matrix}\right] | ||
</math> | </math> | ||
Fazendo a igualdade elemento a elemento das matrizes encontramos a matriz A: | |||
<math> | |||
A = \left[\begin{matrix} | |||
2 & -\frac{1}{2} \\ | |||
-1 & 3 | |||
\end{matrix}\right] | |||
</math> | |||
<hr> | |||
* Resolva o sistema AX = 0 por eliminação de Gauss. Escreva as matrizes elementares que transformam A na matriz na forma escalonada U. Calcule a matriz M tal que MA = U. | |||
<math> | <math> | ||
\begin{ | A = \left[\begin{matrix} 1 & 2 & 3 \\ -1 & 1 & -2 \\ 2 & 1 & 1 \end{matrix}\right] | ||
\end{ | |||
</math> | </math> | ||
O método de resolução é aplicar o algoritmo de Gauss-Jordan para escalonar a matriz, ao final do processo teremos à direita a matriz M. Como tambem são pedidas as matrizes elementares a estratégia é aplicar apenas uma operação elementar por vez: | |||
<math> | <math> | ||
\left[\begin{matrix} | |||
1 & 2 & 3 & | & 1 & 0 & 0 \\ | |||
-1 & 1 & -2 & | & 0 & 1 & 0 \\ | |||
2 & 1 & 1 & | & 0 & 0 & 1 | |||
\end{matrix}\right] \thicksim L_2 + L_1 | |||
\left[\begin{matrix} | |||
1 & 2 & 3 & | & 1 & 0 & 0 \\ | |||
0 & 3 & 1 & | & 1 & 1 & 0 \\ | |||
2 & 1 & 1 & | & 0 & 0 & 1 | |||
\end{matrix}\right] \thicksim -2L_1 | |||
\left[\begin{matrix} | |||
-2 & -4 & -6 & | & -2 & 0 & 0 \\ | |||
0 & 3 & 1 & | & 1 & 1 & 0 \\ | |||
2 & 1 & 1 & | & 0 & 0 & 1 | |||
\end{matrix}\right] | |||
</math> | </math> | ||
<math> | <math> | ||
- | \thicksim L_1 + L_3 | ||
\left[\begin{matrix} | |||
-2 & -4 & -6 & | & -2 & 0 & 0 \\ | |||
0 & 3 & 1 & | & 1 & 1 & 0 \\ | |||
0 & -3 & -5 & | & -2 & 0 & 1 | |||
\end{matrix}\right] \thicksim L_2 + L_3 | |||
\left[\begin{matrix} | |||
-2 & -4 & -6 & | & -2 & 0 & 0 \\ | |||
0 & 3 & 1 & | & 1 & 1 & 0 \\ | |||
0 & 0 & -4 & | & -1 & 1 & 1 | |||
\end{matrix}\right] \thicksim | |||
</math> | </math> | ||
<math> | <math> | ||
\frac{L_1}{-2} | |||
\left[\begin{matrix} | \left[\begin{matrix} | ||
1 & 1 & 1 & | & 1 \\ | 1 & 2 & 3 & | & 1 & 0 & 0 \\ | ||
0 & 3 & 1 & | & 1 & 1 & 0 \\ | |||
\end{matrix}\right] \thicksim | 0 & 0 & -4 & | & -1 & 1 & 1 | ||
\end{matrix}\right] \thicksim \frac{L_2}{3} | |||
\left[\begin{matrix} | \left[\begin{matrix} | ||
1 & 1 & 1 & | & 1 \\ | 1 & 2 & 3 & | & 1 & 0 & 0 \\ | ||
0 & 2 & | 0 & 1 & \frac{1}{3} & | & \frac{1}{3} & \frac{1}{3} & 0 \\ | ||
0 & 0 & -4 & | & -1 & 1 & 1 | |||
\end{matrix}\right] \thicksim \frac{L_3}{-4} | |||
\left[\begin{matrix} | |||
1 & 2 & 3 & | & 1 & 0 & 0 \\ | |||
0 & 1 & \frac{1}{3} & | & \frac{1}{3} & \frac{1}{3} & 0 \\ | |||
0 & 0 & 1 & | & \frac{1}{4} & -\frac{1}{4} & -\frac{1}{4} | |||
\end{matrix}\right] | \end{matrix}\right] | ||
</math> | </math> | ||
Resolução do sistema linear homogêneo: | |||
<math> | <math> | ||
\begin{cases} | \begin{cases} | ||
x & + & | x & + & 2y & + & 3z & = & 0 \\ | ||
& & y & + & \frac{1}{3}z & = & 0 \\ | |||
& & & & z & = & 0 | |||
\end{cases} | \end{cases} | ||
</math> | </math> | ||
Solução: x = y = z = 0 | |||
Ou, na forma de um vetor: <math>X = \left[\begin{matrix} 0 \\ 0 \\ 0 \end{matrix}\right]</math> | |||
As matrizes elementares são: | |||
<math> | <math> | ||
\left[\begin{matrix} | E_1 = \left[\begin{matrix} | ||
1 & 1 & | 1 & 0 & 0 \\ | ||
2 & | 1 & 1 & 0 \\ | ||
1 & 2 & | 0 & 0 & 1 | ||
\end{matrix}\right] | \end{matrix}\right], E_2 = \left[\begin{matrix} | ||
-2 & 0 & 0 \\ | |||
1 & 1 & 0 \\ | |||
0 & 0 & 1 | |||
\end{matrix}\right], E_3 = \left[\begin{matrix} | |||
-2 & 0 & 0 \\ | |||
1 & 1 & 0 \\ | |||
-2 & 0 & 1 | |||
\end{matrix}\right], E_4 = \left[\begin{matrix} | |||
-2 & 0 & 0 \\ | |||
1 & 1 & 0 \\ | |||
-1 & 1 & 1 | |||
\end{matrix}\right], E_5 = \left[\begin{matrix} | |||
1 & 0 & 0 \\ | |||
1 & 1 & 0 \\ | |||
-1 & 1 & 1 | |||
\end{matrix}\right], | |||
</math> | </math> | ||
<math> | <math> | ||
\left[\begin{matrix} | E_6 = \left[\begin{matrix} | ||
1 & | 1 & 0 & 0 \\ | ||
\frac{1}{3} & \frac{1}{3} & 0 \\ | |||
1 & | -1 & 1 & 1 | ||
\end{matrix}\right] | \end{matrix}\right], E_7 = \left[\begin{matrix} | ||
\left[\begin{matrix} | 1 & 0 & 0 \\ | ||
1 & | \frac{1}{3} & \frac{1}{3} & 0 \\ | ||
1 & | \frac{1}{4} & -\frac{1}{4} & -\frac{1}{4} | ||
1 | \end{matrix}\right]. | ||
\ | |||
1 | |||
\end{matrix}\right] | |||
</math> | </math> | ||
<hr> | |||
* Em cada caso, ou mostre que a afirmação é verdadeira ou dê um exemplo mostrando que ela é falsa. Suponhamos que A, B e C são matrizes quadradas. | |||
* Se <math>A^3 = 3I</math>, então A é inversível. | |||
Se ambas as matrizes são iguais, então os determinantes também o são. | |||
<math> | <math> | ||
\begin{ | \begin{align*} | ||
det(A^3) & = det(3I) \\ | |||
det(3I) & \ne 0 \implies det(A^3) \ne 0 \\ | |||
det(A)det(A)det(A) & \ne 0 \\ | |||
\end{ | (det(A))^3 & \ne 0 \\ | ||
\therefore det(A) & \ne 0 | |||
\end{align*} | |||
</math> | </math> | ||
A é inversível <math>\iff det(A) \ne 0</math> | |||
<hr> | |||
* Se <math>A^2 = A</math> e <math>A \ne 0</math>, então A é inversível. | |||
<math> | <math> | ||
\left[\begin{matrix} | \left[\begin{matrix} | ||
a & b \\ | |||
c & d | |||
\end{matrix}\right] | |||
\end{matrix}\right] | \left[\begin{matrix} | ||
a & b \\ | |||
c & d | |||
\end{matrix}\right] = | |||
\left[\begin{matrix} | \left[\begin{matrix} | ||
2 & | a^2 + bc & (a + d)b \\ | ||
(a + d)c & bc + d^2 | |||
\end{matrix}\right] = | |||
\end{matrix}\right] | |||
\left[\begin{matrix} | \left[\begin{matrix} | ||
a & b \\ | |||
c & d | |||
\end{matrix}\right] | \end{matrix}\right] | ||
</math> | </math> | ||
<math> | Note que | ||
\ | <math>a^2 + bc = a</math>, ou a = 1 e bc = 0 ou a = bc = 0. O mesmo ocorre com <math>bc + d^2 = d</math> | ||
\left[\begin{matrix} | (a + d)b = b, ou a + d = 1, ou b = 0, ou a ou b é nulo e o outro um. O mesmo ocorre com (a + d)c = c | ||
Ou seja, os valores possíveis para as quatro incógnitas são 0 ou 1. A matriz <math>\left[\begin{matrix} 0 & 0 \\ 1 & 1 \end{matrix}\right]</math> obedece a <math>A^2 = A</math> mas det(A) = 0 e ela não é inversível. | |||
0 & 0 & 0 | |||
\end{matrix}\right] | <hr> | ||
</math> | |||
* Se A e B são inversíveis, então A + B é inversível | |||
A soma de duas matrizes inversíveis não é necessariamente inversível. <math>A = \left[\begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix}\right]</math> e <math>B = \left[\begin{matrix} -1 & 0 \\ 0 & -1 \end{matrix}\right]</math>, A e B são inversíveis mas A + B não. | |||
<hr> | |||
* Se A e B são inversíveis, então AB é inversível. | |||
det(A) ≠ 0 e det(B) ≠ 0. Como det(AB) = det(A)det(B), então det(AB) ≠ 0 e AB é inversível. | |||
<hr> | |||
* Se AB = 0 e A ≠ 0, então B = 0. | |||
Falso. <math>\left[\begin{matrix} 1 & 0 \\ 0 & 0 \end{matrix}\right] \left[\begin{matrix} 0 & 0 \\ 0 & 1 \end{matrix}\right] = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right]</math> | |||
<hr> | |||
* Se AC = I, então <math>C = A^{-1}</math> | |||
Primeiro vamos verificar que A é inversível: | |||
det(AC) = det(I) | |||
det(A)det(C) = 1 | |||
Como C é a inversa e det(I) = 1, só resta que det(A) ≠ 0. | |||
<math>A^{-1}(AC) = A^{-1}I</math> | |||
<math>(A^{-1}A)C = A^{-1}</math> | |||
<math>C = A^{-1}</math> | |||
<hr> | |||
* Se AB = AC, então B = C. | |||
<math> | Falso. É possível obter uma mesma matriz a partir de duas multiplicações diferentes. <math>A = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right]</math>, <math>B = \left[\begin{matrix} 0 & 1 \\ 0 & 1 \end{matrix}\right]</math> e <math>C = \left[\begin{matrix} 1 & 0 \\ 1 & 0 \end{matrix}\right]</math> | ||
\begin{ | |||
\end{ | |||
</math> | |||
< | <hr> | ||
* Se AB = 0, então nem A nem B tem inversa. | |||
Falso. <math>A = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right]</math> e <math>B = \left[\begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix}\right]</math> | |||
< | <hr> | ||
Se | * Se AB é inversível, então A e B são inversíveis. | ||
Se AB é inversível, então det(AB) ≠ 0 <math>\iff</math> det(A)det(B) ≠ 0 <math>\implies</math> det(A) ≠ 0 e det(B) ≠ 0. Portanto, A e B são inversíveis. | |||
<hr> | |||
Se | * Se A é simétrica e inversível, então <math>A^{-1}</math> tambem é simétrica. | ||
Temos que verificar se <math>(A^{-1})^T = A^{-1}</math> | |||
Vamos aplicar a propriedade <math>(A^{-1})^T = (A^T)^{-1}</math> //(a transposta da inversa é igual a inversa da transposta. Ora, se a matriz é simétrica, então inverter antes ou depois de transpor dá na mesma)// | |||
A é simétrica, então <math>A^{-1} = (A^T)^{-1}</math> ''(a inversa é igual a inversa da transposta)'' | |||
Portanto, <math>A^{-1} = (A^T)^{-1}</math> |
Latest revision as of 20:28, 3 February 2024
- Método de Gauss-Jordan para calcular a inversa de uma matriz.
[math]\displaystyle{ \left[\begin{matrix} 1 & 0 & 0 \\ a & 1 & 0 \\ b & c & 1 \end{matrix}\right] }[/math]
Escreva a matriz identidade ao lado da matriz que se quer inverter:
[math]\displaystyle{ \left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ a & 1 & 0 & | & 0 & 1 & 0\\ b & c & 1 & | & 0 & 0 & 1 \end{matrix}\right] }[/math]
Aplique operações elementares sobre as linhas da matriz aumentada a fim de transformar a matriz da esquerda na identidade, como resultado, teremos à direita a matriz inversa:
[math]\displaystyle{ L_2 - aL_1\left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ 0 & 1 & 0 & | & -a & 1 & 0\\ b & c & 1 & | & 0 & 0 & 1 \end{matrix}\right] \thicksim L_3 - bL_1\left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ 0 & 1 & 0 & | & -a & 1 & 0\\ 0 & c & 1 & | & -b & 0 & 1 \end{matrix}\right] \thicksim }[/math]
[math]\displaystyle{ L_3 - cL_2\left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ 0 & 1 & 0 & | & -a & 1 & 0\\ 0 & 0 & 1 & | & ac - b & -c & 1 \end{matrix}\right] }[/math]
- Método pela definição da matriz inversa
[math]\displaystyle{ \left[\begin{matrix} 1 & 1 & 2 \\ 2 & 2 & 3 \\ 1 & 0 & 0 \end{matrix}\right] }[/math]
A matriz inversa é tal que multiplicando uma matriz pela sua inversa resulta a identidade:
[math]\displaystyle{ \left[\begin{matrix} 1 & 1 & 2 \\ 2 & 2 & 3 \\ 1 & 0 & 0 \end{matrix}\right] \left[\begin{matrix} a & b & c \\ d & e & f \\ g & h & i \end{matrix}\right] = \left[\begin{matrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{matrix}\right] }[/math]
Realizando a multiplicação obtemos três sistemas lineares (para economizar tempo não realize a multiplicação da forma usual, uma linha da primeira por cada coluna da segunda. Faça ao contrário, cada linha da primeira por uma coluna da segunda. Assim o sistema já sai com equações ordenadas):
[math]\displaystyle{ \begin{cases} a & + & d & + & 2g & = & 1 \\ 2a & + & 2d & + & 3g & = & 0 \\ a & & & & & = & 0 \\ \end{cases} }[/math]
[math]\displaystyle{ \begin{cases} b & + & e & + & 2h & = & 0 \\ 2b & + & 2e & + & 3h & = & 1 \\ b & & & & & = & 0 \\ \end{cases} }[/math]
[math]\displaystyle{ \begin{cases} c & + & f & + & 2i & = & 0 \\ 2c & + & 2f & + & 3i & = & 0 \\ c & & & & & = & 1 \end{cases} }[/math]
Resolvendo os sistemas encontramos a matriz inversa:
[math]\displaystyle{ \left[\begin{matrix} 0 & 0 & 1 \\ -3 & 2 & -1 \\ 2 & -1 & 0 \end{matrix}\right] }[/math]
O custo deste método é proibitivo com matrizes muito grandes, sendo melhor utilizar o método de Gauss-Jordan.
- Se A é inversível e A comuta com C, mostre que [math]\displaystyle{ A^{-1} }[/math] tambem comuta com C. Se A e C são inversíveis e comutam, mostre que [math]\displaystyle{ A^{-1} }[/math] e [math]\displaystyle{ C^{-1} }[/math] tambem comutam.
[math]\displaystyle{ \begin{align*} AC & = CA \\ A^{-1}(AC) & = A^{-1}(CA) \\ (A^{-1}A)C & = (A^{-1}C)A \\ C & = (A^{-1}C)A \\ CA^{-1} & = [(A^{-1}C)A]A^{-1} \\ CA^{-1} & = (A^{-1}C)(AA^{-1}) \\ CA^{-1} & = A^{-1}C \end{align*} }[/math]
Quando as matrizes não comutam não é possível utilizar a propriedade associativa, mas A e C comutam. Multiplicando ambos os lados por uma mesma matriz a igualdade se mantem. Desenvolvendo a expressão provamos que [math]\displaystyle{ A^{-1} }[/math] comuta com C.
[math]\displaystyle{ \begin{align*} CA^{-1} & = A^{-1}C \\ C^{-1}(A^{-1}C) & = C^{-1}(CA^{-1}) \\ C^{-1}(A^{-1}C) & = A^{-1} \\ [C^{-1}(A^{-1}C)]C^{-1} & = A^{-1}C^{-1} \\ C^{-1}A^{-1} & = A^{-1}C^{-1} \end{align*} }[/math]
Com um desenvolvimento análogo ao anterior provamos que [math]\displaystyle{ A^{-1} }[/math] e [math]\displaystyle{ C^{-1} }[/math] comutam.
- Encontre a matriz A
- [math]\displaystyle{ [2A^T - 3I]^{-1} = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right] }[/math]
Vamos usar a seguinte propriedade para resolver a equação: [math]\displaystyle{ A^{-1} = B \iff B^{-1} = A }[/math]
[math]\displaystyle{ A = \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] \implies A^T = \left[\begin{matrix} a & c \\ b & d \end{matrix}\right] }[/math]
[math]\displaystyle{ [2A^T - 3I]^{-1} = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right] \iff 2A^T - 3I = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right]^{-1} }[/math]
Calculando a inversa:
[math]\displaystyle{ \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right]^{-1} = \left[\begin{matrix} 1 & -2 \\ -1 & 3 \end{matrix}\right] }[/math]
Escrevendo a equação matricial (I é a matriz identidade):
[math]\displaystyle{ \left[\begin{matrix} 2a - 3 & 2c \\ 2b & 2d - 3 \end{matrix}\right] = \left[\begin{matrix} 1 & -2 \\ -1 & 3 \end{matrix}\right] }[/math]
Fazendo a igualdade elemento a elemento das matrizes encontramos a matriz A:
[math]\displaystyle{ A = \left[\begin{matrix} 2 & -\frac{1}{2} \\ -1 & 3 \end{matrix}\right] }[/math]
- Resolva o sistema AX = 0 por eliminação de Gauss. Escreva as matrizes elementares que transformam A na matriz na forma escalonada U. Calcule a matriz M tal que MA = U.
[math]\displaystyle{ A = \left[\begin{matrix} 1 & 2 & 3 \\ -1 & 1 & -2 \\ 2 & 1 & 1 \end{matrix}\right] }[/math]
O método de resolução é aplicar o algoritmo de Gauss-Jordan para escalonar a matriz, ao final do processo teremos à direita a matriz M. Como tambem são pedidas as matrizes elementares a estratégia é aplicar apenas uma operação elementar por vez:
[math]\displaystyle{ \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ -1 & 1 & -2 & | & 0 & 1 & 0 \\ 2 & 1 & 1 & | & 0 & 0 & 1 \end{matrix}\right] \thicksim L_2 + L_1 \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 2 & 1 & 1 & | & 0 & 0 & 1 \end{matrix}\right] \thicksim -2L_1 \left[\begin{matrix} -2 & -4 & -6 & | & -2 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 2 & 1 & 1 & | & 0 & 0 & 1 \end{matrix}\right] }[/math]
[math]\displaystyle{ \thicksim L_1 + L_3 \left[\begin{matrix} -2 & -4 & -6 & | & -2 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 0 & -3 & -5 & | & -2 & 0 & 1 \end{matrix}\right] \thicksim L_2 + L_3 \left[\begin{matrix} -2 & -4 & -6 & | & -2 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 0 & 0 & -4 & | & -1 & 1 & 1 \end{matrix}\right] \thicksim }[/math]
[math]\displaystyle{ \frac{L_1}{-2} \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 0 & 0 & -4 & | & -1 & 1 & 1 \end{matrix}\right] \thicksim \frac{L_2}{3} \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 1 & \frac{1}{3} & | & \frac{1}{3} & \frac{1}{3} & 0 \\ 0 & 0 & -4 & | & -1 & 1 & 1 \end{matrix}\right] \thicksim \frac{L_3}{-4} \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 1 & \frac{1}{3} & | & \frac{1}{3} & \frac{1}{3} & 0 \\ 0 & 0 & 1 & | & \frac{1}{4} & -\frac{1}{4} & -\frac{1}{4} \end{matrix}\right] }[/math]
Resolução do sistema linear homogêneo:
[math]\displaystyle{ \begin{cases} x & + & 2y & + & 3z & = & 0 \\ & & y & + & \frac{1}{3}z & = & 0 \\ & & & & z & = & 0 \end{cases} }[/math]
Solução: x = y = z = 0
Ou, na forma de um vetor: [math]\displaystyle{ X = \left[\begin{matrix} 0 \\ 0 \\ 0 \end{matrix}\right] }[/math]
As matrizes elementares são:
[math]\displaystyle{ E_1 = \left[\begin{matrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 1 \end{matrix}\right], E_2 = \left[\begin{matrix} -2 & 0 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 1 \end{matrix}\right], E_3 = \left[\begin{matrix} -2 & 0 & 0 \\ 1 & 1 & 0 \\ -2 & 0 & 1 \end{matrix}\right], E_4 = \left[\begin{matrix} -2 & 0 & 0 \\ 1 & 1 & 0 \\ -1 & 1 & 1 \end{matrix}\right], E_5 = \left[\begin{matrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ -1 & 1 & 1 \end{matrix}\right], }[/math]
[math]\displaystyle{ E_6 = \left[\begin{matrix} 1 & 0 & 0 \\ \frac{1}{3} & \frac{1}{3} & 0 \\ -1 & 1 & 1 \end{matrix}\right], E_7 = \left[\begin{matrix} 1 & 0 & 0 \\ \frac{1}{3} & \frac{1}{3} & 0 \\ \frac{1}{4} & -\frac{1}{4} & -\frac{1}{4} \end{matrix}\right]. }[/math]
- Em cada caso, ou mostre que a afirmação é verdadeira ou dê um exemplo mostrando que ela é falsa. Suponhamos que A, B e C são matrizes quadradas.
- Se [math]\displaystyle{ A^3 = 3I }[/math], então A é inversível.
Se ambas as matrizes são iguais, então os determinantes também o são.
[math]\displaystyle{ \begin{align*} det(A^3) & = det(3I) \\ det(3I) & \ne 0 \implies det(A^3) \ne 0 \\ det(A)det(A)det(A) & \ne 0 \\ (det(A))^3 & \ne 0 \\ \therefore det(A) & \ne 0 \end{align*} }[/math]
A é inversível [math]\displaystyle{ \iff det(A) \ne 0 }[/math]
- Se [math]\displaystyle{ A^2 = A }[/math] e [math]\displaystyle{ A \ne 0 }[/math], então A é inversível.
[math]\displaystyle{ \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] = \left[\begin{matrix} a^2 + bc & (a + d)b \\ (a + d)c & bc + d^2 \end{matrix}\right] = \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] }[/math]
Note que [math]\displaystyle{ a^2 + bc = a }[/math], ou a = 1 e bc = 0 ou a = bc = 0. O mesmo ocorre com [math]\displaystyle{ bc + d^2 = d }[/math] (a + d)b = b, ou a + d = 1, ou b = 0, ou a ou b é nulo e o outro um. O mesmo ocorre com (a + d)c = c
Ou seja, os valores possíveis para as quatro incógnitas são 0 ou 1. A matriz [math]\displaystyle{ \left[\begin{matrix} 0 & 0 \\ 1 & 1 \end{matrix}\right] }[/math] obedece a [math]\displaystyle{ A^2 = A }[/math] mas det(A) = 0 e ela não é inversível.
- Se A e B são inversíveis, então A + B é inversível
A soma de duas matrizes inversíveis não é necessariamente inversível. [math]\displaystyle{ A = \left[\begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix}\right] }[/math] e [math]\displaystyle{ B = \left[\begin{matrix} -1 & 0 \\ 0 & -1 \end{matrix}\right] }[/math], A e B são inversíveis mas A + B não.
- Se A e B são inversíveis, então AB é inversível.
det(A) ≠ 0 e det(B) ≠ 0. Como det(AB) = det(A)det(B), então det(AB) ≠ 0 e AB é inversível.
- Se AB = 0 e A ≠ 0, então B = 0.
Falso. [math]\displaystyle{ \left[\begin{matrix} 1 & 0 \\ 0 & 0 \end{matrix}\right] \left[\begin{matrix} 0 & 0 \\ 0 & 1 \end{matrix}\right] = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right] }[/math]
- Se AC = I, então [math]\displaystyle{ C = A^{-1} }[/math]
Primeiro vamos verificar que A é inversível:
det(AC) = det(I) det(A)det(C) = 1
Como C é a inversa e det(I) = 1, só resta que det(A) ≠ 0.
[math]\displaystyle{ A^{-1}(AC) = A^{-1}I }[/math] [math]\displaystyle{ (A^{-1}A)C = A^{-1} }[/math] [math]\displaystyle{ C = A^{-1} }[/math]
- Se AB = AC, então B = C.
Falso. É possível obter uma mesma matriz a partir de duas multiplicações diferentes. [math]\displaystyle{ A = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right] }[/math], [math]\displaystyle{ B = \left[\begin{matrix} 0 & 1 \\ 0 & 1 \end{matrix}\right] }[/math] e [math]\displaystyle{ C = \left[\begin{matrix} 1 & 0 \\ 1 & 0 \end{matrix}\right] }[/math]
- Se AB = 0, então nem A nem B tem inversa.
Falso. [math]\displaystyle{ A = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right] }[/math] e [math]\displaystyle{ B = \left[\begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix}\right] }[/math]
- Se AB é inversível, então A e B são inversíveis.
Se AB é inversível, então det(AB) ≠ 0 [math]\displaystyle{ \iff }[/math] det(A)det(B) ≠ 0 [math]\displaystyle{ \implies }[/math] det(A) ≠ 0 e det(B) ≠ 0. Portanto, A e B são inversíveis.
- Se A é simétrica e inversível, então [math]\displaystyle{ A^{-1} }[/math] tambem é simétrica.
Temos que verificar se [math]\displaystyle{ (A^{-1})^T = A^{-1} }[/math] Vamos aplicar a propriedade [math]\displaystyle{ (A^{-1})^T = (A^T)^{-1} }[/math] //(a transposta da inversa é igual a inversa da transposta. Ora, se a matriz é simétrica, então inverter antes ou depois de transpor dá na mesma)// A é simétrica, então [math]\displaystyle{ A^{-1} = (A^T)^{-1} }[/math] (a inversa é igual a inversa da transposta) Portanto, [math]\displaystyle{ A^{-1} = (A^T)^{-1} }[/math]