Exercícios de sistemas linares e matrizes: Difference between revisions

From Applied Science
(Created page with "<center> '''Método da substituição'''</center> <math> \begin{cases} x & + & y & + & z & = & 1 \\ x & - & y & + & 3z & = & 2 \\ 2x & + & 4y & - & z & = & 0 \\ \end{cases} </math> Isolando x na primeira equação e substituindo nas outras duas: <math> \begin{cases} -y & - & z & + & 1 & - & y & + & 3z & = & 2 \\ 2(-y & - & z & + & 1) & + & 4y & - & z & = & 0 \end{cases} </math> Isolando y e substituindo na equação restante: <math> \begin{matrix} y = & z - \frac{1...")
Tag: wikieditor
 
No edit summary
Tag: wikieditor
 
(3 intermediate revisions by the same user not shown)
Line 1: Line 1:
<center> '''Método da substituição'''</center>
* Método de Gauss-Jordan para calcular a inversa de uma matriz.


<math>
<math>
\begin{cases}
\left[\begin{matrix}
x & + & y & + & z & = & 1 \\
1 & 0 & 0 \\
x & - & y & + & 3z & = & 2 \\
a & 1 & 0 \\
2x & + & 4y & - & z & = & 0 \\
b & c & 1
\end{cases}
\end{matrix}\right]
</math>
</math>


Isolando x na primeira equação e substituindo nas outras duas:
Escreva a matriz identidade ao lado da matriz que se quer inverter:


<math>
<math>
\begin{cases}
\left[\begin{matrix}
-y & - & z & + & 1 & - & y & + & 3z & = & 2  \\
1 & 0 & 0 & | & 1 & 0 & 0\\
2(-y & - & z & + & 1) & + & 4y & - & z & = & 0
a & 1 & 0 & | & 0 & 1 & 0\\
\end{cases}
b & c & 1 & | & 0 & 0 & 1
\end{matrix}\right]
</math>
</math>


Isolando y e substituindo na equação restante:
Aplique operações elementares sobre as linhas da matriz aumentada a fim de transformar a matriz da esquerda na identidade, como resultado, teremos à direita a matriz inversa:


<math>
<math>
\begin{matrix}
L_2 - aL_1\left[\begin{matrix}
y = & z - \frac{1}{2} \\
1 & 0 & 0 & | & 1 & 0 & 0\\
\\
0 & 1 & 0 & | & -a & 1 & 0\\
2y - 3z = & -2 \\
b & c & 1 & | & 0 & 0 & 1
2z - 1 - 3z = & -2 \\
\end{matrix}\right] \thicksim
z = & 1
L_3 - bL_1\left[\begin{matrix}
\end{matrix}
1 & 0 & 0 & | & 1 & 0 & 0\\
0 & 1 & 0 & | & -a & 1 & 0\\
0 & c & 1 & | & -b & 0 & 1
\end{matrix}\right] \thicksim
</math>
</math>
Substituindo na equação anterior:


<math>
<math>
y & = 1 - \frac{1}{2} \\
L_3 - cL_2\left[\begin{matrix}
y & = \frac{1}{2}
1 & 0 & 0 & | & 1 & 0 & 0\\
0 & 1 & 0 & | & -a & 1 & 0\\
0 & 0 & 1 & | & ac - b & -c & 1
\end{matrix}\right]
</math>
</math>


Substituindo na primeira equação:
<hr>
 
* Método pela definição da matriz inversa


<math>
<math>
x + \frac{1}{2} + 1 & = 1 \\
\left[\begin{matrix}
x & = -\frac{1}{2}
1 & 1 & 2 \\
2 & 2 & 3 \\
1 & 0 & 0
\end{matrix}\right]
</math>
</math>


A solução é um ponto <math>\left(-\frac{1}{2}, \frac{1}{2}, 1\right)</math>
A matriz inversa é tal que multiplicando uma matriz pela sua inversa resulta a identidade:


<math>
\left[\begin{matrix}
1 & 1 & 2 \\
2 & 2 & 3 \\
1 & 0 & 0
\end{matrix}\right]
\left[\begin{matrix}
a & b & c \\
d & e & f \\
g & h & i
\end{matrix}\right] =
\left[\begin{matrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{matrix}\right]
</math>


<center> '''Método da eliminação gaussiana ou do escalonamento'''</center>
Realizando a multiplicação obtemos três sistemas lineares ''(para economizar tempo não realize a multiplicação da forma usual, uma linha da primeira por cada coluna da segunda. Faça ao contrário, cada linha da primeira por uma coluna da segunda. Assim o sistema já sai com equações ordenadas)'':
 
O método consiste em aplicar operações elementares para simplificar o sistema até encontrar o valor das incógnitas. As operações permitidas são trocar equações de posição, multiplicar uma equação por uma constante e substituir uma equação pela sua soma com outra equação. A ordem das operações não importa. O objetivo é chegar numa forma triangular como se segue:


<math>
<math>
\begin{cases}
\begin{cases}
x & + & y & + & z & = & 1 \\
a & + & d & + & 2g & = & 1 \\
x & - & y & + & 3z & = & 2 \\
2a & + & 2d & + & 3g & = & 0 \\
2x & + & 4y & - & z & = & 0 \\
a & & & & & = & 0 \\
\end{cases}
\end{cases}
</math>
</math>
Trocando a primeira equação com a terceira:


<math>
<math>
\begin{cases}
\begin{cases}
2x & + & 4y & - & z & = & 0 \\
b & + & e & + & 2h & = & 0 \\
x & - & y & + & 3z & = & 2 \\
2b & + & 2e & + & 3h & = & 1 \\
x & + & y & + & z & = & 1 \\
b & & & & & = & 0 \\
\end{cases}
\end{cases}
</math>
</math>
Multiplicando a segunda e a terceira por -2 e somando-as com a primeira:


<math>
<math>
\begin{cases}
\begin{cases}
2x & + & 4y & - & z & = & 0 \\
c & + & f & + & 2i & = & 0 \\
& & 6y & - & 7z & = & -4 \\
2c & + & 2f & + & 3i & = & 0 \\
& & 2y & - & 3z & = & -2 \\
c & & & & & = & 1
\end{cases}
\end{cases}
</math>
</math>


Multiplicando a terceira por -3 e somando com a segunda:
Resolvendo os sistemas encontramos a matriz inversa:


<math>
<math>
\begin{cases}
\left[\begin{matrix}
2x & + & 4y & - & z & = & 0 \\
0 & 0 & 1 \\
& & 6y & - & 7z & = & -4 \\
-3 & 2 & -1 \\
& & & & 2z & = & 2 \\
2 & -1 & 0
\end{cases}
\end{matrix}\right]
</math>
</math>


A partir daqui existem duas opções: a primeira é usar o método da substituição, de baixo pra cima e resolver o sistema; a segunda é continuar eliminando incógnitas nas equações restantes. Usando o segundo método:
O custo deste método é proibitivo com matrizes muito grandes, sendo melhor utilizar o método de Gauss-Jordan.


Multiplicando a terceira por <math>\frac{7}{2}</math> e somando com a segunda:
<hr>


<math>
* Se A é inversível e A comuta com C, mostre que <math>A^{-1}</math> tambem comuta com C. Se A e C são inversíveis e comutam, mostre que <math>A^{-1}</math> e <math>C^{-1}</math> tambem comutam.
\begin{cases}
 
2x & + & 4y & - & z & = & 0 \\
<math>\begin{align*}
& & 6y & & & = & 3 \\
AC & = CA \\
& & & & z & = & 1 \\
A^{-1}(AC) & = A^{-1}(CA) \\
\end{cases}
(A^{-1}A)C & = (A^{-1}C)A \\
C & = (A^{-1}C)A \\
CA^{-1} & = [(A^{-1}C)A]A^{-1} \\
CA^{-1} & = (A^{-1}C)(AA^{-1}) \\
CA^{-1} & = A^{-1}C
\end{align*}
</math>
 
Quando as matrizes não comutam não é possível utilizar a propriedade associativa, mas A e C comutam. Multiplicando ambos os lados por uma mesma matriz a igualdade se mantem. Desenvolvendo a expressão provamos que <math>A^{-1}</math> comuta com C.
 
<math>\begin{align*}
CA^{-1} & = A^{-1}C \\
C^{-1}(A^{-1}C) & = C^{-1}(CA^{-1}) \\
C^{-1}(A^{-1}C) & = A^{-1} \\
[C^{-1}(A^{-1}C)]C^{-1} & = A^{-1}C^{-1} \\
C^{-1}A^{-1} & = A^{-1}C^{-1}
\end{align*}
</math>
</math>


Multiplicando a segunda por <math>-\frac{2}{3}</math> e somando a segunda e a terceira com a primeira:
Com um desenvolvimento análogo ao anterior provamos que <math>A^{-1}</math> e <math>C^{-1}</math> comutam.
 
<hr>
 
* Encontre a matriz A
* <math>[2A^T - 3I]^{-1} = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right]</math>
 
Vamos usar a seguinte propriedade para resolver a equação: <math>A^{-1} = B \iff B^{-1} = A</math>


<math>A = \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] \implies A^T = \left[\begin{matrix} a & c \\ b & d \end{matrix}\right]</math>


<math>
<math>
\begin{cases}
[2A^T - 3I]^{-1} = \left[\begin{matrix}
2x & & & & & = & -1 \\
3 & 2 \\
\\
1 & 1
& & y & & & = & \frac{1}{2} \\
\end{matrix}\right] \iff 2A^T - 3I = \left[\begin{matrix}
\\
3 & 2 \\
& & & & z & = & 1 \\
1 & 1
\end{cases}
\end{matrix}\right]^{-1}
</math>
</math>


O mesmo método pode ser feito com uma matriz, assim:
Calculando a inversa:


<math>
<math>
\left[\begin{matrix}
\left[\begin{matrix}
1 & 1 & 1 & | & 1 \\
3 & 2 \\
1 & -1 & 3 & | & 2 \\
1 & 1
2 & 4 & -1 & | & 0
\end{matrix}\right]^{-1} =
\left[\begin{matrix}
1 & -2 \\
-1 & 3
\end{matrix}\right]
\end{matrix}\right]
</math>
</math>


Com as mesmas operações elementares o objetivo é chegar em:
Escrevendo a equação matricial ''(I é a matriz identidade)'':


<math>
<math>
\left[\begin{matrix}
\left[\begin{matrix}
1 & 0 & 0 & | & -\frac{1}{2} \\
2a - 3 & 2c \\
0 & 1 & 0 & | & \frac{1}{2} \\
2b & 2d - 3
0 & 0 & 1 & | & 1
\end{matrix}\right] =
\left[\begin{matrix}
1 & -2 \\
-1 & 3
\end{matrix}\right]
\end{matrix}\right]
</math>
</math>


A matriz com os coeficientes das incógnitas e os termos constantes é chamada de ''matriz aumentada''. Da esquerda para a direita, o primeiro elemento não nulo da linha é chamado de ''pivô'' ou ''líder'' ''(quando o líder for o número 1 não elimine-o, deixe como esta)''. Na coluna mais a direita temos os valores das incógnitas. Cada linha representa uma equação do sistema e cada coluna uma incógnita. Quando todos os números abaixo de cada pivô são zeros a matriz esta na ''forma escalonada''. Quando todos os números abaixo e acima de cada pivô são zeros a matriz esta na ''forma escalonada reduzida por linhas''. Note que se o líder de uma linha esta na coluna 2, o líder da linha de baixo não necessariamente esta na coluna 3, pode estar na 4 por exemplo.
Fazendo a igualdade elemento a elemento das matrizes encontramos a matriz A:


<u>Nota:</u> se no escalonamento aparecer uma linha onde o termo constante não é nulo e os coeficientes das incógnitas são todos nulos, significa que temos uma equação do tipo <math>0x = *</math>, que indica que o sistema não tem solução.
<math>
A = \left[\begin{matrix}
2 & -\frac{1}{2} \\
-1 & 3
\end{matrix}\right]
</math>


<hr>


<center> '''Variáveis livres ou parâmetros'''</center>
* Resolva o sistema AX = 0 por eliminação de Gauss. Escreva as matrizes elementares que transformam A na matriz na forma escalonada U. Calcule a matriz M tal que MA = U.
 
<math>
<math>
\begin{cases}
A = \left[\begin{matrix} 1 & 2 & 3 \\ -1 & 1 & -2 \\ 2 & 1 & 1 \end{matrix}\right]
x & + & y & + & z & = & 1 \\
x & - & y & + & 2z & = & 0
\end{cases}
</math>
</math>


Somando ambas as equações:
O método de resolução é aplicar o algoritmo de Gauss-Jordan para escalonar a matriz, ao final do processo teremos à direita a matriz M. Como tambem são pedidas as matrizes elementares a estratégia é aplicar apenas uma operação elementar por vez:


<math>
<math>
2x  + 3z & = 1 \\
\left[\begin{matrix}
x & = \frac{1 - 3z}{2}
1 & 2 & 3 & | & 1 & 0 & 0 \\
-1 & 1 & -2 & | & 0 & 1 & 0 \\
2 & 1 & 1 & | & 0 & 0 & 1
\end{matrix}\right] \thicksim L_2 + L_1
\left[\begin{matrix}
1 & 2 & 3 & | & 1 & 0 & 0 \\
0 & 3 & 1 & | & 1 & 1 & 0 \\
2 & 1 & 1 & | & 0 & 0 & 1
\end{matrix}\right] \thicksim -2L_1
\left[\begin{matrix}
-2 & -4 & -6 & | & -2 & 0 & 0 \\
0 & 3 & 1 & | & 1 & 1 & 0 \\
2 & 1 & 1 & | & 0 & 0 & 1
\end{matrix}\right]
</math>
</math>
Multiplicando a primeira por -1 e somando com a segunda:


<math>
<math>
-2y + z & = -1 \\
\thicksim L_1 + L_3
y & = \frac{1 + z}{2}
\left[\begin{matrix}
-2 & -4 & -6 & | & -2 & 0 & 0 \\
0 & 3 & 1 & | & 1 & 1 & 0 \\
0 & -3 & -5 & | & -2 & 0 & 1
\end{matrix}\right] \thicksim L_2 + L_3
\left[\begin{matrix}
-2 & -4 & -6 & | & -2 & 0 & 0 \\
0 & 3 & 1 & | & 1 & 1 & 0 \\
0 & 0 & -4 & | & -1 & 1 & 1
\end{matrix}\right] \thicksim
</math>
</math>
Como temos y e x em função de z, z é variável livre. Ou, em outra linguagem, x e y são variáveis dependentes e z é variável independente. Podemos atribuir a z um valor arbitrário, então <math>z = t</math> com <math>t \in \mathbb{R}</math> (qualquer letra serve). De modo que o conjunto solução é <math>\left(\frac{1 - 3t}{2},\frac{1 + t}{2},t\right)</math>. Podemos expressar a mesma resposta numa forma vetorial: <math>\left(\frac{1}{2},\frac{1}{2},0\right) + \left(-\frac{3t}{2},\frac{t}{2},t\right) = \left(\frac{1}{2},\frac{1}{2},0\right) + t\left(-\frac{3}{2},\frac{1}{2},1\right)</math>.
Identificando variáveis livres na matriz escalonada:


<math>
<math>
\frac{L_1}{-2}
\left[\begin{matrix}
\left[\begin{matrix}
1 & 1 & 1 & | & 1 \\
1 & 2 & 3 & | & 1 & 0 & 0 \\
1 &-1 & 2 & |  & 0
0 & 3 & 1 & | & 1 & 1 & 0 \\
\end{matrix}\right] \thicksim -L_2 + L_1
0 & 0 & -4 & | & -1 & 1 & 1
\end{matrix}\right] \thicksim \frac{L_2}{3}
\left[\begin{matrix}
\left[\begin{matrix}
1 & 1 & 1 & | & 1 \\
1 & 2 & 3 & | & 1 & 0 & 0 \\
0 & 2 & -1 & | & 1
0 & 1 & \frac{1}{3} & | & \frac{1}{3} & \frac{1}{3} & 0 \\
0 & 0 & -4 & | & -1 & 1 & 1
\end{matrix}\right] \thicksim \frac{L_3}{-4}
\left[\begin{matrix}
1 & 2 & 3 & | & 1 & 0 & 0 \\
0 & 1 & \frac{1}{3} & | & \frac{1}{3} & \frac{1}{3} & 0 \\
0 & 0 & 1 & | & \frac{1}{4} & -\frac{1}{4} & -\frac{1}{4}
\end{matrix}\right]
\end{matrix}\right]
</math>
</math>


Como x e y são pivôs, z que não é pivô é variável livre.
Resolução do sistema linear homogêneo:
 
<u>Nota:</u> subtraindo o número de equações linearmente independentes do número de incógnitas obtemos a quantidade de variáveis livres.
 
 
* Determine os valores de w com os quais o sistema não tem solução, tem exatamente uma solução ou tem uma infinidade de soluções


<math>
<math>
\begin{cases}
\begin{cases}
x & + & y & + & 7z & = & -7 \\
x & + & 2y & + & 3z & = & 0 \\
2x & + & 3y & + & 17z & = & -16 \\
& & y & + & \frac{1}{3}z & = & 0 \\
x & + & 2y & + & (w^2 + 1)z & = & 3w
& & & & z & = & 0
\end{cases}
\end{cases}
</math>
</math>


Vamos escrever a matriz aumentada do sistema:
Solução: x = y = z = 0
 
Ou, na forma de um vetor: <math>X = \left[\begin{matrix} 0 \\ 0 \\ 0 \end{matrix}\right]</math>
 
As matrizes elementares são:


<math>
<math>
\left[\begin{matrix}
E_1 = \left[\begin{matrix}
1 & 1 & 7 & | & -7 \\
1 & 0 & 0 \\
2 & 3 & 17 & | & -16 \\
1 & 1 & 0 \\
1 & 2 & w^2 + 1 & | & 3w
0 & 0 & 1
\end{matrix}\right]
\end{matrix}\right], E_2 = \left[\begin{matrix}
-2 & 0 & 0 \\
1 & 1 & 0 \\
0 & 0 & 1
\end{matrix}\right], E_3 = \left[\begin{matrix}
-2 & 0 & 0 \\
1 & 1 & 0 \\
-2 & 0 & 1
\end{matrix}\right], E_4 = \left[\begin{matrix}
-2 & 0 & 0 \\
1 & 1 & 0 \\
-1 & 1 & 1
\end{matrix}\right], E_5 = \left[\begin{matrix}
1 & 0 & 0 \\
1 & 1 & 0 \\
-1 & 1 & 1
\end{matrix}\right],
</math>
</math>
A estratégia é anular as incógnitas x e y da linha que contem a variável ''w'', assim podemos estudar as soluções do sistema em função dos valores de ''w'':


<math>
<math>
\left[\begin{matrix}
E_6 = \left[\begin{matrix}
1 & 1 & 7 & | & -7 \\
1 & 0 & 0 \\
2 & 3 & 17 & | & -16 \\
\frac{1}{3} & \frac{1}{3} & 0 \\
1 & 2 & w^2 + 1 & | & 3w
-1 & 1 & 1
\end{matrix}\right] \thicksim L_2 - L_1
\end{matrix}\right], E_7 = \left[\begin{matrix}
\left[\begin{matrix}
1 & 0 & 0 \\
1 & 1 & 7 & | & -7 \\
\frac{1}{3} & \frac{1}{3} & 0 \\
1 & 2 & 10 & | & -9 \\
\frac{1}{4} & -\frac{1}{4} & -\frac{1}{4}
1 & 2 & w^2 + 1 & | & 3w
\end{matrix}\right].
\end{matrix}\right] \thicksim L_3 - L_2
\left[\begin{matrix}
1 & 1 & 7 & | & -7 \\
1 & 2 & 10 & | & -9 \\
0 & 0 & w^2 -9 & | & 3w + 9
\end{matrix}\right]
</math>
</math>


Temos na última linha uma equação do tipo <math>ax = b</math>. Se <math>a \ne 0</math> e <math>b \ne 0</math> temos que o valor da incógnita fica determinado e portanto, o sistema terá solução única. Se <math>a = b = 0</math> qualquer valor da incógnita resolverá a equação e portanto, teremos infinitas soluções. Outra forma de ver isso é que se a última linha for anulada, sobram duas equações de três incógnitas cada. Por último, se <math>a = 0</math> e <math>b \ne 0</math> não existe valor da incógnita que satisfaça a igualdade e portanto, o sistema será impossível.
<hr>
 
* Em cada caso, ou mostre que a afirmação é verdadeira ou dê um exemplo mostrando que ela é falsa. Suponhamos que A, B e C são matrizes quadradas.


As raizes de <math>w^2 - 9 = 0</math> são 3 ou -3. Se <math>w = -3</math> a linha se anula e são infinitas soluções. Se <math>w = 3</math> caímos numa equação do tipo <math>0x = *</math>, então o sistema não tem solução. Se <math>w \ne 3</math> e <math>w \ne -3</math> o sistema terá só uma solução.
* Se <math>A^3 = 3I</math>, então A é inversível.


* Encontre (se possível) condições sobre os números a, b e c para que o sistema dado tenha nenhuma solução, uma única solução, ou infinitas soluções
Se ambas as matrizes são iguais, então os determinantes também o são.


<math>
<math>
\begin{cases}
\begin{align*}
2x & - & 3y & - & 3z & = & a \\
det(A^3) & = det(3I) \\
-x & + & y & + & 2z & = & b \\
det(3I) & \ne 0 \implies det(A^3) \ne 0 \\
x & - & 3y & & & = & c
det(A)det(A)det(A) & \ne 0 \\
\end{cases}
(det(A))^3 & \ne 0 \\
\therefore det(A) & \ne 0
\end{align*}
</math>
</math>


Escalonando o sistema:
A é inversível <math>\iff det(A) \ne 0</math>
 
<hr>
 
* Se <math>A^2 = A</math> e <math>A \ne 0</math>, então A é inversível.


<math>
<math>
\left[\begin{matrix}
\left[\begin{matrix}
2 & -3 & -3 & | & a \\
a & b \\
-1 & 1 & 2 & | & b \\
c & d
1 & -3 & 0 & | & c \\
\end{matrix}\right]
\end{matrix}\right] \thicksim 2L_2 + L_1
\left[\begin{matrix}
a & b \\
c & d
\end{matrix}\right] =
\left[\begin{matrix}
\left[\begin{matrix}
2 & -3 & -3 & | & a \\
a^2 + bc & (a + d)b \\
0 & -1 & 1 & | & 2b + a\\
(a + d)c & bc + d^2
1 & -3 & 0 & | & c \\
\end{matrix}\right] =
\end{matrix}\right] \thicksim 3L_2 + L_1
\left[\begin{matrix}
\left[\begin{matrix}
2 & -3 & -3 & | & a \\
a & b \\
2 & -6 & 0 & | & 6b + 2a\\
c & d
1 & -3 & 0 & | & c \\
\end{matrix}\right]
\end{matrix}\right]
</math>
</math>


<math>
Note que
\thicksim -2L_3 + L_2
<math>a^2 + bc = a</math>, ou a = 1 e bc = 0 ou a = bc = 0. O mesmo ocorre com <math>bc + d^2 = d</math>
\left[\begin{matrix}
(a + d)b = b, ou a + d = 1, ou b = 0, ou a ou b é nulo e o outro um. O mesmo ocorre com (a + d)c = c
2 & -3 & -3 & | & a \\
 
2 & -6 & 0 & | & 6b + 4a\\
Ou seja, os valores possíveis para as quatro incógnitas são 0 ou 1. A matriz <math>\left[\begin{matrix} 0 & 0 \\ 1 & 1 \end{matrix}\right]</math> obedece a <math>A^2 = A</math> mas det(A) = 0 e ela não é inversível.
0 & 0 & 0 & | & 6b + 4a - 2c \\
 
\end{matrix}\right]
<hr>
</math>
 
* Se A e B são inversíveis, então A + B é inversível
 
A soma de duas matrizes inversíveis não é necessariamente inversível. <math>A = \left[\begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix}\right]</math> e <math>B = \left[\begin{matrix} -1 & 0 \\ 0 & -1 \end{matrix}\right]</math>, A e B são inversíveis mas A + B não.
 
<hr>
 
* Se A e B são inversíveis, então AB é inversível.
 
det(A) ≠ 0 e det(B) ≠ 0. Como det(AB) = det(A)det(B), então det(AB) ≠ 0 e AB é inversível.
 
<hr>
 
* Se AB = 0 e A ≠ 0, então B = 0.
 
Falso. <math>\left[\begin{matrix} 1 & 0 \\ 0 & 0 \end{matrix}\right] \left[\begin{matrix} 0 & 0 \\ 0 & 1 \end{matrix}\right] = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right]</math>


A estratégia é olhar a última linha, pois é a partir dela que vemos se o sistema tem ou não solução. Se <math>6b + 4a - 2c \ne 0</math> o sistema é impossível. Se <math>6b + 4a - 2c = 0</math> o sistema tem infinitas soluções. Como uma linha foi zerada não é possível o sistema ter solução única.
<hr>


* Se AC = I, então <math>C = A^{-1}</math>


* Suponha que um sistema homogêneo tenha 4 equações e 6 incógnitas e seja A a sua matriz completa. Pode o sistema ter uma única solução? Nenhuma solução? Quantos parâmetros o sistema pode ter, se um linha é multiplo de uma outra linha? Quantos parâmetros o sistema pode ter se posto(A) = 4? Se posto(A) = 2?
Primeiro vamos verificar que A é inversível:


Como são mais incógnitas do que equações são infinitas soluções. Se uma linha é múltiplo de outra sobram 3 equações. Como são 6 incógnitas, são 3 parâmetros.
det(AC) = det(I)
det(A)det(C) = 1


Posto é o número de linhas não nulas da matriz, ou o número de equações linearmente independentes. Se posto(A) = 4 são 2 parâmetros. Se posto(A) = 2 são 4 parâmetros.  
Como C é a inversa e det(I) = 1, só resta que det(A) ≠ 0.


<math>A^{-1}(AC) = A^{-1}I</math>
<math>(A^{-1}A)C = A^{-1}</math>
<math>C = A^{-1}</math>


* Seja <math>A \in M_{m,n}(\mathbb{R})</math>. Considere o sistema não-homogêneo AX = B e o sistema homogêneo associado AX = 0. Prove ou dê contra-exemplo.
<hr>
# Se AX = B tem infinitas soluções, então AX = 0 tem infinitas soluções;
# Se AX = 0 tem infinitas soluções, então AX = B tem infinitas soluções;
# Se AX = B não tem solução, então AX = 0 só tem a solução trivial;
# Se AX = 0 só tem a solução trivial, então AX = B tem solução única.


'''1.''' Sejam X e X' duas soluções arbitrárias de AX = B:
* Se AB = AC, então B = C.


<math>
Falso. É possível obter uma mesma matriz a partir de duas multiplicações diferentes. <math>A = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right]</math>, <math>B = \left[\begin{matrix} 0 & 1 \\ 0 & 1 \end{matrix}\right]</math> e <math>C = \left[\begin{matrix} 1 & 0 \\ 1 & 0 \end{matrix}\right]</math>
\begin{cases}
AX = B \\
AX' = B
\end{cases}
</math>


<math>
<hr>
AX - AX' & = B - B \\
A(X - X') & = 0
</math>


X - X' é solução de AX = 0. Então é verdade que AX = 0 possui infinitas soluções.
* Se AB = 0, então nem A nem B tem inversa.


'''2.'''
Falso. <math>A = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right]</math> e <math>B = \left[\begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix}\right]</math>


<math>
<hr>
\left(\begin{matrix}
a & b \\
0 & 0
\end{matrix}\right)x =
\left(\begin{matrix}
c \\
d
\end{matrix}\right)
</math>


Se a = b = c = d = 0 temos que 0X = 0 possui infinitas soluções. Mas se d ≠ 0 o sistema não tem solução.
* Se AB é inversível, então A e B são inversíveis.


'''3.''' Pelo exemplo anterior, AX = B não tem solução, mas AX = 0 tem infinitas soluções.
Se AB é inversível, então det(AB) ≠ 0 <math>\iff</math> det(A)det(B) ≠ 0 <math>\implies</math> det(A) ≠ 0 e det(B) ≠ 0. Portanto, A e B são inversíveis.


'''4.''' A prova é por um argumento lógico. Vamos usar a contrapositiva.
<hr>


Se AX = 0 não tem apenas a solução trivial, então AX = B não tem solução única. Isso significa que se AX = 0 tem infinitas soluções existem duas possibilidades para AX = B: ou AX = B não tem solução ou tem infinitas. Portanto a afirmação é falsa.
* Se A é simétrica e inversível, então <math>A^{-1}</math> tambem é simétrica.


Se
Temos que verificar se <math>(A^{-1})^T = A^{-1}</math>
Vamos aplicar a propriedade <math>(A^{-1})^T = (A^T)^{-1}</math> //(a transposta da inversa é igual a inversa da transposta. Ora, se a matriz é simétrica, então inverter antes ou depois de transpor dá na mesma)//
A é simétrica, então <math>A^{-1} = (A^T)^{-1}</math> ''(a inversa é igual a inversa da transposta)''
Portanto, <math>A^{-1} = (A^T)^{-1}</math>

Latest revision as of 20:28, 3 February 2024

  • Método de Gauss-Jordan para calcular a inversa de uma matriz.

[math]\displaystyle{ \left[\begin{matrix} 1 & 0 & 0 \\ a & 1 & 0 \\ b & c & 1 \end{matrix}\right] }[/math]

Escreva a matriz identidade ao lado da matriz que se quer inverter:

[math]\displaystyle{ \left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ a & 1 & 0 & | & 0 & 1 & 0\\ b & c & 1 & | & 0 & 0 & 1 \end{matrix}\right] }[/math]

Aplique operações elementares sobre as linhas da matriz aumentada a fim de transformar a matriz da esquerda na identidade, como resultado, teremos à direita a matriz inversa:

[math]\displaystyle{ L_2 - aL_1\left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ 0 & 1 & 0 & | & -a & 1 & 0\\ b & c & 1 & | & 0 & 0 & 1 \end{matrix}\right] \thicksim L_3 - bL_1\left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ 0 & 1 & 0 & | & -a & 1 & 0\\ 0 & c & 1 & | & -b & 0 & 1 \end{matrix}\right] \thicksim }[/math]

[math]\displaystyle{ L_3 - cL_2\left[\begin{matrix} 1 & 0 & 0 & | & 1 & 0 & 0\\ 0 & 1 & 0 & | & -a & 1 & 0\\ 0 & 0 & 1 & | & ac - b & -c & 1 \end{matrix}\right] }[/math]


  • Método pela definição da matriz inversa

[math]\displaystyle{ \left[\begin{matrix} 1 & 1 & 2 \\ 2 & 2 & 3 \\ 1 & 0 & 0 \end{matrix}\right] }[/math]

A matriz inversa é tal que multiplicando uma matriz pela sua inversa resulta a identidade:

[math]\displaystyle{ \left[\begin{matrix} 1 & 1 & 2 \\ 2 & 2 & 3 \\ 1 & 0 & 0 \end{matrix}\right] \left[\begin{matrix} a & b & c \\ d & e & f \\ g & h & i \end{matrix}\right] = \left[\begin{matrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{matrix}\right] }[/math]

Realizando a multiplicação obtemos três sistemas lineares (para economizar tempo não realize a multiplicação da forma usual, uma linha da primeira por cada coluna da segunda. Faça ao contrário, cada linha da primeira por uma coluna da segunda. Assim o sistema já sai com equações ordenadas):

[math]\displaystyle{ \begin{cases} a & + & d & + & 2g & = & 1 \\ 2a & + & 2d & + & 3g & = & 0 \\ a & & & & & = & 0 \\ \end{cases} }[/math]

[math]\displaystyle{ \begin{cases} b & + & e & + & 2h & = & 0 \\ 2b & + & 2e & + & 3h & = & 1 \\ b & & & & & = & 0 \\ \end{cases} }[/math]

[math]\displaystyle{ \begin{cases} c & + & f & + & 2i & = & 0 \\ 2c & + & 2f & + & 3i & = & 0 \\ c & & & & & = & 1 \end{cases} }[/math]

Resolvendo os sistemas encontramos a matriz inversa:

[math]\displaystyle{ \left[\begin{matrix} 0 & 0 & 1 \\ -3 & 2 & -1 \\ 2 & -1 & 0 \end{matrix}\right] }[/math]

O custo deste método é proibitivo com matrizes muito grandes, sendo melhor utilizar o método de Gauss-Jordan.


  • Se A é inversível e A comuta com C, mostre que [math]\displaystyle{ A^{-1} }[/math] tambem comuta com C. Se A e C são inversíveis e comutam, mostre que [math]\displaystyle{ A^{-1} }[/math] e [math]\displaystyle{ C^{-1} }[/math] tambem comutam.

[math]\displaystyle{ \begin{align*} AC & = CA \\ A^{-1}(AC) & = A^{-1}(CA) \\ (A^{-1}A)C & = (A^{-1}C)A \\ C & = (A^{-1}C)A \\ CA^{-1} & = [(A^{-1}C)A]A^{-1} \\ CA^{-1} & = (A^{-1}C)(AA^{-1}) \\ CA^{-1} & = A^{-1}C \end{align*} }[/math]

Quando as matrizes não comutam não é possível utilizar a propriedade associativa, mas A e C comutam. Multiplicando ambos os lados por uma mesma matriz a igualdade se mantem. Desenvolvendo a expressão provamos que [math]\displaystyle{ A^{-1} }[/math] comuta com C.

[math]\displaystyle{ \begin{align*} CA^{-1} & = A^{-1}C \\ C^{-1}(A^{-1}C) & = C^{-1}(CA^{-1}) \\ C^{-1}(A^{-1}C) & = A^{-1} \\ [C^{-1}(A^{-1}C)]C^{-1} & = A^{-1}C^{-1} \\ C^{-1}A^{-1} & = A^{-1}C^{-1} \end{align*} }[/math]

Com um desenvolvimento análogo ao anterior provamos que [math]\displaystyle{ A^{-1} }[/math] e [math]\displaystyle{ C^{-1} }[/math] comutam.


  • Encontre a matriz A
  • [math]\displaystyle{ [2A^T - 3I]^{-1} = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right] }[/math]

Vamos usar a seguinte propriedade para resolver a equação: [math]\displaystyle{ A^{-1} = B \iff B^{-1} = A }[/math]

[math]\displaystyle{ A = \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] \implies A^T = \left[\begin{matrix} a & c \\ b & d \end{matrix}\right] }[/math]

[math]\displaystyle{ [2A^T - 3I]^{-1} = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right] \iff 2A^T - 3I = \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right]^{-1} }[/math]

Calculando a inversa:

[math]\displaystyle{ \left[\begin{matrix} 3 & 2 \\ 1 & 1 \end{matrix}\right]^{-1} = \left[\begin{matrix} 1 & -2 \\ -1 & 3 \end{matrix}\right] }[/math]

Escrevendo a equação matricial (I é a matriz identidade):

[math]\displaystyle{ \left[\begin{matrix} 2a - 3 & 2c \\ 2b & 2d - 3 \end{matrix}\right] = \left[\begin{matrix} 1 & -2 \\ -1 & 3 \end{matrix}\right] }[/math]

Fazendo a igualdade elemento a elemento das matrizes encontramos a matriz A:

[math]\displaystyle{ A = \left[\begin{matrix} 2 & -\frac{1}{2} \\ -1 & 3 \end{matrix}\right] }[/math]


  • Resolva o sistema AX = 0 por eliminação de Gauss. Escreva as matrizes elementares que transformam A na matriz na forma escalonada U. Calcule a matriz M tal que MA = U.

[math]\displaystyle{ A = \left[\begin{matrix} 1 & 2 & 3 \\ -1 & 1 & -2 \\ 2 & 1 & 1 \end{matrix}\right] }[/math]

O método de resolução é aplicar o algoritmo de Gauss-Jordan para escalonar a matriz, ao final do processo teremos à direita a matriz M. Como tambem são pedidas as matrizes elementares a estratégia é aplicar apenas uma operação elementar por vez:

[math]\displaystyle{ \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ -1 & 1 & -2 & | & 0 & 1 & 0 \\ 2 & 1 & 1 & | & 0 & 0 & 1 \end{matrix}\right] \thicksim L_2 + L_1 \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 2 & 1 & 1 & | & 0 & 0 & 1 \end{matrix}\right] \thicksim -2L_1 \left[\begin{matrix} -2 & -4 & -6 & | & -2 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 2 & 1 & 1 & | & 0 & 0 & 1 \end{matrix}\right] }[/math]

[math]\displaystyle{ \thicksim L_1 + L_3 \left[\begin{matrix} -2 & -4 & -6 & | & -2 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 0 & -3 & -5 & | & -2 & 0 & 1 \end{matrix}\right] \thicksim L_2 + L_3 \left[\begin{matrix} -2 & -4 & -6 & | & -2 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 0 & 0 & -4 & | & -1 & 1 & 1 \end{matrix}\right] \thicksim }[/math]

[math]\displaystyle{ \frac{L_1}{-2} \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 3 & 1 & | & 1 & 1 & 0 \\ 0 & 0 & -4 & | & -1 & 1 & 1 \end{matrix}\right] \thicksim \frac{L_2}{3} \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 1 & \frac{1}{3} & | & \frac{1}{3} & \frac{1}{3} & 0 \\ 0 & 0 & -4 & | & -1 & 1 & 1 \end{matrix}\right] \thicksim \frac{L_3}{-4} \left[\begin{matrix} 1 & 2 & 3 & | & 1 & 0 & 0 \\ 0 & 1 & \frac{1}{3} & | & \frac{1}{3} & \frac{1}{3} & 0 \\ 0 & 0 & 1 & | & \frac{1}{4} & -\frac{1}{4} & -\frac{1}{4} \end{matrix}\right] }[/math]

Resolução do sistema linear homogêneo:

[math]\displaystyle{ \begin{cases} x & + & 2y & + & 3z & = & 0 \\ & & y & + & \frac{1}{3}z & = & 0 \\ & & & & z & = & 0 \end{cases} }[/math]

Solução: x = y = z = 0

Ou, na forma de um vetor: [math]\displaystyle{ X = \left[\begin{matrix} 0 \\ 0 \\ 0 \end{matrix}\right] }[/math]

As matrizes elementares são:

[math]\displaystyle{ E_1 = \left[\begin{matrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 1 \end{matrix}\right], E_2 = \left[\begin{matrix} -2 & 0 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 1 \end{matrix}\right], E_3 = \left[\begin{matrix} -2 & 0 & 0 \\ 1 & 1 & 0 \\ -2 & 0 & 1 \end{matrix}\right], E_4 = \left[\begin{matrix} -2 & 0 & 0 \\ 1 & 1 & 0 \\ -1 & 1 & 1 \end{matrix}\right], E_5 = \left[\begin{matrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ -1 & 1 & 1 \end{matrix}\right], }[/math]

[math]\displaystyle{ E_6 = \left[\begin{matrix} 1 & 0 & 0 \\ \frac{1}{3} & \frac{1}{3} & 0 \\ -1 & 1 & 1 \end{matrix}\right], E_7 = \left[\begin{matrix} 1 & 0 & 0 \\ \frac{1}{3} & \frac{1}{3} & 0 \\ \frac{1}{4} & -\frac{1}{4} & -\frac{1}{4} \end{matrix}\right]. }[/math]


  • Em cada caso, ou mostre que a afirmação é verdadeira ou dê um exemplo mostrando que ela é falsa. Suponhamos que A, B e C são matrizes quadradas.
  • Se [math]\displaystyle{ A^3 = 3I }[/math], então A é inversível.

Se ambas as matrizes são iguais, então os determinantes também o são.

[math]\displaystyle{ \begin{align*} det(A^3) & = det(3I) \\ det(3I) & \ne 0 \implies det(A^3) \ne 0 \\ det(A)det(A)det(A) & \ne 0 \\ (det(A))^3 & \ne 0 \\ \therefore det(A) & \ne 0 \end{align*} }[/math]

A é inversível [math]\displaystyle{ \iff det(A) \ne 0 }[/math]


  • Se [math]\displaystyle{ A^2 = A }[/math] e [math]\displaystyle{ A \ne 0 }[/math], então A é inversível.

[math]\displaystyle{ \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] = \left[\begin{matrix} a^2 + bc & (a + d)b \\ (a + d)c & bc + d^2 \end{matrix}\right] = \left[\begin{matrix} a & b \\ c & d \end{matrix}\right] }[/math]

Note que [math]\displaystyle{ a^2 + bc = a }[/math], ou a = 1 e bc = 0 ou a = bc = 0. O mesmo ocorre com [math]\displaystyle{ bc + d^2 = d }[/math] (a + d)b = b, ou a + d = 1, ou b = 0, ou a ou b é nulo e o outro um. O mesmo ocorre com (a + d)c = c

Ou seja, os valores possíveis para as quatro incógnitas são 0 ou 1. A matriz [math]\displaystyle{ \left[\begin{matrix} 0 & 0 \\ 1 & 1 \end{matrix}\right] }[/math] obedece a [math]\displaystyle{ A^2 = A }[/math] mas det(A) = 0 e ela não é inversível.


  • Se A e B são inversíveis, então A + B é inversível

A soma de duas matrizes inversíveis não é necessariamente inversível. [math]\displaystyle{ A = \left[\begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix}\right] }[/math] e [math]\displaystyle{ B = \left[\begin{matrix} -1 & 0 \\ 0 & -1 \end{matrix}\right] }[/math], A e B são inversíveis mas A + B não.


  • Se A e B são inversíveis, então AB é inversível.

det(A) ≠ 0 e det(B) ≠ 0. Como det(AB) = det(A)det(B), então det(AB) ≠ 0 e AB é inversível.


  • Se AB = 0 e A ≠ 0, então B = 0.

Falso. [math]\displaystyle{ \left[\begin{matrix} 1 & 0 \\ 0 & 0 \end{matrix}\right] \left[\begin{matrix} 0 & 0 \\ 0 & 1 \end{matrix}\right] = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right] }[/math]


  • Se AC = I, então [math]\displaystyle{ C = A^{-1} }[/math]

Primeiro vamos verificar que A é inversível:

det(AC) = det(I) det(A)det(C) = 1

Como C é a inversa e det(I) = 1, só resta que det(A) ≠ 0.

[math]\displaystyle{ A^{-1}(AC) = A^{-1}I }[/math] [math]\displaystyle{ (A^{-1}A)C = A^{-1} }[/math] [math]\displaystyle{ C = A^{-1} }[/math]


  • Se AB = AC, então B = C.

Falso. É possível obter uma mesma matriz a partir de duas multiplicações diferentes. [math]\displaystyle{ A = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right] }[/math], [math]\displaystyle{ B = \left[\begin{matrix} 0 & 1 \\ 0 & 1 \end{matrix}\right] }[/math] e [math]\displaystyle{ C = \left[\begin{matrix} 1 & 0 \\ 1 & 0 \end{matrix}\right] }[/math]


  • Se AB = 0, então nem A nem B tem inversa.

Falso. [math]\displaystyle{ A = \left[\begin{matrix} 0 & 0 \\ 0 & 0 \end{matrix}\right] }[/math] e [math]\displaystyle{ B = \left[\begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix}\right] }[/math]


  • Se AB é inversível, então A e B são inversíveis.

Se AB é inversível, então det(AB) ≠ 0 [math]\displaystyle{ \iff }[/math] det(A)det(B) ≠ 0 [math]\displaystyle{ \implies }[/math] det(A) ≠ 0 e det(B) ≠ 0. Portanto, A e B são inversíveis.


  • Se A é simétrica e inversível, então [math]\displaystyle{ A^{-1} }[/math] tambem é simétrica.

Temos que verificar se [math]\displaystyle{ (A^{-1})^T = A^{-1} }[/math] Vamos aplicar a propriedade [math]\displaystyle{ (A^{-1})^T = (A^T)^{-1} }[/math] //(a transposta da inversa é igual a inversa da transposta. Ora, se a matriz é simétrica, então inverter antes ou depois de transpor dá na mesma)// A é simétrica, então [math]\displaystyle{ A^{-1} = (A^T)^{-1} }[/math] (a inversa é igual a inversa da transposta) Portanto, [math]\displaystyle{ A^{-1} = (A^T)^{-1} }[/math]