MAT3458 - Álgebra Linear II

Alexandre Lymberopoulos
Departamento de Matemática - Universidade de São Paulo

Escola Politécnica - Engenharia Mecatrônica

2024 - Segundo Semestre

Informações do Curso

O que é Álgebra Linear

  1. É uma linguagem poderosa, que permite abordar de maneira geral e simultânea certos conjuntos que possuem uma estrutura algébrica em comum.
  2. A partir desta abordagem podemos obter resultados gerais que podem ser interpretados em cada contexto e trazer à luz propriedades ou interpretações dessas propriedades em cada caso específico.
  3. Apesar de parecer algo abstrato e complexo, as técnicas utilizadas são sempre muito simples e, não raramente, podem ser implementadas em algoritmos.
  4. Além de uma ferramenta teórica muito poderosa, ela permite olhar para problemas concretos de uma maneira objetiva, sendo naturalmente aplicada para resolver problemas (computacionalmente).
  5. Se o tempo e o interesse de vocês permitirem, tentaremos trazer algumas dessas aplicações e, eventualmente, implementações em softwares específicos!

Ementa

Espaços vetoriais sobre \(\R\text{:}\)

definição e propriedades; subespaços vetoriais; dependência linear; soma de subespaços; base e dimensão.

Transformações lineares:

núcleo e imagem; matriz de uma transformação linear.

Espaços vetoriais com produto interno:

ortogonalidade; bases ortonormais; projeção ortogonal.

Autovalores e autovetores:

diagonalização de operadores lineares

Operadores lineares simétricos
Espaços Vetoriais sobre \(\C\text{.}\)
Muitas Aplicações!

Avaliação e Critérios de Aprovação:

Vide página específica no e-disciplinas.

Espaços Vetoriais

Espaços Vetoriais - Motivação

Começamos com dois exemplos básicos e já conhecidos:

O conjunto dos vetores \(V^3\)

Aqui temos duas operações:

  • a soma vetores, \(\vec{u}+\vec{v}\text{,}\) que é comutativa, associativa, com elemento neutro e cada vetor tem seu oposto;
  • a multiplicação de vetor por escalar (um número real), \(\alpha\vec{u}\text{,}\) satisfazendo
    \begin{equation*} (\alpha\beta)\vec{u}=\alpha(\beta\vec{u});\quad (\alpha+\beta)\vec{u}=\alpha\vec{u}+\beta\vec{u};\quad \alpha(\vec{u}+\vec{v})=\alpha\vec{u}+\alpha\vec{v};\quad 1\vec{u}=\vec{u}. \end{equation*}

O conjunto das matrizes \(m\times n\) com entradas reais, \(M_{m\times n}(\R)\)

Com \(m\) e \(n\text{,}\) naturais positivos fixados, temos a operação de soma de matrizes e a multiplicação por escalar. Cada uma delas satisfaz as mesmas propriedades do exemplo anterior.

Vamos estudar, de maneira unificada, todos os conjuntos que estejam munidos de duas operações satisfazendo as propriedades acima.

Espaços Vetoriais - Definição

Generalizando o que vimos na lâmina anterior temos a:

Definição 1.

Um conjunto \(V\neq\emptyset\) é um espaço vetorial sobre \(\R\) se estão definidas:

  • uma adição, \((u,v)\mapsto u+v\text{,}\) satisfazendo

    1. \(u+v=v+u\text{,}\) para todos \(u,v\in V\text{;}\)
    2. \(u+(v+w)=(u+v)+w\text{,}\) para todos \(u,v,w\in V\text{;}\)
    3. existe \(\nv\in V\) tal que \(\nv+u=u\text{,}\) para todo \(u\in V\text{;}\)
    4. para todo \(u\in V\text{,}\) existe \(-u\in V\text{,}\) tal que \(u+(-u)=\nv\text{.}\)

  • uma multiplicação por escalar, \((\alpha,u)\mapsto \alpha u\text{,}\) satisfazendo

    1. \((\alpha\beta)u=\alpha(\beta u)\text{,}\) para todos \(\alpha,\beta\in\R\) e todo \(u\in V\text{;}\)
    2. \((\alpha+\beta)u=\alpha u+\beta u\text{,}\) para todos \(\alpha,\beta\in\R\) e todo \(u\in V\text{;}\)
    3. \(\alpha(u+v)=\alpha u+\alpha v\text{,}\) para todo \(\alpha\in\R\) e todos \(u,v\in V\text{;}\)
    4. \(1 u=u\text{,}\) para todo \(u\in V\text{.}\)

Espaços Vetoriais - Exemplos e Contraexemplos

O conjunto \(\R\text{,}\)

munido das operações usuais de soma e multiplicação.

O conjunto \(\C\text{,}\)

munido das operações usuais de soma de complexos e de multiplicação (por número real).

O conjunto \(V^3\text{,}\)

munido da soma de vetores e da multiplicação de escalar por vetor.

O conjunto \(M_{m\times n}(\R)\text{,}\)

munido da soma usual de matrizes e da multiplicação usual de matriz por um número real.

Os conjuntos \(\R^n=\big\{(x_1,\ldots,x_n)\colon x_i\in\R\big\}\) e \(\C^n=\big\{(x_1,\ldots,x_n)\colon x_i\in\C\big\}\text{,}\)

sendo \(\alpha\in\R\text{,}\) consideramos as operações

\begin{align*} (x_1,\ldots,x_n)+(y_1,\ldots,y_n)&=(x_1+y_1,\ldots,x_n+y_n);\\ \alpha(x_1,\ldots,x_n)&=(\alpha x_1,\ldots,\alpha x_n). \end{align*}

Espaços Vetoriais - Exemplos e Contraexemplos

O conjunto \(P_n(\R)\text{,}\) dos polinômios com coeficientes reais e de grau no máximo \(n\text{,}\)

munido das operações usuais de soma de polinômios e multiplicação de um polinômio por um número real.

Poderíamos considerar também polinômios com coeficientes complexos.

O conjunto \(C(I)\text{,}\) de todas as funções contínuas do intervalo \(I\) em \(\R\text{,}\)

com as operações usuais de soma de funções e muliplicação de função por um número real:

\begin{equation*} (f+g)(x)=f(x)+g(x);\qquad (\alpha f)(x)=\alpha f(x). \end{equation*}

O conjunto \(\R_+=\big\{u\in\R\colon u>0\big\}\text{,}\)

munido das operações \(u\oplus v=uv\) e \(\alpha\odot u=u^{\alpha}\text{.}\)

O conjunto \(\R^2\text{,}\)

com as operações \((x_1,y_1)\oplus(x_2,y_2)=(x_1+x_2,0)\) e \(\alpha(x,y)=(\alpha x, \alpha y)\text{.}\)

Espaços Vetoriais - Propriedades Elementares

Tipicamente denotamos um espaço vetorial indicando o conjunto e suas operações de soma e multiplicação por escalar: \((V,+,\cdot)\text{.}\) Quando não houver confusão com relação a estas operações escreveremos simplesmente \(V\text{.}\)

Observação: Poderíamos definir o que seria um espaço vetorial sobre \(\C\), usando escalares complexos ao invés de reais. Mais geralmente, podemos ter um espaço vetorial sobre um corpo \(K\) qualquer (um pouco fora do escopo deste curso).

Subespaços Vetoriais

Subespaços Vetoriais - Motivação e Definição

Em geral, para conhecer algum objeto, é bom começar estudando "partes" dele.

Melhor ainda se estas partes (ou subconjuntos) satisfizerem as mesmas propriedades que o objeto. Daí vem a:

Definição 3.

Seja \((V,+,\cdot)\) um espaço vetorial. Um subconjunto não-vazio \(U\subseteq V\) é um subespaço vetorial de \(V\) se, restringindo-se as operações de \(V\) a \(U\text{,}\) então \(U\) é um espaço vetorial. Nesse caso escrevemos \(U\leq V\text{.}\)

Subespaços Vetoriais - Exemplos e Contraexemplos

Subespaços triviais:

\(\{\nv\}\) e \(V\) são subespaços de \(V\text{,}\) chamados de subespaços triviais. Qualquer outro subespaço de \(M\) é chamado de subespaço próprio.

Planos em \(\R^3\) passando pela origem

\(V=\R^3\) e, por exemplo, \(U=\big\{(x,y,z)\in\R^3\colon x-2y+z=0\big\}\text{.}\)

Subconjuntos de \(C(\R)\)

\(V=C(\R)\) e \(U=\big\{f\in C(\R)\colon f(0)=f(1)\big\}\text{.}\)

\(V=C(\R)\) e \(U=\big\{f\in C(\R)\colon f(0)=2\big\}\text{.}\)

\(V=C(\R)\) e \(U=\big\{f\in C(\R)\colon f\text{ é derivável}\big\}\text{.}\)

Interseção de subespaços

Se \(U\leq V\) e \(W\leq V\text{,}\) então \(U\cap W\leq V\text{.}\)

Subespaços Vetoriais - Exemplos e Contraexemplos

União de subespaços

Se \(U\leq V\) e \(W\leq V\text{,}\) então \(U\cup W\) nem sempre é subespaço de \(V\text{.}\)

Subconjunto do espaço das matrizes:

Fixe \(n\in\N,n\geq 1\) e \(V=M_n(\R)\)

\(U=\big\{A\in V\colon A \text{ é simétrica}\big\}\text{;}\)

\(U=\big\{A\in V\colon \det(A)=0\big\}\text{;}\)

\(U=\big\{A\in V\colon \tr(A)=0\big\}\text{;}\)

Soluções de sistemas lineares

Fixe \(m,n\in\N,m,n\geq 1\text{,}\) \(A\in M_{m\times n}(\R)\) e \(b\in M_{m\times 1}(\R)\text{.}\)

\(U=\big\{x\in M_{n\times 1}(\R): Ax=\nv\big\}\text{;}\)

\(U=\big\{x\in M_{n\times 1}(\R): Ax=b\big\}\text{;}\)

Soma de Subespaços

Soma de Subespaços - Motivação e Definição

Se \(U\) e \(W\) são subespaços de \(V\text{,}\) vimos que nem sempre \(U\cup W\) é um subespaço de \(V\text{.}\)

Procuramos então o menor subespaço de \(V\) que contenha os subespaços \(U\) e \(W\text{.}\)

Definição 5.

Sejam \(V\) um espaço vetorial e \(U,W\leq V\text{.}\) A soma dos subespaços \(U\) e \(W\) é o conjunto

\begin{equation*} U+W=\big\{u+w\colon u\in U, w\in W\big\}. \end{equation*}

Soma de Subespaços - Exemplos e Propriedades

Subespaços de \(V=\R^3\text{:}\)

Sejam \(U=\big\{(x,y,z)\in\R^3\colon x=z\big\}\text{,}\) \(V=\big\{(x,y,z)\in\R^3\colon x=y=0\big\}\) e \(W=\big\{(x,y,z)\in\R^3\colon x+y+z=0\big\}\text{.}\)

Verifiquemos que \(\R^3=U+V\text{,}\) \(\R^3=U+W\) e \(\R^3=V+W\text{.}\)

Há interseção não trivial em algum caso?

Nem sempre a soma de dois subespaços é o espaço todo.

Soma Direta

No exemplo anterior vimos que podemos ter \(U+W\) com \(U\cap W\neq \{\nv\}\text{.}\)

Quando temos \(U+V\text{,}\) com \(U\cap W= \{\nv\}\text{,}\) muitas propriedades boas aparecem. Esta situação especial merece a

Definição 8.

Sejam \(V\) um espaço vetorial e \(U,W\leq V\text{.}\) Dizemos que \(U+W\) é uma soma direta se \(U\cap W=\{\nv\}\text{.}\)

Neste caso escrevemos \(U\oplus W\text{.}\)

Exemplos

Lâmina anterior.

\(V=M_n(\R)\text{;}\) \(U\) é o subespaço das matrizes simétricas; \(W\) é o subespaço das matrizes antisimétricas.

Seja \(I\subseteq \R\) um intervalo e considere \(V=C(\R)\text{;}\) \(U=\big\{f\in C(\R)\colon f(x)=f(-x)\big\}\text{;}\) \(W=\big\{f\in C(\R)\colon f(x)=-f(-x)\big\}\text{.}\)

Soma Direta - Propriedade Importante

Combinações Lineares e Subespaços Gerados

Combinações Lineares e Subespaços Gerados - Motivação e Definição

Usando a estrutura fornecida pelas operações podemos "criar" ou descrever subespaços vetoriais a partir de um conjunto arbitrário de elementos de um espaço vetorial.

Definição 10.

Sejam \(V\) um espaço vetorial e \(S=\{u_1,\ldots,u_n\}\subset V\text{.}\) O conjunto gerado por \(S\) é o conjunto

\begin{equation*} [S]=\big\{\alpha_1u_1+\ldots+\alpha_n u_n\colon \alpha_1,\ldots,\alpha_n\in\R\big\}. \end{equation*}

Um elemento de \([S]\) é uma combinação linear dos elementos de \([S]\text{.}\)

Usualmente indicamos também \([S]\) por \([u_1,\ldots,u_n]\text{.}\)

Dizemos que \(u_1,\ldots,u_n\) geram \([S]\) ou que são um sistema de geradores de \([S]\text{.}\)

Combinações Lineares e Subespaços Gerados - Propriedades e Observações

Convenções e Nomenclaturas

\([\emptyset]=\{\nv\}.\)

Se \(S\) é infinito, \([S]\) é definido com o conjunto de todas as combinações lineares utilizando um número finito de vetores de \(S\text{.}\)

Um espaço vetorial \(V\) é finitamente gerado se existe um conjunto finito \(S\subset V\) tal que \(V=[S]\text{.}\)

Propriedades

  1. \(S\subseteq [S]\text{;}\)
  2. \(S_1\subseteq S_2\subseteq V\implies [S_1]\subseteq [S_2]\text{;}\)
  3. \([S]=\big[[S]\big]\text{;}\)
  4. \([S_1\cup S_2]=[S_1]+[S_2]\text{.}\)

\([S]\) é o menor subespaço vetorial de \(V\) que contém o conjunto \(S\text{.}\)

Combinações Lineares e Subespaços Gerados - Exemplos

  1. Determine um sistema de geradores para o seguinte subespaço de \(\R^4\text{:}\)

    \begin{equation*} U=\big\{(x,y,z,t)\in\R^4\colon x-y-z+t=0 \text{ e } x+y+z=0\big\}. \end{equation*}

  2. Sendo \(U=\big[(1,0,0),(1,1,1)\big]\) e \(V=[(0,1,0),(0,0,1)]\text{,}\) determine sistemas de geradores para \(U\cap V\) e \(U+V\) (esta soma é direta?).

  3. Verifique se

    \begin{equation*} S=\left\{ \begin{pmatrix} 1&0\\0&1 \end{pmatrix}, \begin{pmatrix} 1&1\\0&0 \end{pmatrix}, \begin{pmatrix} 0&0\\1&1 \end{pmatrix}, \begin{pmatrix} 0&1\\1&2 \end{pmatrix}\right\} \end{equation*}
    gera o espaço \(M_2(\R)\text{.}\)

  4. Determine um sistema linear homogêneo cuja solução seja exatamente o subespaço vetorial de \(\R^4\) gerado pelos vetores \((1,0,1,2)\) e \((0,0,1,0)\text{.}\)

Dependência Linear

Dependência Linear - Definição

O objetivo aqui é tentar obter um conjunto "mínimo" de elementos a partir do qual seja possível descrever todos os elementos de um espaço de um espaço vetorial.

Definição 12.

Um conjunto \(S=\{v_1,\ldots,v_n\}\) de vetores num espaço vetorial \(V\) é linearmente independente (L.I.) se a igualdade

\begin{equation*} \alpha_1 v_1+\ldots+\alpha_n v_n=\nv \end{equation*}
só ocorre quando \(\alpha_1=\ldots=\alpha_n=0\text{.}\)

O conjunto \(S\) será linearmente dependente (L.D.) quando não for L.I., ou seja, quando a igualdade acima se verifica se que todos os escalares sejam simultaneamente nulos.

Convenção: O conjunto vazio, contido em qualquer espaço, é sempre linearmente independente.

Dependência Linear - Exemplos

Vetores em \(\R^n\text{:}\)

O conjunto \(S=\big\{(1,1,0,0),(0,2,1,0),(0,0,0,3)\big\}\) é L.I. em \(\R^4\text{.}\)

O conjunto \(S=\big\{(1,1,0,0),(0,1,0,0),(2,1,0,0)\big\}\) é L.D. em \(\R^4\text{.}\)

Matrizes:

O conjunto \(S=\left\{ \begin{pmatrix} 1&0\\0&1 \end{pmatrix}, \begin{pmatrix} 1&1\\0&0 \end{pmatrix}, \begin{pmatrix} 0&0\\1&1 \end{pmatrix}, \begin{pmatrix} 0&1\\1&2 \end{pmatrix}\right\}\) é L.I. em \(M_2(\R)\text{.}\)

Polinômios:

O conjunto \(S=\big\{1,x,x^2,2+x+x^2\}\) é L.D. em \(P_3(\R)\text{,}\) mas qualquer subconjunto dele com três elementos é L.I.

Espaços de funções:

O conjunto \(S=\{1,\sin t,\cos t\}\) é L.I. em \(C(\R)\text{.}\)

O conjunto \(S=\{1,\sin^2t,\cos^2 t\}\) é L.D. em \(C(\R)\text{.}\)

Depende do corpo:

\(S=\big\{1,i\big\}\subset\C\) é L.I. sobre \(\R\text{,}\) mas L.D. sobre \(\C\text{.}\)

Dependência Linear - Propriedades

Exemplo

Seja \(S=\big[(1,1,0,0),(0,1,0,2),(0,0,1,0),(0,2,-1,4)\big]\subseteq\R^4\text{.}\) Verifiquemos que \(S=\big[(1,1,0,0),(0,1,0,2),(0,0,1,0)\big]\text{.}\)

Base e Coordenadas

Base - Definição

Conseguimos aintgir nosso objetivo!

Definição 14.

Seja \(V\) um espaço vetorial finitamente gerado. Um subconjunto \(B\subset V\) é uma base para \(V\) se

  1. \([B]=V\text{;}\)
  2. \(B\) é linearmente independente.

Convenção: Se \(V=\{\nv\}\text{,}\) então \(\emptyset\) é uma base de \(V\text{.}\)

Base - Exemplos e Propriedade

Exemplos:

\(B=\big\{(1,0),(0,1)\big\}\) é base para \(\R^2\) como espaço vetorial sobre \(\R\text{.}\)

\(B=\big\{(1,0),(0,1)\big\}\) é base para \(\C^2\) como espaço vetorial sobre \(\C\) (e sobre \(\R\text{,}\) qual seria?).

\(B=\left\{ \begin{pmatrix}1&0&0\\0&0&0\end{pmatrix}, \begin{pmatrix}0&1&0\\0&0&0\end{pmatrix}, \begin{pmatrix}0&0&1\\0&0&0\end{pmatrix}, \begin{pmatrix}0&0&0\\1&0&0\end{pmatrix}, \begin{pmatrix}0&0&0\\0&1&0\end{pmatrix}, \begin{pmatrix}0&0&0\\0&0&1\end{pmatrix} \right\}\) é base para o espaço \(M_{2\times 3}(\R)\text{.}\)

\(B=\{1,t,\ldots,t^n\}\) é base de \(P_n(\R)\text{.}\)

Um mesmo espaço vetorial têm diversas bases diferentes (cada uma com sua utilidade).

Coordenadas - Definição

Retomando:

Se \(B=\big\{u_1,\ldots,u_n\big\}\) é base de um espaço vetorial finitamente gerado \(V\text{,}\) então todo \(v\in V\) escreve-se como combinação linear dos elementos de \(B\text{,}\) pois este é um gerador de \(V\text{:}\) \(v=\alpha_1 v_1+\ldots+\alpha_n v_n.\)

O fato de \(B\) ser L.I. garante que os escalares \(\alpha_i\) são únicos!

Isto motiva a:

Definição 16.

Sejam \(V\) um espaço vetorial finitamente gerado e \(B=\big\{u_1,\ldots,u_n\big\}\) uma base de \(V\text{.}\) Se escrevemos \(v\in V\) como

\begin{equation*} v=\alpha_1 u_1+\ldots+\alpha_n u_n, \end{equation*}
dizemos que a \(n-\)upla \((\alpha_1,\ldots,\alpha_n)\) é a representação em coordenadas (ou, simplesmente, as coordenadas) de \(v\) na base \(B\text{.}\)

Notação: \([v]_B=(\alpha_1,\ldots,\alpha_n)\text{.}\)

Demonstração.

É, por si, algoritmo para construir bases.

Coordenadas - Exemplos

Em \(\R^3\text{:}\)

Coordenadas de \((1,2,3)\) na base \(B=\big\{(1,1,1),(1,0,1),(1,1,0)\big\}\text{.}\)

Números Complexos (sobre \(\R\)):

Coordenadas de \(1-2i\in\C\) na base \(\{1-i,1+i\}\text{.}\)

Polinômios:

Coordenadas de \(2+4t+t^2\in P_2(\R)\) na base \(\{1,1+t,1+t^2\}\text{.}\)

Matrizes:

Coordenadas de \(\begin{pmatrix}1&-1\\2&0\end{pmatrix}\in M_2(\R)\) na base \(\left\{\begin{pmatrix}1&0\\0&1\end{pmatrix}, \begin{pmatrix}0&1\\0&0\end{pmatrix}, \begin{pmatrix}0&0\\2&0\end{pmatrix}, \begin{pmatrix}0&0\\1&2\end{pmatrix}\right\}\text{.}\)

Funções:

Coordenadas de \(f(x)=1\in S\text{,}\) onde \(S=[B]\text{,}\) \(B=\big\{\sin^2x,\cos(2x)\big\}\text{.}\)

Dimensão

Dimensão - Preliminares

Começamos com uma sequência de resultados importantes para um espaço vetorial \(V\) finitamente gerado.

Dimensão - Definição

Com isso temos a:

Definição 21.

Seja \(V\) um espaço vetorial finitamente gerado. A dimensão de \(V\) é o número de elementos de qualquer base de \(V\text{.}\)

Notação: \(\dim V\text{.}\)

Observação: Às vezes indicamos o corpo de escalares na notação de dimensão, escrevendo \(\dim_\R V\) ou \(\dim_\C V\text{,}\) por exemplo. Quando não houver confusão esse índice será omitido.

Dimensão - Exemplos e Propriedades

Exemplos:

  1. \(\dim\R^n=n\text{;}\)
  2. \(\dim_\C\C^n=n\text{;}\)
  3. \(\dim_\R\C^n=2n\text{;}\)
  4. \(\dim P_n(\R)=n+1\text{;}\)
  5. \(\dim M_{m\times n}(\R)=mn=\dim M_{n\times m}(\R)\text{;}\)
  6. \(\dim \{\nv\}=0\text{.}\)

Propriedades:

Dimensão da Soma de Subespaços

Seja \(W\) um espaço vetorial de dimensão finita e \(U,V\leq W\text{.}\)

Qual a relação entre as dimensões de \(U\text{,}\) \(V\text{,}\) \(U\cap V\) e \(U+V\text{?}\)

Exemplo:

Considere os seguintes subespaços de \(\R^4\text{:}\)

\begin{equation*} U=\big[(1,0,1,0),(0,1,0,0)\big]\qquad{e}\qquad V=\big\{(x,y,z,t)\in\R^4\colon x+y=0\big\}. \end{equation*}
Quais os valores de \(\dim(U\cap V)\) e de \(\dim (U+V)\text{?}\)

Subespaços associados a uma matriz

Matrizes - Espaço-Linha e Espaço-coluna

Buscamos um processo prático para resolver o problema da lâmina anterior.

Seja \(A=(a_{ij}) \in M_{m\times n}(\R)\text{.}\)

Cada linha de \(A\) é um vetor de \(\R^n\) e cada coluna é um vetor de \(\R^m\text{.}\)

O conjunto das combinações lineares das linhas de \(A\) é um subespaço vetorial de \(\R^n\text{,}\) chamado espaço-linha de \(A\) e denotado por \(\lin A\text{.}\)

Analogamente, o conjunto das combinações lineares das colunas de \(A\) é um subespaço vetorial de \(\R^m\text{,}\) chamado espaço-coluna de \(A\) e denotado por \(\col A\text{.}\)

Exemplo

Seja \(A=\begin{pmatrix} 1&0&1&1&-1\\ 0&1&1&2&1\\ 1&1&2&1&2 \end{pmatrix}\text{.}\) Então

\begin{align*} \lin A&=\big[(1,0,1,1,-1),(0,1,1,2,1),(1,1,2,1,2)\big]\\ \col A&=\big[(1,0,1),(0,1,1),(1,1,2),(1,2,1),(-1,1,2)\big] \end{align*}

Definição 26.

Duas matrizes \(A,B\in M_{m\times n}(\R)\) são equivalentes por linhas se obtemos \(B\) aplicando um número finito de operações elementares nas linhas de \(A\text{.}\)

A equivalência por colunas é definida de maneira análoga. Diremos que são equivalentes se for equivalentes por linhas ou por colunas.

Matrizes - Espaço-linha e Espaço Coluna

Com isso podemos determinar de maneira prática bases para \(\lin A\) e \(\col A\text{.}\)

Exemplo: lâmina anterior.

E uma base para esses espaços formada pelos vetores linha ou vetores coluna da matriz original?

Sem problemas: vejamos como fazer em \(S=\big[(1,0,1),(0,1,1),(1,1,2),(1,2,1),(-1,1,-2)\big]\subseteq\R^3.\)

Só para subespaços de \(\R^n\text{?}\) Claro que não! \(S=[t^4+t^2+2t+1, t^4+t^2+2t+2,2t^4+t^3+t+2,t^4+t^3-t^2-t]\subseteq P_4(\R)]\text{.}\) (use coordenadas numa base conveniente!)

Matrizes - Completando bases

Lembrando do Teorema do Completamento , dado um conjunto de geradores para um subespaço podemos completá-lo a uma base do espaço todo.

Agora temos um processo "prático" para isso!

Exemplo:

Seja

\begin{equation*} S=\big[(1,-2,0,3,-4),(3,2,8,1,4),(2,3,7,2,3),(-1,2,0,4,-3)\big]\subseteq\R^5. \end{equation*}
  1. Obtenha uma base de \(S\text{.}\)
  2. Obtenha uma base de \(S\) contendo vetores dentre os geradores dados.
  3. Complete esta última base de acima a uma base de \(\R^5\text{.}\)

Generalizando:

Junto com o último exemplo da lâmina anterior, podemos fazer isso para qualquer espaço finitamente gerado.

Matrizes - Posto

Definição 29.

Seja \(A\in M_{m\times n}(\R)\text{.}\) Definimos o posto-linha de \(A\) como \(\dim\lin A\text{.}\)

Analogamente, o posto-coluna de \(A\) é \(\dim\col A\text{.}\)

Exemplo:

Determine o posto-linha e o posto-coluna de \(A=\begin{pmatrix} 1&-2&0&3&-4\\ 3&2&8&1&4\\ 2&3&7&2&3\\ -1&2&0&4&-3 \end{pmatrix}\text{.}\)

Matrizes - Nulidade

Definição 31.

Seja \(A\in M_{m\times n}(\R)\text{.}\) O núcleo de \(A\) é o subespaço \(\ker A=\{x\in\R^n\colon Ax=\nv\}\text{.}\)

A nulidade de \(A\) é \(\dim\ker A\text{.}\)

Notação: \(\nul A\text{.}\)

Exemplo:

Determine o núcleo e a nulidade de \(A=\begin{pmatrix} 1&-2&0&3&-4\\ 3&2&8&1&4\\ 2&3&7&2&3\\ -1&2&0&4&-3 \end{pmatrix}\text{.}\)

Consequências

Transformações Lineares

Transformações Lineares - Motivação e Definição

Agora que conhecemos bastante da estrutura dos espaços vetoriais, chegou a hora de estudar funções entre tais espaços.

Mas funções que preservem a estrutura algébrica desses espaços.

Exemplo:

Considere \(V=\R\) e \(f\colon\R\to\R\) dada por \(f(x)=ax\text{,}\) com \(a\in\R\) fixado.

Como deve ser uma função \(f\colon\R\to\R\) que preserva as operações de soma e multiplicação por escalar?

Definição 34.

Sejam \(U\) e \(V\) espaços vetorias. Uma transformação linear de \(U\) em \(V\) é uma função \(T\colon U\to V\text{,}\) satisfazendo

  1. \(\displaystyle T(u_1+u_2)=T(u_1)+T(u_2);\)
  2. \(T(\alpha u)=\alpha T(u)\text{.}\)

Observações

Utilizamos, por puro conforto, os mesmos símbolos para as operações em \(U\) e em \(V\text{.}\) Cuidado!

Uma transformação linear \(T\colon U\to U\) também é chamada de operador linear.

Transformações Lineares - Exemplos e Propriedades

Se \(V\) é um espaço vetorial qualquer, as aplicações \(\nv\colon V\to V\text{,}\) dada por \(\nv(v)=\nv\) e \(\id\colon V\to V\text{,}\) dadas por \(\id(v)=v\) são lineares. Mas, para um vetor \(w\in V\) fixado, \(T_w(v)=v+w\) é linear se, e somente se, \(w=\nv\text{.}\)

\(T\colon\R^3\to\R^2\) dada por \(T(x,y,z)=(x,2x-z)\text{.}\)

Generalizando, para \(A\in M_{m\times n}(\R)\) fixada, considere \(T\colon\R^n\to\R^m\text{,}\) dada por \(T(x)=Ax\text{.}\)

\(D\colon P_n(\R)\to P_n(\R)\text{,}\) dado por \(D\big(p(t)\big)=p'(t)\text{.}\)

\(I\colon P_n(\R)\to P_{n+1}(\R)\) dada por \(I\big(p(x)\big)=\displaystyle{\int_0^x p(t)\, dt}\text{.}\)

\(A\colon C\big([a,b]\big)\to\R\text{,}\) dada por \(A(f)=\displaystyle{\int_a^b f(x)\, dx}\text{.}\)

Observação: A imagem de \(T\) é o conjunto (subespaço, na verdade) \(\im T=T(U)\text{.}\)

Transformações Lineares - Núcleo e Imagem I

Definição 36.

Seja \(T\colon U\to V\) uma transformação linear. O núcleo de \(T\) é o conjunto

\begin{equation*} \ker T=\big\{u\in\ U\colon T(u)=\nv\big\}. \end{equation*}

Observação: Na literatura é comum encontrar a nomenclatura kernel de \(T\).

Exemplos:

\(T\colon\R^3\to\R^2\text{,}\) \(T(x,y,z)=(x+y,2x-y+z)\text{.}\)

\(D\colon P_n(\R)\to P_n(\R)\text{,}\) \(D\big(p(x)\big)=p'(x)\text{.}\)

Transformações Lineares - Núcleo e Imagem II

Transformações Lineares - Isomorfismos

Definição 40.

Uma transformação linear \(T\colon U\to V\) é um isomorfismo se for bijetora.

Um isomorfismo \(T\colon U\to U\) é chamado automorfismo.

Exemplos:

\(I\colon U\to U\text{,}\) dado por \(I(u)=u\text{.}\)

\(T\colon\R^2\to P_1(\R)\text{,}\) dado por \(T(x,y)=x+(x+y)t\text{.}\)

Transformações Lineares - Teorema do Isomorfismo

Espaço das Transformações Lineares

Operações com Transformações Lineares

Podemos realizar operações com funções, utilizando a estrutura vetorial do contradomínio.

Definição 44.

Sejam \(U\) e \(V\) espaços vetorias. O conjunto de todas as transformações lineares \(T\colon U\to V\) será denotado por \(L(U,V)\text{.}\)

Se \(U=V\text{,}\) escrevemos simplesmente \(L(U)\text{.}\)

Em \(L(U,V)\) podemos definir soma e multiplicação por escalar:

\begin{align*} T+S&\colon U\to V,\text{ dada por }(T+S)(u)=T(u)+S(u);\\ \alpha T&\colon U\to V,\text{ dada por }(\alpha T)(u)=\alpha T(u). \end{align*}

Se \(T\in L(U,V)\) e \(S\in L(V,W)\text{,}\) temos a composta \(S\circ T\colon U\to W\text{,}\) dada por \((S\circ T)(u)=S\big(T(u)\big)\text{.}\)

Observação: Tanto \(T+S\text{,}\) quanto \(\alpha T\) definidas acima são elementos de \(L(U,V)\text{.}\) Para a composta temos que \(S\circ T\in L(U,W)\text{.}\)

Qual é a dimensão de \(L(U,V)\) em termos das dimensões de \(U\) e de \(V\text{?}\)

Matrizes de Transformações Lineares - Construção

Se \(B=\{u_1,\ldots,u_n\}\) e \(C=\{v_1,\ldots,v_m\}\) são bases dos espaços \(U\) e \(V\text{,}\) respectivamente podemos escrever cada vetor \(T(u_j)\in V\) na base \(C\text{:}\)

\begin{equation*} T(u_j)=\sum\limits_{i=1}^m a_{ij}v_i. \end{equation*}

Definição 46.

A matriz \((a_{ij})\in M_{m\times n}(\R)\) é a matriz da transformação linear \(T\) com relação às bases \(B\) e \(C\).

Notação: \([T]_{C,B}=(a_{ij})\text{.}\)

Demonstração.

\(u=\sum\limits_{j=1}^n \alpha_ju_j\implies T(u)=\sum\limits_{j=1}^n\alpha_jT(u_j)=\sum\limits_{j=1}^n\alpha_j\left(\sum\limits_{i=1}^m a_{ij}v_i\right)=\sum\limits_{i=1}^m\left(\sum\limits_{j=1}^n a_{ij}\alpha_j\right)v_i\text{.}\)

Matrizes de Transformações Lineares - Exemplos e Propriedades

Exemplos:

\([T]_{C,B}\text{,}\) onde \(T\in L(\R^3,\R^2)\) é dada por \(T(x,y,z)=(x+y,y+z)\text{,}\) \(B=\big\{(1,0,0),(0,1,0),(0,0,1)\big\}\) e \(C=\big\{(1,0),(1,1)\big\}\text{.}\)

A matriz do operador derivação em \(P_3(\R)\text{,}\) com relação à base canônica desse espaço.

Consequentemente, se \(\dim U=n\) e \(\dim V=m\text{,}\) então \(\dim L(U,V)=nm\text{.}\)

Matrizes de Transformações Lineares - Composta e Mudança de Base

Em particular, se \(T\in L(U,V)\) é um isomorfismo, \(T^{-1}\in L(V,U)\) e então \([T]_{C,B}[T^{-1}]_{B,C}=[\mathrm{Id}]_{C}=\mathrm{Id}\) e \([T^{-1}]_{B,C}[T]_{C,B}=[\mathrm{Id}]_{B}=\mathrm{Id}\text{.}\)

Matrizes mudança de base: nada mais do que a matriz da transformação identidade escrita nas bases \(B\) e \(C\text{.}\)

Exemplos:

Considere \(T\in L\big(\R^2,P_1(\R)\big)\text{,}\) dado por \(T(x,y)=x+(x+y)t\text{.}\) Determine sua matriz relativa às bases canônicas e, com isso, explicite a expressão de \(T^{-1}\text{.}\)

Considere \(T\in L\big(P_3(\R),\R\big)\text{,}\) dado por \(T\big(p(t)\big)=\displaystyle{\int_0^1 p(t)\, dt}\text{.}\) Determine sua matriz relativa às bases canônicas. Use isso para calcular \(\displaystyle{\int_0^1 t^3-2t^2+3t+4\, dt}\text{.}\)

Decida se \(T\in L(\R^3)\text{,}\) dado por \(T(x,y,z)=(x-y, 2y,y+z)\) é um invertível. Se sim, quem é sua inversa?

Determine todos os operadores lineares \(S\in L(\R^2)\text{,}\) da forma \(S(x,y)=(ax+by,cx)\text{,}\) tais que \(S^2=\mathrm{Id}\) (operador identidade). Repita para \(S^2=\nv\) (operador nulo).

Diagonalização de Operadores

Autovalores e Autovetores - Motivação e Definições

Se \(T\in L(V)\text{,}\) pode existir \(v\in V\) tal que \(T(v)\) e \(v\) são paralelos.

Um vetor desse tipo carrega informação importante sobre a transformação \(T\text{.}\)

Em casos especiais conseguimos uma base de \(V\) formada por vetores com essa propriedade. Quando e como é o que vamos abordar nesta seção.

Definição 51.

Sejam \(V\) um espaço vetorial (sobre \(\R\) ou \(\C\)) e \(T\in L(V)\text{.}\) Um vetor \(v\neq\nv\in V\) é um vetor próprio de \(T\) se existe um escalar \(\lambda\) (real ou complexo respectivamente) tal que \(T(v)=\lambda v\text{.}\) O escalar \(\lambda\) é chamado valor próprio de \(T\) associado \(v\text{.}\)

Observação: Vetores e valores próprios são também chamados, respectivamente de autovetores e autovalores.

Observação: A cada vetor próprio está associado um único autovalor: \(\lambda u = T(u) = \lambda' u \implies (\lambda-\lambda')u=\nv\implies \lambda=\lambda'\text{.}\)

Observação: Na definição acima, se \(\lambda\) não é valor próprio, então \(V_\lambda=\{\nv\}\) e que \(\nv\) não é vetor próprio de nenhum operador linear.

Observação: \(V_\lambda=\ker (T-\lambda\mathrm{Id})\text{.}\)

Autovalores e Autovetores - Exemplos e Propriedades

Vamos discutir cada um dos exemplos abaixo geometricamente e inferir a existência de autovetores:

Reflexão pela bissetriz: \(T\in L(\R^2)\text{,}\) \(T(x,y)=(y,x).\)

Autovetores e autovalores:

Rotação no sentido anti-horário de \(\frac{\pi}{2}\) radianos: \(T\in L(\R^2)\text{,}\) \(T(1,0)=(0,1)\) e \(T(0,1)=(-1,0)\text{.}\)

Autovetores e autovalores:

Homotetias num espaço vetorial: \(T(v)=\lambda v\text{,}\) para todo \(v\in V\text{.}\)

Autovetores e autovalores:

Rotação em \(\R^3\text{,}\) fixando o eixo \(Oz\text{.}\)

Como é a matriz de tal operador na base canônica?

Autovetores e autovalores:

Projeção no plano \(Oxy\text{:}\) \(T\in L(\R^3)\text{,}\) \(T(x,y,z)=(x,y,0)\text{.}\)

Autovetores e autovalores:

Derivação de funções: \(T\in L\big(\mathcal{C}^1(\R)\big)\text{,}\) \(T(f)=f'\text{.}\)

Autovetores e autovalores:

Autovalores e Autovetores - Como calcular? (parte I)

Como vimos, \(V_\lambda=\ker (T-\lambda\mathrm{Id})\text{.}\) Vamos usar isso para determinar os autovetores de \(T\text{.}\)

Para isso precisamos conhecer os autovalores. Começãmos então com a:

Definição 53.

Dada uma matriz \(A\in M_n(\R)\) ou \(A\in M_n(\R)\text{,}\) chamamos de polinômio característico de \(A\text{,}\) o polinômio de grau \(n\) dado por \(p_A(t)=\det(A-t\mathrm{Id}_n)\text{.}\)

Exemplo: \(A=\begin{pmatrix}0&1\\1&0\end{pmatrix}\text{.}\)

Isso nos permite considerar polinômios característicos de operdores lineares:

Definição 55.

Sejam \(V\) um espaço vetorial de dimensão finita e \(T\in L(V)\text{.}\) O polinômio característico de \(T\) é o polinômio da matriz de \(T\) em relação a qualquer base de \(V\text{.}\)

Notação: \(p_T(t)\text{.}\)

Autovalores e Autovetores - Como calcular? (parte II)

Exemplos:

\(T\in L(\R^2)\text{,}\) \(T(x,y)=(y,x)\text{.}\)

\(T\in L(\R^2)\text{,}\) \(T(1,0)=(0,1)\) e \(T(0,1)=(-1,0)\text{.}\)

\(T\in L(V)\text{,}\) \(T(v)=\lambda v\text{.}\)

\(T\in L(\R^3)\text{,}\) \([T]=\begin{pmatrix} \cos\theta&-\sin\theta&0\\ \sin\theta&\cos\theta&0\\ 0&0&1 \end{pmatrix}\text{.}\)

\(T\in L(\R^3\text{,}\) \(T(x,y,z)=(x,y,0)\text{.}\)

Observação:

Se \(V\) é um espaço vetorial sobre \(\C\) de dimensão \(n\text{,}\) então \(p_T(t)\) é, em geral, um polinômio com coeficientes complexos e portanto sempre terá \(n\) raízes complexas (contando multiplicidades). Consequentemente sempre terá autovalores e autovetores.

O segundo exemplo acima mostra que esse não é o caso em geral quando o espaço vetorial é sobre os reais. Porém, se \(\dim_\R V\) é ímpar, garantimos a existência de pelo menos um autovalor.

Diagonalização - Motivação e Definições

Objetivo: Dados \(V\text{,}\) espaço vetorial de dimensão finita, e \(T\in L(V)\text{,}\) encontrar, se possível, uma base \(B\) de \(V\) na qual \([T]_B\) é a mais simples possível.

Consideremos os operadores \(T,S\in L(\R^2)\) dados por \(T(x,y)=(y,x)\) e \(S(x,y)=(x+y,y)\text{.}\)

Determine os autovalores e autovetores desses operadores.

Em qual dos casos \(\R^2\) admite uma base composta por autovetores do operador? Como fica a matriz dele nessa base?

Definição 57.

Seja \(V\) um espaço vetorial de dimensão finita. Um operador \(T\in L(V)\) é dito diagonalizável se existe uma base \(B\) de \(V\) na qual \([T]_B\) é uma matriz diagonal.

Nessa situação teremos \(p_T(t)=(\lambda_1-x)\ldots(\lambda_n-x)\text{.}\)

Atenção! Na fatoração acima os \(\lambda_i\) não precisam ser distintos, mesmo que \(T\) seja diagnonalizável.

Lembrando e generalizando: sabemos o que significam soma e soma direta de dois subespaços. Generalizamos isso para qualquer quantidade finita de subespaços de maneira natural: \(U_1\oplus U_2\oplus\ldots\oplus U_k\) é o conjunto de todas as somasentre elementos de cada \(U_i\) e que \(\bigcap\limits_{i=1}^j U_i=\{\nv\}\) para todo \(2\leq j\leq k\text{.}\)

Continua valendo então a união das bases de cada \(U_i\) é uma base dessa soma direta. Em particular

\begin{equation*} \dim\Big(\bigoplus\limits_{i=1}^k U_i\Big)=\sum\limits_{i=1}^k\dim U_i. \end{equation*}

Diagonalização - Primeiras Propriedades e Exemplos

Fica fácil ver que se, \(T\in L(V)\) é diagonalizável se e somente se \(V=V_{\lambda_1}\oplus V_{\lambda_2}\oplus\ldots\oplus V_{\lambda_k}\text{,}\) onde os \(\lambda_i\) são os autovalores de \(T\text{.}\)

Isso acontece trivialmente se \(k=\dim V\text{,}\) ou seja se todas as raízes de \(p_T(t)\) são distintas, mas pode ocorrer em outros casos:

Exemplos:

\(T\in L(\R^3)\text{,}\) \(T(x,y,z)=(2x+z,2y,3z)\text{.}\)

\(T\in L(\R^3)\text{,}\) \(T(x,y,z)=(2x+y,3y+z,3z)\text{.}\)

Definição 59.

Sejam \(V\) um espaço vetorial de dimensão finita, \(T\in L(V)\) e \(\lambda\in K\) (\(\R\) ou \(\C\)) um auto valor de \(T\text{.}\)

A multiplicidade geométrica de \(\lambda\) é \(m_g(\lambda)=\dim_K V_\lambda\text{.}\)

A multiplicidade algébrica de \(\lambda\) é a multiplicidade de \(\lambda\) como raiz de \(p_T(t)\) e é denotada por \(m_a(\lambda)\text{.}\)

Observação: É possível mostrar que \(m_a(\lambda)\geq m_g(\lambda)\text{.}\)

Diagonalização - Resultado principal

Exemplos:

\(T\in L(\R^2)\text{,}\) \(T(x,y)=(4x+4y,x+4y)\text{.}\)

\(T\in L(\R^3)\text{,}\) tem \(A=\begin{pmatrix} 0&7&-6\\ -1&4&0\\ 0&2&-2\\ \end{pmatrix}\) como matriz em relação à base canônica.

\(T\in L(\C^4)\text{,}\) tem \(A=\begin{pmatrix} 2&1&0&0\\ 0&2&0&0\\ 0&0&1&1\\ 0&0&4&-2 \end{pmatrix}\) como matriz em relação à base canônica.

Curiosidades:

Teorema de Cayley-Hamilton;

Aplicação: se \(A\in M_n(\R)\) então \(A^n\) escreve-se como combinação linear das potências anteriores de \(A\text{;}\)

Casos: \(2\times 2\) e \(3\times 3\text{;}\)

Polinômio minimal e critério algébrico para diagonalização.

Produto Interno

Produto interno - Motivação e Definição

Queremos geometria! (sabemos que álgebra linear é geometria)

Ou seja, medir ângulos e comprimentos.

Sabemos fazer isso com vetores do \(\R^2\) e \(\R^3\text{,}\) através do produto escalar: \(\vec{u}\cdot\vec{v}\) (lembre-se de suas propriedades)

Comprimento: \(\|\vec{v}\|=\sqrt{\vec{v}\cdot\vec{v}}\) e \(\cos\theta = \dfrac{\vec{u}\cdot\vec{v}}{\|\vec{u}\|\|\vec{v}\|}\text{.}\)

Vamos estender esse conceito para espaços vetoriais, de modo que as proriedades continuem válidas.

Definição 61.

Seja \(V\) um espaço vetorial. Um produto interno em \(V\) é uma função \(\langle ,\rangle\colon V\times V\to \R\) satisfazendo:

  1. \(\langle\alpha u_1+u_2,v\rangle=\alpha \langle u_1,v\rangle+\langle u_2,v\rangle\text{;}\)
  2. \(\langle u,v\rangle=\langle v,u\rangle\text{;}\)
  3. \(\langle u,u\rangle\geq 0\) e \(\langle u,u\rangle=0\iff u=\nv\text{.}\)

Quando \(V\) tem um produto interno dizermos que \(\big(V,\langle,\rangle\big)\) é um espaço vetorial com produto interno ou simplesmente um espaço euclidiano.

Produto Interno - Primeiras Propriedades e Exemplos

Propriedades:

  • \(\langle \nv, v\rangle=0\text{;}\)
  • \(\displaystyle (\alpha+\beta)\langle u,v\rangle=\langle \alpha u,v\rangle+\langle \beta u,v\rangle\)
  • \(\langle u, \alpha v_1+v_2\rangle=\alpha \langle u, v_1\rangle +\langle u,v_2\rangle\text{;}\)

Nomenclatura

Esta última propriedade, junto com a primeira da definição é o que chamamos de bilinearidade do produto interno.

A segunda é o que chamamos de simetria do produto interno.

A terceira diz que o produto interno é positivo-definido.

Resumindo, um produto interno em um espaço vetorial é uma aplicação bilinear, simétrica e positiva-definida.

Exemplos:

  • O produto interno usual em \(\R^2\) e \(\R^3\) (generalizar para \(\R^n\)).
  • Em \(V=M_{m\times n}\) fazemos \(\langle A,B\rangle=\tr(B^tA)\text{.}\)
  • Em \(V=P_n(\R)\text{,}\) escolhemos \(k\geq n+1^{(\ast)}\) números reais distintos, \(x_1,\ldots,x_k\text{,}\) e fazemos\(\langle p,q\rangle=p(x_1)q(x_1)+\ldots p(x_k)q(x_k)\text{.}\)
  • Em \(V=P_n(\R)\text{,}\) fazemos \(\langle p,q\rangle=\displaystyle{\int_a^b p(x)q(x)\, dx}\text{.}\)
  • Em \(V=C\big([a,b]\big)\text{,}\) fazemos \(\langle f,g\rangle=\displaystyle{\int_a^b f(x)g(x)\, dx^{\dagger}}\text{.}\)

Para pensar:
  • \((\ast)\text{:}\) por que precisamos de ao menos \(n+1\) pontos?
  • \((\dagger)\text{:}\) por que o intervalo de integração precisa ser \([a,b]\) e por que precisamos do espaço das funções contínuas?

Produto Interno - Geometria de um espaço vetorial

Definição 62.

Seja \(\big(V,\langle,\rangle\big)\) um espaço vetorial com produto interno. A norma de \(v\in V\) é o número real positivo \(\|v\|=\sqrt{\langle v,v\rangle}\text{.}\)

Isso dá uma maneira de medir comprimentos num espaço vetorial abstrato. Temos uma régua!

Usando a primeira desigualdade acima para vetores não nulos, podemos escrever \(-1\leq \dfrac{\langle u,v\rangle}{\|u\|\,\|v\|} \leq 1\text{,}\) logo existe \(\theta\in [0,\pi]\) tal que \(\cos\theta=\dfrac{\langle u,v\rangle}{\|u\|\,\|v\|}\text{.}\)

O número real \(\theta\) é o ângulo entre os vetores \(u\) e \(v\). Temos um gonômetro num espaço vetorial abstato!

Produto Interno - Ortogonalidade

Em vista do conceito de ângulo que acabamos de ver, é natural a:

Definição 65.

Seja \(V\) um espaço vetorial euclidiano. Dizemos que \(u,v\in V\) são ortogonais se \(\langle u,v\rangle =0\text{.}\)

Um subconjunto \(S=\{v_1,\ldots,v_k\}\subset V\) é ortonormal se \(\langle v_i,v_j\rangle=\delta_{ij}\text{,}\) onde \(\delta_{ij}=1\text{,}\) se \(i=j\) e \(\delta_{ij}=0\text{,}\) se \(i\neq j\text{.}\)

Exemplo:

A base canônica de \(\R^n\) é ortonomal em relação ao produto interno usual desse espaço!

Produto Interno - Bases ortonormais

Definição 68.

Se \(B=\{v_1,\ldots,v_n\}\) é simultaneamente um base e um conjunto ortonormal no espaço vetorial euclidiano \(V\text{,}\) dizemos que \(B\) é uma base ortonormal de \(V\text{.}\)

Observação: Bases ortonormais são úteis, pois se \(u=(\alpha_1,\ldots,\alpha_n)_B\) e \(v=(\beta_1,\ldots,\beta_n)_B\text{,}\) então \(\langle u,v\rangle=\sum\limits_{i=1}^n \alpha_i\beta_i\text{.}\)

Exemplos:

Construa uma base ortonormal para \(\R^3\text{,}\) com o produto interno usual, a partir da base \(B=\big\{(1,0,0),(0,1,1),(0,1,2)\big\}\text{.}\)

Idem para a base \(B=\{1,t,t^2\}\) de \(P_2(\R)\text{,}\) com o produto interno \(\big\langle p(t),q(t)\big\rangle=\displaystyle{\int_0^1 p(t)q(t)\, dt}\text{.}\)

Produto Interno - Complementos Ortogonais e Projeções

Definição 70.

Sejam \(V\) um espaço vetorial com produto interno e \(S\subseteq V\) um subconjunto não-vazio qualquer. Definimos o complemento ortogonal de \(S\) por

\begin{equation*} S^\perp=\big\{ v\in V\colon \langle v,s\rangle=0,\text{ para todo }s\in S\big\} \end{equation*}

Exemplos:

\(\big\{\nv\}^\perp = V\text{;}\)

\(V^\perp = \big\{\nv\big\}\text{;}\)

\(A\in M_{m\times n}(\R)\implies\ker A=(\lin A)^\perp\text{.}\)

Aplicação:

Se \(U\leq \big(V,\langle,\rangle\big)\text{,}\) podemos escrever todo \(v\in V\) na forma \(v=u+w\text{,}\) onde \(u\in U\) e \(w\in U^\perp\text{.}\)

Considere a aplicação \(E\colon V\to V\text{,}\) dada por \(E(v)=u\text{,}\) chamada operador de projeção ortogonal sobre \(U\). Antes de vermos umas aplicações, mostremos que:

  1. \(E\in L(V)\text{;}\)
  2. \(E^2=E\text{;}\)
  3. \(\ker E=?\text{;}\)
  4. \(\im E=?\text{;}\)

Melhor aproximação: mínimos quadrados e generalizações, vamos para a lousa fazer contas!

Produto Interno - Isometrias

Como o nome diz, são aplicações que preservam distâncias (e algo mais...). Restringindo-nos somente a espaços de dimensão finita (algumas coisas continuariam valendo), temos a:

Definição 72.

Seja \(V\) um espaço vetorial com produto interno. Uma aplicação \(T\in L(V)\) é uma isometria se

\begin{equation*} \|T(v)\|=\|v\|,\text{ para todo }v\in V\text{.} \end{equation*}

Exemplo: Rotações em torno da origem no plano e em torno de um eixo no \(\R^3\text{.}\)

Operadores Autoadjuntos e Diagonalização

Operadores Autoadjuntos - Definição e Primeiras Propriedades

Vamos estudar uma classe de operadores muito importantes que, em situações mais gerais, são utilizados em análise funcional e mecânica quântica para representar objetos físicos observáveis como posição, momento, momento angular e \textit{spin}, na formulação de Dirac-von Neumann.

Aqui vamos tratar desses operadores em espaços de dimensão finita.

Definição 76.

Seja \(\big(V,\langle,\rangle\big)\) um espaço vetorial euclidiano de dimensão finita. Um operador \(T\in L(V)\) é autoadjunto se

\begin{equation*} \big\langle T(u),v\big\rangle=\big\langle u,T(v)\big\rangle, \forall u,v\in V. \end{equation*}

Exemplos e não exemplos:

\(T(v)=\nv\text{;}\)

\(T(v)=v\text{;}\)

\(T(x,y)=(3x+y,x+4y)\text{;}\)

\(T(x,y)=(x-y,x+y)\text{.}\)

Cuidado! Dada uma base qualquer de \(V\text{,}\) nem toda matriz simétrica representa um operador autoadjunto nessa base.

Concretamente, tome \(B=\big\{(1,1,0),(1,0,0),(0,0,1)\big\}\) base de \(\R^3\) e \(T(x,y,z)=(2x+2z,x+z,x+z)\text{.}\) Use \(v_1=(1,0,0)\) e \(v_2=(0,1,0)\) para verificar que \(T\) não é autoadjunto, mas \([T]_B\) é simétrica.

Mais propriedades de operadores autoadjuntos

Vamos relacionar agora operadores autoadjuntos com diagonalização.

Para isso precisamos considerar espaços vetoriais sobre o corpo dos complexos, \(\C\) de modo que o produto interno seja compatível com isso.

Definição 79.

Seja \(V\) um espaço vetorial sobre \(\C\text{.}\) Um produto interno hermitiano em \(V\) é uma aplicação \(\langle,\rangle\colon V\times V\to\C\text{,}\) satisfazendo:

  1. \(\langle v_1+v_2,v\rangle=\langle v_1,v\rangle+\langle v_2,v\rangle\text{;}\)
  2. \(\langle\alpha v_1,v_2\rangle=\alpha\langle v_1,v_2\rangle\text{;}\)
  3. \(\langle v_1,v_2\rangle=\overline{\langle v_2,v_1\rangle}\text{;}\)
  4. \(\langle v,v\rangle\) é um número real positivo para todo \(v\in V\text{,}\) \(v\neq\nv\text{.}\)

Um espaço vetorial munido de um produto interno hermitiano é chamado espaço vetorial hermitiano.

Observação: Todos os resultados vistos anteriormente para espaços euclidianos também valem para espaços hermitianos (a demonstração de todos é essencialmente a mesma!)

Observação: Se \(T\in L(V)\) é um operador autoadjunto tal que sua matriz numa base ortonormal de \(V\) tenha todas as entradas reais, então todos os seus autovetores terão coordenadas também todas reais. (Pense numa matriz de rotação em \(\R^2\))

Corolário: Toda matriz simétrica com entradas reais é diagonalizável.

Exemplo: \(A= \begin{bmatrix} 1& -2& 0\\ -2& 1& 0\\ 0& 0& -1 \end{bmatrix}\text{.}\)