Resumo da vigésima aula
Exemplos de aproximação de funções periódicas por uma série
trigonométrica.
O exemplo básico foi dada a função períodica de período $2\pi$ que no
intervalo $[-\pi,\pi]$ vale:
\[ f(x) = \left\{\begin{array}{cc}
1 & x\in [-\pi,0) \\
-1 & x\in [0,\pi]
\end{array}\right.\]
O desenvolvimento até o harmônico de terceira ordem é
\[ f(x) = -4/\pi \sin(x) - 2/3\pi \sin(3x) \]
Na figura abaixo temos a função e o desenvolvimento em série
trigonométrica até o primeiro e segundo harmônicos.
O $k$-ésimo harmônico pode-se escrever como
\[ a_k\cos(kx) + b_k\sin(kx) = A_k\sin(kx + \varphi_k)\]
e neste caso $A_k$ é a amplitude e $\varphi_k$ a fase deste harmônico.
15 de May de 2008 |
Resumo da décima-oitava e décima-nona aulas
Se $I=[a,b]$ e $f,g:I\to \mathbf{R}$ são funções, definimos o produto
interno
\[ (f,g)=\int_a^b f(x)g(x) dx \]
Uma família de funções $\{f_0,\dots,f_k\}$ é ortogonal quando
$(f_i,f_j)=0$ para $i\neq j$ e $(f_i,f_i)\neq 0$.
Da mesma forma uma família de polinômios $p_i(x)$ sendo $i$ o grau do
polinômio é ortogonal quando $(p_i,p_j)=0$.
Aproximando uma função $f: I \to \mathbf{R}$ por uma combinação linear
de uma família ortogonal
\[ f(x) = \sum_{m=0}^k a_m f_m(x) \]
pelo método dos mínimos quadrados obtemos:
\[ a_m= \frac{(f,f_m)}{(f_m,f_m)}\]
esta fórmula vale tanto para polinômios ortogonais como para a família
de funções trigonométricas $\{ 1, \cos(x), \sin(x), \dots \cos(kx)
\sin(kx)\}$ com o produto interno definido como
$\int_{-\pi}^{\pi}f(x)g(x)dx$.
Também vimos uma fórmula de recorrência para polinômios mônicos
ortogonais:
\[ p_{k+1}(x) - xp_k(x) = \alpha_k p_k(x) + \beta_k p_{k-1}(x) \]
onde
\[ \alpha_k = \frac{(xp_k,p_k)}{(p_k,p_k)} \]
\[ \beta_k = \frac{(xp_k,p_{k-1})}{(p_{k-1},p_{k-1})}\]
10 de May de 2008 |
Resumo da décima-quinta e décima sétima aula
Nestas duas aulas tratamos de polinômios ortogonais. Primeiro vimos como
o fato de termos uma família de funções aproximantes ortogonais facilita a
resolução do problema de MMQ. Depois um exemplo
Se $\mathcal{P} \subset I$ é uma partição do intervalo $I$ e $f,g:I\to \mathbf{R}$ são funções então definimos:
\[ (f,g) =\sum_{m=0}^k f(x_m)g(x_m) \]
$(f,g)$ é ``quase'' um produto interno de funções.
Uma família de funções $\{f_0,\dots,f_l\}$ é ortogonal se $(f_i,f_j)=0$ para $i\neq j$ e $(f_i,f_i)>0$ para todo $i$.
Quando $\mathcal{P}=\{x_0 , \dots , x_k\}$, podemos achar a família de polinômios mônicos ortogonais $p_0(x), \dots, p_k(x)$
30 de April de 2008 |
Resumo da décima-quarta aula
Métodos dos mínimos quadrados, Caso geral, discreto
O problema é o seguinte: é dada uma tabela de pontos $\{(x_0,y_0), \cdots, (x_k,y_k)\}$ e uma família $\mathbf{F}$ de funções; encontrar o elemento desta família que melhor se ajuste à tabela dada.
O critério para medir o grau de ajuste à tabela é:
\[ M(f) = \sum_{j=0}^k (f(x_j)-y_j)^2 \]
A solução do problema é a função $f:I=[x_0,x_k]\to \mathbf{R}$ de $\mathbf{F}$ que minimiza $M(f)$.
Quando $\mathbf{F}$ é o espaço vetorial
\[ \mathbf{F}=\{\lambda_0g_0(x)+ \cdots + \lambda_lg_l(x)\} \]
O problema acima é equivalente a encontrar os coeficientes $\lambda_0,\dots,\lambda_k$ que resolvem o sistema normal de equações lineares:
\[\left[
\begin{array}{cccc}
(g_0,g_0)&(g_0,g_1)&\cdots&(g_0,g_l)\\
(g_1,g_0 & (g_1,g_1)&\cdots&(g_1,g_l) \\
\vdots& & \ddots & \vdots \\
(g_l,g_0)& & \cdots&(g_l,g_l)
\end{array}
\right]
\left[\begin{array}{c}
\lambda_0 \\ \vdots \\ \lambda_l
\end{array}
\right]=
\left[\begin{array}{c}
(y,g_0) \\ \vdots \\ (y,g_l)
\end{array}
\right] \]
onde
- $g_i:I\to \mathbf{R}$ são funções contínuas e $\{g_0,\dots,g_l\}$ são linearmente independentes.
- $(g_m,g_n)= \sum_{j=0}^k g_m(x_j)g_n(x_j)$
- $(y,g_m)= \sum_{j=0}^k y_jg_m(x_j)$
veja um exemplo rodando o script para o scilab .
18 de April de 2008 |
Resumo da décima-terceira aula
Primeira aula sobre mínimos quadrados: Ajuste de uma reta por uma tabela de pontos.
Dada a tabela de pontos
\[
\begin{array}{c||c|c|c}
x: & x_0 & \dots & x_k \\
y: & y_0 & \dots & y_k
\end{array} \]
encontrar a função $f(x)=ax+b$ que melhor se ajuste à tabela pelo critério dos
mínimos quadrados, isto é, minimizando a função dos parâmetros:
\[ M(a,b) = \sum_{j=0}^k (y_j-ax_j-b)^2 \] que chamamos de resíduo quadrático.
Para achar a solução resolvemos o sistema normal:
\[ \left[
\begin{array}{cc}
(x_j,x_j) & (x_j, {1}) \\
(x_j, {1}) & ({1}, {1})
\end{array}\right]
\left[
\begin{array}{c}
a \\
b
\end{array}\right]=\left[
\begin{array}{c}
(x_j,y_j) \\ (y_j,{1})
\end{array}\right] \]
onde $(x_j,y_j)=\sum x_jy_j$.16 de April de 2008 |
Resumo das décima-primeira e décima-segunda aulas
Estudamos métodos iterativos para resolução de sistemas lineares.
Se $A$ é uma matriz quadrada não singular, para resolver a equação
$Ax=b$ por um método iterativo fazemos uma decomposição:
\[ A = N - P \]
e construimos uma sequência de vetores $({x}_k)$ escolhendo $x_0$ e resolvendo:
\[ Nx_{k+1}=b+Px_k\]
No método de Jacobi temos $N={diag}(a_{11},\dots,a_{nn})$ e o $P$ fica determinado apartir de $N$
No método de Gauss-Seidel temos
\[ P=\left[
\begin{array}{cccc}
0 & -a_{12} & \cdots & -a_{1n} \\
0 & 0 & \cdots & -a_{2n} \\
\vdots& &\ddots & \vdots \\
0 & \cdots & 0 & -a_{n-1 n}\\
0 & 0 & 0 & 0
\end{array}\right]\]
e $N$ fica determinado por $P$.
O critério geral de suficiência para convergência do método é $||N^{-1}P|| < 1$.
Para o método de Jacobi e usando a norma
$|| A || = \max_i \sum_j |a_{ij}$ temos o critério das linhas
\[ \sum_{k\neq i} |a_{ik}| < |a_{ii}| \].
Este critério também é suficiente para o método de Gaus-Seidel
11 de April de 2008 |
|
|