Planeamento
Aulas TeóricoPráticas
Conjuntos de solução de SEL e matriz reduzida por linhas
Álgebra Linear é uma nova língua que se aprende praticando. Pratiquem com os exercícios do livro "Linear Algebra and its applications" (4
th ou 5
thedition, Pearson). As Listas de Problemas (no separador lateral) são cópias da 4ª edição.
Três exemplos de aplicação do Método de Eliminação de Gauss-Jordan para encontrar soluções para SEL, levando primeiro a matriz aumentada à forma em escada de linhas e depois à forma reduzida. O algoritmo usa 3 operações elementares sobre linhas:
· Substituição de uma linha por essa linha somada com um múltiplo de outra,
· troca de duas linhas e
· multiplicação de uma linha por escalar não-nulo.
A matriz aumentada na forma em escada de linhas permite verificar se existe solução e se ela é ou não única. Teorema da existência e unicidade de solução de um SEL.
T.P:C.para treinar para a próxima aula serão os exercícios das secção 1.2 e 1.3 (ver Lista de Problemas).
Matriz em escada e reduzida por linhas. Equações vetoriais
Exemplos de matrizes em escada ou em forma reduzida por linhas.
Vetores de Rn e propriedades da soma vetorial e da multiplicação por escalares.
Vetor combinação linear e conjunto de todas as combinações lineares que constituem a expansão linear (=span). Verificação se um dado vetor é combinação de outros, usando a resolução de uma equação vetorial.
Ficha 0 experimental, que funcionou bem :)
T.P:C.para treinar para a próxima aula serão os exercícios das secção 1.3 e 1.4 (ver Lista de Problemas).
Expansões lineares e produto matriz-vetor
Verificar se um vetor é combinação linear de outros, ou seja se pertence à expansão linear (=span) de outros vetores, usando a resolução de uma equação vetorial. Passagem para a matriz aumentada. Descrições geométricas de expansões lineares de dois ou mais vetores de R 3. Exercícios da secção S.1.3
Definição do produto matriz-vetor Ax como a combinação linear das colunas de A com os pesos que são as respetivas coordenadas de x. Verificar se um vetor b é combinação linear de outros, ou seja se pertence à expansão linear (=span) de outros vetores coluna, usando a resolução da equação matricial Ax=b. Exercícios da secção S.1.4.
Nota: continuamos a usar o algoritmo Row Reduce para resolver todas estas questões!
Importante: as propriedades do produto matriz-vetor: (i) A(x+y)=Ax+Ay; (ii) A(cx)= c (Ax)
T.P:C.para treinar para a próxima aula serão os exercícios das secção 1.4 e 1.5 (ver Lista de Problemas).
Forma vetorial paramétrica de solução e conjuntos L.I.
Teorema das equivalências: é equivalente A x= b ser possível para todo o b em R m e b ser combinação linear das colunas de A e as colunas de A gerarem R m e A ter pivot em todas as linhas. Se falhar alguma afirmação, falham todas as outras.
Usar este teorema para questões como (exercícios S1.4): b está ou não na expansão linear de outros vetores, as colunas de A geram ou não R m, etc.
Forma vetorial paramétrica de solução geral da equação não-homogénea A x= b, como um vetor soma de uma solução particular p com uma solução v h da equação homogénea A x= 0. Exercícios da secção S.1.5.
Teoremas sobre conjuntos L.I. e L.D. Definição de transformações lineares
Classificação de conjuntos com 1, 2 ou mais vetores quanto à independência linear. Teoremas da caraterização de um conjunto com 2 ou mais vetores como sendo L.D.:
Multiplicação por uma matriz como uma aplicação/função/transformação linear. Domínio, contra-domínio e vetores imagem (ou transformados). Exemplo de transformação linear que é a multiplicação por uma matriz 3x4. Domínio, contra-domínio e vetores imagem (ou transformados).
Definição de transformação linear: uma transformação em que o vetor soma é transformado na soma dos transformados e o múltiplo escalar k de um vetor, no múltiplo k do transformado do vetor. Propriedades demonstradas: o vetor nulo do domínio é transformado linearmente no vetor nulo do contra-domínio (espaço de chegada); a combinação linear c u+d v é transformada por T em cT( u)+dT( v).
Transformação linear do cubo unitário com uma matriz diagonal que contrai o cubo em 1/2. Transformação linear do quadrado unitário por uma reflexão relativa à reta y=x.
Realizámos a Ficha 1 nos últimos 15 minutos da aula.
T.P.C: exercícios da secção 1.7 e da secção 1.8.
Matriz canónica. Transformações lineares injetivas e/ou sobrejetivas
Enunciados possíveis para as regras da transformação linear:
- a transformação é definida pela multiplicação por uma matriz A dada;
- sabemos os transformados dos vetores coluna da matriz identidade;
- dão-nos uma descrição geométrica e construímos a matriz canónica com os transformados dos vetores ej em coluna.
Para a transformação linear T de R n para R m, em que A é a matriz canónica (standard matrix), temos a seguinte caraterização quanto a sobrejetividade (existência de uma imagem ):
Exemplos geométricos de reflexões, e de transformações lineares de R 4 para R 2 , e de R 2 para R 3
Realizámos a Ficha eletrónica 2.
TPC: resolver os exercícios das secções 1.8 e 1.9 da Lista de Problemas.
Operações matriciais e inversa de uma matriz
Soma matricial e produto por um escalar. Matriz identidade I
n e matriz nula O, mxn. Propriedades destas operações matriciais.
Produto de matrizes AB com A, mxn e B, nxp, com a regra das colunas de AB serem dadas por A
b
1, A
b
2, ... A
b
p. A matriz produto AB pode ser dada pela matriz com entradas-ij= (linha-i de A)*(coluna-j de B), ou seja com a regra linha-coluna.
Warnings: não-comutatividade do produto ( Exercícios 10 e 11).
Definição de matriz invertível e de matriz inversa. Algoritmo para inversas de 2x2 e de inversas nxn (n>2), usando a redução da matriz aumentada com I n.
Teorema das Matrizes Invertíveis (TMI) e aplicações a CG
Definição de matrizes elementares: matriz equivalente por linhas à matriz identidade após uma (e uma só!) operação elementar do método de Gauss. Três "classes" de matrizes elementares que correspondem às operações elementares: substituição, troca e multiplicação por escalar.
Algoritmo 2 para calcular a inversa, usando a matriz aumentada com a matriz identidade, explicado como produto de matrizes elementares.
Teorema da invertibilidade da inversa, do produto de matrizes Invertíveis e da transposta de uma matriz invertível.
Teorema Matrizes Invertíveis (TMI): as 11 afirmações equivalentes à afirmação "A é invertível".
Produtos matriciais e composição de transformações em R
2. Transformação linear para um triângulo de vértices: (0, 0), (2, 0) e (2, 1) que resulta da composição de refletir no eixo-y (primeiro), expandir na vertical (depois), rodar em 90º (no fim). Os básicos de CG: coordenadas homogéneas para fazer a. translação do triângulo em (3,1).
T.P.C.: fazer exercícios das secções 2.3, 2.4 e 2.7.
Nota: têm de praticar autonomamente os exercícios das secções 2.4 e 2.7!
Matrizes por blocos. Intro aos determinantes.
Os básicos de CG no plano: coordenadas homogéneas e transformações não-lineares.Translação de um triângulo de vértices: (0, 0), (2, 0) e (2, 1) seguida de rotação em torno do ponto (3,1).
Multiplicação matricial coluna-linha (outer products). Exercício 24 da secção 2.4: demonstração da inversão de uma matriz triangular inferior por blocos, usando o método de indução.
Definição da fórmula para o determinante 2x2: det(A)= ad-bc, e definição de determinante de matrizes nxn, n>2: expansão nos cofatores da 1ª linha.
Propriedades do determinante e Regra de Cramer
Propriedades dos determinantes versus operações elementares sobre as linhas: substituição (o det não se altera), uma troca de linhas (o det muda de sinal), multiplicação por escalar (multiplica pelo escalar).
Propriedades dos determinantes versus transposta, produto e inversa: da matriz transposta (o det não se altera), do produto (o det(AB)=(det A)(det B)), e da inversa (é 1/(det A)). Teste da invertibilidade: matrizes invertíveis têm determinante diferente de zero (acrescentar no TMI!).
Regra de Cramer e fórmula da matriz inversa, A -1, através da matriz dos cofatores transposta (generalização da inversa de uma matriz 2x2).
Propriedades geométricas do determinante. Espaço vetorial e subespaços
Propriedades geométricas do determinante: cálculo de áreas e volumes; fator de alteração de um volume com uma transformação linear. Exemplo do cálculo da área de uma elipse enquanto transformado de um circulo unitário.
Definição axiomática de espaço vetorial V: conjunto não-vazio de vetores com uma soma vetorial e uma multiplicação por escalares (reais) que verificam 10 axiomas.
Primeiros exemplos: R 2 , R 3... R n
Definição de subespaço W do espaço vetorial V. Subespaços de R 2: { 0}, retas que passar na origem, o R 2 Contra-exemplo: uma reta paralela ao eixo-x.
T.P.C.: exercícios das secções 3.3 e 4.1
Subespaços: Span, Nul A e Col A. Bases
Recordar a definição de
subespaço H do espaço vetorial V.
Exemplo 1: subconjuntos de R
2 que são|não são| subespaços de R
2
Teorema: toda a expansão linear (Span) é subespaço de um espaço vetorial.
Espaço nulo, Nul A, e espaço das colunas de A, Col A. Propriedades: para A, mxn, o espaço Nul A é subespaço de R n e o espaço Col A é subespaço de R m.
T.P.C.: exercícios das secções 4.2 e 4.3.
Bases, sistemas de coordenadas e dimensão
O teorema de construir bases a partir do Span (Spanning Set Theorem): vão-se retirando vetores ao Span que tornam o conjunto L.D. e para-se quando tivermos um conjunto L.I. de vetores que ainda geram o (sub)espaço.
Teorema da representação única de um vetor de V dada uma base para V. Definição de vetor de coordenadas e de matriz mudança de coordenadas de uma base B para a base canónica. Exemplos de vetores de coordenadas de x=(2,3) em 3 bases diferentes. Visualização de 2 cartões ( branco e laranja) com grelhas/sistemas de coordenadas diferentes.
Aplicação/transformação de coordenadas (coordinate mapping) como uma transformação linear invertível que permite "traduzir" polinómios para a linguagem do R n. Exemplos de escrita de vetores de coordenadas para polinómios de P 2 . Exercícios 13 e 28 da secção 4.4.
Definição de
- (sub)espaço vetorial V com uma base de p vetores como um espaço de dimensão finita tal que dim V= p.
- O espaço zero/trivial { 0} não tem base e é de dimensão 0;
- Espaços de dimensão infinita (espaço de funções contínuas, diferenciáveis, etc.).
T.P.C.: exercícios das secções 4.3 a 4.5.
Bases, dimensão e característica (rank) de uma matriz
Exemplo de aplicação do teorema da representação única de um vetor de V dada uma base B para V: polinómios pares de grau menor ou igual a 2.
Definição de
- (sub)espaço vetorial V com uma base de p vetores como um espaço de dimensão finita tal que dim V= p.
- O espaço zero/trivial { 0} não tem base e é de dimensão 0;
- Espaços de dimensão infinita (espaço de funções contínuas, diferenciáveis, etc.).
Definição do espaço de linhas de uma matriz A, mxn, enquanto subespaço de R n. Propriedade do procedimento de redução de uma matriz: Lin A=Lin B, Col A= Col B, sendo B equivalente por linhas a A. B, mxn, está eventualmente em escada de linhas ou na forma reduzida.
Definição de característica (rank) de A: car A= dim Col A.
Teorema da dimensão: car A+ dim Nul A =n.
Exercícios 4, 12, 14 e 16 da secção 4.6.
Geometria dos espaços Nul A e Lin A, que são subespaços do espaço de partida da transformação linear T; Col A e Nul A T que são subespaços do espaço de chegada da transformação linear T. Verificação de injetividade (Nul A={0} será para T injetiva) e sobrejetividade (Col A= Espaço de chegada para T sobrejetiva). Exemplo T: R 3 -> R 3não injetiva e não sobrejetiva.
T.P.C.: exercícios das secções 4.5 e 4.6.
TMI. Matrizes mudança de base. Cadeias de Markov
Teorema da dimensão: car A+ dim Nul A =n.
Mais 5 alíneas para o TMI: sobre espaço das colunas e espaço nulo de uma matriz invertível.
Introdução às cadeias de Markov no exemplo de transição entre dois estados: morar na cidade ou morar nos arredores. Matriz de Markov e sucessão de estados, a partir do estado inicial.
Vetores de probabilidades e matrizes estocásticas. Matrizes estocásticas regulares e Teorema de Perron-Frobenius para essas matrizes.T.P.C.: exercícios das secções 4.7 e 4.9.
Vetores próprios e valores próprios
Definição de ve.p. (eigenvectors) e va.p. (eigenvalues) de uma matriz ou transformação. Exemplos exercícios da secção 5.1: verificação se um vetor é ve.p, se um escalar é va.p. Representação geométrica de espaços próprios.
Aconselho ainda o vídeo 2Blue1Brown sobre ve.p. e va.p. reais.
Nota: praticar os exercícios da secção 5.1 do livro de D. Lay.
A equação característica
As soluções da equação característica como o algoritmo para encontrar os va.p. (eigenvalues) de uma matriz ou transformação. Exemplos exercícios da secção 5.2: calcular va.p. resolvendo det(A-lambda I)=0.
Aconselho ainda o vídeo 2Blue1Brown sobre ve.p. e va.p. reais.
Nota: praticar os exercícios da secção 5.2 do livro de D. Lay.
Diagonalização
Definição de matriz A, nxn, diagonalizável: existir P invertível t.q. A=PDP -1
Ve.p. e a matriz que representa T
Dadas bases B no espaço de partida e C no espaço de chegada, construir a matriz que representa a transformação linear T nessas bases. Exemplo da derivada no espaço de polinómios de grau menor ou igual a 2.
Va.p. complexos e sistemas dinâmicos
Sistemas dinâmicos discretos:
T.P.C.: exercícios das secções 5.5 e 5.6
Sistemas dinâmicos discretos. Produto interno
Realização da Ficha 9.
T.P.C.: exercícios da secção 5.6 e da secção 6.1
Conjuntos e projeções ortogonais
Complemento ortogonal de um subespaço. Exemplo com o complemento ortogonal de uma plano em R3 e com subespaços de uma matriz: o complemento ortogonal de \(Lin\, A\) é o espaço nulo de \(A\), \(Nul\, A\), e o complemento ortogonal de \( Col\, A\) é o espaço nulo da transposta de A, \(Nul\, A^T\).
Definição de base ortonormal para um subespaço W. O vetor projeção de y num subespaço de Rn, e exemplo em R3 com a projeção de y no Span{b1, b2}.
Definição de matriz ortogonal U e propriedades: UTU=I; U não altera normas, p.i. e ângulos, quando aplicada a vetores.
Teorema da decomposição ortogonal: todo o vetor y de Rn se pode escrever como a soma de dois vetores, o vetor projeção de y em W somado com a projeção de y em Wperp
T.P.C.: Exercícios das secções 6.2 e 6.3 do Lay.
Ortogonalização Gram-Schmidt. Matrizes simétricas
Procedimento de ortogonalização de Gram-Schmidt. Exemplo de ortogonalização de base de um plano e de base de R 3.
Definição de matriz simétrica: A T=A. Demonstração do teorema: se A é simétrica, ve.p. associados a va.p. distintos são ortogonais.
Definição de diagonalização ortogonal de uma matriz: A=PDP T. Exemplo de diagonalização ortogonal de uma matriz simétrica: exercício 8 da S.7.1
T.P.C: exercícios das secções S.6.4 e S.7.1.
Formas quadráticas. Espaços de Hilbert (intro)
T.P.C: exercícios das secções S.7.2, 6.7 e 6.8
Não houve aula
Estudar...