Planeamento

Aulas TeóricoPráticas

Conjuntos de solução de SEL e matriz reduzida por linhas

Álgebra Linear é uma nova língua que se aprende praticando. Pratiquem com os exercícios do livro "Linear Algebra and its applications" (4 th ou 5 thedition, Pearson). As Listas de Problemas (no separador lateral) são cópias da 4ª edição.

 
Três exemplos de aplicação do Método de Eliminação de Gauss-Jordan para encontrar soluções para SEL, levando primeiro a matriz aumentada à forma em escada de linhas e depois à forma reduzida. O algoritmo usa 3 operações elementares sobre linhas: 

·       Substituição de uma linha por essa linha somada com um múltiplo de outra, 

·       troca de duas linhas e 

·       multiplicação de uma linha por escalar não-nulo. 

 

A matriz aumentada na forma em escada de linhas permite verificar se existe solução e se ela é ou não única. Teorema da existência e unicidade de solução de um SEL.


T.P:C.para treinar para a próxima aula serão os exercícios das secção 1.2 e 1.3 (ver Lista de Problemas).

 

Matriz em escada e reduzida por linhas. Equações vetoriais

Classificação de SEL quanto ao conjunto solução: possível e determinado (solução única); possível e indeterminado (infinitas soluções); impossível (sem solução).

Definição de matriz em escada por linhas (localização das linhas nulas, dos pivots e das entradas zero abaixo dos pivots); definição de matriz reduzida por linhas (pivots=1; entradas todas a zero em coluna excepto o pivot).

Teorema da unicidade da forma reduzida de uma matriz: toda a matriz é equivalente por linhas a uma única matriz na forma reduzida por linhas.  

Exemplos de matrizes em escada ou em forma reduzida por linhas. 

Vetores de Rn e propriedades da soma vetorial e da multiplicação por escalares. 

Vetor combinação linear e conjunto de todas as combinações lineares que constituem a expansão linear (=span). Verificação se um dado vetor é combinação de outros, usando a resolução de uma equação vetorial.

Ficha 0 experimental, que funcionou bem :)


T.P:C.para treinar para a próxima aula serão os exercícios das secção 1.3 e 1.4 (ver Lista de Problemas).

 

Expansões lineares e produto matriz-vetor

Verificar se um vetor é combinação linear de outros, ou seja se pertence à expansão linear (=span) de outros vetores, usando a resolução de uma equação vetorial. Passagem para a matriz aumentada. Descrições geométricas de expansões lineares de dois ou mais vetores de R 3. Exercícios da secção S.1.3

Definição do produto matriz-vetor Acomo a combinação linear das colunas de A com os pesos que são as respetivas coordenadas de x. Verificar se um vetor b é combinação linear de outros, ou seja se pertence à expansão linear (=span) de outros vetores coluna, usando a resolução da equação matricial Ax=b. Exercícios da secção S.1.4.

Nota: continuamos a usar o algoritmo Row Reduce para resolver todas estas questões!

Importante: as propriedades do produto matriz-vetor: (i) A(x+y)=Ax+Ay; (ii) A(cx)= c (Ax)


T.P:C.para treinar para a próxima aula serão os exercícios das secção 1.4 e 1.5 (ver Lista de Problemas).

 

Forma vetorial paramétrica de solução e conjuntos L.I.

Teorema das equivalências: é equivalente A x= b ser possível para todo o b em R m e b ser combinação linear das colunas de A e as colunas de A gerarem R m e A ter pivot em todas as linhas. Se falhar alguma afirmação, falham todas as outras. 


Usar este teorema para questões como (exercícios S1.4):  b está ou não na expansão linear de outros vetores, as colunas de A geram ou não R m, etc.

Forma vetorial paramétrica de solução geral da equação não-homogénea A x= b, como um vetor soma de uma solução particular p com uma solução v h da equação homogénea A x= 0. Exercícios da secção S.1.5.

Definição de conjuntos linearmente independentes (L.I.) e linearmente dependentes (L.D.). Exemplos de conjuntos com 1, com 2 ou mais vetores; colunas L.I.

T.P.C.: praticar exercícios das secções S1.5 e S.1.7 (não vamos usar exercícios da S.1.6)
 

Teoremas sobre conjuntos L.I. e L.D.  Definição de transformações lineares

Classificação de conjuntos com 1, 2 ou mais vetores quanto à independência linear. Teoremas da caraterização de um conjunto com 2 ou mais vetores como sendo L.D.:

- desde que exista pelo menos um vetor que é combinação linear dos restantes (sem demonstração);
- desde que o zero pertence ao conjunto;
As colunas de uma matriz são L.I. se são colunas pivot.  Nota: este um bom critério para classificar conjuntos de vetores como L.I. ou L.D.  
  
Multiplicação por uma matriz como uma aplicação/função/transformação linear. Domínio, contra-domínio e vetores imagem (ou transformados). Exemplo de transformação linear que é a multiplicação por uma matriz 3x4. Domínio, contra-domínio e vetores imagem (ou transformados). 
   
Definição de transformação linear: uma transformação em que o vetor soma é transformado na soma dos transformados e o múltiplo escalar k de um vetor, no múltiplo k do transformado do vetor.  Propriedades demonstradas: o vetor nulo do domínio é transformado linearmente no vetor nulo do contra-domínio (espaço de chegada); a combinação linear c u+d v é  transformada por T em cT( u)+dT( v).   
 
Transformação linear do cubo unitário com uma matriz diagonal que contrai o cubo em 1/2. Transformação linear do quadrado unitário por uma reflexão relativa à reta y=x. 

Realizámos a Ficha 1 nos últimos 15 minutos da aula.  

T.P.C: exercícios da secção 1.7 e da secção 1.8. 

Matriz canónica. Transformações lineares injetivas e/ou sobrejetivas

Enunciados possíveis para as regras da transformação linear:  

  • a transformação é definida pela multiplicação por uma matriz A dada;
  • sabemos os transformados dos vetores coluna da matriz identidade;
  • dão-nos uma descrição geométrica e construímos a matriz canónica com os transformados dos vetores ej em coluna.

Para a transformação linear T de R  n para R  m, em que A é a matriz canónica (standard matrix), temos a seguinte caraterização quanto a sobrejetividade (existência de uma imagem ):   
  i) T é sobrejetiva sse as colunas de A geram o  R m.   
 Quanto à inventividade (unicidade):   
 ii) T é injetiva sse  A x0 só tem solução trivial; ou          
iii) T é injetiva sse as colunas de A são L.I. 
 
Exemplos geométricos de reflexões, e de transformações lineares de R 4 para R 2 , e de R  para R  3 
 
Realizámos a Ficha eletrónica 2.

        
TPC:  resolver os exercícios das secções 1.8 e 1.9 da Lista de Problemas. 

Operações matriciais e inversa de uma matriz

Soma matricial e produto por um escalar. Matriz identidade I n e matriz nula O, mxn. Propriedades destas operações matriciais.
Produto de matrizes AB com A, mxn e B, nxp, com a regra das colunas de AB serem dadas por A b 1, A b 2, ... A b p. A matriz produto AB pode ser dada pela matriz com entradas-ij= (linha-i de A)*(coluna-j de B), ou seja com a regra linha-coluna. 


Exemplos de exercícios da secção S.2.1. Propriedades do produto versus soma matricial e multiplicação por escalar. Propriedades menos triviais: a distributividade do produto pode ser à esquerda, A(B+C)=AB+AC, ou à direita, (B+C)A=BA+CA.

Warnings: não-comutatividade do produto ( Exercícios 10 e 11).
     
Definição de matriz invertível e de matriz inversa. Algoritmo para inversas de 2x2 e de inversas nxn (n>2), usando a redução da matriz aumentada com I n.

Cálculo de inversa usando o 2º algoritmo (Exercício 33).

T.P.C. exercícios das secções 2.1. e 2.2.

Teorema das Matrizes Invertíveis (TMI) e aplicações a CG

Definição de matrizes elementares: matriz equivalente por linhas à matriz identidade após uma (e uma só!) operação elementar do método de Gauss. Três "classes" de matrizes elementares que correspondem às operações elementares: substituição, troca e multiplicação por escalar. 
Algoritmo 2 para calcular a inversa, usando a matriz aumentada com a matriz identidade, explicado como produto de matrizes elementares.    
Teorema da invertibilidade da inversa, do produto de matrizes Invertíveis e da transposta de uma matriz invertível.

Teorema Matrizes Invertíveis (TMI):  as 11 afirmações equivalentes à afirmação "A é invertível".  

Produtos matriciais e composição de transformações em R 2. Transformação linear para um triângulo de vértices: (0, 0), (2, 0) e (2, 1) que resulta da composição de refletir no eixo-y (primeiro), expandir na vertical (depois), rodar em 90º (no fim). Os básicos de CG: coordenadas homogéneas para fazer a. translação do triângulo em (3,1).  


Submissão da Ficha 3.


T.P.C.: fazer exercícios das  secções 2.3, 2.4 e 2.7.  
 
Nota: têm de praticar autonomamente os exercícios das secções 2.4 e 2.7! 

Matrizes por blocos. Intro aos determinantes.

Os básicos de CG no plano: coordenadas homogéneas e transformações não-lineares.Translação de um triângulo de vértices: (0, 0), (2, 0) e (2, 1) seguida de rotação em torno do ponto (3,1).

  
Multiplicação matricial coluna-linha (outer products).  Exercício 24 da secção 2.4: demonstração da inversão de uma matriz triangular inferior por blocos, usando o método de indução. 

Definição da fórmula para o determinante 2x2: det(A)= ad-bc, e definição de determinante de matrizes nxn, n>2: expansão nos cofatores da 1ª linha. 

Submissão da Ficha 4.

Resumindo: do capítulo 2, fazer exercícios das secções 2.1 a 2.4 e da secção 2.7. 

Propriedades do determinante e Regra de Cramer

 Propriedades dos determinantes versus operações elementares sobre as linhas: substituição (o det não se altera), uma troca de linhas (o det muda de sinal), multiplicação por escalar (multiplica pelo escalar). 


Propriedades dos determinantes versus transposta, produto e inversa: da matriz transposta (o det não se altera), do produto (o det(AB)=(det A)(det B)), e da inversa (é 1/(det A)). Teste da invertibilidade: matrizes invertíveis têm determinante diferente de zero (acrescentar no TMI!). 

Regra de Cramer e fórmula da matriz inversa, A  -1, através da matriz dos cofatores transposta (generalização da inversa de uma matriz 2x2).

T.P.C.: exercícios das secções S.3.2 e S.3.3

Propriedades geométricas do determinante. Espaço vetorial e subespaços

Propriedades geométricas do determinante: cálculo de áreas e volumes; fator de alteração de um volume com uma transformação linear. Exemplo do cálculo da área de uma elipse enquanto transformado de um circulo unitário.


Definição axiomática de espaço vetorial V: conjunto não-vazio de vetores com uma soma vetorial e uma multiplicação por escalares (reais) que verificam 10 axiomas. 

Primeiros exemplos: R 2 ,  R 3... R
Exemplo menos trivial: conjunto de polinómios de grau menor ou igual a 2. 
Contra-exemplo: conjunto de polinómios de grau (exatamente) igual a 2.

Definição de subespaço W do espaço vetorial V. Subespaços de R 2: {  0}, retas que passar na origem, o R 2  Contra-exemplo: uma reta paralela ao eixo-x. 

Ficha 5

T.P.C.: exercícios das secções 3.3 e 4.1

Subespaços: Span, Nul A e Col A. Bases

Recordar a definição de subespaço H do espaço vetorial V. 
Exemplo 1: subconjuntos de R 2 que são|não são| subespaços de R 2

Exemplo 2: uma expansão linear de dois vetores de R 2 que geram o R 2

Teorema: toda a expansão linear (Span) é subespaço de um espaço vetorial.

Espaço nulo,  Nul A, e espaço das colunas de A, Col A. Propriedades: para A, mxn, o espaço Nul A é subespaço de R n e o espaço Col A é subespaço de R m

Exemplos: exercícios 4, 24 da secção 4.2.  

Definição de Base de um subespaço H:  conjunto indexado/ordenado de vetores L.I. que geram H. Bases canónicas de R n (vetores canónicos e 1, e 2,..., e n) e de P n (polinómios 1, t, t 2, ..., t n). Exemplo: exercício 11 da secção 4.3.

T.P.C.: exercícios das secções 4.2 e 4.3.

Bases, sistemas de coordenadas e dimensão

O teorema de construir bases a partir do Span (Spanning Set Theorem): vão-se retirando vetores ao Span que tornam o conjunto L.D. e para-se quando tivermos um conjunto L.I. de vetores que ainda geram o (sub)espaço. 


Teorema da representação única de um vetor de V dada uma base para V. Definição de vetor de coordenadas e de matriz mudança de coordenadas de uma base   para a base canónica. Exemplos de vetores de coordenadas de x=(2,3) em 3 bases diferentes. Visualização de 2 cartões ( branco e laranja) com grelhas/sistemas de coordenadas diferentes. 

Aplicação/transformação de coordenadas (coordinate mapping) como uma transformação linear invertível que permite "traduzir" polinómios para a linguagem do R  n. Exemplos de escrita de vetores de coordenadas para polinómios de P  2 . Exercícios 13 e 28 da secção 4.4.

Definição de 
  • (sub)espaço vetorial V com uma base de p vetores como um espaço de dimensão finita tal que dim V= p. 
  • O espaço zero/trivial { 0} não tem base e é de dimensão 0;  
  • Espaços de dimensão infinita (espaço de funções contínuas, diferenciáveis, etc.).  
Exemplos de subespaços no formato: Span, Nul A e Col A. Exercícios 7 e 8 da secção 4.4.

T.P.C.: exercícios das secções 4.3 a 4.5.

Bases, dimensão e característica (rank) de uma matriz

Exemplo de aplicação do teorema da representação única de um vetor de V dada uma base B para V: polinómios pares de grau menor ou igual a 2. 

 
Definição de 
  • (sub)espaço vetorial V com uma base de p vetores como um espaço de dimensão finita tal que dim V= p. 
  • O espaço zero/trivial { 0} não tem base e é de dimensão 0;  
  • Espaços de dimensão infinita (espaço de funções contínuas, diferenciáveis, etc.).  
Exemplos de subespaços no formato: Span, Nul A e Col A. Exercícios 7 e 8 da secção 4.5. 

Definição do espaço de linhas de uma matriz A, mxn, enquanto subespaço de R n. Propriedade do procedimento de redução de uma matriz:  Lin A=Lin B, Col A= Col B, sendo B equivalente por linhas a A. B, mxn, está eventualmente em escada de linhas ou na forma reduzida.

Definição de característica (rank) de A: car A= dim Col A.
Teorema da dimensão:   car A+ dim Nul A =n.

Exercícios 4, 12, 14 e 16 da secção 4.6.

Geometria dos espaços Nul A e Lin A, que são subespaços do espaço de partida da transformação linear T; Col A e Nul A T que são subespaços do espaço de chegada da transformação linear T. Verificação de injetividade (Nul A={0} será para T injetiva) e sobrejetividade (Col A= Espaço de chegada para T sobrejetiva). Exemplo T: R 3 -> R 3não injetiva e não sobrejetiva. 
 
T.P.C.: exercícios das secções 4.5 e 4.6.

TMI. Matrizes mudança de base. Cadeias de Markov

Teorema da dimensão:   car A+ dim Nul A =n.

Mais 5 alíneas para o TMI: sobre espaço das colunas e espaço nulo de uma matriz invertível.    

Matriz mudança de bases entre a base   B  e a base   C para R  2. Exemplo de tradução dos vetores de coordenadas.    

Introdução às cadeias de Markov no exemplo de transição entre dois estados: morar na cidade ou morar nos arredores. Matriz de Markov e sucessão de estados, a partir do estado inicial. 

Vetores de probabilidades e matrizes estocásticas. Matrizes estocásticas regulares e Teorema de Perron-Frobenius para essas matrizes.   

Realização da Ficha 6.
     
T.P.C.: exercícios das secções 4.7 e 4.9.

Vetores próprios e valores próprios

Definição de ve.p. (eigenvectors) e va.p. (eigenvalues) de uma matriz ou transformação. Exemplos exercícios da secção 5.1: verificação se um vetor é ve.p,  se um escalar é va.p. Representação geométrica de espaços próprios. 


Os va.p. de uma matriz A, nxn, triangular são as entradas. na diagonal principal.

Demonstração do Teorema: ve.p. correspondentes a va.p. distintos são L.I.

Va.p. da potência de uma matriz e aplicação a sistemas dinâmicos.
  
Aconselho ainda o vídeo   2Blue1Brown sobre ve.p. e va.p. reais.  
Nota:  praticar os exercícios  da   secção 5.1 do livro de D. Lay.   

A equação característica

As soluções da equação característica como o algoritmo para encontrar os va.p. (eigenvalues) de uma matriz ou transformação. Exemplos exercícios da secção 5.2: calcular va.p. resolvendo det(A-lambda I)=0.


Definição de duas matrizes A e B, nxn, semelhantes: A=PBP -1
Propriedade(s) de matrizes semelhantes: A e B têm o mesmo polinómio característico, logo, os meus va.p. Também têm o mesmo determinante. Demonstração destas propriedades.

Exemplo de aplicação a sistemas dinâmicos: matriz de Markov regular 2x2 e convergência para o estado estacionário, independentemente do estado inicial x0.

Realização da Ficha 7.  
  
Aconselho ainda o vídeo   2Blue1Brown sobre ve.p. e va.p. reais.  
Nota:  praticar os exercícios  da   secção 5.2 do livro de D. Lay.   

Diagonalização

Definição de matriz A, nxn, diagonalizável: existir P invertível t.q. A=PDP -1


Teorema da diagonalização:  existe uma base de ve.p. para A. Corolário: se A tem n. va.p. distintos, então A é diagonalizável.

Os quatro passos da diagonalização de uma matriz: 
Passo 1: encontrar va.p.
Passo 2: construir uma base de ve.p. 
Passo 3: construir a matriz P
Passo 4: verificar AP=PD

Exercícios da secção 5.3: 8, 10 e 12.

T.P.C. exercícios da secção 5.3

 

Ve.p. e a matriz que representa T

Dadas bases B no espaço de partida e C no espaço de chegada, construir a matriz que representa a transformação linear T nessas bases. Exemplo da derivada no espaço de polinómios de grau menor ou igual a 2.


Exercícios da secção 5.4: 6 e 9.

Realização da Ficha 8.

T.P.C.: exercícios da secção 5.4

Va.p. complexos e sistemas dinâmicos

Revisão: matriz que representa T dadas bases no espaço de partida e de chegada.

Exemplos de matrizes reais A com va.p. complexos (2 va.p. conjugados): a rotação em 90º e a matriz com va.p. 0.8+ou -0.6 i  Teorema: A= P C P -1

Sistemas dinâmicos discretos: 
- A cadeia de Markov para os carros de aluguer da Hertz (Exercício 16 da secção 4.9).


T.P.C.: exercícios das secções 5.5 e 5.6 

Sistemas dinâmicos discretos. Produto interno

Sistemas dinâmicos discretos com uma matriz 2x2 ou 3x3: 
- A cadeia de Markov para os carros de aluguer da Hertz (Exercício 16 da secção 4.9);
- A origem como atrator de um sistema dinâmico com dois va.p. de módulo inferior a 1;
- A origem como repulsor quando os dois va.p. são em módulo maiores do que 1;
- A origem como ponto de sela. 

Definição e propriedades de p.i., norma e distância entre vetores.   

Realização da Ficha 9. 

T.P.C.: exercícios da secção 5.6 e da secção 6.1    

Conjuntos e projeções ortogonais

Complemento ortogonal de um subespaço. Exemplo com o complemento ortogonal de uma plano em R3 e com subespaços de uma matriz: o complemento ortogonal de \(Lin\, A\) é o espaço nulo de \(A\), \(Nul\, A\),  e o complemento ortogonal de \( Col\, A\) é o espaço nulo da transposta de A, \(Nul\, A^T\). 

Definição de base ortonormal para um subespaço W. O vetor projeção de y num subespaço de Rn, e exemplo em R com a projeção de y no Span{b1b2}. 

Definição de matriz ortogonal U e propriedades: UTU=I; U não altera normas, p.i. e ângulos, quando aplicada a vetores.

Teorema da decomposição ortogonal: todo o vetor  y de Rse pode escrever como a soma de dois vetores, o vetor projeção de y em W somado com a projeção de y em Wperp


T.P.C.: Exercícios das secções 6.2 e 6.3 do Lay.

Ortogonalização Gram-Schmidt. Matrizes simétricas

Procedimento de ortogonalização de Gram-Schmidt. Exemplo de ortogonalização de base de um plano e de base de R 3.


Definição de matriz simétrica: A T=A. Demonstração do teorema: se A é simétrica, ve.p. associados a va.p. distintos são ortogonais.

Definição de diagonalização ortogonal de uma matriz: A=PDP T. Exemplo de diagonalização ortogonal de uma matriz simétrica: exercício 8 da S.7.1  

T.P.C: exercícios das secções S.6.4 e S.7.1.


Formas quadráticas. Espaços de Hilbert (intro)

Revisão da diagonalização ortogonal de uma matriz: A=PDP T. Identificação de matrizes ortogonais:  exercícios 7 a 12 da S.7.1.Exemplo de diagonalização ortogonal de uma matriz simétrica: exercício 23 da S.7.1  

Formas quadráticas: alguns exemplos (ver. Tópico 3 do MOOC).

Definição de produto interno (non-standard) num espaço vetorial. Exemplos: p.i. pesado, p.i. em espaços de polinómios e em espaços de funções contínuas num intervalo fechado.

T.P.C: exercícios das secções S.7.2, 6.7 e 6.8

(Última aula) 


Não houve aula

Estudar...