Planeamento
Aulas Teóricas
Inteligência Artificial
Objectivos
Introdução à Inteligência Artificial
Cap.1
Agentes Inteligentes
Objectivos
1.Saber descrever o que é um agente.
2.Saber definir a função de desempenho, e o impacto na racionalidade do agente
3.Saber descrever o que é um agente racional
4.Saber caracterizar um agente em termos de PEAS Performance (desempenho) Environment (ambiente) Actuators (actuadores) Sensors (sensores)
5.Descrever as diferentes propriedades de um ambiente.
6.Descrever e definir as 4 estructuras básicas de agentes
2.1, 2.4.2,2.4.3,2.4.6
2.1, 2.4.2,2.4.3,2.4.6
Procura não informada
- Formular o objectivo de uma procura •
- Formular um problema de procura
- Estado inicial
- Modelo de transição Sucessores
- Acções
- Espaço de estados
- Objectivo
- Compreender a diferença entre procura em grafo e procura em árvore
- Metodos de procura não informada
- Em largura
- Em profundidade
- Custo uniforme
- Profundidade limitada
- Profundidade limitada iterativa
- Bidireccional
Procura Informada
Objectivos
Fundamentais
Compreender e explicar a diferença entre procura não informada e procura informada.
Definição de função heuristica e heuristicas admissivel
Explicar e implementar uma procura melhor primeiro
Explicar e implementar uma procura A*
Explicar como criar uma heuristica admissivel
Complementares
Heuristicas consistentes
Melhorar o A* métodos RBFS, IDA*, SMA*
3.5.1, 3.5.2, 3.6
3.5.1, 3.5.2, 3.6
Procura em Jogos
Procura em jogos
Objectives:
- Verificar se um problema é adversarial ou não
- Formalizar um problema de procura adversarial
- Compreender e implemental os algoritmos MiniMax e Alpha-Beta
- Compreender e discutir as implicações de jogos estocásticos
- Compreender e discutir extensões para melhorar a eficiência do Alpha-beta
References: AIMA Cap 5.1, 5.2, 5.3
Problema de Satisfação de Restricções
Problema de Satisfação de Restricções
-Definição
-Variáveis
-Restricções
-Consistência
Algoritmos
-Inferência
-AC3
-PC3
-Procura com Retrocesso
-Heuristicas
-Forward Checking
-Procura Local em CSP
6.1, 6.2, 6.3
Incerteza
Incerteza no Conhecimento e Raciocinio
Conteudo:
- Variáveis aleatórias, probabilidades, axiomas de probabilidade
- Agir com incerteza
- Teoria da utilidade
- Condicionamento, marginalização, prior, posteior, independência de variáveis
- Lei de Bayes
- Ambiente e agentes estocásticos
Objectivos:
- Describe the statistical relations between dierent variables, including dependence, in-dependence
- Compute probabilities using the Bayes rule
- conditioning and marginalization
- Describe agents and environments using probabilities
Raciocinio probabilistico
Objectivos:
- Inferência estatística
- Representação distribuida usando redes bayesianas
- Inferência exacta usando redes bayesianas
Aprendizagem Automática
Aprendizagem automática
Conteudo: Aprendizagem por exemplos, tipos de problemas de aprendizagem, problemas de bias e variância, selecção de modelo, validação cruzada, escolha de métodos, exemplos
Objectivos:
perceber os objectivos da aprendizagem automatica
perceber e explicar as dificuldades na aprendizagem
compreender as implicações do overfitting e a necessidade de seleccionar modelos
escolher metodos para cada problema
Referência:
18.1, 18.4, 18.5
Árvores de Decisão
Árvores de Decisão
Conteudo: estructura das árvores de decisão, indução de uma árvore de decisao
Objectivos:
- saber construir uma árvore de decisão apartir de dados
- escolher e podar árvores
- compreender as limitações e as generalizações mais comuns das árvores de decisão
Referência
18.3
Aprendizagem por reforço
Conteudo
Aprendizagem por reforço
Objectivos
Compreender as dificuldades de aprender e planear em ambientes estocásticos
Definir e compreender os conceitos de recompensa, recompensa discontada acumulada, valor de uma politica, politica optima e função Q
Compreender e implementar os algoritmos de iteração de valor e Q-Learning.
Compreender os dilemas de exploration-exploitation
Referências
Cap 21.1, 21.2 e 21.3 (parcialmente)
Aprendizagem com modelos lineares
Conteudo
Aprendizagem com modelos lineares
Objectivos
Objectivos
Compreender os limites e exemplos de aplicações de Aprendizagem com modelos lineares
Aprender e implementar os métodos de regressão linear, regressão ridge, perceptrão e logistic regression.
Perceber os mecanismos de escolha de parâmetros.
Aprendizagem Não paramétrica
Conteudo:
Métodos knearest neighboors para regressão e classificação
Conceito de kernel
Referência:
AIMA cap18.8
Inteligência Artificial
Objectivos
Introdução à Inteligência Artificial
Cap.1
Agentes Inteligentes
Objectivos
1.Saber descrever o que é um agente.
2.Saber definir a função de desempenho, e o impacto na racionalidade do agente
3.Saber descrever o que é um agente racional
4.Saber caracterizar um agente em termos de PEAS Performance (desempenho) Environment (ambiente) Actuators (actuadores) Sensors (sensores)
5.Descrever as diferentes propriedades de um ambiente.
6.Descrever e definir as 4 estructuras básicas de agentes
2.1, 2.4.2,2.4.3,2.4.6
2.1, 2.4.2,2.4.3,2.4.6
Procura não informada
- Formular o objectivo de uma procura •
- Formular um problema de procura
- Estado inicial
- Modelo de transição Sucessores
- Acções
- Espaço de estados
- Objectivo
- Compreender a diferença entre procura em grafo e procura em árvore
- Metodos de procura não informada
- Em largura
- Em profundidade
- Custo uniforme
- Profundidade limitada
- Profundidade limitada iterativa
- Bidireccional
Procura Informada
Objectivos
Fundamentais
Compreender e explicar a diferença entre procura não informada e procura informada.
Definição de função heuristica e heuristicas admissivel
Explicar e implementar uma procura melhor primeiro
Explicar e implementar uma procura A*
Explicar como criar uma heuristica admissivel
Complementares
Heuristicas consistentes
Melhorar o A* métodos RBFS, IDA*, SMA*
3.5.1, 3.5.2, 3.6
3.5.1, 3.5.2, 3.6
Problema de Satisfação de Restricções
Problema de Satisfação de Restricções
-Definição
-Variáveis
-Restricções
-Consistência
Algoritmos
-Inferência
-AC3
-PC3
-Procura com Retrocesso
-Heuristicas
-Forward Checking
-Procura Local em CSP
5.1, 5.2, 5.3
Procura em Jogos
Procura em jogos
Objectives:
- Verificar se um problema é adversarial ou não
- Formalizar um problema de procura adversarial
- Compreender e implemental os algoritmos MiniMax e Alpha-Beta
- Compreender e discutir as implicações de jogos estocásticos
- Compreender e discutir extensões para melhorar a eficiência do Alpha-beta
References: AIMA Cap 5.1, 5.2, 5.3
Incerteza
Incerteza no Conhecimento e Raciocinio
Conteudo:
- Variáveis aleatórias, probabilidades, axiomas de probabilidade
- Agir com incerteza
- Teoria da utilidade
- Condicionamento, marginalização, prior, posteior, independência de variáveis
- Lei de Bayes
- Ambiente e agentes estocásticos
Objectivos:
- Describe the statistical relations between dierent variables, including dependence, in-dependence
- Compute probabilities using the Bayes rule
- conditioning and marginalization
- Describe agents and environments using probabilities
Raciocinio probabilistico
Objectivos:
- Inferência estatística
- Representação distribuida usando redes bayesianas
- Inferência exacta usando redes bayesianas
Aprendizagem Automática
Aprendizagem automática
Conteudo: Aprendizagem por exemplos, tipos de problemas de aprendizagem, problemas de bias e variância, selecção de modelo, validação cruzada, escolha de métodos, exemplos
Objectivos:
perceber os objectivos da aprendizagem automatica
perceber e explicar as dificuldades na aprendizagem
compreender as implicações do overfitting e a necessidade de seleccionar modelos
escolher metodos para cada problema
Referência:
18.1, 18.4, 18.5
Árvores de Decisão
Árvores de Decisão
Conteudo: estructura das árvores de decisão, indução de uma árvore de decisao
Objectivos:
- saber construir uma árvore de decisão apartir de dados
- escolher e podar árvores
- compreender as limitações e as generalizações mais comuns das árvores de decisão
Referência
18.3
Aprendizagem por reforço
Conteudo
Aprendizagem por reforço
Objectivos
Compreender as dificuldades de aprender e planear em ambientes estocásticos
Definir e compreender os conceitos de recompensa, recompensa discontada acumulada, valor de uma politica, politica optima e função Q
Compreender e implementar os algoritmos de iteração de valor e Q-Learning.
Compreender os dilemas de exploration-exploitation
Referências
Cap 21.1, 21.2 e 21.3 (parcialmente)
Aprendizagem com modelos lineares
Conteudo
Aprendizagem com modelos lineares
Objectivos
Objectivos
Compreender os limites e exemplos de aplicações de Aprendizagem com modelos lineares
Aprender e implementar os métodos de regressão linear, regressão ridge, perceptrão e logistic regression.
Perceber os mecanismos de escolha de parâmetros.
Aprendizagem Não paramétrica
Conteudo:
Métodos knearest neighboors para regressão e classificação
Conceito de kernel
Referência:
AIMA cap18.8