Seminários do CEG-IST 2016

Segunda-feira, 14 de novembro de 2016 | 12:00 -14:00 | Sala V1.06 (Campus Alameda - Pavilhão de Engª Civil) | Acesso livre e gratuito 

Tema: CleanTechnology a Hype or a need also in view of Product Services System

Resumo: In this seminar the main topic will deal with  the parallelism between Energy Efficiency Services (EES) in buildings and the actual clean technology is illustrated.

First, we discuss the actual energy needs for the heating of buildings, both public and private, in combination with the present greenhouse gasses (GHG) emissions. In the past one often used trias energetica principles in order to improve the energy efficiency (and thus lower the GHG) (strictly spoken this is the use of end of pipe technology). Product Services System (PSS) is often considered as a solution for the environmental impact for products. It facilitates the economic grow without increasing material resources as it offers the service instead of product. We see across all industries a trend moving towards services, and dematerialised consumption. In this context EES and their variants can be seen as subset of Product Services System (PSS). Indeed, these project are output driven as the services (light, heat, ….)  are important and the accompagnied business models are based on the cost benefits during the Total Life Cycle.  EES applied to buildings can therefore be seen as an expression of clean technology (main characteristics are renewable energy, closed loops and decentralized). Due to this way of organizing, buildings are no longer the problem, but are the solution to solve the (energy) problem. In addition there will be time to look forward to clean technologies in the near future in view of material resources, waste reduction and energy flexibility.

Palestrante - Prof. Dirk Franco, Hasselt University.



Sexta-feira, 8 de julho de 2016 | 10:00 -11:30 | Sala E2 (Campus Alameda - Torre Norte) | Acesso livre e gratuito  

Tema: Multi-Stage Sampling Estimation Using Different Loss Functions

Resumo: Multi-stage sampling or sequential analysis as a sampling technique is efficient when compared with fixed sampling rule, due to the fact that the number of observations used by the former is on an average less. In sequential sampling method, one obtains the sample size and the statistic, i.e., the sample estimate of the population parameter, one is interested to find, using some pre-defined stopping criterion. In this research we discuss few interesting results we have found in the use of multi-stage sampling techniques for the bounded risk parameter estimation problems using SEL, LINEX, BLF and convex combination of SEL and LINEX loss functions. We derive the analytical form of the optimal sample size for the different distributions  as well as the MLR case and also find the respective statistic for these cases. Extension simulation runs have been carried out for these separate studies and we illustrate few interesting results for the

Palestrante: Raghu Nandan Sengupta, Associate Professor, Industrial & Management Engineering Department, Indian Institute of Technology Kanpur.

 


Quinta-feira, 9 de junho de 2016 | 14:30 -16:00 | Anfiteatro do Complexo Interdisciplinar (Campus Alameda) | Acesso livre e gratuito (registo para cegist@tecnico.ulisboa.pt)

Tema:  The FOCCUSSED Approach for Decision Making

Resumo: Whether you are the CEO of a major firm, an owner or manager of a small business, a sole proprietor, or someone dealing with personal family decisions, the FOCCUSSED approach described in this talk will make you a better decision maker. Small business owners make decisions on contracts, vendors, and general operations. Financial services professionals such as realtors, insurance agents, and financial planners, help clients make decisions. Franchisees make personnel, equipment, and financial decisions. Parents make decisions about schools, family finances, home and car purchases, etc. Investors make decisions about buying, selling, and managing cash flow and tax implications. Let's face it, decision making is at the heart of virtually everything we do. In all cases, we have to deal with values, alternatives, and uncertainty. Are you ready to become a more FOCCUSED decision maker?

Palestrante: Terry Bresnick


Breve nota biográfica: Terry Bresnick has more than forty years of experience in applying the techniques of decision analysis, operations research, and systems engineering to complex problems of industry and government.  He has demonstrated his expertise in the areas of resource allocation and budgetary analysis, managerial decision making, evaluation of competing alternatives, cost-benefit analysis, business area analysis, and strategic planning. Terry Bresnick has been an Assistant Professor of Systems and Decision Analysis and is a registered Professional Engineer in the State of Virginia, USA. He is co-author of The Handbook of Decision Analysis  (2013), and his most recent book is the Foccused Decision Maker: A Quick and Easy Guide for Decision Making (2016). Terry Bresnick won the David Rist Prize, Military Operations Research Society, for outstanding achievement in 1981.

 


Quinta-feira, 19 de maio de 2016 | 14:00 -15:00 | Sala QA1.2 (Torre Sul, Campus Alameda) | Acesso livre e gratuito

Tema: Análise Multicritério e Programação Matemática: Uma Abordagem Integrada

Resumo: A programação matemática permite modelar problemas complexos envolvendo inúmeras alternativas e as suas consequências considerando as restrições e os objetivos a alcançar por um decisor. As metodologias de análise multicritério permitem apoiar processos de decisão envolvendo múltiplos objetivos, tendo em conta os valores e preferências específicas de cada decisor, com vista à seleção da melhor alternativa segundo o seu ponto de vista. Neste âmbito, o objetivo desta apresentação é o de demonstrar como as duas metodologias se diferenciam e podem complementar durante um processo de apoio à decisão, em particular, através da sua aplicação em problemas de planeamento da gestão de ecossistemas florestais.

Palestrante: Ricardo Mateus (Doutorando em Engenharia e Gestão, Técnico, Universidade de Lisboa).

 

Terça-feira, 1 de março de 2016 | 15:00 -16:00 | Sala QA1.2 (Torre Sul, Campus Alameda) | Acesso livre e gratuito

Tema: Integração das restrições do método multicritério MACBETH para problemas de programação matemática em Análise Envoltória de Dados

Resumo: Análise Envoltória de Dados (DEA – Data Envelopment Analysis) é uma técnica não paramétrica para medir a eficiência relativa de unidades produtivas (ou Decision Making Units – DMUs). A aplicação desta técnica é feita associando-se a cada DMU um problema de programação linear (PPL) que irá atribuir livremente pesos para outputs (produtos) e inputs (insumos) do modelo de forma a maximizar a eficiência da unidade avaliada. No entanto em inúmeras aplicações é necessário que o modelo DEA considere a priori julgamentos de valor de um decisor de forma que o esquema de pesos faça sentido prático. As maneiras tradicionais de considerar os julgamentos em DEA exigem do decisor informações numéricas que o mesmo tem dificuldade em fornecer. Para superar esta dificuldade, é proposta a integração com o modelo multicritério MACBETH. Assim, é possível utilizar o arcabouço conceitual desenvolvido no método multicritério de forma que os outputs do modelo DEA serão avaliados por um decisor qualitativamente par a par como se fossem critérios do MACBETH.

Palestrante: Gustavo Naciff de Andrade (Escola de Engenharia, Universidade Federal Fluminense, Brasil).

 

Sexta-feira, 22 de janeiro de 2016 | 14:00 -15:00 | Sala QA1.4 (Torre Sul, Campus Alameda) | Acesso livre e gratuito

Tema: Fuzzy logic e tomada de decisão: Desejo, Precificação, Avaliação e Percepção

Resumo: Diariamente tomamos decisões pessoais e profissionais. Mas essas decisões nem sempre conseguem estar suportadas por dados e fatos de forma plena. Muitas vezes tomamos decisões hoje com dados de ontem que nos afetarão no futuro e, por vezes, sem condição de revisão ou mudança dos rumos decididos. Em momentos de maior incerteza, isso pode nos levar a um engessamento ou a uma dificuldade em agir, dadas as condições de riscos crescentes.  

Criada por Lotfi Zadeh, na década de 1960, a Lógica Fuzzy surgiu da percepção de que as ferramentas daquela época não eram plenamente capazes de tratar os problemas reais de forma adequada. A deficiência de nosso processo decisório em considerar a complexidade deve ser suportada pela utilização de ferramentas de modelagem que permitam simular nossos modelos mentais, o mundo das possibilidades, e não apenas das probabilidades.

O ser humano em sua essência é um ser possibilístico e, por isso, na visão de Zadeh, deveria ter ferramentas que suportassem tal realidade. Dessa forma, a Lógica Fuzzy e a relacionada teoria de conjuntos Fuzzy foram criadas com o intuito de adequar o ferramental matemático da lógica a tipos de incerteza característicos da linguagem humana e seus modelos mentais. Assim nasceu um instrumental matemático capaz de modelar em sistemas lógicos a forma humana de raciocinar, visando aprimorar os processos decisórios.

A evolução da ciência partiu de modelos “determinísticos”, como a física newtoniana, para uma abordagem estatística, baseada na teoria das probabilidades, capaz de considerar incertezas, buscando soluções mais robustas. Esse paradigma manteve-se pouco contestado até 1965, quando Zadeh propôs uma lógica com valores contínuos na tentativa de contornar os problemas da lógica clássica aristotélica com diferentes tipos de incerteza. Várias são as aplicações consideradas com o uso de lógica fuzzy, incluindo estudos que envolvem decisões de consumo, escolha de marcas e produtos e formas de qualificar a sensibilidade desse consumo aos preços praticados.

Palestrante: António Carlos Morim (Consultor, Professor da ESPM Rio, Docente em Engenharia Econômica, Administração e Marketing, Engenheiro, Doutorando e Mestre em Engenharia de Produção pela UFRJ-COPPE, Coordenador da área de Gestão dos cursos de Pós-Graduação da ESPM Rio e pesquisador na UFRJ-COPPE. Autor do livro Laboratório de Habilidades Gerenciais - Editora Nobel, teve 25 anos de carreira executiva em empresas como IBM, Citibank, Credicard, Tim, ATL e Claro).

 

Quinta-feira, 14 de janeiro de 2016 | 14:30 -15:30 | Sala QA1.4 (Torre Sul, Campus Alameda) | Acesso livre e gratuito

Tema: Cognitive and Motivational Biases in Risk and Decision Analysis

Resumo: Behavioral decision research has demonstrated that judgments and decisions of ordinary people and experts are subject to numerous biases. Decision and risk analysis were designed to improve judgments and decisions and to overcome many of these biases. However, when eliciting model components and parameters from decisionmakers or experts, analysts often face the very biases they are trying to help overcome. When these inputs are biased they can seriously reduce the quality of the model and resulting analysis. Some of these biases are due to faulty cognitive processes; some are due to motivations for preferred analysis outcomes. This presentation identifies the cognitive and motivational biases that are relevant for decision and risk analysis because they can distort analysis inputs and are difficult to correct. We also review and provide guidance about the existing debiasing techniques to overcome these biases. In addition, we describe some biases that are less relevant because they can be corrected by using logic or decomposing the elicitation task. We conclude with an agenda for future research.

Palestrante: Gilberto Montibeller (School of Business and Economics, Loughborough University, Reino Unido).