Dissertação

{en_GB=Norms for Beneficial A.I.} {} EVALUATED

{pt=O aparecimento de sistemas baseados em inteligência artificial (I.A.) tem o potencial de beneficiar os seus utilizadores e a sociedade como um todo. No entanto, estes sistemas também podem comportar potenciais conflitos e consequências não intencionais. A adoção de sistemas baseados em I.A. só será feita se trouxer aos seus utilizadores uma vantagem, levando a que os não utilizadores façam pressão para que exista uma forte legislação contra I.A., caso essa vantagem seja obtida a custo dos não utilizadores. Neste trabalho, propomos o uso de um modelo estocástico, baseado em teoria de jogos, de modo a analizar estes conflitos. Contextualizamos os nossos resultados com base nas discussões atuais em ética para I.A. e no conflito entre ganhos individuais e sociais: o problema de alinhamento de valores a nível social. Testamos os equilíbrios emergentes relativos à adoção de tecnologia I.A. em mundos em que os sistemas I.A. seguem diferentes normas, os possíveis benefícios, e o nível emergente de desigualdade na riqueza. Demonstramos que sem nenhuma regulação, sistemas I.A. puramente egoístas providenciam aos seus utilizadores a maior vantagem, mesmo quando um I.A. utilitário providenciaria um beneficio maior para o individuo e para a sociedade a longo prazo. No entanto, demonstramos que é possível desenvolver sistemas I.A. que alcançam um equilibro onde os ganhos para os utilizadores de I.A. não são obtidos a custo dos não utilizadores, aumentando o ganho geral e diminuindo a desigualdade. No entanto, como demonstrado, uma adoção auto-regulada de tais normas requereria um certo grau de regulação externa., en=The rise of artificial intelligence (A.I.) based systems has the potential to benefit adopters and society as a whole. However, these systems may also enclose potential conflicts and unintended consequences. Notably, people will only adopt an A.I. system if it confers them an advantage, at which point non-adopters might push for a strong regulation if that advantage for adopters is at a cost for them. Here we propose a stochastic game theoretical model for these conflicts. We frame our results under the current discussion on ethical A.I. and the conflict between individual and societal gains: the societal value alignment problem. We test the arising equilibria in the adoption of A.I. technology under different norms followed by artificial agents, their ensuing benefits, and the emergent levels of wealth inequality. We show that without any regulation, purely selfish A.I. systems will have the strongest advantage, even when a utilitarian A.I. provides a more significant benefit for the individual and the society. Nevertheless, we show that it is possible to develop human conscious A.I. systems that reach an equilibrium where the gains for the adopters are not at a cost for non-adopters while increasing the overall fitness and lowering inequality. However, as shown, a self-organized adoption of such policies would require external regulation.}
{pt=Ética em I.A., Teoria de jogos, Regulação de I.A., en=A.I. ethics, Game theoretical analysis, A.I. regulation.}

Novembro 26, 2019, 13:0

Orientação

ORIENTADOR

Manuel Fernando Cabido Peres Lopes

Departamento de Engenharia Informática (DEI)

Professor Associado

ORIENTADOR

Francisco João Duarte Cordeiro Correia dos Santos

Departamento de Engenharia Informática (DEI)

Professor Associado