Dissertação

{en_GB=Exploiting GPU Undervoltage to Improve the Energy Efficiency of Deep Learning Applications} {} EVALUATED

{pt=A crescente procura por aplicações de aprendizagem automatiza está a estimular o aumento da performance das mesmas. No entanto, este incremento de performance é normalmente alcançado à custa de um aumento dos requisitos computacionais, cuja eficiência energética é, por norma, ignorada. Dispositivos de Processamento Gráfico de Propósito Geral (GPGPU), sendo os aceleradores de eleição para este género de aplicações, têm um papel importante na sua disponibilização global. Todavia, estes dispositivos apresentam consumos energéticos elevados que para além dos custos operacionais que implicam, colocam ambientes com recursos limitados à margem destas tecnologias. Para mitigar este problema, no âmbito desta tese, é proposta uma abordagem para estudar potenciais ganhos de energia obtidos ao reduzir a tensão de alimentação de GPGPUs, usando o dispositivo AMD Radeon Vega Frontier Edition. Este processo é inicialmente reproduzido utilizando aplicações padrão com o objetivo de caracterizar a margem de tensão do dispositivo imposta pelo fabricante. Depois, é também reproduzido utilizando modelos atuais de aprendizagem automática permitindo conhecer o seu comportamento sob baixas tensões de alimentação. Os resultados mostram que os modelos de aprendizagem automática podem atingir eficiências energéticas que chegam aos 24.79% (média de 15.35%) e ainda assim garantir a precisão inicial. Não obstante, é ainda possível obter melhores eficiências energéticas, até um máximo de 30.16% (média de 18.37%) sob pena de perda de precisão do modelo quando o dispositivo GPGPU trabalha a níveis de tensão próximos do seu colapso., en=The success of deep learning applications, within machine learning and artificial intelligence, is pushing further this area's development. However, the increasing performance and accuracy needs are usually met with higher computational requirements, whose efficiency is, more often than not, disregarded. General Purpose Graphics Processing Units (GPGPUs), being the state-of-the-art accelerators for these applications, play a significant role in making deep learning models widely available. However, the large power consumption increases operational costs and eschews resource-constrained environments from using such devices. To mitigate this problem, the present work proposes an approach to study the potential energy savings of reducing the supply voltage of those devices, using an AMD Radeon Vega Frontier Edition GPGPU. This endeavor is first applied to synthetic benchmarks to characterize the device's voltage guardband and then to current deep learning models to provide an insight into their behavior under minimum supply voltage. Results show deep learning models can achieve energy savings of up to 24.79% (average of 15.35%) and still guarantee their initial accuracy. Nonetheless, the energy savings can be further increased up to 30.16% (average of 18.37%) at the expense of the model's accuracy. Deep learning applications experienced an accuracy droop up to 61.52% (average of 10.61%) when working at near failure supply voltage.}
{pt=Margem de segurança de tensão, Unidade de Processamento Gráfico, Eficiência energética, Aprendizagem automática, en=Voltage guard band, Graphics Processing Unit, Energy efficiency, Deep learning}

Janeiro 26, 2021, 16:0

Orientação

ORIENTADOR

Nuno Filipe Valentim Roma

Departamento de Engenharia Electrotécnica e de Computadores (DEEC)

Professor Associado

ORIENTADOR

Pedro Filipe Zeferino Tomás

Departamento de Engenharia Electrotécnica e de Computadores (DEEC)

Professor Auxiliar