Dissertação
SoC-FPGA MobileNets for Embedded Vision Applications EVALUATED
Hoje em dia é cada vez mais comum o uso de inteligência artificial em diversas aplicações. No entanto foram precisas décadas de desenvolvimento, sobretudo ao nível de hardware para que a inteligência artificial pudesse ser viável. O modelo MobileNets, desenvolvido por investigadores da Google, é usado para a classificação de imagens e devido ao processamento mais leve que as concorrentes, é sobretudo utilizado nos sistemas embebidos. Este modelo usa o conceito de convolução separável em profundidade e apesar de bastante optimizado, o tempo de processamento pode ainda ser elevado quando usado em dispositivos de baixo custo. Neste trabalho pretendeu-se desenvolver uma arquitectura de multiprocessamento hardware/software numa plataforma SoC FPGA para a classificação de imagens usando a MobileNets. Os contributos principais deste projecto são o desenvolvimento de 3 IPs para processar as camadas das convoluções separáveis em profundidade, usando para isso, uma paralelização e alocação eficiente dos recursos de forma a obter um multiprocessamento eficaz, e a quantização dos dados para reduzir as necessidades de memória e tempo de comunicação. O sistema foi implementado num dispositivo Zynq 7010, utilizando um modelo MobileNets quantizado com 26% dos parâmetros representados em ponto fixo com 16 bits e 74% dos parâmetros usando uma representação de ponto flutuante personalizada de 12 bits. Isto permitiu obter um modelo 60% menor com uma perda na precisão de apenas 0.78%. A solução final permite classificar 1 imagem em 469 ms, significando uma aceleração de 11 vezes em relação à solução de software executada no ARM do sistema embebido.
setembro 30, 2021, 10:30
Publicação
Obra sujeita a Direitos de Autor
Orientação
ORIENTADOR
Horácio Cláudio De Campos Neto
Departamento de Engenharia Electrotécnica e de Computadores (DEEC)
Professor Associado