Análise de algoritmos de roteamento e topologias de redes-em-chip para inferência paralela em redes neurais

DSpace Repository

A- A A+

Análise de algoritmos de roteamento e topologias de redes-em-chip para inferência paralela em redes neurais

Show simple item record

dc.contributor Universidade Federal de Santa Catarina. pt_BR
dc.contributor.advisor Guimarães, Janaina Gonçalves
dc.contributor.author Araújo, André Isaias de Jesus Gondim
dc.date.accessioned 2025-06-16T16:34:02Z
dc.date.available 2025-06-16T16:34:02Z
dc.date.issued 2025-05-28
dc.identifier.uri https://repositorio.ufsc.br/handle/123456789/265701
dc.description TCC (graduação) - Universidade Federal de Santa Catarina, Campus Blumenau, Engenharia de Controle e Automação. pt_BR
dc.description.abstract Este trabalho investiga a aplicação de redes-em-chip (NoCs) na execução paralelizada de redes neurais artificiais, com foco na análise comparativa de algoritmos de roteamento e topologias de interconexão. Com o aumento da complexidade dos sistemas embarcados e a demanda crescente por soluções de computação neuromórfica, torna-se necessário avaliar arquiteturas que ofereçam desempenho, escalabilidade e eficiência energética. Neste contexto, foi implementada uma rede neural dedicada à classificação do conjunto de dados Íris, composta por quatro entradas, duas camadas ocultas e uma saída multiclasse. A inferência foi inicialmente realizada em ambiente de CPU tradicional, utilizando bibliotecas de aprendizado de máquina em Python, estabelecendo uma base sequencial de comparação. Em seguida, a mesma rede foi modelada em uma arquitetura de NoC com 16 elementos de processamento (PEs), onde cada neurônio foi mapeado em um PE distinto. As simulações foram conduzidas na ferramenta Noxim, considerando quatro algoritmos de roteamento na topologia Mesh (XY, West-First, Odd-Even e DyAD-T) e o algoritmo Delta nas topologias multietapa Butterfly e Ômega. A análise baseou-se em métricas clássicas como latência média, throughput e consumo energético, extraídas dos arquivos de saída das simulações. Os tempos de inferência foram estimados por meio de uma aproximação entre delay e throughput, considerando uma frequência de operação de 1 GHz e execução paralelizada dos PEs. Os resultados indicaram ganho expressivo de desempenho das NoCs em relação à CPU, com tempos de inferência até cinco ordens de magnitude inferiores. O algoritmo XY obteve o melhor resultado na topologia Mesh, enquanto a topologia Ômega apresentou leve superioridade em relação à Butterfly. O estudo confirma a viabilidade do uso de NoCs para acelerar tarefas de inferência em redes neurais, destacando seu potencial para aplicações embarcadas que exigem baixo consumo de energia e elevada taxa de processamento. Além disso, o trabalho contribui com uma abordagem prática para avaliar o impacto da escolha do roteamento e da topologia no desempenho de sistemas neuromórficos. pt_BR
dc.description.abstract This work investigates the application of networks-on-chip (NoCs) in the parallelized execution of artificial neural networks, focusing on a comparative analysis of routing algorithms and interconnection topologies. With the increasing complexity of embedded systems and the growing demand for neuromorphic computing solutions, it becomes necessary to evaluate architectures that offer performance, scalability, and energy efficiency. In this context, a neural network dedicated to the classification of the Iris dataset was implemented, composed of four input neurons, two hidden layers, and a multiclass output. Inference was initially performed in a traditional CPU environment using Python machine learning libraries, establishing a sequential comparison baseline. The same network was then modeled on a NoC architecture with 16 processing elements (PEs), where each neuron was mapped to a distinct PE. Simulations were conducted using the Noxim tool, considering four routing algorithms on the Mesh topology (XY, West-First, Odd-Even, and DyAD-T), and the Delta algorithm on multistage topologies Butterfly and Omega. The analysis was based on classical metrics such as average latency, throughput, and energy consumption, extracted from the simulation output files. Inference times were estimated through an approximation between delay and throughput, assuming a 1 GHz operating frequency and parallel execution of the PEs. The results showed significant performance gains for NoCs compared to the CPU, with inference times up to five orders of magnitude lower. The XY algorithm achieved the best result on the Mesh topology, while the Omega topology showed slightly better performance than Butterfly. The study confirms the feasibility of using NoCs to accelerate inference tasks in neural networks, highlighting their potential for embedded applications that require low power consumption and high processing throughput. Furthermore, the work contributes a practical approach to assessing the impact of routing and topology choices on the performance of neuromorphic systems. pt_BR
dc.format.extent 54 f. pt_BR
dc.language.iso por pt_BR
dc.publisher Blumenau, SC. pt_BR
dc.rights Open Access. en
dc.subject Engenharia de controle e automação pt_BR
dc.subject Redes-em-chip pt_BR
dc.subject Redes neurais artificiais pt_BR
dc.subject Algoritmos de roteamento pt_BR
dc.title Análise de algoritmos de roteamento e topologias de redes-em-chip para inferência paralela em redes neurais pt_BR
dc.type TCCgrad pt_BR


Files in this item

Files Size Format View Description
TCC_AndreAraujo.pdf 2.195Mb PDF View/Open TCC - André Araújo

This item appears in the following Collection(s)

Show simple item record

Search DSpace


Advanced Search

Browse

My Account

Statistics

Compartilhar