dc.contributor |
Universidade Federal de Santa Catarina. |
pt_BR |
dc.contributor.advisor |
Guimarães, Janaina Gonçalves |
|
dc.contributor.author |
Araújo, André Isaias de Jesus Gondim |
|
dc.date.accessioned |
2025-06-16T16:34:02Z |
|
dc.date.available |
2025-06-16T16:34:02Z |
|
dc.date.issued |
2025-05-28 |
|
dc.identifier.uri |
https://repositorio.ufsc.br/handle/123456789/265701 |
|
dc.description |
TCC (graduação) - Universidade Federal de Santa Catarina, Campus Blumenau, Engenharia de Controle e Automação. |
pt_BR |
dc.description.abstract |
Este trabalho investiga a aplicação de redes-em-chip (NoCs) na execução paralelizada de
redes neurais artificiais, com foco na análise comparativa de algoritmos de roteamento e
topologias de interconexão. Com o aumento da complexidade dos sistemas embarcados
e a demanda crescente por soluções de computação neuromórfica, torna-se necessário
avaliar arquiteturas que ofereçam desempenho, escalabilidade e eficiência energética. Neste
contexto, foi implementada uma rede neural dedicada à classificação do conjunto de dados
Íris, composta por quatro entradas, duas camadas ocultas e uma saída multiclasse. A
inferência foi inicialmente realizada em ambiente de CPU tradicional, utilizando bibliotecas
de aprendizado de máquina em Python, estabelecendo uma base sequencial de comparação.
Em seguida, a mesma rede foi modelada em uma arquitetura de NoC com 16 elementos de
processamento (PEs), onde cada neurônio foi mapeado em um PE distinto. As simulações
foram conduzidas na ferramenta Noxim, considerando quatro algoritmos de roteamento na
topologia Mesh (XY, West-First, Odd-Even e DyAD-T) e o algoritmo Delta nas topologias
multietapa Butterfly e Ômega. A análise baseou-se em métricas clássicas como latência
média, throughput e consumo energético, extraídas dos arquivos de saída das simulações.
Os tempos de inferência foram estimados por meio de uma aproximação entre delay e
throughput, considerando uma frequência de operação de 1 GHz e execução paralelizada
dos PEs. Os resultados indicaram ganho expressivo de desempenho das NoCs em relação à
CPU, com tempos de inferência até cinco ordens de magnitude inferiores. O algoritmo XY
obteve o melhor resultado na topologia Mesh, enquanto a topologia Ômega apresentou leve
superioridade em relação à Butterfly. O estudo confirma a viabilidade do uso de NoCs para
acelerar tarefas de inferência em redes neurais, destacando seu potencial para aplicações
embarcadas que exigem baixo consumo de energia e elevada taxa de processamento. Além
disso, o trabalho contribui com uma abordagem prática para avaliar o impacto da escolha
do roteamento e da topologia no desempenho de sistemas neuromórficos. |
pt_BR |
dc.description.abstract |
This work investigates the application of networks-on-chip (NoCs) in the parallelized
execution of artificial neural networks, focusing on a comparative analysis of routing
algorithms and interconnection topologies. With the increasing complexity of embedded
systems and the growing demand for neuromorphic computing solutions, it becomes
necessary to evaluate architectures that offer performance, scalability, and energy efficiency.
In this context, a neural network dedicated to the classification of the Iris dataset was
implemented, composed of four input neurons, two hidden layers, and a multiclass output.
Inference was initially performed in a traditional CPU environment using Python machine
learning libraries, establishing a sequential comparison baseline. The same network was
then modeled on a NoC architecture with 16 processing elements (PEs), where each
neuron was mapped to a distinct PE. Simulations were conducted using the Noxim tool,
considering four routing algorithms on the Mesh topology (XY, West-First, Odd-Even,
and DyAD-T), and the Delta algorithm on multistage topologies Butterfly and Omega.
The analysis was based on classical metrics such as average latency, throughput, and
energy consumption, extracted from the simulation output files. Inference times were
estimated through an approximation between delay and throughput, assuming a 1 GHz
operating frequency and parallel execution of the PEs. The results showed significant
performance gains for NoCs compared to the CPU, with inference times up to five orders
of magnitude lower. The XY algorithm achieved the best result on the Mesh topology,
while the Omega topology showed slightly better performance than Butterfly. The study
confirms the feasibility of using NoCs to accelerate inference tasks in neural networks,
highlighting their potential for embedded applications that require low power consumption
and high processing throughput. Furthermore, the work contributes a practical approach to
assessing the impact of routing and topology choices on the performance of neuromorphic
systems. |
pt_BR |
dc.format.extent |
54 f. |
pt_BR |
dc.language.iso |
por |
pt_BR |
dc.publisher |
Blumenau, SC. |
pt_BR |
dc.rights |
Open Access. |
en |
dc.subject |
Engenharia de controle e automação |
pt_BR |
dc.subject |
Redes-em-chip |
pt_BR |
dc.subject |
Redes neurais artificiais |
pt_BR |
dc.subject |
Algoritmos de roteamento |
pt_BR |
dc.title |
Análise de algoritmos de roteamento e topologias de redes-em-chip para inferência paralela em redes neurais |
pt_BR |
dc.type |
TCCgrad |
pt_BR |