<?xml version="1.0" encoding="UTF-8"?><feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
<title>Programa de Pós-Graduação em Ciência da Computação</title>
<link href="https://repositorio.ufsc.br/handle/123456789/76362" rel="alternate"/>
<subtitle/>
<id>https://repositorio.ufsc.br/handle/123456789/76362</id>
<updated>2026-04-30T10:49:18Z</updated>
<dc:date>2026-04-30T10:49:18Z</dc:date>
<entry>
<title>Impact of process variability on circuit-level radiation-hardening techniques</title>
<link href="https://repositorio.ufsc.br/handle/123456789/272645" rel="alternate"/>
<author>
<name>Dias, Marina Longo</name>
</author>
<id>https://repositorio.ufsc.br/handle/123456789/272645</id>
<updated>2026-03-11T00:03:12Z</updated>
<published>2026-01-01T00:00:00Z</published>
<summary type="text">Impact of process variability on circuit-level radiation-hardening techniques
Dias, Marina Longo
A tecnologia FinFET oferece vantagens como menor consumo de energia e redução dos efeitos de canal curto, mas também está sujeita a desafios relacionados à variabilidade de processo e à sensibilidade à radiação. A principal fonte de variabilidade de processo em dispositivos FinFET está relacionada à granularidade do metal gate, que afeta a função trabalho, causando o efeito chamado flutuação da função trabalho (WFF). Isso afeta o comportamento esperado das correntes do dispositivo e dos tempos de propagação devido ao impacto na tensão limiar. Algumas abordagens propostas em nível de transistor ou de circuito para mitigação de ruído e efeitos de single-event transient (SET) podem ser exploradas para mitigar o impacto da variabilidade de processo. Este trabalho avalia o impacto da variabilidade de processo em técnicas de robustez em nível de circuito aplicadas a inversores. A primeira avaliação considera o impacto de técnicas de robustez em nível de circuito no desempenho e na confiabilidade de circuitos baseados em FinFET, comparando os resultados com achados prévios para tecnologias CMOS bulk. Quatro técnicas inicialmente propostas na literatura para mitigação de ruído e efeitos de SET são investigadas: Schmitt Trigger, Pseudo-Strengthening, Strengthening e Rad-Hard, sob condições de tensão nominal e near-threshold. Os resultados indicam que, sob condições nominais, a técnica Schmitt Trigger apresentou os melhores resultados de atraso e de near-threshold, enquanto a técnica Strengthening apresentou o menor atraso. A análise do consumo de energia revelou que a técnica Schmitt Trigger teve o menor consumo de energia entre as técnicas analisadas. Essa análise reforça a relevância da variabilidade de processo, especialmente em operações near-threshold, e destaca a necessidade de técnicas de robustez para mitigar os efeitos da variabilidade no projeto de circuitos digitais em tecnologias nanométricas. A segunda análise observa a robustez à radiação dessas quatro técnicas em nível de circuito para falhas SET. Os resultados mostram alta robustez para o Schmitt Trigger, mesmo considerando a variabilidade de processo. A terceira avaliação investiga a integração seletiva de topologias de inversores tolerantes à radiação em circuitos aritméticos de uma arquitetura RISC-V, visando melhorar a resiliência do sistema contra soft errors com sobrecarga mínima. As quatro técnicas foram então integradas a células somadoras completas para avaliar seu impacto no desempenho e na robustez. Esses somadores foram posteriormente incorporados ao processador RS5, uma implementação RISC-V, e sintetizados utilizando tecnologias CMOS de 45 nm e FinFET de 7~nm para avaliar seus trade-offs de área. O maior impacto em área é observado em 7~nm, com um aumento de 16,7\% na contagem de transistores, um aumento marginal de 0,73\% na ULA e apenas 0,031\% em todo o processador RS5. Isso demonstra que o projeto de circuitos robustos pode ser alcançado com impacto mínimo na área total de silício, mesmo em nós de tecnologia avançados. Desta forma, os resultados obtidos demonstram que técnicas de robustez baseadas em inversores oferecem benefícios concretos para a mitigação simultânea dos efeitos de variabilidade de processo e radiação em dispositivos FinFET.; Abstract: FinFET technology offers advantages such as lower power consumption and reduced short-channel effects, but it is also subject to challenges related to process variability and radiation sensitivity. The main source of process variability in FinFET devices is related to the metal gate granularity, which affects the work function, causing the effect called work function fluctuation (WFF). This affects the expected behavior of device currents and propagation times due to the impact on the threshold voltage. Some proposed transistor-level or circuit-level approaches for noise mitigation and single-event transient (SET) effects can be explored to mitigate the impact of process variability. This work evaluates the impact of process variability on circuit-level hardening techniques applied to inverters. The first evaluation considers the impact of circuit-level robustness techniques on the performance and reliability of FinFET-based circuits, comparing the results with previous findings for bulk CMOS technologies. Four techniques initially proposed in the literature for noise mitigation and SET effects are investigated: Schmitt Trigger, Pseudo-Strengthening, Strengthening and Rad-Hard, under nominal and near-threshold voltage conditions. Results indicate that, under nominal conditions, the Schmitt Trigger technique yielded the best delay and near-threshold voltage results, while the Strengthening technique yielded the lowest delay. The analysis of energy consumption revealed that the Schmitt Trigger technique had the lowest energy consumption among the techniques analyzed. This analysis reinforces the relevant role of process variability, especially in near-threshold operations, and highlights the need for robustness techniques to mitigate the effects of variability in the design of digital circuits in nanometric technologies. The second analysis observes the radiation robustness of these four circuit-level for SET faults. The results show high robustness to the Schmitt Trigger, even accounting for process variability. The third evaluation investigates the selective integration of radiation-hardening inverter topologies into arithmetic circuits of a RISC-V architecture, aiming to improve system resilience against soft errors with minimal overhead. The four techniques were then integrated into full adder cells to evaluate their impact on performance and robustness. %The most promising design, based on the process-variability evaluation, These full adders were further incorporated into the RS5 processor, a RISC-V implementation, and synthesized using both 45 nm CMOS and 7 nm FinFET technologies to assess its area trade-offs. The higher impact in area is observed on 7 nm, with 16.7\% increase in transistor count, a marginal increase of 0.73\% in the ALU and only 0.031\% in the complete RS5 processor. This demonstrates that robust circuit design can be achieved with minimal impact on the overall silicon area, even in advanced technology nodes. Thus, the results obtained demonstrate that inverter-based robustness techniques offer concrete benefits for the simultaneous mitigation of process variability and radiation effects in FinFET devices.
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2026.
</summary>
<dc:date>2026-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Visão computacional com deep learning como metodologia de suporte à triagem automatizada de alterações macroscópicas placentárias e solicitação de exame anatomopatológico</title>
<link href="https://repositorio.ufsc.br/handle/123456789/272644" rel="alternate"/>
<author>
<name>Lopes, Beatriz Silva</name>
</author>
<id>https://repositorio.ufsc.br/handle/123456789/272644</id>
<updated>2026-03-11T00:03:04Z</updated>
<published>2026-01-01T00:00:00Z</published>
<summary type="text">Visão computacional com deep learning como metodologia de suporte à triagem automatizada de alterações macroscópicas placentárias e solicitação de exame anatomopatológico
Lopes, Beatriz Silva
O exame anatomopatológico da placenta é crucial para elucidar desfechos perinataisadversos, mas sua solicitação sistemática é inviável devido aos altos custos e demandaoperacional. A triagem inicial, baseada na avaliação macroscópica no momento doparto, é fundamental, mas sofre com a subjetividade e a não-padronização. Diantedessa limitação, este trabalho propôs e validou um pipeline computacional de DeepLearning (DL) para a análise automatizada de imagens macroscópicas de placentas, vi-sando fornecer um sistema de suporte à decisão para a triagem clínica. A metodologiaincluiu o desenvolvimento e documentação de um Protocolo de Captura de Imagens(PCI) padronizado para a sala de parto, o que permitiu a construção de um datasetproprietário, abrangente e anotado por especialistas em nove classes morfológicas. Fo-ram exploradas e comparadas quatorze arquiteturas de DL, focadas em segmentaçãosemântica e segmentação por instância, para estabelecer um benchmark de desempe-nho. Os resultados mostraram que a arquitetura U-Net com backbone ResNet34 obteveo melhor desempenho global em segmentação semântica, com Dice Coefficient de80,71% e Intersection over Union (IoU) de 70,01%. A U-Net com EfficientNet-B7 alcan-çou a maior acurácia global (91,33%) e o menor tempo de execução entre as redesU-Net avaliadas. No que concerne à segmentação por instância, o modelo YOLOv11obteve um mAP50 de 69,5% e mAP50-95 de 52,8%. Conclui-se que os modelos de-monstram viabilidade técnica e bom desempenho quantitativo, avançando em direção àrobustez necessária para apoiar a triagem automatizada, embora a generalização e ro-bustez plena dependam da expansão e diversificação do conjunto de dados. O estudoestabelece uma base sólida para o desenvolvimento futuro de ferramentas assistivasque podem otimizar a alocação de recursos hospitalares e contribuir diretamente paraa saúde materno-fetal.; Abstract: Histopathological examination of the placenta is crucial for clarifying adverse perinataloutcomes, but its systematic request is unfeasible due to high costs and operationaldemands. Initial screening, based on macroscopic evaluation at the time of delivery, isfundamental but suffers from subjectivity and non-standardization. Given this limitation,this work proposed and validated a Deep Learning (DL) computational pipeline for theautomated analysis of macroscopic placental images, aiming to provide a clinical triagedecision support system. The methodology included the development and documen-tation of a standardized Protocol for Image Capture (PCI) in the delivery room, whichallowed for the construction of a proprietary, comprehensive dataset annotated by spe-cialists into nine morphological classes. Fourteen DL architectures were explored andcompared, focusing on semantic segmentation and instance segmentation, to establisha performance benchmark. The results showed that the U-Net architecture with theResNet34 backbone achieved the best overall performance in semantic segmentation,with a Dice Coefficient of 80.71% and an Intersection over Union (IoU) of 70.01%.The U-Net with EfficientNet-B7 achieved the highest global accuracy (91.33%) and theshortest execution time among the evaluated U-Net networks. Regarding instance seg-mentation, the YOLOv11 model achieved an mAP50 of 69.5% and mAP50-95 of 52,8%.It is concluded that the models demonstrate technical feasibility and good quantitativeperformance, advancing toward the necessary robustness to support automated triage,although full generalization and robustness depend on the expansion and diversifica-tion of the dataset. The study establishes a solid foundation for the future developmentof assistive tools that can optimize the allocation of hospital resources and directlycontribute to maternal and fetal health.
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2026.
</summary>
<dc:date>2026-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Abordagem para implantação de produtos de dados de arquivo em lote em um ambiente de big data</title>
<link href="https://repositorio.ufsc.br/handle/123456789/272619" rel="alternate"/>
<author>
<name>Felix, Richard de Arruda</name>
</author>
<id>https://repositorio.ufsc.br/handle/123456789/272619</id>
<updated>2026-03-09T23:26:51Z</updated>
<published>2026-01-01T00:00:00Z</published>
<summary type="text">Abordagem para implantação de produtos de dados de arquivo em lote em um ambiente de big data
Felix, Richard de Arruda
A ciência de dados consolidou-se como pilar para a tomada de decisões em diversos setores, impulsionada pela análise de grandes volumes de dados. A fase de implantação de produtos de dados, que são artefatos tangíveis e reutilizáveis gerados a partir de dados e algoritmos, como modelos preditivos ou relatórios, frequentemente apresenta desafios. Em particular, a implantação de produtos de dados em lote (batch), como o cálculo periódico de scores de crédito, que opera sobre grandes volumes em intervalos fixos, tende a receber pouca atenção metodológica, resultando em ineficiências e retrabalho. Este estudo propõe a Abordagem Integrada de Implantação de Produtos de Dados (AIIPD), que integra práticas de engenharia de software e métodos ágeis para padronizar e otimizar a implantação de produtos de dados em lote em ambientes de big data. A AIIPD foi aplicada e avaliada por meio de pesquisa-ação conduzida em um bureau de crédito brasileiro, com implantação em produção. Os resultados quantitativos e qualitativos indicam redução significativa no tempo de implantação e melhoria na colaboração entre as equipes de Produto, Dados &amp; Analytics, Tecnologia e Operação &amp; Delivery. Observou-se ainda maior clareza de responsabilidades, rigor em validação e testes, e aprimoramento da documentação. Conclui-se que a integração de práticas estruturadas de engenharia de software com a flexibilidade dos métodos ágeis oferece uma solução escalável e robusta aos desafios do processamento em lote, contribuindo com um modelo prático que pode servir de referência para organizações que buscam otimizar a fase de implantação de projetos de ciência de dados.; Abstract: Data science has become a cornerstone of decision making across sectors, driven by the analysis of large data volumes. The deployment phase of data products, defined as tangible and reusable artifacts generated from data and algorithms such as predictive models or reports, often presents challenges. In particular, the deployment of batch data products (for example, periodic credit score computation), which operate on large datasets at fixed intervals, tends to receive limited methodological attention, leading to inefficiencies and rework. This study proposes the Integrated Approach for Data Product Deployment (AIIPD), which integrates software engineering practices and agile methods to standardize and optimize the deployment of batch data products in big data environments. The AIIPD was applied and evaluated through action research conducted at a Brazilian credit bureau, culminating in a production deployment. Quantitative and qualitative results indicate a significant reduction in deployment time and improved collaboration among Product, Data &amp; Analytics, Technology, and Operations &amp; Delivery teams. Additional outcomes include clearer responsibilities, stronger validation and testing, and improved documentation. It is concluded that combining structured software engineering practices with agile flexibility provides a scalable and robust response to the challenges of batch processing, offering a practical model for organizations seeking to optimize the deployment phase of data science projects.
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2026.
</summary>
<dc:date>2026-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>On the applicability of CSIDH</title>
<link href="https://repositorio.ufsc.br/handle/123456789/272133" rel="alternate"/>
<author>
<name>Saldanha, Matheus de Oliveira</name>
</author>
<id>https://repositorio.ufsc.br/handle/123456789/272133</id>
<updated>2026-02-10T23:24:42Z</updated>
<published>2026-01-01T00:00:00Z</published>
<summary type="text">On the applicability of CSIDH
Saldanha, Matheus de Oliveira
O advento da computação quântica ameaça as premissas fundamentais de segurança da criptografia clássica de chave pública, tornando inseguros, a longo prazo, protocolos amplamente utilizados como RSA e a Criptografia de Curvas Elípticas (ECC). Em resposta, a comunidade criptográfica tem intensificado suas pesquisas em primitivas criptográficas pós-quânticas (PQC), capazes de oferecer segurança e desempenho comparáveis frente a adversários quânticos. Entre essas primitivas, a criptografia baseada em isogenias se destaca por apresentar chaves públicas compactas e uma estrutura naturalmente análoga ao protocolo de Diffie?Hellman. Dentro dessa família, o protocolo \emph{Commutative Supersingular Isogeny Diffie?Hellman} (CSIDH) possibilita uma troca de chaves não interativa baseada em uma ação de grupo comutativa, tornando-se um forte candidato para aplicações práticas em um cenário pós-quântico. No entanto, suas primeiras implementações apresentavam vulnerabilidades a ataques de tempo, dependência de operações fictícias (\emph{dummy operations}) e suscetibilidade a injeções de falhas, o que motivou o desenvolvimento de alternativas determinísticas e reforçadas contra canal lateral. Esta dissertação apresenta duas contribuições principais para o avanço e a aplicação da criptografia baseada em isogenias. A primeira é o projeto e a avaliação do Hardened~CTIDH, a primeira implementação constante no tempo, determinística e completamente livre de operações fictícias do CSIDH. Com base nos fundamentos do CTIDH e do dCTIDH, a construção proposta integra duas técnicas principais ? o mecanismo DACsHUND e uma estrutura Matryoshka reformulada ? para eliminar operações fictícias, preservando ao mesmo tempo o determinismo e a resistência a ataques de canal lateral. Os resultados experimentais demonstram que o Hardened~CTIDH obtém um ganho de desempenho de aproximadamente 5\% em relação ao CTIDH, mantendo-se quatro vezes mais rápido que o dCSIDH determinístico. Esse resultado representa um passo significativo na direção de uma implementação segura, reproduzível e verificável de protocolos baseados em isogenias, adequada para ambientes pós-quânticos. A segunda contribuição aplica o CSIDH em um contexto prático ao abordar a \emph{vulnerabilidade da chave raiz estática} no protocolo LoRaWAN ? uma fragilidade crítica que permite o comprometimento permanente de dispositivos em caso de exposição das chaves de longo prazo. Para mitigar essa limitação, a dissertação propõe um arcabouço de gerenciamento de chaves pós-quântico baseado em CSIDH e assinaturas digitais PQC do NIST. O projeto introduz dois procedimentos complementares: o \emph{Root Key Renewal} (RKR), que permite a regeneração periódica e autenticada das chaves raiz, e o \emph{Key Pair Update} (KPU), que assegura a atualização contínua dos pares de chaves de assinatura. A avaliação experimental mostra que o arcabouço atinge segurança pós-quântica com sobrecarga computacional e de comunicação mínima, preservando a compatibilidade com implantações existentes do LoRaWAN. Em conjunto, esses dois resultados avançam tanto os aspectos teóricos quanto práticos da criptografia baseada em isogenias, oferecendo um modelo de implementação reforçado para troca de chaves segura e demonstrando sua aplicabilidade na proteção de redes IoT restritas contra ameaças quânticas.; Abstract: The advent of quantum computing threatens the foundational security assumptions of classical public-key cryptography, rendering widespread protocols such as RSA and Elliptic Curve Cryptography (ECC) insecure in the long term. In response, the cryptographic community has intensified research into post-quantum cryptographic (PQC) primitives capable of providing comparable security and performance under quantum adversaries. Among these, isogeny-based cryptography stands out for offering small public keys and a natural Diffie?Hellman-like structure. Within this family, the Commutative Supersingular Isogeny Diffie?Hellman (CSIDH) protocol enables non-interactive key exchange over a commutative group action, making it a strong candidate for practical post-quantum deployments. However, its early implementations suffered from timing leakage, reliance on dummy operations, and exposure to fault-injection attacks, motivating the development of hardened and deterministic alternatives. This dissertation makes two main contributions to the advancement and application of isogeny-based cryptography. The first is the design and evaluation of Hardened~CTIDH, the first constant-time, deterministic, and fully dummy-free implementation of CSIDH. Building on the foundations of CTIDH and dCTIDH, the proposed construction integrates two key techniques?the DACsHUND mechanism and a reformulated Matryoshka structure?to eliminate dummy operations while preserving determinism and side-channel resistance. Experimental results demonstrate that Hardened~CTIDH achieves a 5\% performance gain over CTIDH and remains four times faster than deterministic dCSIDH, bridging the gap between theoretical constant-time security and practical efficiency. The result represents a meaningful step toward secure, reproducible, and verifiable isogeny-based implementations suitable for deployment in post-quantum environments. The second contribution applies CSIDH to a real-world context by addressing the \emph{static root key vulnerability} in the LoRaWAN protocol?a critical weakness that allows permanent compromise of devices if long-term keys are exposed. To overcome this limitation, the dissertation proposes a post-quantum key management framework based on CSIDH and NIST PQC digital signatures. The design introduces two complementary procedures: \emph{Root Key Renewal} (RKR), enabling periodic authenticated regeneration of root keys, and \emph{Key Pair Update} (KPU), ensuring ongoing freshness of signing credentials. Experimental evaluation shows that this framework achieves quantum-resistant key management with minimal computational and communication overhead, maintaining compatibility with existing LoRaWAN deployments. Together, these two results advance both the theoretical and applied frontiers of isogeny-based post-quantum cryptography?offering a hardened implementation model for secure key exchange and demonstrating its practicality in securing resource-constrained IoT networks against quantum threats.
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2026.
</summary>
<dc:date>2026-01-01T00:00:00Z</dc:date>
</entry>
</feed>
