Inteligência artificial explicável e decisões judiciais: experimentações com o método SHAP

DSpace Repository

A- A A+

Inteligência artificial explicável e decisões judiciais: experimentações com o método SHAP

Show simple item record

dc.contributor Universidade Federal de Santa Catarina
dc.contributor.advisor Rover, Aires José
dc.contributor.author Silva, Bruno Cassol da
dc.date.accessioned 2024-04-15T23:24:16Z
dc.date.available 2024-04-15T23:24:16Z
dc.date.issued 2024
dc.identifier.other 386770
dc.identifier.uri https://repositorio.ufsc.br/handle/123456789/254969
dc.description Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Jurídicas, Programa de Pós-Graduação em Direito, Florianópolis, 2024.
dc.description.abstract Segundo o relatório \"Justiça em Números\" do Conselho Nacional de Justiça (CNJ), houve um acréscimo de 10% no número de novas ações judiciais em 2022, chegando a um total impressionante de 31,5 milhões. Diante desse cenário, este trabalho tem como objetivo principal examinar como os conhecimentos técnico-simbólicos podem ser empregados para proporcionar explicabilidade à Inteligência Artificial (IA) no contexto do Direito, especificamente através do método SHAP. Para isso, realizou-se uma revisão bibliográfica sobre o potencial da IA e da Inteligência Artificial Explicável (XAI), uma revisão sistemática de IA e XAI em fontes acadêmicas (Scopus, Web of Science, SciELO, IEEE Xplore, ACM Digital Library e Google Scholar), experimentos para entender a interação de modelos preditivos com o conhecimento jurídico estruturado, experimentos com o modelo explicativo SHAP para prever decisões de IA em relação a decisões judiciais envolvendo ações de companhias aéreas, e uma validação da abordagem proposta com especialistas da área e operadores do direito. Os resultados indicaram que o método SHAP é capaz de gerar rotas explicativas de decisões algorítmicas na representação de conhecimento jurídico, contribuindo para a transparência e a compreensão da IA jurídica.
dc.description.abstract Abstract: According to the ?Justice in Numbers? report by the National Council of Justice (CNJ), there was a 10% increase in the number of new lawsuits in 2022, reaching an impressive total of 31.5 million. In light of this scenario, this study aims to examine how technicalsymbolic knowledge can be employed to provide explainability to Artificial Intelligence (AI) in the context of Law, specifically through the SHAP method. To this end, a bibliographic review was conducted on the potential of AI and Explainable Artificial Intelligence (XAI), a systematic review of AI and XAI in academic sources (Scopus, Web of Science, SciELO, IEEE Xplore, ACM Digital Library, and Google Scholar), experiments to understand the interaction of predictive models with structured legal knowledge, experiments with the SHAP explanatory model to predict AI decisions regarding judicial decisions involving airline companies? lawsuits, and a validation of the proposed approach with experts in the field and legal practitioners. The results indicated that the SHAP method is capable of generating explanatory pathways for algorithmic decisions in the representation of legal knowledge, contributing to the transparency and understanding of legal AI. en
dc.format.extent 201 p.| gráfs.
dc.language.iso por
dc.subject.classification Direito
dc.subject.classification Inteligência artificial
dc.subject.classification Aprendizado do computador
dc.subject.classification Decisão judicial
dc.title Inteligência artificial explicável e decisões judiciais: experimentações com o método SHAP
dc.type Dissertação (Mestrado)


Files in this item

Files Size Format View
PDPC1737-D.pdf 7.988Mb PDF View/Open

This item appears in the following Collection(s)

Show simple item record

Search DSpace


Browse

My Account

Statistics

Compartilhar