dc.contributor |
Universidade Federal de Santa Catarina |
|
dc.contributor.advisor |
Rover, Aires José |
|
dc.contributor.author |
Silva, Bruno Cassol da |
|
dc.date.accessioned |
2024-04-15T23:24:16Z |
|
dc.date.available |
2024-04-15T23:24:16Z |
|
dc.date.issued |
2024 |
|
dc.identifier.other |
386770 |
|
dc.identifier.uri |
https://repositorio.ufsc.br/handle/123456789/254969 |
|
dc.description |
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Jurídicas, Programa de Pós-Graduação em Direito, Florianópolis, 2024. |
|
dc.description.abstract |
Segundo o relatório \"Justiça em Números\" do Conselho Nacional de Justiça (CNJ), houve um acréscimo de 10% no número de novas ações judiciais em 2022, chegando a um total impressionante de 31,5 milhões. Diante desse cenário, este trabalho tem como objetivo principal examinar como os conhecimentos técnico-simbólicos podem ser empregados para proporcionar explicabilidade à Inteligência Artificial (IA) no contexto do Direito, especificamente através do método SHAP. Para isso, realizou-se uma revisão bibliográfica sobre o potencial da IA e da Inteligência Artificial Explicável (XAI), uma revisão sistemática de IA e XAI em fontes acadêmicas (Scopus, Web of Science, SciELO, IEEE Xplore, ACM Digital Library e Google Scholar), experimentos para entender a interação de modelos preditivos com o conhecimento jurídico estruturado, experimentos com o modelo explicativo SHAP para prever decisões de IA em relação a decisões judiciais envolvendo ações de companhias aéreas, e uma validação da abordagem proposta com especialistas da área e operadores do direito. Os resultados indicaram que o método SHAP é capaz de gerar rotas explicativas de decisões algorítmicas na representação de conhecimento jurídico, contribuindo para a transparência e a compreensão da IA jurídica. |
|
dc.description.abstract |
Abstract: According to the ?Justice in Numbers? report by the National Council of Justice (CNJ), there was a 10% increase in the number of new lawsuits in 2022, reaching an impressive total of 31.5 million. In light of this scenario, this study aims to examine how technicalsymbolic knowledge can be employed to provide explainability to Artificial Intelligence (AI) in the context of Law, specifically through the SHAP method. To this end, a bibliographic review was conducted on the potential of AI and Explainable Artificial Intelligence (XAI), a systematic review of AI and XAI in academic sources (Scopus, Web of Science, SciELO, IEEE Xplore, ACM Digital Library, and Google Scholar), experiments to understand the interaction of predictive models with structured legal knowledge, experiments with the SHAP explanatory model to predict AI decisions regarding judicial decisions involving airline companies? lawsuits, and a validation of the proposed approach with experts in the field and legal practitioners. The results indicated that the SHAP method is capable of generating explanatory pathways for algorithmic decisions in the representation of legal knowledge, contributing to the transparency and understanding of legal AI. |
en |
dc.format.extent |
201 p.| gráfs. |
|
dc.language.iso |
por |
|
dc.subject.classification |
Direito |
|
dc.subject.classification |
Inteligência artificial |
|
dc.subject.classification |
Aprendizado do computador |
|
dc.subject.classification |
Decisão judicial |
|
dc.title |
Inteligência artificial explicável e decisões judiciais: experimentações com o método SHAP |
|
dc.type |
Dissertação (Mestrado) |
|