Método para aumento de interpretabilidade em modelos de Takagi-Sugeno no sistema INFGMN

DSpace Repository

A- A A+

Método para aumento de interpretabilidade em modelos de Takagi-Sugeno no sistema INFGMN

Show full item record

Title: Método para aumento de interpretabilidade em modelos de Takagi-Sugeno no sistema INFGMN
Author: Corrêa, César Eduardo
Abstract: Interpretabilidade e acurácia são objetivos conflitantes em modelos de aprendizado de máquina, onde a melhora de um geralmente causa a piora do outro. A interpretabilidade dos modelos gerados é importante para que possa ser validado por especialistas do domínio e passar confiabilidade para tratar o problema. Para buscar o melhor equilíbrio entre os dois, uma abordagem comum em Sistemas de Inferência Fuzzy é empregar um Modelo Fuzzy Linguístico e melhorar sua acurácia, ou um Modelo Fuzzy Preciso e melhorar sua interpretabilidade. O INFGMN é um sistema neurofuzzy que utiliza da equivalência entre um Modelo de Mistura de Gaussianas e um Sistema de Inferência Fuzzy para extração de conhecimento, sendo capaz de gerar modelos de Mamdani- Larsen, um Modelo Fuzzy Linguístico. Neste trabalho busca-se expandir as funciona- lidades do INFGMN, proporcinando sua aplicação com modelos de Takagi-Sugeno, um Modelo Fuzzy Preciso, e melhorando sua interpretabilidade via distinguibilidade nas partições fuzzy, obtendo um bom equilíbrio entre acurácia e interpretabilidade. Para garantia de distinguibilidade, foi elaborado um método de similaridade de partição fuzzy para guiar a fusão e separação dos conjuntos fuzzy, ponderado pelos pesos das regras para gerar menores alterações nos conjuntos cujas regras descrevam melhor o sistema e não sejam oriundas de dados discrepantes. Os resultados apresentados para problemas offline demonstram a eficácia do método de similaridade utilizado, ao conseguir gerar uma partição fuzzy distinguível e, ademais, ser capaz de reduzir o overfitting. Para o experimento online com perturbações nos dados, os resultados não são muito promissores, mas sugerem ser uma boa alternativa para ambientes estáveis.Interpretability and accuracy are conflicting objectives in machine learning models, where improvement in one usually worsens the other. The interpretability of the gen- erated models is important so that it can be validated by experts in the field and pass reliability to address the problem. To seek the best trade-off between the two, a com- mon approach in Fuzzy Inference Systems is to employ a Linguistic Fuzzy Model and improve its accuracy, or an Accurate Fuzzy Model and improve its interpretability. The INFGMN is a neurofuzzy system that uses the equivalence between a Gaussian Mixture Model and a Fuzzy Inference System for knowledge extraction, being able to generate Mamdani-Larsen models, a Linguistic Fuzzy Model. This work seeks to expand the functionalities of the INFGMN, providing its application with Takagi-Sugeno models, a Precise Fuzzy Model, and improving its interpretability via distinguishability in fuzzy partitions, achieving a good trade-off between accuracy and interpretability. In order to guarantee distinguishability, a fuzzy partition similarity method was developed to guide the merging and separation of fuzzy sets, weighted by the weights of the rules to cause less changes in the sets whose rules better describe the system and are not derived from outliers. The results presented for offline problems demonstrate the effectiveness of the similarity method used, in being able to generate a distinguishable fuzzy partition and, in addition, being able to reduce overfitting. For the online experiment with data disturbances, the results are not very promising, but suggest that it is a good alternative for stable environments.
Description: TCC(graduação) - Universidade Federal de Santa Catarina. Centro Tecnológico. Ciências da Computação.
URI: https://repositorio.ufsc.br/handle/123456789/218362
Date: 2020-11-19


Files in this item

Files Size Format View Description
CINFGMN.zip 9.461Kb Unknown View/Open Código-fonte
TCC2_CINFGMN.pdf 1.791Mb PDF View/Open TCC

This item appears in the following Collection(s)

Show full item record

Search DSpace


Browse

My Account

Statistics

Compartilhar