Aprendizado por Imitação Regularizado por Discordância para Veículos Autônomos
Show simple item record
dc.contributor |
Universidade Federal de Santa Catarina |
pt_BR |
dc.contributor.advisor |
Antonelo, Eric Aislan |
|
dc.contributor.author |
Alves, André Padilha |
|
dc.date.accessioned |
2023-09-06T11:17:08Z |
|
dc.date.available |
2023-09-06T11:17:08Z |
|
dc.date.issued |
2023-09-05 |
|
dc.identifier.uri |
https://repositorio.ufsc.br/handle/123456789/250280 |
|
dc.description |
Iniciação Científica - PIBIC e Programa Voluntário |
pt_BR |
dc.description.abstract |
Uma das abordagens propostas para condução autônoma é o Aprendizado por Imitação
(Imitation Learning - IL). Este método consiste em fornecer trajetórias de condução ótimas
como um banco de dados de exemplos, os quais são gerados por um motorista especialista.
Os exemplos são utilizados para o treinamento da política que será aplicada ao agente.
Dentro das técnicas englobadas pelo aprendizado por imitação, enconta-se a Clonagem
Comportamental (Behavioral Cloning - BC ), Assim como já descrito no IL, esta técnica
utiliza dos exemplos do especialista também chamados de pares de estado-ação para o
aprendizado do agente, entretanto, seu objetivo é reproduzir as ações do especialista.
Provém desse método a possibilidade de que a distribuição dos estados observados durante
a execução pode diferir dos estados observados durante o treinamento, gerando pequenas
diferenças na resposta. Esses erros causam divergências nas trajetórias em relação aos
dados do especialista. Ao longo do tempo, os erros são ampliados à medida que a política
encontra estados cada vez mais distantes de sua distribuição de treinamento, esse fenômeno
é denominado Covariate Shift. O objetivo do projeto é pesquisar, analisar e aplicar o
método DRIL (Disagreement-Regularized Imitation Learning) para reduzir o efeito desse
fenômeno e melhorar a generalização da política. Será utilizado o ambiente de simulação
Carla. |
pt_BR |
dc.format.extent |
Vídeo |
pt_BR |
dc.language.iso |
pt_BR |
pt_BR |
dc.publisher |
Florianópolis, SC |
pt_BR |
dc.subject |
deep learning, redes neurais, aprendizagem por reforço, navegação autônoma segura, carros autônomos. |
pt_BR |
dc.title |
Aprendizado por Imitação Regularizado por Discordância para Veículos Autônomos |
pt_BR |
dc.type |
Video |
pt_BR |
Files in this item
This item appears in the following Collection(s)
Show simple item record
Search DSpace
Browse
-
All of DSpace
-
This Collection
My Account
Statistics
Compartilhar