Use este identificador para citar ou linkar para este item:
http://repositorio.unesc.net/handle/1/10345
Título: | Aprendizado por reforço aplicado em uma simulação para controle inteligente de semáforos |
Autor(es): | Rodrigues Junior, Fernando |
Orientador(es): | Inocencio, Marcel Campos |
Palavras-chave: | Aprendizado por reforço Cidades inteligentes Controle de semáforos Simulação de tráfego Mobilidade urbana Otimização de Política Proximal |
Descrição: | Trabalho de Conclusão de Curso, apresentado para obtenção do grau de Bacharel no Curso de Ciência da Computação da Universidade do Extremo Sul Catarinense, UNESC. |
Resumo: | A mobilidade urbana representa um desafio para os centros urbanos, tendo impactos negativos na qualidade de vida e no meio ambiente. Os semáforos, sozinhos, não são eficientes o bastante para controlar o tráfego de maneira satisfatória. Nesse contexto, o uso da tecnologia desempenha um papel fundamental na criação de soluções inteligentes e no desenvolvimento de cidades inteligentes. A aplicação de algoritmos de inteligência artificial pode otimizar a fluidez e a segurança do trânsito. A utilização de simulações desempenha um papel importante na validação das soluções propostas, permitindo redução de custos e avaliação de eficácia. Nesta pesquisa, foi conduzida uma abordagem exploratória e aplicada com base tecnológica visando otimizar o tráfego urbano em interseções semafóricas. A pesquisa investiga a utilização do aprendizado de máquina por reforço para controlar os semáforos, empregando o algoritmo de Otimização de Política Proximal em conjunto com a realização de uma simulação. A simulação foi desenvolvida de forma a permitir o controle de diversos aspectos, como o número de veículos na simulação, o fluxo de tráfego em cada via e a taxa de geração e remoção de veículos. Foram realizados testes em três cenários distintos, nos quais foi possível explorar as habilidades do agente em se adaptar a diferentes fluxos de tráfego. Os resultados obtidos indicam que o algoritmo de Otimização de Política Proximal pode ser usado para treinar agentes inteligentes e ao ser comparado com o método convencional empregado no Brasil, foi observado resultados positivos, apresentando um aumento de 10,03%, 19,56% e 22,15% nos respectivos testes. |
Idioma: | Português (Brasil) |
Tipo: | Trabalho de Conclusão de Curso - TCC |
Data da publicação: | Jul-2023 |
URI: | http://repositorio.unesc.net/handle/1/10345 |
Aparece nas coleções: | Trabalho de Conclusão de Curso (COM) |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
Fernando Rodrigues Junior.pdf | TCC | 421,53 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.