Creació del Joc Snake i Implementació d'una IA Bàsica
Valero Carrasco, Víctor
Antens, Coen Jacobus, dir. (Universitat Autònoma de Barcelona. Departament de Ciències de la Computació)
Universitat Autònoma de Barcelona. Escola Tècnica Superior d'Enginyeria

Títol variant: Creación del Juego Snake e Implementación de una IA Básica
Títol variant: Creation of the Snake Game and Implementation of a Basic AI
Data: 2024
Descripció: 11 pag.
Resum: Aquest projecte presenta la implementació del joc Snake utilitzant Pygame i la integració d'una IA bàsica basada en Reinforcement Learning (RL) mitjançant Pytorch. Primerament, es va crear el joc Snake per a que el jugui una persona humana, amb el seu corresponent testing que va aconseguir un 99% de coverage. Posteriorment, es va desenvolupar un agent que aprèn a jugar al joc Snake utilitzant l'algorisme de Deep Q-Learning, el qual aprofita les xarxes neuronals profundes per avaluar les accions en diferents estats del joc. Durant l'entrenament, l'agent utilitza una política ε-greedy per explorar i explotar estratègies, millorant progressivament el seu rendiment. Els resultats mostren una millora en les puntuacions mitjanes i màximes al llarg de 10. 000 episodis d'entrenament. Tot i això, l'agent té molt marge de millora i no està completament desenvolupat, fent que l'agent no reconegui bé les accions o faci el mateix moviment durant l'avaluació. Aquestes limitacions indiquen la necessitat d'ajustar els paràmetres d'entrenament i de continuar desenvolupant l'avaluador per garantir una millor adaptació i rendiment de l'agent.
Resum: This project presents the implementation of the Snake game using Pygame and the integration of a basic AI based on Reinforcement Learning (RL) using PyTorch. Firstly, the Snake game was created for a human player, with its corresponding testing achieving 99% coverage. Subsequently, an agent was developed to learn to play the Snake game using the Deep QLearning algorithm, which leverages deep neural networks to evaluate actions in different game states. During training, the agent uses an ε-greedy policy to explore and exploit strategies, progressively improving its performance. The results show an improvement in average and maximum scores over 10,000 training episodes. However, the agent has a lot of room for improvement and is not fully developed, as it struggles to recognize actions correctly or performs the same movement during evaluation. These limitations indicate the need to adjust training parameters and continue developing the evaluator to ensure better adaptation and performance of the agent.
Drets: Aquest document està subjecte a una llicència d'ús Creative Commons. Es permet la reproducció total o parcial, la distribució, i la comunicació pública de l'obra, sempre que no sigui amb finalitats comercials, i sempre que es reconegui l'autoria de l'obra original. No es permet la creació d'obres derivades. Creative Commons
Llengua: Català
Titulació: Enginyeria Informàtica [2502441]
Pla d'estudis: Enginyeria Informàtica [958]
Document: Treball final de grau
Àrea temàtica: Menció Enginyeria del Software
Matèria: Python ; Aprenentatge per Reforçament ; Pygame ; Pytorch ; Deep Q-Learning ; Intel·ligència Artificial ; IA ; Xarxes neuronals ; ε-greedy ; Testing de Software ; Reinforcement Learning ; Artificial Intelligence ; AI ; Neural Networks ; Snake ; Software Testing



12 p, 1.3 MB

El registre apareix a les col·leccions:
Documents de recerca > Treballs de Fi de Grau

 Registre creat el 2024-08-28, darrera modificació el 2025-07-20



   Favorit i Compartir