Contribution au développement d’une intelligence de conduite pour le train autonome = Đóng góp phát triển thông minh nhân tạo cho lái tàu tự động
Ce projet en collaboration avec l’IRT Railenium & LAMIH vise principalement à résoudre le problème de conduite autonome dont la première tentative de résolution était à base des données. En effet, ces données ne sont pas encore disponibles, alors les tâches préliminaires à faire étaient la ré...
Saved in:
Main Author: | |
---|---|
Other Authors: | |
Format: | Theses and Dissertations |
Language: | French |
Published: |
2020
|
Subjects: | |
Online Access: | http://repository.vnu.edu.vn/handle/VNU_123/92994 |
Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
Institution: | Vietnam National University, Hanoi |
Language: | French |
Summary: | Ce projet en collaboration avec l’IRT Railenium & LAMIH vise principalement à
résoudre le problème de conduite autonome dont la première tentative de résolution
était à base des données. En effet, ces données ne sont pas encore disponibles, alors
les tâches préliminaires à faire étaient la récolte et génération des données nécessaires
dont le formattage de ces dernières fait parti des objectifs secondaires de ce projet.
Malgré ça, nous avons proposé et implémenté une approche utilisant une structure
perceptron multi-couche avec cross-entropy (MLP-CE) entrainée avec des données de
conduite du simulateur qui n’a pas abouti à un bon résultat. Ceci nous a mené à traiter
d’abord ce problème d’un autre point de vue, de la décision et contrôle en faisant appel
aux approches du domaine différents "théorie de contrôle" qui cherche généralement
le contrôle optimal d’un système; et de "l’apprentissage par renforcement" qui est basé
sur la théorie d’optimalité de Bellman.
D’une part le PID avec lequel on a eu un résultat plus stable cependant sa versatilité
n’est pas très assurée et d’autre part le RL Qlearning avec une discrétisation de l’espace
d’état qui a montré sa capabilité de s’adapter et le comportement préventif; malgré
cela cette technique souffre d’un sérieux problème au niveau de stockage qui pourra
ralentir l’algorithme. Face à ce problème nous avons proposé une solution typique avec
un réseau de neurone de type Deep Q-Network qui échappera le problème de stockage
mais qui peut être inutile si l’espace est continu.
Notre contribution principale dans ce projet est la modélisation de ce problème en
processus de décision markovien qui nous a permis d’utiliser les techniques dérivées
telles que le Qlearning, et le Deep Q-learning. La contribution technique est caractérisée par l’utilisation du MLP-CE et l’adaptation du contrôleur PID aux contraintes
spécifiques de notre simulateur.
Les prochaines étapes dans ce projet seront la validation de nos résultats avec des
données réelles ou des simulateurs à haute fidélité ou encore avec des simulateurs à
niveau d’abstraction moyenne qui est adéquat pour le système de transport. Enfin,
des scènes et cas plus complexes seront aux limites des modèles mathématiques, physiques et dynamiques nécessiteront une recherche parallèle dans l’éthique. En faisant
correspondre le comportement du nouveau système à l’éthique, nous faciliterons son
acceptation auprès de la société. |
---|