Contribution au développement d’une intelligence de conduite pour le train autonome = Đóng góp phát triển thông minh nhân tạo cho lái tàu tự động

Ce projet en collaboration avec l’IRT Railenium & LAMIH vise principalement à résoudre le problème de conduite autonome dont la première tentative de résolution était à base des données. En effet, ces données ne sont pas encore disponibles, alors les tâches préliminaires à faire étaient la ré...

Full description

Saved in:
Bibliographic Details
Main Author: Yasser, HAMIDULLAH
Other Authors: LEFEBVRE, M. Sébastien
Format: Theses and Dissertations
Language:French
Published: 2020
Subjects:
Online Access:http://repository.vnu.edu.vn/handle/VNU_123/92994
Tags: Add Tag
No Tags, Be the first to tag this record!
Institution: Vietnam National University, Hanoi
Language: French
Description
Summary:Ce projet en collaboration avec l’IRT Railenium & LAMIH vise principalement à résoudre le problème de conduite autonome dont la première tentative de résolution était à base des données. En effet, ces données ne sont pas encore disponibles, alors les tâches préliminaires à faire étaient la récolte et génération des données nécessaires dont le formattage de ces dernières fait parti des objectifs secondaires de ce projet. Malgré ça, nous avons proposé et implémenté une approche utilisant une structure perceptron multi-couche avec cross-entropy (MLP-CE) entrainée avec des données de conduite du simulateur qui n’a pas abouti à un bon résultat. Ceci nous a mené à traiter d’abord ce problème d’un autre point de vue, de la décision et contrôle en faisant appel aux approches du domaine différents "théorie de contrôle" qui cherche généralement le contrôle optimal d’un système; et de "l’apprentissage par renforcement" qui est basé sur la théorie d’optimalité de Bellman. D’une part le PID avec lequel on a eu un résultat plus stable cependant sa versatilité n’est pas très assurée et d’autre part le RL Qlearning avec une discrétisation de l’espace d’état qui a montré sa capabilité de s’adapter et le comportement préventif; malgré cela cette technique souffre d’un sérieux problème au niveau de stockage qui pourra ralentir l’algorithme. Face à ce problème nous avons proposé une solution typique avec un réseau de neurone de type Deep Q-Network qui échappera le problème de stockage mais qui peut être inutile si l’espace est continu. Notre contribution principale dans ce projet est la modélisation de ce problème en processus de décision markovien qui nous a permis d’utiliser les techniques dérivées telles que le Qlearning, et le Deep Q-learning. La contribution technique est caractérisée par l’utilisation du MLP-CE et l’adaptation du contrôleur PID aux contraintes spécifiques de notre simulateur. Les prochaines étapes dans ce projet seront la validation de nos résultats avec des données réelles ou des simulateurs à haute fidélité ou encore avec des simulateurs à niveau d’abstraction moyenne qui est adéquat pour le système de transport. Enfin, des scènes et cas plus complexes seront aux limites des modèles mathématiques, physiques et dynamiques nécessiteront une recherche parallèle dans l’éthique. En faisant correspondre le comportement du nouveau système à l’éthique, nous faciliterons son acceptation auprès de la société.