Ensemble de petits codes python relatif à l'IA
des notebooks à ouvrir avec colab de préférence ou avec les notebooks de la suite anaconda :
-
très petits exemples pour comprendre les réseaux simples
- TestET.ipynb : petit notebook python montrant la définition d'un réseau de neurones avec tensorflow pour l'apprentissage du ET logique
- TestET-TensorBoard.ipynb : petit notebook python montrant la définition d'un réseau de neurones avec tensorflow pour l'apprentissage du ET logique. Et l'utilisation de l'outil TensorBoard pour étudier l'apprentissage du réseau défini.
- TestOUX.ipynb : petit notebook python montrant la définition d'un réseau de neurones avec tensorflow pour l'apprentissage du OU Exclusif logique
- DetectionAlertes.ipynb : petit exercice en notebook python de la détection très simple de messages douteux par réseaux de neurones
- SolutionDetectionAlertes.ipynb : solution au petit exercice en notebook python de la détection très simple de messages douteux par réseaux de neurones
- SolutionDetectionAlertesTensorBoard.ipynb : solution au petit exercice en notebook python de la détection très simple de messages douteux par réseaux de neurones. Et l'utilisation de l'outil TensorBoard pour étudier l'apprentissage du réseau défini.
- ClasserMail.ipynb : petit exercice en notebook python de la classification très simple de mails par réseaux de neurones
- SolutionClasserMail.ipynb : solution au petit exercice en notebook python de la classification très simple de mails par réseaux de neurones
- PredireReussite.ipynb : Exercice de prédiction de réussite scolaire selon le contexte personnel et social
- PredireReussiteSolution.ipynb : Solution à l'exercice de prédiction de réussite scolaire selon le contexte personnel et social. Solution où le réseau donne 1 seule valeur de sortie, à multiplier pour estimer la note à l'examen
- PredireReussiteSolutionBis.ipynb : Un autre solution à l'exercice de prédiction de réussite scolaire selon le contexte personnel et social. Solution où le réseau donne 8 valeurs de sortie, estimant les probabilité d'obtenir des notes entre Echec (neurone 0) et AA (neurone 7)
-
quasi deep-learning
- SolutionTPDetectionDeSentiments.ipynb : notebook en python montrant l'apprentissage par réseaux de neurones pour la classification de textes
- TPClassementDeTheses.ipynb : notebook en python sur le TP de classement automatique de thèses scientifiques
- TPFakeNews.ipynb : notebook en python sur le TP de classement automatique de fake news
- TPChampis.ipynb : notebook en python sur le TP de classement automatique de champignons
- logique_floue.ipynb : notebook python montrant l'utilisation de la logique floue pour prendre une décision sur l'urgence de freiner en fonction de la position et de la taille d'un piéton sur le trottoir
- choixClimLogiqueFloue.ipynb : TP en notebook python sur l'aide à la décision pour la régulation d'un climatiseur.
- TPMLIntroGym.ipynb : présentation de l'environnement de test Gym (Open AI)
- MLGymGALunar.ipynb : sujet sur la réalisation d'un algo génétique pour l'environnement Lunar Lander.
- MLGymGAMoutainCar.ipynb : sujet sur la réalisation d'un algo génétique pour l'environnement MoutainCar.
A partir d'un exemple de QLearning pour le problème du lac gelé de OpenAI :
- GymFrozenLakeQLearning.ipynb : solution au sujet de Q-Learning simple sur l'environnement "Lac Gelé" de Gym.
-
implémentez le Double QLearning
- vérifier la performance du simple QLearning vs le Double QLearning
-
implémentez le Delayed QLearning
- vérifier la performance du simple QLearning vs le Double QLearning vs le Delayed Q-Learning, et le Delayed Double QLearning
-
Reprenez ces algorithmes que vous avez développés et appliquez-les sur l'environnement CliffWalking-v0 (point de départ en x, arrivée en T, coût de -1 par action sur o, -100 par action sur C).
- attention, aucune récompense (reward) en arrivant sur le but....
- Voir ici un exemple de sortie pour le DoubleQLearning appliqué au CliffWalking
-
Reprenez ces algorithmes que vous avez développés et appliquez-les sur l'environnement Taxi-v3.
- Voir ici un exemple de sortie pour le DoubleQLearning appliqué au Taxi
-
L'environnement frozenlake permet de montrer la performance du QLearning dans un environnement non déterministe, le l'environnement CLiffWalking permet de montrer que le QLearning fonctionne même s'il n'y a aucune récompense, l'environnement taxi montre la performance du QLearning pour construire des solutions.
-
Donnez la forme de la matrice Q s'il fallait appliquer le Q-Learning à l'environnement CartPole-v1. Expliquez ce qu'est le Deep Q-Learning.
-
Expliquez comment le QLearning mixé à un algorithme de MCTS peut être utilisé dans le monde du gaming. Donnez des exemples.
-
Citez des exemples réels d'applications industrielles, commerciales du Q-Learning