1/ Introduction à l'Intelligence Artificielle et à la Cybersécurité
1.1. Principes fondamentaux de l'intelligence artificielle
- Définition de l'IA et évolution historique.
- Différences entre Machine Learning, Deep Learning et IA symbolique.
1.2. Enjeux de l'IA en cybersécurité
- Pourquoi l'IA est essentielle pour améliorer la cybersécurité ?
- Opportunités et menaces liées à l'IA.
Démonstration :
- Visualisation d'attaques réelles sur un réseau et discussion sur le rôle de l'IA pour leur détection.
2/ Concepts de Base de l'Apprentissage Machine en Cybersécurité
2.1. Introduction au Machine Learning
- Apprentissage supervisé vs non supervisé.
- Fonction de coût, minimisation du risque empirique.
- Séparation entre ensemble d'entraînement et ensemble de test.
2.2. Principales méthodes de classification
- Régressions logistiques et linéaires.
- Classifieurs basés sur les arbres de décision (Random Forest, XGBoost).
- Méthodes probabilistes (Naïve Bayes, k-NN).
2.3. Introduction aux Réseaux de Neurones et Deep Learning
- Réseaux de neurones artificiels (ANN).
- Fonctionnement des couches convolutives et récurrentes.
Travaux Pratiques :
- Implémentation d'un modèle de classification des emails de phishing avec Scikit-Learn.
3/ Détection de Menaces avec l'IA
3.1. Applications de l'IA dans la détection des menaces
- Détection d'intrusions et d'activités suspectes.
- Analyse des malwares avec l'IA.
- Systèmes de détection d'anomalies pour la cybersécurité industrielle.
3.2. Exemples concrets de détection IA en cybersécurité
- Détection de fichiers malveillants avec des algorithmes de classification.
- Utilisation de l'IA pour la reconnaissance des comportements anormaux sur un réseau.
Travaux Pratiques :
- Lab 1 : Analyse d'un trafic réseau avec Wireshark et Zeek pour identifier des connexions suspectes.
- Lab 2 : Détection d'exécutables malveillants avec un modèle de Machine Learning (Random Forest).
4/ Attaques Basées sur l'IA et Contre-Mesures
4.1. Les risques liés à l'IA en cybersécurité
- Attaques adversariales sur les modèles IA.
- Falsification des résultats des modèles (data poisoning).
- Détection des faux positifs et faux négatifs.
4.2. Contre-mesures et solutions de sécurité
- Techniques pour améliorer la robustesse des modèles IA.
- Approches pour détecter et limiter les attaques sur les algorithmes IA.
Démonstration :
- Manipulation d'un modèle de classification pour le rendre vulnérable aux attaques adversariales.
5/ Perspectives et Éthique de l'IA en Cybersécurité
5.1. Réglementation et gouvernance de l'IA en cybersécurité
- Principes du RGPD et directives européennes sur l'IA.
- Normes et bonnes pratiques pour l'implémentation de l'IA en sécurité.
5.2. IA et responsabilité éthique
- Impact des décisions algorithmiques en cybersécurité.
- Problématique des biais algorithmiques et des erreurs de classification.
5.3. L'avenir de l'IA en cybersécurité
- Évolution des cybermenaces exploitant l'IA.
- Recherche et innovations dans l'IA appliquée à la cybersécurité.
Travaux Pratiques :
- Atelier de réflexion : Étudier un cas d'usage réel où l'IA a échoué à détecter une menace et proposer des améliorations.