Apprendre l'analyse de volatilité par l'apprentissage automatique
Un parcours en huit mois qui vous emmène des bases statistiques jusqu'à la modélisation prédictive appliquée aux marchés financiers. On commence doucement, puis ça devient vraiment intéressant quand les données prennent vie.
Trois parcours selon votre point de départ
Fondations statistiques
Pour ceux qui viennent de la finance traditionnelle. On reprend les mathématiques essentielles, la programmation Python, et on construit progressivement vers les modèles d'apprentissage. Pas besoin d'avoir touché du code avant.
8 mois · Février à Octobre 2026Machine learning appliqué
Vous codez déjà mais la finance reste floue ? Ce parcours se concentre sur l'adaptation des algorithmes aux séries temporelles financières. On travaille sur des données réelles de marchés volatils dès la troisième semaine.
6 mois · Avril à Octobre 2026Perfectionnement avancé
Vous maîtrisez déjà les deux domaines et cherchez à approfondir les architectures neuronales spécialisées. LSTM, transformers adaptés aux marchés, et techniques d'ensemble pour améliorer la robustesse prédictive.
4 mois · Juin à Octobre 2026
Comment on apprend vraiment
L'apprentissage se fait par cycles courts. Chaque semaine alterne entre théorie concentrée et mise en pratique sur données historiques. Vous construisez votre propre pipeline d'analyse au fil des mois.
-
Projets hebdomadaires réelsChaque vendredi, un nouveau défi basé sur des événements de marché passés. Vous devez identifier les signaux, construire le modèle, et justifier vos choix.
-
Revues de code collectivesLes mardis soirs, on partage nos approches. Voir comment d'autres résolvent le même problème change complètement votre perspective sur l'optimisation.
-
Données de marché authentiquesAccès à notre base historique de volatilité sur quinze ans. Indices, devises, matières premières. De quoi tester vos modèles dans des conditions variées.
-
Sessions de débogage en directQuand votre modèle diverge ou surajuste, on creuse ensemble pour comprendre pourquoi. C'est souvent là qu'on apprend le plus.
Qui enseigne ces méthodes

Thibault Mercier
Modélisation quantitative
Sept ans à construire des systèmes d'alerte précoce pour fonds de pension. Il explique les réseaux de neurones avec une clarté qui rend les choses presque évidentes. Son approche pédagogique vient de son expérience terrain.

Léonie Dubois
Séries temporelles financières
Ancienne analyste quantitative chez un hedge fund londonien. Revenue en France en 2023 pour transmettre ce qu'elle a appris sur la prédiction de volatilité dans des marchés chaotiques. Elle ne tolère pas les approximations.

Raphaël Fontaine
Architecture de pipelines ML
Ingénieur data qui a mis en production douze modèles différents pour des clients institutionnels. Il connaît tous les pièges classiques et vous apprend à les éviter avant qu'ils ne deviennent des problèmes coûteux.

Élodie Marchand
Interprétabilité des modèles
Spécialiste de l'explicabilité en ML financier. Elle insiste sur le fait qu'un modèle incompréhensible ne sert à rien en production. Ses sessions sur SHAP values changent la façon dont vous validez vos algorithmes.
Obstacles fréquents et comment on les traite
Le surajustement apparaît toujours
Votre modèle performe brillamment sur les données historiques mais s'effondre dès qu'on teste sur des périodes récentes. C'est le piège classique quand on travaille avec des marchés.
Notre approche de validation
On utilise des techniques de validation temporelle strictes avec des périodes de test glissantes. Vous apprenez à détecter les signes avant-coureurs et à ajuster vos hyperparamètres avec prudence. La régularisation devient votre réflexe naturel.
Les données manquantes cassent tout
Les marchés ne sont pas parfaits. Des cotations manquent, des journées sont anormales, des événements créent des trous dans vos séries. Et votre pipeline refuse de tourner.
Techniques d'imputation robustes
On passe deux semaines entières sur le nettoyage et la préparation des données. Vous découvrez les méthodes d'interpolation adaptées aux contextes financiers et apprenez à documenter chaque transformation pour maintenir la traçabilité.
Les calculs prennent des heures
Vos backtests sur dix ans de données mettent une éternité à s'exécuter. L'optimisation d'hyperparamètres devient impraticable. Vous perdez patience et motivation.
Optimisation et parallélisation
On explore ensemble les stratégies de calcul vectorisé avec NumPy et Pandas. Vous apprenez à profiler votre code pour identifier les goulots et à paralléliser intelligemment sans complexifier outre mesure votre architecture.
Ce qu'on peut mesurer après huit mois

Bastien Renard
Promotion Février 2025
J'ai mis quatre mois avant de vraiment comprendre pourquoi mes modèles divergeaient. Mais une fois le déclic fait sur la validation croisée temporelle, tout s'est assemblé différemment. Maintenant je pense automatiquement en termes de robustesse.

Anaëlle Bergeron
Promotion Septembre 2024
Le plus difficile était de désapprendre mes réflexes de développeuse web. Les données financières demandent une rigueur statistique que je n'avais jamais vraiment pratiquée. Les sessions de revue collective m'ont sauvée plusieurs fois.