Dernières publications
Study carried out by the Quantitative Practice Special thanks to Hamza ANDAM.

NOS PUBLICATIONS




Dernières publications
Study carried out by the Quantitative Practice Special thanks to Hamza ANDAM.
Study carried out by the Quantitative Practice Special thanks to Junbin LIU.
La réalisation de backtests est une étape essentielle de la recherche d’une stratégie quantitative. Si le backtest consiste avant tout à regarder comment aurait performé une stratégie candidate dans le passé, il ne s’agit néanmoins pas d’une technique neutre, c’est-à-dire sans impact sur la performance réelle de la stratégie. En effet, la réalisation de multiples backtests peut entraîner des biais statistiques qu’il importe de prendre en compte : ce travail se présente alors comme une introduction à ces problématiques.
#BLOGPOSTS
Au sein des marchés financiers, les valeurs de toutes les actions sont en changement continu. En effet, ces valeurs peuvent varier à chaque instant. Le but principal des différentes banques et fonds d’investissement est d’identifier les éventuelles trajectoires empruntées par les marchés. Bien que le futur soit inconnu, de nombreux modèles mathématiques ont été construits pour prédire le cours d’une action. Plus spécifiquement, le but de ces modèles est d’annoncer, avec une probabilité élevée, le niveau du prix durant une période donnée.
L’un des premiers outils de finance quantitative que j’ai découvert pendant ma formation est la méthode de Monte Carlo. Dans mes projets, je l’utilisais pour valoriser des produits exotiques. En faisant face à des temps d’exécution de plus de plus grands, je me suis intéressé aux méthodes de réduction de variance.
L’écoblanchiment financier menace de faire dérailler le parcours mondial de décarbonation en abusant de la confiance des investisseurs et en canalisant les fonds vers des instruments et des projets ayant un impact sous-optimal contre le changement climatique.
Dans le sillage de la crise des subprimes de 2008, les régulateurs ont constaté que la réglementation bancaire en matière de suivi du risque de marché n’était pas suffisante. L’introduction du premier texte sur la FRTB par le Comité de Bâle en 2016 avait pour objectif de renforcer la surveillance des risques de marché et de mieux calibrer la charge en fonds propres liée aux activités de marché afin que les banques soient mieux préparées à un événement exceptionnel tel que la crise de 2008. Il y a un peu plus de deux ans, alors que tout le monde était enfermé chez soi et que toute activité semblait ralentir, l’investissement sur les cryptomonnaies a accéléré. Pour la première fois, plusieurs personnes autour de moi parlaient de leurs investissements réussis en Cryptomonnaies, tels que le Bitcoin et l’Ethereum. A présent, de plus en plus de personnes investissent ou pensent à se lancer dans le monde intéressant des monnaies virtuelles. La réalisation de backtests est une étape essentielle de la recherche d’une stratégie quantitative. Si le backtest consiste avant tout à regarder comment aurait performé une stratégie candidate dans le passé, il ne s’agit néanmoins pas d’une technique neutre, c’est-à-dire sans impact sur la performance réelle de la stratégie. En effet, la réalisation de multiples backtests peut entraîner des biais statistiques qu’il importe de prendre en compte : ce travail se présente alors comme une introduction à ces problématiques. Trading volatility is not the newest idea in finance, even though it is not something which is as straightforward as the Dans nos deux premières notes sur le trading de volatilité, nous sommes revenus sur les approches optionnelles et leurs limites. Ces dernières ont nécessité la mise en place de produits dédiés : les variances swaps. Néanmoins, face à la demande pour ces produits, il a fallu en développer de nouveaux, permettant d’investir de manière toujours plus précise sur la volatilité. C’est l’objet de notre troisième note sur ce sujet. Estimation de volatilité en haute fréquence L’évaluation des options fait partie intégrante de la gestion moderne des risques financiers. En raison de l’interconnexion des marchés, les options sur devises sont de plus en plus utilisées par les institutions financières pour neutraliser les risques de change. Ainsi, au cours de ces dernières années, et surtout compte tenu du contexte sanitaire que nous traversons, la volatilité des taux de change a subi de très fortes variations et a ainsi attiré notre attention. Dans la littérature financière, le modèle de Garman & Kohlhagen est utilisé pour évaluer les options sur devises. L’objectif de notre Note est triple : Estimation de volatilité en haute fréquence Dans notre première note sur le trading de volatilité, nous avons montré l’intérêt mais aussi les limites du recours aux options. Pour faire face à ces dernières, des produits spécifiques ont été développés : les variance swaps. Dans cette seconde note, nous revenons longuement sur ces produits et montrons comment ils peuvent être utilisés pour investir et prendre des positions sur la volatilité. Estimation de volatilité en haute fréquence La volatilité est une notion à la fois particulière et centrale en finance : s’il ne s’agit pas d’un actif en soi, cette quantité est néanmoins facilement observable, permettant ainsi d’investir sur son évolution. Puisque ce n’est pas un actif, il faut recourir à des outils spécifiques pour réaliser un tel investissement. Dans notre travail, organisé en plusieurs parties, nous revenons sur les différentes méthodes de trading de la volatilité ; cette première note est ainsi dédiée aux approches « historiques », fondées sur l’utilisation d’options. Estimation de volatilité en haute fréquence The question of time series modeling is particularly crucial in finance, since the price of an asset is, by definition, a time series. In order to devise promising models, strong mathematical tools are needed to cope with those time series while respecting some of the basic stylized facts of financial time series, such as non-stationarity or non- linearity. The Kalman Filter, firstly proposed by R.E. Kalman (1960, cf. [1]), is an algorithm to estimate the optimal parameters of a linear dynamical system. Precisely, the idea of Kalman filtering is to predict a state vector’s mean and variance after updating all the information from the previous period. The commodity markets develop very extensively through the derivatives, such as futures and options contracts, Trackers index and other OTC derivatives. Among those, agricultural commodities occupy a special role in the economy. Dans cette note, nous présentons tout d’abord brièvement les marchés financiers de l’énergie. Nous nous focalisons ensuite sur la problématique de valorisation de l’électricité produite par une infrastructure hydraulique. Sa résolution, qui représente l’objet principal de notre étude, est un préalable fondamental en vue de finalités diverses. Nombreuses sont les banques qui optent pour la mise en place d’algorithmes destinés à la gestion automatique de leurs activités de market making dès lors que la rentabilité par trade pour la classe d’actifs considérée ne permet plus la présence de personnes dédiées (nominal par trade non significatif et spread trop faible) ou que le volume de requêtes clients est trop élevé pour être géré à l’échelle humaine. Le trader algorithmique prend alors la responsabilité d’émettre, par l’intermédiaire de son algorithme, des bids-offers qu’il souhaite les plus compétitifs possible afin d’accroitre ses parts de marché et ainsi satisfaire les demandes de ses clients. La crise financière de 2007-2008 a bouleversé certains principes, jadis acquis, sur la valorisation des produits dérivés de taux d’intérêt. Depuis, la méthodologie dite du « multi-courbe » a vu le jour. Cette Note revient sur les raisons majeures qui ont conduit les praticiens à basculer vers le « multi-courbe ». Elle présente également les grandes lignes de la méthodologie, encore utilisée au front office, dans les départements de risque et par les chambres de compensation. Un lien est ensuite établi avec la courbe ESTER, qui remplacera, à horizon 2022, l’actuelle courbe d’actualisation utilisée par les institutions financières de la zone Euro. Estimation de volatilité en haute fréquence Nous vous proposons une nouvelle méthode de réduction de variance dont le but est d’atteindre la variance minimale de l’estimateur de l’échantillonnage stratifié. Le challenge est de trouver l’allocation optimale des simulations dans chaque strate. Estimation de volatilité en haute fréquence Lorsque plusieurs actifs sont utilisés, la question d’asynchronicité des observations se pose si l’on cherche à définir des estimateurs statistiques. Dans cette publication, nous nous concentrons sur l’estimation de la covariance réalisée entre 2 actifs : une approche naïve est impossible en raison de l’effet de Epps. Nous proposons alors un moyen de construire un estimateur convergent et sans biais de la covariance réalisée à partir de données asynchrones. Estimation de volatilité en haute fréquence L’allocation quantitative de portefeuilles reste un sujet ambivalent : depuis les travaux initiaux de Markowitz, de nombreux compléments ont été apportés, néanmoins la pratique a montré que les différentes méthodologies de construction de portefeuilles optimaux pouvaient être battues, sur longue période, par des portefeuilles simples. Cela s’explique notamment par des raisons numériques qui interviennent dans l’optimisation. Pour contrer cela, il est alors possible de s’inspirer de la data science et du machine learning afin de proposer une nouvelle méthodologie de construction de portefeuilles. Estimation de volatilité en haute fréquence Dans cette publication, nous considérons la Funding Valuation Adjustement (FVA) en partant du principe d’invariance de financement. Nous montrons ainsi que l’équation de la FVA peut s’écrire comme la différence de prix discounté avec différents taux. De plus, quand la transaction implique un échange de collatéral nous introduisons le reloaded Least Square Monte Carlo afin d’approximer la non-linéarité du collatéral. Estimation de volatilité en haute fréquence Si l’utilisation de techniques issues du Machine Learning est de plus en plus répandue en finance, cela n’est néanmoins pas sans risques. Pour limiter ces derniers, il importe de bien comprendre quelles sont alors les particularités statistiques des données financières. Via cette publication, nous présentons comment utiliser les méthodes ensemblistes en finance, notamment le « bagging », qui est le plus à même de réduire le sur-apprentissage d’un modèle. Estimation de volatilité en haute fréquence Les problématiques d’exécution jouent un rôle déterminant en finance, notamment dans la mise en œuvre concrète des stratégies : c’est par exemple le cas du market impact. Dans cette Note, nous présentons un modèle simple qui montre comment le market impact, une fois modélisé et pris en compte, peut influencer l’exécution d’une stratégie simple de trading. Estimation de volatilité en haute fréquenceNOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
trading of other asset since volatility is not a tradable asset in itself. It is only a quantity which is related to another tradable asset. However, due to the strong interest in volatility, volatility products have emerged over the last few decades, the most popular one being the variance swap.NOS PUBLICATIONS
NOS PUBLICATIONS
1) Démystifier les concepts d’évaluation des options vanilles de taux de change
2) Rappeler le modèle de données utilisé pour l’extraction de la volatilité implicite
3) Proposer une méthodologie d’extrapolation de la volatilité implicite au-delà des zones liquides du marché des taux de changeNOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS
NOS PUBLICATIONS