Financial Times highlights Olivier David Zerbib’s research among the most “positively” cited studies


In a recent Financial Times article, the newspaper looks at how research is often measured by citation counts and journal rankings. To show how these metrics shape perceptions of impact, the article highlights the ten most-cited studies according to the Scite analytics tool — including one by Olivier-David Zerbib, researcher at CREST.

Read the Financial Times article here.

19 CREST Papers Accepted at NeurIPS 2025


This year again, CREST research team have made a strong mark at one of the world’s most prestigious conferences in artificial intelligence and machine learning: NeurIPS 2025.

A total of 19 papers by CREST members have been accepted, reflecting the lab’s growing influence in the global research community and the vitality of its teams in statistics, finance-insurance, and data science.

The accepted papers showcase the breadth and depth of the work carried out within the CREST.

Several contributions advance the fast-evolving field of diffusion and generative models, while others deepen the theoretical understanding of optimal transport and Wasserstein-based methods, approaches that connect CREST’s expertise in statistics and quantitative finance.

Other works explore kernel and inference methods, bandit algorithms, or privacy-preserving learning, illustrating the CREST’s commitment to developing both fundamental and responsible AI.

Beyond their diversity, these projects share a common spirit: a blend of mathematical rigor, computational innovation, and interdisciplinary collaboration. Together, they embody CREST’s ongoing mission to push the boundaries of what data-driven research can achieve, from theory to real-world impact.

Authors: Louis Allain, Sébastien Da Veiga, Brian Staber

Abstract: Conformal Prediction (CP) is a popular framework for constructing prediction bands with valid coverage in finite samples, while being free of any distributional assumption. A well-known limitation of conformal prediction is the lack of adaptivity, although several works introduced practically efficient alternate procedures. In this work, we build upon recent ideas that rely on recasting the CP problem as a statistical learning problem, directly targeting coverage and adaptivity. This statistical learning problem is based on reproducible kernel Hilbert spaces (RKHS) and kernel sum-of-squares (SoS) methods. First, we extend previous results with a general representer theorem and exhibit the dual formulation of the learning problem. Crucially, such dual formulation can be solved efficiently by accelerated gradient methods with several hundreds or thousands of samples, unlike previous strategies based on off-the-shelf semidefinite programming algorithms. Second, we introduce a new hyperparameter tuning strategy tailored specifically to target adaptivity through bounds on test-conditional coverage. This strategy, based on the Hilbert-Schmidt Independence Criterion (HSIC), is introduced here to tune kernel lengthscales in our framework, but has broader applicability since it could be used in any CP algorithm where the score function is learned. Finally, extensive experiments are conducted to show how our method compares to related work. All figures can be reproduced with the accompanying code.

Link: https://doi.org/10.48550/arXiv.2505.21039

Authors: Marguerite Petit–Talamon, Marc Lambert, anna Korba

Abstract:Variational inference (VI) is a popular approach in Bayesian inference, that looks for the best approximation of the posterior distribution within a parametric family, minimizing a loss that is typically the (reverse) Kullback-Leibler (KL) divergence. In this paper, we focus on the following parametric family: mixtures of isotropic Gaussians (i.e., with diagonal covariance matrices proportional to the identity) and uniform weights. We develop a variational framework and provide efficient algorithms suited for this family. In contrast with mixtures of Gaussian with generic covariance matrices, this choice presents a balance between accurate approximations of multimodal Bayesian posteriors, while being memory and computationally efficient. Our algorithms implement gradient descent on the location of the mixture components (the modes of the Gaussians), and either (an entropic) Mirror or Bures descent on their variance parameters. We illustrate the performance of our algorithms on numerical experiments.

Link: https://doi.org/10.48550/arXiv.2506.13613

Authors: Touqeer Ahmad, Mohammadreza Mousavi Kalan, François Portier, Gilles Stupfler

Abstract: Oversampling synthetic minority examples using and its variants is a leading strategy for addressing imbalanced classification problems. Despite the success of this approach in practice, its theoretical foundations remain underexplored. We develop a theoretical framework to analyze the behavior of and related methods when classifiers are trained on synthetic data. First, we establish an exponential inequality that characterizes the gap between the empirical risk computed on synthetic samples and the true population risk on the minority class. Second, we show that a kernel-based classification rule trained on synthetic data can achieve the minimax rate of convergence. This leads to practical guidelines for better parameter tuning of both and the downstream learning algorithm. Numerical experiments are provided to illustrate and support the theoretical findings.

Link: https://neurips.cc/virtual/2025/poster/117246

Authors: Vahan Arsenyan, Elen Vardanyan, Arnak Dalalyan

Abstract: Generative modeling aims to produce new random examples from an unknown target distribution, given access to a finite collection of examples. Among the leading approaches, denoising diffusion probabilistic models (DDPMs) construct such examples by mapping a Brownian motion via a diffusion process driven by an estimated score function. In this work, we first provide empirical evidence that DDPMs are robust to constant-variance noise in the score evaluations. We then establish finite-sample guarantees in Wasserstein-2 distance that exhibit two key features: (i) they characterize and quantify the robustness of DDPMs to noisy score estimates, and (ii) they achieve faster convergence rates than previously known results. Furthermore, we observe that the obtained rates match those known in the Gaussian case, implying their optimality.

Link: https://doi.org/10.48550/arXiv.2506.09681

Authors: Marius Potfer, Vianney Perchet

Abstract: Repeated multi-unit auctions, where a seller allocates multiple identical items over many rounds, are common mechanisms in electricity markets and treasury auctions. We compare the two predominant formats: uniform-price and discriminatory auctions, focusing on the perspective of a single bidder learning to bid against stochastic adversaries. We characterize the learning difficulty in each format, showing that the regret scales similarly for both auction formats under both full-information and bandit feedback, as and , respectively. However, analysis beyond worst-case regret reveals structural differences: uniform-price auctions may admit faster learning rates, with regret scaling as   in settings where discriminatory auctions remain at . Finally, we provide a specific analysis for auctions in which the other participants are symmetric and have unit-demand, and show that in these instances a similar regret rate separation appears.

Link: https://neurips.cc/virtual/2025/poster/115489

Authors: Georgios Gavrilopoulos, Guillaume Lecué, Zong Shang

Abstract: We obtain upper bounds for the estimation error of Kernel Ridge Regression (KRR) for all non-negative regularization parameters, offering a geometric perspective on various phenomena in KRR. As applications: 1. We address the multiple descent problem, unifying the proofs of arXiv:1908.10292 and arXiv:1904.12191 for polynomial kernels and we establish multiple descent for the upper bound of estimation error of KRR under sub-Gaussian design and non-asymptotic regimes. 2. For a sub-Gaussian design vector and for non-asymptotic scenario, we prove a one-sided isomorphic version of the Gaussian Equivalent Conjecture. 3. We offer a novel perspective on the linearization of kernel matrices of non-linear kernel, extending it to the power regime for polynomial kernels. 4. Our theory is applicable to data-dependent kernels, providing a convenient and accurate tool for the feature learning regime in deep learning theory. 5. Our theory extends the results in arXiv:2009.14286 under weak moment assumption.
Our proof is based on three mathematical tools developed in this paper that can be of independent interest: 1. Dvoretzky-Milman theorem for ellipsoids under (very) weak moment assumptions. 2. Restricted Isomorphic Property in Reproducing Kernel Hilbert Spaces with embedding index conditions. 3. A concentration inequality for finite-degree polynomial kernel functions.

Link: https://doi.org/10.48550/arXiv.2404.07709

Authors: Yvann Le Fay, Nicolas Chopin, Simon Barthelmé

Abstract: Variational inference consists in finding the best approximation of a target distribution within a certain family, where `best’ means (typically) smallest Kullback-Leiber divergence. We show that, when the approximation family is exponential, the best approximation is the solution of a fixed-point equation. We introduce LSVI (Least-Squares Variational Inference), a Monte Carlo variant of the corresponding fixed-point recursion, where each iteration boils down to ordinary least squares regression and does not require computing gradients. We show that LSVI is equivalent to stochastic mirror descent; we use this insight to derive convergence guarantees. We introduce various ideas to improve LSVI further when the approximation family is Gaussian, leading to a O(d³) complexity in the dimension d of the target in the full-covariance case, and a O(d)complexity in the mean-field case. We show that LSVI outperforms state-of-the-art methods in a range of examples, while remaining gradient-free, that is, it does not require computing gradients.

Link: https://doi.org/10.48550/arXiv.2502.18475

Authors: Luca Arnaboldi, Bruno Loureiro, Ludovic Stephan, Florent Krzakala, Lenka Zdeborova

Abstract: We study the dynamics of stochastic gradient descent (SGD) for a class of sequence models termed Sequence Single-Index (SSI) models, where the target depends on a single direction in input space applied to a sequence of tokens. This setting generalizes classical single-index models to the sequential domain, encompassing simplified one-layer attention architectures. We derive a closed-form expression for the population loss in terms of a pair of sufficient statistics capturing semantic and positional alignment, and characterize the induced high-dimensional SGD dynamics for these coordinates. Our analysis reveals two distinct training phases: escape from uninformative initialization and alignment with the target subspace, and demonstrates how the sequence length and positional encoding influence convergence speed and learning trajectories. These results provide a rigorous and interpretable foundation for understanding how sequential structure in data can be beneficial for learning with attention-based models.

Link: https://doi.org/10.48550/arXiv.2506.02651

Authors: Oussama Zekri, Nicolas Boullé

Abstract: Discrete diffusion models have recently gained significant attention due to their ability to process complex discrete structures for language modeling. However, fine-tuning these models with policy gradient methods, as is commonly done in Reinforcement Learning from Human Feedback (RLHF), remains a challenging task. We propose an efficient, broadly applicable, and theoretically justified policy gradient algorithm, called Score Entropy Policy Optimization (SEPO), for fine-tuning discrete diffusion models over non-differentiable rewards. Our numerical experiments across several discrete generative tasks demonstrate the scalability and efficiency of our method. Our code is available at this https URL.

Link: https://doi.org/10.48550/arXiv.2502.01384

Authors: Stanislas Strasman, Sobihan Surendran, Claire Boyer, Sylvain Le Corff, Vincent Lemaire, Antonio Ocello

Abstract: Score-based Generative Models (SGMs) have achieved impressive performance in data generation across a wide range of applications and benefit from strong theoretical guarantees. Recently, methods inspired by statistical mechanics, in particular Hamiltonian dynamics, have introduced Critically-damped Langevin Diffusions (CLD), which define diffusion processes in extended spaces by coupling the data with auxiliary variables. These approaches, along with their associated score-matching and sampling procedures, have been shown to outperform standard diffusion-based samplers numerically. In this paper, we propose an upper bound on the sampling error for CLD-based generative models in the Wasserstein metric. To better exploit the extended space, we also propose a modified dynamic that introduces an additional hyperparameter controlling the noise applied to the data coordinates. This hyperparameter influences the smoothness of sample paths, and our discretization error analysis offers practical guidance for tuning, leading to improved sampling performance.

Link: https://neurips.cc/virtual/2025/poster/117301

Authors: Nina Vesseron, Louis Béthune, Marco Cuturi

Abstract: The canonical approach in generative modeling is to split model fitting into two blocks: define first how to sample noise (e.g. Gaussian) and choose next what to do with it (e.g. using a single map or flows). We explore in this work an alternative route that ties sampling and mapping. We find inspiration in moment measures, a result that states that for any measure ρ, there exists a unique convex potential u such that ρ=ueu. While this does seem to tie effectively sampling (from log-concave distribution eu) and action (pushing particles through u), we observe on simple examples (e.g., Gaussians or 1D distributions) that this choice is ill-suited for practical tasks. We study an alternative factorization, where ρ is factorized as wew, where w is the convex conjugate of a convex potential w. We call this approach conjugate moment measures, and show far more intuitive results on these examples. Because w is the Monge map between the log-concave distribution ew and ρ, we rely on optimal transport solvers to propose an algorithm to recover w from samples of ρ, and parameterize w as an input-convex neural network. We also address the common sampling scenario in which the density of ρ is known only up to a normalizing constant, and propose an algorithm to learn w in this setting.

Link: https://doi.org/10.48550/arXiv.2503.10576

Author: Imad Aouali

Abstract: Efficient exploration is a key challenge in contextual bandits due to the large size of their action space, where uninformed exploration can result in computational and statistical inefficiencies. Fortunately, the rewards of actions are often correlated and this can be leveraged to explore them efficiently. In this work, we capture such correlations using pre-trained diffusion models; upon which we design diffusion Thompson sampling (dTS). Both theoretical and algorithmic foundations are developed for dTS, and empirical evaluation also shows its favorable performance.

Link: https://doi.org/10.48550/arXiv.2402.10028

Authors: Jung-Hun Kim, Milan Vojnovic, Min-hwan Oh

Abstract: We study the combinatorial semi-bandit problem where an agent selects a subset of base arms and receives individual feedback. While this generalizes the classical multi-armed bandit and has broad applicability, its scalability is limited by the high cost of combinatorial optimization, requiring oracle queries at *every* round. To tackle this, we propose oracle-efficient frameworks that significantly reduce oracle calls while maintaining tight regret guarantees. For worst-case linear rewards, our algorithms achieve regret using only oracle queries. We also propose covariance-adaptive algorithms that leverage noise structure for improved regret, and extend our approach to general (non-linear) rewards. Overall, our methods reduce oracle usage from linear to (doubly) logarithmic in time, with strong theoretical guarantees.

Link: https://neurips.cc/virtual/2025/poster/119751

Authors: Rémi Castera, Felipe Garrido, Patrick Loiseau, Simon Mauras, Mathieu Molina, Vianney Perchet

Abstract: We consider matroid allocation problems under opportunity fairness constraints: resources need to be allocated to a set of agents under matroid constraints (which includes classical problems such as bipartite matching). Agents are divided into C groups according to a sensitive attribute, and an allocation is opportunity-fair if each group receives the same share proportional to the maximum feasible allocation it could achieve in isolation. We study the Price of Fairness (PoF), i.e., the ratio between maximum size allocations and maximum size opportunity-fair allocations. We first provide a characterization of the PoF leveraging the underlying polymatroid structure of the allocation problem. Based on this characterization, we prove bounds on the PoF in various settings from fully adversarial (wort-case) to fully random. Notably, one of our main results considers an arbitrary matroid structure with agents randomly divided into groups. In this setting, we prove a PoF bound as a function of the size of the largest group. Our result implies that, as long as there is no dominant group (i.e., the largest group is not too large), opportunity fairness constraints do not induce any loss of social welfare (defined as the allocation size). Overall, our results give insights into which aspects of the problem’s structure affect the trade-off between opportunity fairness and social welfare.

Link: https://arxiv.org/pdf/2403.00397v2

Authors: Shiyun Lin, Simon Mauras, Nadav Merlis, Vianney Perchet

Abstract: We study the problem of matching markets with ties, where one side of the market does not necessarily have strict preferences over members at its other side. For example, workers do not always have strict preferences over jobs, students can give the same ranking for different schools and more. In particular, assume w.l.o.g. that workers’ preferences are determined by their utility from being matched to each job, which might admit ties. Notably, in contrast to classical two-sided markets with strict preferences, there is no longer a single stable matching that simultaneously maximizes the utility for all workers.
We aim to guarantee each worker the largest possible share from the utility in her best possible stable matching. We call the ratio between the worker’s best possible stable utility and its assigned utility the \emph{Optimal Stable Share} (OSS)-ratio. We first prove that distributions over stable matchings cannot guarantee an OSS-ratio that is sublinear in the number of workers. Instead, randomizing over possibly non-stable matchings, we show how to achieve a tight logarithmic OSS-ratio. Then, we analyze the case where the real utility is not necessarily known and can only be approximated. In particular, we provide an algorithm that guarantees a similar fraction of the utility compared to the best possible utility. Finally, we move to a bandit setting, where we select a matching at each round and only observe the utilities for matches we perform. We show how to utilize our results for approximate utilities to gracefully interpolate between problems without ties and problems with statistical ties (small suboptimality gaps).

Link: https://doi.org/10.48550/arXiv.2411.03270

Authors: Ziyad Benomar, Romain Cosson, Alexander Lindermayr, Jens Schöter

Abstract: In non-clairvoyant scheduling, the goal is to minimize the total job completion time without prior knowledge of individual job processing times. This classical online optimization problem has recently gained attention through the framework of learning-augmented algorithms. We introduce a natural setting in which the scheduler receives continuous feedback in the form of progress bars: estimates of the fraction of each job completed over time. We design new algorithms for both adversarial and stochastic progress bars and prove strong competitive bounds. Our results in the adversarial case surprisingly induce improved guarantees for learning-augmented scheduling with job size predictions. We also introduce a general method for combining scheduling algorithms, yielding further insights in scheduling with predictions. Finally, we propose a stochastic model of progress bars as a more optimistic alternative to conventional worst-case models, and present an asymptotically optimal scheduling algorithm in this setting.

Link: https://doi.org/10.48550/arXiv.2509.19662

Authors: Achraf Azize, Yulian Wu, Junya Honda, Francesco Orabona, Shinji Ito, Debabrota Basu

Abstract: As sequential learning algorithms are increasingly applied to real life, ensuring data privacy while maintaining their utilities emerges as a timely question. In this context, regret minimisation in stochastic bandits under ϵ-global Differential Privacy (DP) has been widely studied. Unlike bandits without DP, there is a significant gap between the best-known regret lower and upper bound in this setting, though they “match” in order. Thus, we revisit the regret lower and upper bounds of ϵ-global DP algorithms for Bernoulli bandits and improve both. First, we prove a tighter regret lower bound involving a novel information-theoretic quantity characterising the hardness of ϵ-global DP in stochastic bandits. Our lower bound strictly improves on the existing ones across all ϵ values. Then, we choose two asymptotically optimal bandit algorithms, i.e. DP-KLUCB and DP-IMED, and propose their DP versions using a unified blueprint, i.e., (a) running in arm-dependent phases, and (b) adding Laplace noise to achieve privacy. For Bernoulli bandits, we analyse the regrets of these algorithms and show that their regrets asymptotically match our lower bound up to a constant arbitrary close to 1. This refutes the conjecture that forgetting past rewards is necessary to design optimal bandit algorithms under global DP. At the core of our algorithms lies a new concentration inequality for sums of Bernoulli variables under Laplace mechanism, which is a new DP version of the Chernoff bound. This result is universally useful as the DP literature commonly treats the concentrations of Laplace noise and random variables separately, while we couple them to yield a tighter bound.

Link: https://doi.org/10.48550/arXiv.2505.05613

Authors: Marc Jourdan, Achraf Azize

Abstract: Best Arm Identification (BAI) algorithms are deployed in data-sensitive applications, such as adaptive clinical trials or user studies. Driven by the privacy concerns of these applications, we study the problem of fixed-confidence BAI under global Differential Privacy (DP) for Bernoulli distributions. While numerous asymptotically optimal BAI algorithms exist in the non-private setting, a significant gap remains between the best lower and upper bounds in the global DP setting. This work reduces this gap to a small multiplicative constant, for any privacy budget . First, we provide a tighter lower bound on the expected sample complexity of any δ-correct and -global DP strategy. Our lower bound replaces the Kullback–Leibler (KL) divergence in the transportation cost used by the non-private characteristic time with a new information-theoretic quantity that optimally trades off between the KL divergence and the Total Variation distance scaled by . Second, we introduce a stopping rule based on these transportation costs and a private estimator of the means computed using an arm-dependent geometric batching. En route to proving the correctness of our stopping rule, we derive concentration results of independent interest for the Laplace distribution and for the sum of Bernoulli and Laplace distributions. Third, we propose a Top Two sampling rule based on these transportation costs. For any budget , we show an asymptotic upper bound on its expected sample complexity that matches our lower bound to a multiplicative constant smaller than 8. Our algorithm outperforms existing δ-correct and -global DP BAI algorithms for different values of .

Link: https://openreview.net/forum?id=IFso8G8gwJ

Authors: Adrien Vacher, Omar Chehab, Anna Korba

Abstract: Sampling from multi-modal distributions is challenging, even in low dimensions. We provide the first sampling algorithm for a broad class of distributions — including all Gaussian mixtures — with a query complexity that is polynomial in the parameters governing multi-modality, assuming fixed dimension. Our sampling algorithm simulates a time-reversed diffusion process, using a specific Monte Carlo estimator of the intermediate score functions. Unlike previous works, it avoids metastability, requires no prior knowledge of the mode locations, and does not rely on restrictive smoothness assumptions that exclude general Gaussian mixtures. We illustrate this result on a low-dimensional but challenging multi-modal sampling task, where our algorithm significantly outperforms existing approaches.

Link: https://neurips.cc/virtual/2025/poster/119085

Comment mettre la finance au service du climat ?


La finance verte est mise à l’épreuve, secoués par des flots politiques et macroéconomiques défavorables. Mais la dynamique n’est pas morte, et il est encore possible de la soutenir, estiment Peter Tankov et Olivier David Zerbib.

Tribune Les Echos du 18/09/2025

A New Academic Year, New Faces at CREST


Every year, CREST welcomes a new cohort of researchers who bring fresh perspectives, curiosity, and energy to our community. This fall, we are pleased to host new researchers, postdoctoral fellow, PhD students, and visiting researchers from around the world.

Their arrival marks an important moment in the life of our lab: the opportunity to grow, to renew dialogues across disciplines, and to continue building a vibrant and diverse research environment. Whether they join us for a few months or several years, these newcomers contribute to the intellectual richness and collaborative spirit that define CREST.

We are pleased to introduce the researchers who are joining CREST this year, each bringing their unique background and expertise to our four research areas: economics, sociology, statistics, and finance-insurance.

Researchers

This year, several new researchers are joining CREST, strengthening our core faculty and bringing new perspectives across ou disciplines.

Philippe Coulangeon is a CNRS Research Director, affiliated with the Centre for Research on Social Inequalities (CRIS) at SciencesPo Paris.

His work is set at the intersection of cultural sociology and social inequalities. He explores the stratification of cultural practices and tastes, the dynamics of mass versus elite culture, artistic professions, and the democratization of culture. More recently, he has integrated environmental concerns into his analysis.

More information here.

Fanny Landaud is a CNRS researcher from CY Cergy Paris University and she is an IZA Research Fellow since 2019.

Her research covers applied microeconomics – particularly labor, education, family, and health economics – with a focus on the determinants and consequences of socioeconomic and gender inequalities in education and the labor market.

More information here.

Antonio Ocello was a Postdoctoral Researcher in Statistics and Machine Learning at École polytechnique (CMAP) since 2023.

His research focuses on mean-field games and mean-field control problems, branching diffusion processes, and stochastic optimal control, combining advanced probabilistic methods with applications in machine learning. He has contributed to work on convergence bounds for trust-region policy optimization in mean-field games and is developing stochastic target frameworks for branching processes.

More information here.

Enrico Ruolino was a Senior Researcher at the University of Lausanne.

His work focuses on public and labor economics, with a particular emphasis on behavioral responses to tax policy, gender inequality, intergenerational mobility, and educational outcomes.

More information here.

Clémentine Van Effenterre was previously an Assistant Professor of Economics at the University of Toronto.

Her research lies at the intersection of labor economics, applied microeconomics, and political economy. Notably, she investigates how norms, institutions, and policies shape labor market outcomes – examining issues like maternal labor supply, gender gaps in science and tech, and how having daughters influences political attitudes. She also hosts the “InequaliTalks” podcast on economics and inequality.

More information here.

Postdoctoral Fellows

Our new postdoctoral researchers are contributing to ongoing projects and launching their own work in close collaboration with CREST teams.

Stéphane Lhaut, in the Finance-Insurance team, with Caroline Hillairet and Olivier Lopez.

Angelica Martinez-Leyva, in the Economics cluster at CREST-ENSAI, with Marion Goussé

Andrea Pandolfi, in Statistics, with Nicolas Chopin

Arthur Stephanovitch, in Statistics, with Austin Stromme

Lishu Zhang, in the Finance-Insurance team, with Olivier-David Zerbib

PhD Students

This year, we welcome a new cohort of PhD students who are beginning their research journeys within our vibrant academic community.

30 new PhD students are joining our laboratory in our different research clusters.

9 PhD students will join our Economic team, 7 in the Finance-Insurance cluster, 12 new PhD students in Statistics, and 2 in our Sociology team.

4 of them will join our lab on the CREST-ENSAI campus in Bruz while the remaining PhD students will join our CREST-ENSAE Paris campus in Palaiseau.

This new team will also be joined by 3 PhD students in ATER contracts in the CREST-ENSAI campus.

Visiting Researchers

CREST is also hosting several visiting researchers this year, joining us for research stays that foster international collaboration.

Yang Chen (Lausanne University, Switzerland) is joining our Economic team to work with Julien Combe on Microeconomic theory and matching theory.

Matias Ortiz (Universidad de Chile, Chile) will work with Vianney Perchet on Learning-Augmented Online Algorithms for Matroid-Constrained problems under Partial in our Statistical team.

Simon Luck (Universita di Bologna, Italy) is joining Etienne Ollion’s team in Sociology to work on using natural language processing to study the relevance of the news media for political representation and decision-making processes.

Jules Verin (ENS Lyon, France) will work with Bertrand Garbinti in Economics on Wealth Accumulation, Life Cycle, and Taxation.

Väinö Yrjänäinen (Uppsala University, Sweden) is joining the Sociology team with Etienne Ollion to work on using work embeddings and transformer models in computational social sciences.

Finance verte et économie verte : regards croisés


Les dérèglements climatiques, l’effondrement de la biodiversité et l’épuisement des ressources naturelles mettent en évidence les limites du modèle économique actuel fondé sur une croissance intensive et une exploitation non durable des écosystèmes. Dans ce contexte, deux champs de recherche apparaissent aujourd’hui comme essentiels pour penser et mettre en œuvre la transition écologique : la finance durable et l’économie verte.

Ces deux approches interrogent en profondeur les fondements mêmes de la régulation économique, du rôle des marchés financiers et des trajectoires de développement.

La finance durable regroupe l’ensemble des pratiques financières qui intègrent des critères environnementaux, sociaux et de gouvernance (ESG) dans les décisions d’investissement. Son objectif est de soutenir des projets ayant un impact positif sur la société et la planète, tout en assurant une rentabilité à long terme.

L’économie verte, elle, désigne un modèle économique qui vise à réduire les risques environnementaux et la pénurie des ressources, tout en favorisant la croissance, l’emploi et le bien-être social. Elle repose notamment sur l’efficacité énergétique, la réduction des émissions de carbone, la préservation des écosystèmes et l’innovation technologique durable.

Dans cette interview croisée, qui met en lumière les articulations et les avancées, de ces deux disciplines, Olivier-David Zerbib, chercheur au CREST et professeur à l’ENSAE Paris, spécialiste de la finance durable et cotitulaire avec Peter Tankov de la chaire “Impact Investing” (Fondation ENSAE-ENSAI, Mirova), et Marion Leroutier, chercheuse au CREST et professeur à l’ENSAE Paris en économie environnementale et lauréate d’une chaire de recherche de la région Île-de-France pour son projet Cyclomob, partagent leurs travaux et expertises. Ils nous offrent des clés d’analyse pour mieux appréhender les dynamiques à l’œuvre dans la transformation des systèmes économiques et financiers face à l’urgence écologique, et ainsi accélérer la transition vers un modèle de développement bas carbone, inclusif et résilient, dans la perspective d’une économie juste et soutenable.

David, comment les investisseurs peuvent avoir de l’impact sur les entreprises pour les pousser à se verdir ?

Olivier-David Zerbib : Cette question est abordée par plusieurs récents travaux de recherche. A ce stade, certaines analyses font consensus. En premier lieu, il est important de réallouer le capital vers les entreprises à faible empreinte environnementale (ou “entreprises vertes”) et celles qui conditionnent l’activité des entreprises vertes. Sur le plan climatique, il s’agit, par exemple, des producteurs d’énergie renouvelable et des producteurs de panneaux solaires.

Cependant, désinvestir des entreprises ayant une forte empreinte environnementale (ou “entreprises brunes”) pour faire croître leur coût du capital et les pousser à se verdir est une stratégie qui ne semble être que modérément efficace (De Angelis, Tankov, Zerbib, 2023 ; Hartzmark and Shue, 2023).

Plutôt que se détourner des entreprises brunes, les investisseurs peuvent accroître leur allocation de capital dans ces dernières afin de s’engager auprès d’elles en tant qu’actionnaires. Cette stratégie, appelée “engagement actionnarial”, permet aux investisseurs d’exercer une pression sur les entreprises, dans un cadre privé (via des courriels, des appels, ou des entretiens avec la direction de l’entreprise) ou public (par exemple, en déposant des résolutions ou en votant en assemblée générale), conduisant à une inflexion significative de leurs pratiques (Broccardo, Hart, Zingales, 2022 ; van der Kroft, Palacios, Rigobon, Zheng, 2025).

En tout état de cause, que ce soit en matière d’allocation d’actifs ou d’engagement actionnarial, la coordination entre les investisseurs est essentielle. D’une part, afin d’optimiser leur impact sur le verdissement de l’économie, les investisseurs doivent allouer leur capital conditionnellement aux allocations choisies par l’ensemble des autres investisseurs (Green and Roth, 2025 Oehmke and Opp, 2025), en privilégiant notamment les entreprises – potentiellement “brunes” – dont les perspectives de verdissement sont les plus fortes. D’autre part, les engagements coordonnés dans le cadre de coalitions d’investisseurs permettent d’accroître la pression sur les entreprises (Dimson, Karakas, Li, 2015).

En quoi votre récent modèle* apporte un éclairage nouveau sur la question du greenwashing et de l’investissement durable ?

* Working paper : “Can investors curb greenwashing?” F. Cartellier, P. Tankov, O. D. Zerbib, 2024

Olivier-David Zerbib : Le greenwashing est la pratique selon laquelle une entreprise déclare qu’elle contribue à réduire son empreinte environnementale plus que ce qu’elle ne le fait en pratique. Cette pratique est largement répandue, à différents degrés : selon une étude des sites internet des entreprises européennes en 2021, la Commission Européenne a montré que, dans 42% des cas étudiés, les déclarations environnementales des entreprises étaient vraisemblablement fausses ou trompeuses. Dans un cadre juridique où le greenwashing n’est que peu, ou pas, pénalisé, nous montrons que les investisseurs ont un rôle important à jouer pour inciter les entreprises à réduire leur pratique du greenwashing (Cartellier, Tankov, Zerbib, 2024). En pénalisant dans leur fonction d’utilité les entreprises ayant fait l’objet d’une controverse sur le plan environnemental, et en accroissant de ce fait leur coût du capital, les investisseurs exercent un double effet bénéfique : ils incitent les entreprises à investir dans le verdissement de leurs pratiques (par exemple, la réduction de gaz à effets de serre) et à limiter leur communication environnementale trompeuse ou exagérée. Toutefois, lorsque l’asymétrie d’information entre investisseurs et entreprises est suffisamment élevée, les entreprises continuent de communiquer de manière trompeuse à un degré qui dépend de “l’espérance de pénalité” auxquelles elles s’exposent.

Que pensez-vous des labels ou notations ESG actuels ?

Olivier-David Zerbib : Au cours des cinq dernières années, l’arsenal européen de labellisation durable s’est significativement consolidé. En particulier, le règlement européen relatif à la transparence et à l’intégrité des activités de notation environnementale, sociale et de gouvernance (ESG), publié en décembre 2024, prévoit que les fournisseurs de notation ESG devront être autorisés et supervisés par l’Autorité européenne des marchés financiers et se conformer aux exigences de transparence, notamment en ce qui concerne leur méthodologie et leurs sources d’information. Ces règlementations poursuivent deux principaux objectifs : accroître la transparence sur les pratiques des entreprises et permettre à celles-ci d’envoyer un signal crédible de leur engagement sur les enjeux environnementaux.

Cette transparence est bénéfique pour l’ensemble des investisseurs. Tout d’abord, elle permet aux investisseurs non qualifiés et peu informés de réorienter leur épargne vers des fonds effectivement verts, selon la définition des labels. De surcroît, la réduction de l’incertitude sur les empreintes environnementales des entreprises permet aux investisseurs verts de mettre en place des actions plus prononcées (réallocation significative de capitaux, engagement actionnarial ambitieux), renforçant ainsi la pression qu’ils exercent sur les entreprises pour les pousser à se verdir (De Angelis, Tankov, Zerbib, 2023).

Pour autant, les labels et les notes ESG présentent, au moins, trois faiblesses majeures. La première faiblesse réside dans l’hétérogénéité méthodologique. En conséquence, la faible corrélation entre les notes ESG des principales agences de notation (Berg, Koelbel, Rigobon, 2022) alimente l’incertitude sur ces notes. La seconde tient au biais de couverture : parce que les études des analystes financiers se concentrent moins sur les petites et moyennes entreprises ainsi que les marchés émergents, leurs notes ESG sont généralement moins fiables. Enfin, nombre de labels se concentrent encore trop sur la gestion des risques financiers liés à l’environnement plutôt que sur la contribution des entreprises à la réduction de leur empreinte environnementale.

Les entreprises sont elles-mêmes sujettes à des coûts environnementaux. Marion quel est le coût de la pollution pour les entreprises et, David, comment peuvent-elles devenir actrices de la transition ?

Marion Leroutier : Clarifions que l’on parle ici de la pollution atmosphérique locale, qui affecte directement la santé des personnes exposées, et pas des émissions carbonées, qui contribuent au changement climatique mais n’ont pas d’effet sanitaire direct. Dans un article récent, nous investiguons le coût de l’exposition aux particules fines pour l’économie française en se concentrant sur la façon dont cette pollution affecte les ventes des entreprises (Leroutier et Ollivier, 2025). Nous avons en tête que respirer un air pollué peut nuire à la performance des salariés, qui peuvent tomber malade du fait de la pollution mais aussi voir leurs capacités productives des entreprises. Par ailleurs, la pollution de l’air peut aussi affecter les comportements de consommation des individus, soit parce qu’ils sont conscients des niveaux de pollution et renoncent à certaines sorties, soit parce qu’ils sont eux-mêmes malades à cause de la pollution et que leur budget est grevé par les dépenses médicales associées.

Nous utilisons des données riches portant sur 160 000 entreprises françaises et 400 000 salariés pour comprendre à quel point ces mécanismes sont à l’oeuvre dans le contexte français, où la pollution de l’air est bien plus faible qu’en Chine ou qu’en Inde, mais dépasse néanmoins régulièrement les seuils préconisés par l’Organisation mondiale de la santé (OMS). Nous estimons l’effet, pour une entreprise, d’être exposé un mois donné à un air particulièrement pollué sur ses ventes mensuelles au cours des mois suivants, et les mécanismes sous-jacents. Nous définissons l’exposition à la pollution de l’entreprise à partir des concentrations moyennes de pollution aux particules fines observées dans toutes les communes de France où l’entreprise possède des établissements.

Comme nous savons que la conjoncture économique locale peut elle-même affecter les concentrations de pollution aux particules fines, nous utilisons les variations de direction de vent observées dans chaque commune comme un événement fréquent qui affecte la pollution sans être directement corrélé à l’activité économique locale. Nous trouvons que lorsque les firmes sont exposées à un air 10% plus pollué, cela réduit leurs ventes les deux mois suivants à hauteur de 0,4%, avec des effets plus ou moins importants selon les secteurs d’activité. Cet effet peut sembler faible, mais lorsque l’on extrapole à l’économie entière, on trouve que sur la période 2009-2015, réduire la pollution aux particules fines de 25% pour atteindre les seuils préconisés par l’OMS aurait permis de générer 7 milliards d’euros de valeur ajoutée supplémentaire. Ce bénéfice économique lié à l’amélioration de la qualité de l’air est important : le montant est comparable à la valeur monétaire des bénéfices en matière de réduction de la mortalité. Or, bien souvent il n’est pas mentionné dans les analyses coût-bénéfices visant à décider de la pertinence ou non de rendre les régulations sur la qualité de l’air plus strictes. Notre travail suggère donc qu’il est crucial de tenir compte, au-delà des effets bien documentés de la pollution atmosphérique sur la santé, de ses effets négatifs sur l’économie.

Olivier-David Zerbib : Au-delà des motivations éthiques non pécuniaires, les incitations financières à se verdir sont fortes pour les entreprises. En effet, le coût environnemental de l’inaction est significativement plus élevé que celui de l’action, compte tenu non seulement des évènements climatiques extrêmes résultant du changement climatique, mais aussi de l’évolution de la réglementation environnementale, de l’accroissement du prix du carbone, des avancées technologiques sur le plan environnemental, et du renforcement des préférences pro environnementales des parties parties prenantes (induisant une pression de la part des consommateurs, des investisseurs, des employés et des partenaires dans la chaîne de valeur). De plus, des mécanismes de soutien à la transition écologique (subventions, prêts avantageux, etc.) incitent également les entreprises à verdir leurs modes de production, leur consommation d’énergie, et les biens qu’elles produisent.

Pour autant, de nombreuses entreprises ont freiné leur dynamique de verdissement, voire même, ont accru leur empreinte environnementale, sous l’effet conjugué de la remise en cause des bénéfices de l’ESG, notamment alimentée par une partie des élus républicains aux Etats-Unis, et de la recherche de profit de court terme. C’est pourquoi, au-delà des enjeux de flux de capitaux, se doter d’une réglementation environnementale ambitieuse et exigeante est une condition incontournable de l’implication de l’ensemble des entreprises dans la transition écologique.

Marion, dans vos recherches vous démontrer que la question du genre a un impact important sur l’empreinte carbone, pouvez-vous nous en dire plus ? 

Marion Leroutier : En s’appuyant sur deux enquêtes renseignant les habitudes de consommation alimentaire et de transports d’un échantillon représentatif de la population française, nous trouvons que les femmes émettent en moyenne 26% de CO₂ en moins que les hommes à travers ces deux postes de consommation.

Nous avons en tête un certain nombre de facteurs qui peuvent expliquer ces écarts : les femmes sont moins souvent en emploi et ont des distances domicile travail plus courtes, ce qui peut influencer les écarts d’émission de transport ; les hommes ont besoin de manger plus, ce qui peut en partie expliquer les écarts d’émissions pour l’alimentation. Nous ajustons notre analyse pour ces différents facteurs afin d’évaluer dans quelle mesure ils permettent d’expliquer l’écart moyen de 26 %.

Or, après ajustement pour les écarts de quantités de nourriture consommée, de distances parcourues ou encore les facteurs socio-démographiques, il reste encore un écart. L’écart restant s’explique en grande partie par une consommation moindre de viande rouge et un usage réduit de la voiture. Ces deux comportements sont à la fois fortement émetteurs et associés à la masculinité traditionnelle. A l’inverse, on ne voit pas d’écart significatif lié à l’avion, un autre bien très polluant mais pas particulièrement associé à une norme de genre. Une partie de l’écart d’empreinte carbone entre hommes et femmes pourrait donc s’expliquer par des normes de genre. Des recherches supplémentaires sont nécessaires pour comprendre dans quelle mesure l’écart tiendrait aussi à une plus grande sensibilité des femmes au changement climatique, et à leur propension à adopter des comportements peu carbonés.

Un autre résultat important de notre étude est que la structure du foyer joue un grand rôle dans ces différences d’empreinte carbone. Si on compare les différences d’empreinte carbone femmes hommes parmi les célibataires et parmi les gens en couple, on voit moins de différence pour l’alimentation parmi les gens en couple, et plus pour les transports. Cela suggère que les personnes en couple hétérosexuel convergent dans leurs régimes alimentaires, les femmes augmentant leur empreinte pour se rapprocher de celle des hommes. A l’inverse, les personnes semblent adopter des comportements de transports divergents, ce qui est cohérent avec une spécialisation genrée dans les trajets du quotidien au sein des couples.

Cette recherche suggère que les politiques climatiques pourraient avoir un coût différencié selon le genre. Les femmes, ayant en moyenne une empreinte carbone plus faible, pourraient être moins affectées par ces mesures. Cela pourrait expliquer en partie pourquoi elles se déclarent plus souvent préoccupées par le changement climatique que les hommes, même à orientation politique donnée : il serait en quelque sorte plus facile car moins coûteux pour les femmes d’adopter un mode de vie compatible avec les trajectoires de baisse d’émissions dictées par l’impératif climatique.

La taxation du carbone paraît être intéressante mais est-ce envisageable au niveau industriel et de l’acceptabilité des citoyens ? 

Marion Leroutier : La taxe carbone vise à inciter les consommateurs et les producteurs à se tourner vers des produits moins émetteurs de gaz à effet de serre, en renchérissant les produits les plus émetteurs, et ce à moindre coût. A ce jour, 31 pays dans le monde, dont la France, disposent d’une telle taxe, couvrant un ou plusieurs secteurs. Donc c’est faisable ! Nous disposons désormais d’études scientifiques robustes montrant que mettre en place une telle taxe permet, en effet, de baisser les émissions. Par exemple, la Suède est un des premiers pays à avoir mis en place une taxe carbone en 1991, avec un montant passant de 25€ par tonne de CO₂ en 1991 à 115€ par tonne de nos jours. On estime que cette taxe carbone a permis de baisser les émissions de CO₂ dans le secteur du transport de passager de près de 10% par rapport à une situation sans taxe, 15 ans après sa mise en œuvre (Anderson, 2019).

Dans un autre secteur, celui de l’électricité, une taxe carbone mise en œuvre au Royaume-Uni à hauteur de 25€ par tonne a encouragé un report massif de la production d’électricité à base de charbon vers le gaz, et dans une moindre mesure, les renouvelables, avec une baisse des émissions de CO₂ dans ce secteur de 22% par an entre 2013 et 2017. Aujourd’hui, la combinaison de cette taxe et d’autres mesures incitant à la production d’électricité décarbonée (soutien aux énergies renouvelables, entre autre), font que le Royaume-Uni, pays de la Révolution industrielle, a définitivement fermé sa dernière centrale à charbon en 2024.

La question n’est donc pas de savoir si une taxe carbone, en général, est acceptable ou efficace, mais si et à quelles conditions elle peut augmenter pour inciter à des baisses d’émissions encore plus conséquentes. L’épisode des Gilets Jaunes en France en 2018-2019, où l’annonce d’une augmentation de la taxe carbone prévue par la loi a suscité une vive opposition, a marqué les esprits et suscité de nombreuses recherches sur les déterminants de l’acceptabilité des politiques climatiques et notamment de la taxe carbone. Il apparaît, par exemple, que les citoyens soutiennent davantage la taxe carbone si les recettes de la taxe sont utilisées pour financer des investissements verts, comme des infrastructures de transport public ou les énergies renouvelables (Dechezleprêtre et al, 2025). De façon plus générale, les perceptions des citoyens sur l’efficacité et l’équité associés aux politiques climatiques sont deux déterminants clés de leur acceptabilité. Il est donc important pour les chercheurs comme pour les gouvernements d’informer les citoyens sur l’effet attendu de ces mesures sur les émissions, ainsi que sur la répartition des coûts et des bénéfices entre différents groupes de population (urbains vs ruraux, niveau de revenu, etc.).

Quels sont les points communs, les recoupements entre l’économie verte et la finance verte ? 

Olivier-David Zerbib : La finance, qui est imbriquée dans la science économique, s’intéresse aux flux de capitaux. La finance environnementale, en particulier, se concentre sur deux grandes questions.

Comment les risques environnementaux se traduisent-ils en risques économiques et financiers ?

Quelles stratégies les investisseurs peuvent-ils mettre en œuvre pour pousser les entreprises à réduire leur empreinte environnementale ?

En recoupant un champ de recherche plus vaste que celui de la finance environnementale, l’économie environnementale peut traiter de sujets très divers tels que les effets des politiques publiques environnementales, l’impact du commerce international sur les émissions de gaz à effet de serre, ou encore l’analyse des pratiques environnementales des entreprises à l’aune des contraintes auxquelles elles sont exposées.

Marion Leroutier : En effet, si la mobilisation de ressources financières est cruciale pour la transition vers une économie soutenable, l’économie de l’environnement [NB : le terme correct en français pour la discipline académique] à un objet plus large que l’étude des flux financiers et des investissements des entreprises. Elle s’intéresse aux différents agents économiques que sont non seulement les entreprises, mais aussi les consommateurs et les gouvernements. Elle cherche à comprendre quel mix de mesures de politiques publiques – qui peuvent prendre diverses formes comme les incitations financières, de politiques de sensibilisation, d’investissements directs dans des infrastructures publiques – permettrait de réaliser la transition verte de la façon la plus efficace et juste possible.

Concernant les risques environnementaux, ils sont étudiés en économie sous un angle multi-dimensionnel et pas seulement du point de vue des risques financiers qu’ils suscitent. Par exemple, on va essayer de comprendre l’effet d’une catastrophe climatique comme une inondation sur différentes dimensions du bien-être humain et à différentes temporalités : à court terme, quel est l’effet sur la mortalité ? Les pays les plus pauvres sont-ils plus vulnérables de ce point de vue ? A moyen terme, les résidents vont-ils quitter la région pour échapper à de futurs inondations ? En se souvenant que le changement climatique va entraîner une hausse de ces évènements climatiques extrêmes, une question cruciale est quel type de politiques publiques peut permettre de réduire la vulnérabilité des populations à ce type de catastrophe ?

Marion, vous êtes lauréate d’une chaire de recherche de la région Île-de-France pour votre projet Cyclomob : vers une mobilité urbaine durable, et vous David, vous dirigez la chaire Impact Investing, qui vise à maximiser l’impact positif de l’investissement sur l’environnement et la société en partenariat stratégique avec Mirova. En quoi cet engagement scientifique permet de proposer de réelles avancées politiques et industrielles pour l’environnement durable ? 

Marion Leroutier : Dans le cadre de la chaire Cyclomob, nous investiguons avec mes coauteurs les leviers permettant de faire advenir une mobilité urbaine plus durable, en se concentrant sur les mobilités actives décarbonées comme le vélo et la marche. Dans un article précédent, nous montrons qu’en Île-de-France, 25% des automobilistes gagneraient du temps en faisant une partie de leurs trajets en vélo électrique (Leroutier & Quirion, 2023). Ce potentiel contraste avec le fait qu’encore en 2018, moins de 5% des résidents d’Île-de-France utilisaient le vélo pour les trajets du quotidien. Un des projets de la chaire s’intéresse à l’effet du déploiement d’infrastructures cyclables sécurisées, qu’on a vues ces dernières années dans de nombreuses métropoles françaises, sur la part de personnes se déplaçant en vélo et sur les nuisances environnementales typiquement associées à la voiture comme la pollution de l’air. Nos résultats seront directement utiles aux collectivités locales qui se demandent quels projets d’infrastructure sont les plus prometteurs pour rendre nos villes plus durables.

Olivier-David Zerbib : Les travaux menés dans le cadre de la chaire Impact Investing portent sur l’efficacité de l’engagement actionnarial en tant que levier de transformation des modèles d’affaires des entreprises ainsi que sur l’investissement à impact au-delà des enjeux climatiques, avec un focus sur la biodiversité. Les résultats des travaux sont rendus publics et mis à la disposition de tous. Cependant, ils intéressent en particulier les investisseurs institutionnels tels que Mirova. Un des objectifs de notre engagement scientifique est de mettre en évidence des leviers d’action opérationnels dont les investisseurs institutionnels pourraient s’emparer pour renforcer et accélérer la dynamique de transition écologique des entreprises.

Marion Leroutier

Références  :
Leroutier, M. (2022). Carbon pricing and power sector decarbonization: Evidence from the UK. Journal of Environmental Economics and Management, 111, 102580.
Leroutier, M & Quirion, P. 2023. Tackling Car Emissions in Urban Areas: Shift, Avoid, Improve. Ecological Economics, Volume 213, November 2023.
Leroutier, M & Ollivier, H. 2025. The Cost of Air pollution for Workers and Firms. CREST Working Paper, March 2025
Berland O, Leroutier M . 2025.  The gender gap in carbon footprints: determinants and implications. Grantham Research Institute on Climate Change and the Environment Working Paper 424. London: London School of Economics and Political Science
Andersson, J. J. 2019. Carbon Taxes and CO2 Emissions: Sweden as a Case Study. American Economic Journal: Economic Policy, 11(4), 1–30.
Dechezleprêtre, A., Fabre, A., Kruse, T., Planterose, B., Sanchez Chico, A., & Stantcheva, S. (2025). Fighting Climate Change: International Attitudes toward Climate Policies. Am. Econ. Rev., 115(4), 1258–1300.

Olivier David Zerbib

Références  :
Berg, F., Kölbel, J. F., and Rigobon, R., 2022, Aggregate Confusion: The Divergence of ESG Ratings, Review of Finance 26(6):1315–1344.
Broccardo, E., Hart, O., Zingales, L., 2022. Exit versus Voice. Journal of Political Economy 130, 3101–3145.
Cartellier, F., Tankov, P., Zerbib, O. D., 2024. Can investors curb greenwashing? Working Paper.
De Angelis, T., Tankov, P., Zerbib, O. D., 2023. Climate impact investing. Management Science 69, 7669–7692.
Dimson, E., Karaka¸s, O., Li, X., 2015. Active ownership. Review of Financial Studies 28, 3225–3268.
Green, D., Roth, B., 2025. The allocation of socially responsible capital. Journal of Finance 80 (3):755–781.
Hartzmark, S., Shue, K., 2023. Counterproductive sustainable investing: The impact elasticity of brown and green firms. Working Paper.
Oehmke, M., Opp, M. M., 2025. A Theory of Socially Responsible Investment. The Review of Economic Studies 92, 1193–1225.
van der Kroft, B., Palacios, J., Rigobon, R., Zheng, S., 2025. Timing sustainable shareholder proposals in real asset investments. Working Paper.

Thomas Peyrat publishes two new advances in applied probability


Thomas Peyrat, PhD student at CREST-GENES and at Exiom Partners, in Finance-Insurance, has just reached a major milestone in his doctoral journey with the publication of his first paper in ESAIM: Probability and Statistics, as well as the release of a new working paper.

These two works, conducted in collaboration with his advisors Caroline Hillairet (ENSAE Paris – CREST) and Anthony Réveillac (INSA Toulouse – Toulouse Mathematics Institute), are part of his PhD carried out in partnership with Exiom Partners, a consulting firm actively involved in applied research.

🔹 A new Clark–Ocone formula for Poisson functionals
The first paper, titled A non-compensated Clark–Ocone formula for Poisson functionals, develops a decomposition formula for integrable Poisson functionals. This non-compensated version offers several technical advantages compared to the classical compensated approach, paving the way for new potential applications.
👉 Read the article in ESAIM: Probability and Statistics

🔹 Multivariate self-exciting processes with dependencies
The second work, currently available as a preprint, introduces a new class of multivariate self-exciting processes capable of modeling dependencies between event intensities and values. This modeling framework is particularly promising in insurance applications, for instance to capture links between claim frequency and severity.
👉 Read the preprint

We warmly congratulate Thomas for these important contributions, which highlight the strength of collaboration between academic research and industry, as well as the quality of doctoral training at CREST.

Beyond the PhD – CREST Series #3: Insights from PhD Supervisors


At CREST, we aim to showcase the diverse career trajectories and perspectives of researchers who have navigated the path beyond their PhD. The “Beyond the PhD” series provides an opportunity to hear directly from experts across different fields about their experiences, challenges, and insights on life as a researcher.

For this third installment, we are featuring four distinguished researchers: Benoit Schmutz (Ecole polytechnique, IP Paris), Caroline Hillairet (GENES, ENSAE Paris, IP Paris), Paola Tubaro (CNRS, ENSAE Paris, IP Paris), and Nicolas Chopin (GENES, ENSAE Paris, IP Paris). Each of them shares their thoughts on the PhD journey, its impact on their careers, and the broader role of research in society.

Why pursue a PhD at CREST?

A PhD is much more than just academic training—it’s about developing a mindset that allows you to explore complex questions, think critically, and push the boundaries of knowledge. Our researchers highlight three key aspects that define the PhD experience at CREST:

🔹 An Environment for Intellectual Growth – A PhD is a journey of constant learning. You will develop a structured way of thinking, gain expertise in your field, and learn how to navigate uncertainty in research.

🔹 Opportunities for Interdisciplinary Work – At CREST, you will interact with researchers across economics, sociology, finance, and statistics, allowing for a dynamic and stimulating research experience.

🔹 A Supportive and Collaborative Research Culture – While research can be challenging, you will not be alone. Engaging with peers, supervisors, and the broader academic community is essential, and at CREST, we value collaboration as much as independence.

Watch the introduction to this series below.

Meet the Researchers

Each researcher featured in this edition brings a unique perspective on the PhD experience and beyond.

Benoit SchmutzFrom PhD to Applied Economics

Benoit discusses how a PhD equips students with essential analytical skills, particularly in understanding labor markets and urban economics. He emphasizes the importance of rigor and adaptability in research.

🎥 Watch Benoit’s insights

Caroline HillairetMathematics, Finance, and Research Opportunities

Caroline shares her journey from mathematics to finance, highlighting how a PhD opens doors to interdisciplinary research and the application of theoretical models to real-world problems.

🎥 Watch Caroline’s insights

Paola TubaroNetworks, Society, and the Role of Research

Paola discusses how her research in computational social sciences evolved, emphasizing the collaborative nature of research and the impact of digital transformations on society.

🎥 Watch Paola’s insights

Nicolas ChopinThe Art of Asking the Right Questions

Nicolas talks about the role of uncertainty in research, how a PhD teaches resilience, and the impact of Bayesian statistics in various domains, including machine learning.

🎥 Watch Nicolas’s insights

Advice for Future PhD Students

If you are considering applying for a PhD at CREST, here are a few key takeaways from our researchers:

Stay curious – Research is about exploration, so embrace new ideas and unexpected results.
Engage with the academic community – Attend conferences, collaborate with other researchers, and actively participate in lab activities.
Be patient and persistent – Progress in research takes time. Learning how to overcome obstacles is part of the PhD experience.
Think beyond the thesis – Your PhD is not just about writing a dissertation; it’s about developing a way of thinking that will shape your career.

Check out our two previous series of Beyond the PhD on the CREST YouTube Channel:

Beyond the PhD – Series 1 – a video centered on the International Job Market from Economics PhD students.

Beyond the PhD – Series 2 – a series of videos from our PhD students on the definition of what is a PhD.

Peter Tankov’s Lecture at the IMF: The Financial and Environmental Impacts of Green Investing


Bridging Theory and Practice in Sustainable Finance

Last week, Peter Tankov, professor of quantitative finance at CREST-ENSAE Paris, delivered a six-hour class at the International Monetary Fund (IMF) Institute for Capacity Development. The training, aimed at economists working in various departments of the IMF, explored the financial and environmental impacts of green investing, a topic that is increasingly central to global economic policies.

Tankov’s session addressed both the theoretical foundations and practical applications of sustainable investment strategies, emphasizing their dual role in shaping financial markets and environmental outcomes.

Understanding Green Investing: Financial and Environmental Implications

The class was structured around two core dimensions:

  1. Financial Impact of Green Investing

Tankov analyzed how the increasing participation of green investors influences asset pricing and portfolio returns. The discussion covered key topics such as:

  • The differential returns between green and brown assets
  • ESG rating uncertainty and its influence on investment decisions
  • The potential for green bubbles, where speculative enthusiasm drives asset prices beyond fundamentals
  • The role of transition risks, particularly as regulatory frameworks evolve
  1. Environmental Impact of Green Investing

Beyond financial metrics, the session explored the real-world environmental effects of sustainable investments. Topics included:

  • The mechanisms of impact investing—how investors can generate measurable environmental benefits alongside financial returns
  • The effectiveness of shareholder engagement in influencing corporate sustainability practices
  • How price signaling affects both the cost of capital for firms and their environmental performance

The reasons and consequences of the recent ESG backlash, which originated in the US but may spill over to Europe, were also discussed.

As a key economic policy advisor to governments and central banks worldwide, the IMF is well aware of the importance of accounting for climate risks—both those arising from the physical impacts of climate change and those resulting from the profound economic transformations it triggers, including the shift towards greener investment processes. Academic collaborations such as this one enable the IMF to further develop its in-house expertise on these critical issues.

These are challenging times for the practice of green investing, but from a research perspective, the past five years have been pivotal. We now have a much deeper understanding of its mechanics and impact—not just empirically but also through theoretical models. As governments relax reporting obligations and financial institutions engage in green-hushing, the role of academia and NGOs in driving progress has never been more crucial.

Welcome to the New Researchers Joining CREST in 2025


CREST is excited to welcome three new researchers who arrived in January 2025. Each brings unique expertise and a strong academic background, further strengthening our multidisciplinary research environment.

Jean-François Chassagneux

Position: Full Professor in Mathematics (ENSAE Paris)
Research Interests: : Mathematical finance & numerical probability: partial hedging and non-linear pricing, quantitative methods for transition risks and carbon markets, switching problems and reflected BSDEs, numerical methods for mean-field systems.
Previous Position: Full Professor in Applied Mathematics, Université Paris Cité & LPSM
Learn More: Jean-François Chassagneux’s personal webpage

Javier Gonzalez-Delgado

Position: Assistant Professor in Statistics (ENSAI)
Research Interests: Selective inference, hypothesis testing, clustering, and statistical methods for real-world problems in biology, particularly structural biology and genetics.
Previous Position: Postdoctoral researcher, Human Genetics, McGill University
Learn More: Javier Gonzalez-Delgado’s personal webpage

“After a period away from here, I am looking forward to reconnect with the French research community and develop new connections with scientists at CREST!”

Mohammadreza Mousavi Kalan

Position: Assistant Professor in Statistics (ENSAI)
Research Interests: Statistical machine learning, Transfer learning, Domain adaptation, Outlier detection, Optimization Theory, Distrusted Computing.
Previous Position: Postdoctoral researcher, Columbia University

“I am excited to join CREST as an Assistant Professor. CREST’s excellent research reputation makes it the perfect place to continue my academic journey. With renowned researchers at CREST, this opens up amazing opportunities for meaningful collaborations that will let me contribute to and grow with this vibrant community. I look forward to impactful research and close collaboration with such inspiring colleagues.”

We are delighted to welcome Jean-François, Javier, and Mohammadreza to the CREST. Their expertise and dedication to advancing research will undoubtedly contribute to the lab’s excellence. Stay tuned for updates on their research and collaborations!