<div dir="ltr"><div>Buongiorno a tutt*,</div><div><br></div><div>ricevo e inoltro il seguente avviso.</div><div><br></div><div>Cordiali saluti,</div><div>Lorenzo Tamellini<br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">---------- Forwarded message ---------<br>Da: <b class="gmail_sendername" dir="auto">francois murat</b> <span dir="auto">&lt;<a href="mailto:francois.murat@sorbonne-universite.fr">francois.murat@sorbonne-universite.fr</a>&gt;</span><br>Date: lun 13 nov 2023 alle ore 23:38<br>Subject: [sciences-ljll-seminaire] Leçons Jacques-Louis Lions 2023 : Andrew Stuart (12--15 décembre 2023) ; 2ème annonce<br>To:  &lt;<a href="mailto:sciences-ljll-seminaire@listes.sorbonne-universite.fr">sciences-ljll-seminaire@listes.sorbonne-universite.fr</a>&gt;<br></div><br><br><div style="word-wrap:break-word;line-break:after-white-space"><div>Données par <b>Andrew Stuart</b> (Institut de technologie de Californie (Caltech)), </div><div><div style="margin:0px;font-stretch:normal;line-height:normal">les <b>Leçons Jacques-Louis Lions 2023 </b>consisteront en : </div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal">-- un <b>mini-cours</b> intitulé :</div><div style="margin:0px;font-stretch:normal;line-height:normal"><b><span style="white-space:pre-wrap">        </span>Ensemble Kalman filter: Algorithms, analysis and applications </b></div><div style="margin:0px;font-stretch:normal;line-height:normal"><b>3 séances, les mardi 12, mercredi 13 et jeudi 14 décembre 2023 de 11h à 12h30,</b> </div><div style="margin:0px;font-stretch:normal;line-height:normal">Salle du séminaire du Laboratoire Jacques-Louis Lions, </div><div style="margin:0px;font-stretch:normal;line-height:normal">barre 15-16, 3ème étage, salle 09 (15-16-3-09), </div><div style="margin:0px;font-stretch:normal;line-height:normal">Sorbonne Université, 4 place Jussieu, Paris 5ème, </div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal">-- et un <b>colloquium</b> intitulé :</div><div style="margin:0px;font-stretch:normal;line-height:normal"><span style="white-space:pre-wrap">        </span><b>Operator learning: Acceleration and discovery of computational models</b> </div><div style="margin:0px;font-stretch:normal;line-height:normal"><b>le vendredi 15 décembre 2023 de 14h à 15h,</b> </div><div style="margin:0px;font-stretch:normal;line-height:normal">Amphithéâtre 25, </div><div style="margin:0px;font-stretch:normal;line-height:normal">entrée face à la tour 25, niveau dalle Jussieu,</div><div style="margin:0px;font-stretch:normal;line-height:normal">Sorbonne Université, 4 place Jussieu, Paris 5ème. </div><div style="margin:0px;font-stretch:normal;line-height:normal"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal"><div style="margin:0px;font-stretch:normal;line-height:normal"><b>Page web </b></div><div style="margin:0px;font-stretch:normal;line-height:normal"><span style="white-space:pre-wrap">        </span><a href="https://www.ljll.math.upmc.fr/lecons-jacques-louis-lions-2023-andrew-stuart" target="_blank">https://www.ljll.math.upmc.fr/lecons-jacques-louis-lions-2023-andrew-stuart</a> </div></div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal"><b>Tous les exposés seront donnés en présence et retransmis en temps réel par Zoom.</b></div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal">Le lien Zoom pour suivre à distance la Leçon du jour sera diffusé chaque matin par email à la liste de diffusion du Séminaire du Laboratoire Jacques-Louis Lions. </div><div style="margin:0px;font-stretch:normal;line-height:normal">Ce lien sera également mis en ligne chaque matin sur les pages web </div><div style="margin:0px;font-stretch:normal;line-height:normal"><span style="white-space:pre-wrap">        </span><a href="https://www.ljll.math.upmc.fr/lecons-jacques-louis-lions-2023-andrew-stuart" target="_blank">https://www.ljll.math.upmc.fr/lecons-jacques-louis-lions-2023-andrew-stuart</a> <span style="white-space:pre-wrap">        </span></div><div style="margin:0px;font-stretch:normal;line-height:normal"><span style="white-space:pre-wrap">        </span><a href="https://www.ljll.math.upmc.fr/seminaire-du-laboratoire" target="_blank">https://www.ljll.math.upmc.fr/seminaire-du-laboratoire</a> </div><div style="margin:0px;font-stretch:normal;line-height:normal"><span style="white-space:pre-wrap">        </span><a href="https://www.ljll.math.upmc.fr/seminaire-du-laboratoire/seminaires-de-l-annee-2023" target="_blank">https://www.ljll.math.upmc.fr/seminaire-du-laboratoire/seminaires-de-l-annee-2023</a> </div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal"><b>Attention</b> : ce lien Zoom sera différent chaque jour. </div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal"><b>Résumé du mini-cours </b></div><div style="margin:0px;font-stretch:normal;line-height:normal"><b>Ensemble Kalman filter: Algorithms, analysis and applications </b></div><div style="margin:0px;font-stretch:normal;line-height:normal">In 1960 Rudolph Kalman [1] published what is arguably the first paper to develop a systematic, principled approach to the use of data to improve the predictive capability of dynamical systems. As our ability to gather data grows at an enormous rate, the importance of this work continues to grow too. Kalman&#39;s paper is confined to linear dynamical systems subject to Gaussian noise; the work of Geir Evensen [2] in 1994 opened up far wider applicability of Kalman&#39;s ideas by introducing the ensemble Kalman filter. </div><div style="margin:0px;font-stretch:normal;line-height:normal">The ensemble Kalman filter applies to the setting in which nonlinear and noisy observations are used to make improved predictions of the state of a Markov chain. The algorithm results in an interacting particle system combining elements of the Markov chain and the observation process. In these lectures I will introduce a unifying mean-field perspective on the algorithm, derived in the limit of an infinite number of interacting particles. I will then describe how the methodology can be used to study inverse problems, opening up diverse applications beyond prediction in dynamical systems. Finally I will describe analysis of the accuracy of the methodology, both in terms of accuracy and uncertainty quantification; despite its widespread adoption in applications, a complete mathematical theory is lacking and there are many opportunities for analysis in this area.</div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal">Lecture 1: The algorithm</div><div style="margin:0px;font-stretch:normal;line-height:normal">Lecture 2: Inverse problems and applications</div><div style="margin:0px;font-stretch:normal;line-height:normal">Lecture 3: Analysis of accuracy and uncertainty quantification</div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal">[1] R. Kalman, <i>A new approach to linear filtering and prediction problems.</i></div><div style="margin:0px;font-stretch:normal;line-height:normal">Journal of Basic Engineering, 82:35–45, 1960.</div><div style="margin:0px;font-stretch:normal;line-height:normal">[2] G. Evensen, <i>Sequential data assimilation with a nonlinear quasi-geostrophic model using Monte Carlo methods to forecast error statistics.</i></div><div style="margin:0px;font-stretch:normal;line-height:normal">Journal of Geophysical Research: Oceans, 99(C5):10143–10162, 1994.</div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal;min-height:17px"><br></div><div style="margin:0px;font-stretch:normal;line-height:normal"><b>Résumé du colloquium </b></div><div style="margin:0px;font-stretch:normal;line-height:normal"><b>Operator learning: Acceleration and discovery of computational models </b></div><div style="margin:0px;font-stretch:normal;line-height:normal">Neural networks have shown great success at learning function approximators between spaces X and Y, in the setting where X is a finite dimensional Euclidean space and where Y is either a finite dimensional Euclidean space (regression) or a set of finite cardinality (classification); the neural networks learn the approximator from N data pairs (x_n, y_n). In many problems arising in physics it is desirable to learn maps between spaces of functions X and Y; this may be either for the purposes of scientific discovery, or to provide cheap surrogate models which accelerate computations. New ideas are needed to successfully address this learning problem in a scalable, efficient manner.</div><div style="margin:0px;font-stretch:normal;line-height:normal">In this talk I will overview the methods that have been introduced in this area and describe theoretical results underpinning the emerging methodologies. Illustrations will be given from a variety of PDE-based problems including learning the solution operator for dissipative PDEs, learning the homogenization operator in various settings, and learning the smoothing operator in data assimilation.</div><div><br></div></div></div></div></div></div>