L'objectif de la thèse
est d’améliorer des algorithmes actuellement utilisés pour aider les experts en
sûreté à analyser les réponses des simulateurs numériques de phénomènes
physiques.
Les simulations étant coûteuses, les algorithmes considérés construisent des
plans d’expériences de manière itérative, grâce à des métamodèles capables de
prédire les résultats des simulations. On s’intéresse en particulier aux simulations produites par des chaînes de
calcul (enchaînement séquentiel de plusieurs codes de calculs distincts).
Les informations produites par les premiers codes permettent une analyse dite « introspective » de la grandeur finale.
Dans un premier temps, nous travaillons sur les différents métamodèles
introspectifs admissibles, qui traitent les résultats comme une fonction à
plusieurs sorties.
Nous étudions ainsi les différentes formes de cokrigeage et proposons
une
amélioration au problème de l’optimisation de ses hyperparamètres. Nous
développons également un autre métamodèle introspectif,
l’hyperkrigeage. Nous faisons ensuite une comparaison des performances
prédictives de ces
métamodèles.
Dans un second temps, nous travaillons sur les algorithmes.
Un premier algorithme d’optimisation, appelé « Step or Stop Optimization
»,
prenant en compte les spécificités du cas introspectif, est
développé. Il permet de ne pas poursuivre des calculs si les premières
étapes n'y
encouragent pas.
Des comparaisons avec l’algorithme actuel tendent à confirmer une économie
importante des ressources de calcul grâce à la meilleure prise en compte de la
physique intermédiaire de la simulation. La stratégie utilisée dans cet algorithme peut être généralisée, et étendue à
des problématiques autres que l'optimisation.