For å lete etter universets byggestener, og for eksempel svare på slike fundamentale spørsmål som: "Hva er egentlig mørk materie?", så må partikkelfysikere i dag gjøre veldig tunge beregninger på superdatamaskiner for å sammenligne teori og eksperiment. Dette prosjektet har som mål å fjerne beregningsmessige flaskehalser som i dag hindrer oss i å gjøre nye oppdagelser. Vi vil gjøre dette i et tverrfaglig samarbeid mellom partikkelfysikere og statistikere ved å utvikle avanserte statistiske metoder for søk etter nye elementærpartikler, utvikle nye former for maskinlæring som kan korte ned på beregningstid i slike søk, og utvikle moderne kode for mer effektive beregninger.
I løpet av prosjektets første to år har fokus vært på to hovedoppgaver. Den første har vært å bygge kode for å gjøre såkalt kontinuerlig læring med fysikkdata. Dette er en maskinlæringsteknikk som stadig oppdaterer seg selv på en strøm av data. Her er både kodebase som bygger på en statistisk regresjonsmetode som kalles gaussiske prosesser, og to tilhørende artikler som beskriver koden og benytter den på praktiske problemer, nær ferdige. Disse er planlagt publisert i løpet av høsten 2024.
Den andre hovedoppgaven har vært å bygge en robust kodebase for å gjøre beregninger av såkalte produksjonstverrsnitt i kvantefeltteori. Dette er en måte å beskrive sannsynligheten for å produsere nye partikler på i en partikkelakselerator som Large Hadron Collider ved CERN, og er en av de store flaskehalsene i partikkelfysikk dag. Her har vi jobbet med å lage kode som er mye raskere enn eksisterende kode, og som automatiserer det som trengs for å gjøre beregningene for nye fysikkmodeller. Underveis har vi funnet flere unøyaktigheter og feil i eksisterende programmer som er mye benyttet i fagfeltet, og funnet en måte å bruke grafikkort (GPUer) til å akselerere de numeriske beregningene.
When exploring the smallest fundamental constituents of the Universe physicists are faced with very serious calculational bottlenecks. To compare new physics models to data, for example from the Large Hadron Collider or astrophysical observations, we need to perform very computationally expensive calculations in quantum field theory (QFT); expensive due to the increasing complexity of higher-order quantum corrections. These are today too slow to perform at the necessary precision except for the simplest models. At the same time, the interpretation of the models given the available data, the best-fit regions of their parameter spaces, and the comparison of different models with each other through their goodness-of-fit, is made computationally intractable due to the size of the parameter spaces of the models and the complexity of the likelihood evaluation for each model.
The solution to these inherent problems can not be found in physics alone. This project builds on an interdisciplinary collaboration between physicists and statisticians focused on statistical learning and inference problems in high-energy physics. The project will develop machine learning based regression techniques to speed up QFT calculations with a proper probabilistic interpretation of uncertainties from higher-order contributions, it will develop a continual learning framework for faster emulation of the likelihood for model parameters, and it will investigate new improved statistical approaches to the problems of best-fit and goodness-of-fit using these emulations.
Finally, the project will investigate a number of promising new physics models that can answer questions such as: What is dark matter? Are the properties of the Higgs boson indicating that the Universe is fundamentally unstable? Why is there more matter than anti-matter in the Universe? If funded, this project will increase the reach of large and costly experiments in answering these questions for a relatively small extra cost.