Tilbake til søkeresultatene

OFFPHD-Offentlig sektor-ph.d.

Machine learning and uncertainty quantification for surrogate models of IoT environments

Alternativ tittel: Maskinlæring og kvantifisering av usikkerhet for surrogatmodeller av IoT miljøer.

Tildelt: kr 1,8 mill.

Prosjektnummer:

323362

Prosjektperiode:

2021 - 2024

Midlene er mottatt fra:

Geografi:

Samarbeidsland:

Tanken bak Tingenes internett er at når mange «smarte» produkter kobles til Internettet og kan kommunisere sammen vil de i sum gi bedre utnyttelse av ressurser, bedre og mer tilpassede tjenester for brukerne. En slik integratsjon av smarte produkter vil også øke risiko for digitale angrep hvor et IoT enhet med svak sikkerhet bare er et første ledd i en kjede mot et mer verdifullt mål, hvor enheter kan brukes til overvåkning og hvor den store mengden med IoT enheter vil kreve store ressurser å sikre. Utfordringen med å sikre infrastruktur hvor IoT enheter bidrar til stadig økende kompleksitet og dynamikk vil kunne sette våre eksisterende metoder for risikohåndtering på en alvorlig prøve allerede i nær fremtid. Det hevdes allerede at noen systemer nå er så komplekse at ingen menneskelige eksperter er i stand til å forstå dem fult ut. Det er åpenbart at det må utvikles nye metoder som er mindre avhengige av menneskelige eksperter for å håndtere økende dynamikk og kompleksitet i infrastrukturer større mengder IoT enheter med svake cybersikkerhetsprofiler.

I samråd med Kungliga tekniska högskolan er "Machine learning and uncertainty quantification for surrogate models of IoT environments" foreslått som tittel for PhD-oppgaven. Maskinlæring er metoder som lar datamaskiner finne frem til løsninger på egenhånd, med varierende grad av veiledning fra mennesker. En av fordelene med denne type tilnærminger er at maskiner kan finne løsninger som er umulige for mennesker å se. «Surrogate models» er en digital kopi/ tvilling av et system. En digital kopi kan brukes til simuleringer uten fare for å skade selve systemet, få en bedre forståelse av IoT-miljøet og gi bedre transparens og forklarbarhet («explainability», dvs. god forståelse av hvordan og hvorfor AI/maskinlæring oppfører seg som det gjør for gitt scenario. Dette er sentral for å gi tillit til løsninger som tas frem.). «Uncertainty quantification» beskriver usikkerhet i resultatene og gir nødvendig informasjon til risikovurdering. Risiko er usikkerhet rundt måloppnåelse. Risikovurdering gir et konkret grunnlag for å innføre målrettede tiltak for å håndtere identifisert risiko i IKT-systemer. Slik risikovurdering praktiseres i dag av blant annet NSM og Riksrevisjonen er metodene en blanding av analyse av dokumenter, intervjuer og innhenting av data fra IKT-systemet. I praksis blir mye av forståelsen av risiko og hva som er hensiktsmessige tiltak basert på subjektive vurderinger. I IoT-miljøer vil, som nevnt i FFI rapporten, slike vurderinger bli svært krevende og øke muligheten for feilaktige vurderinger. Digitale kopier og ML /KI brukes i flere industrier for å understøtte risikovurderinger, men den spesifikke kombinasjonen for anvendelser i miljøer med mye IoT-utstyr er et foreløpig nytt forskningsfelt.

Budsjettformål:

OFFPHD-Offentlig sektor-ph.d.

Finansieringskilder