Prosjektet SIGNIFY fokuserer på verifisering og validering av data samlet inn fra sensorer. Digitale tvillinger er et revolusjonerende produkt fra den nåværende digitale transformasjonen med et bredt spekter av applikasjoner, inkludert sikkerhetskritiske områder. Digitale tvillinger muliggjør effektive strategier for overvåking og planlegging av forskjellige aktiviteter, og de er avhengige av sanntids sensormålinger fra den virkelige verden. Dessverre kan data fra sensorer bli ødelagt, og deres injeksjon i den digitale tvillingen kan føre til feil planlegging av handlingen. Hovedmålet med SIGNIFY er å utvikle metodologier (og vurdere deres ytelse) for å forhindre ødelagte data som skal behandles av den digitale tvillingen (med fokus på sikkerhetskritiske applikasjoner) og unngå feilaktig planlegging av handlinger, hvis konsekvenser spenner fra ytelsesforringelse til manglende sikkerhet og risiko for fare.
I det første året har fleksible arkitekturer for å oppdage, isolere og tilpasse sensorfeil blitt designet og validert på forskjellige virkelige datasett. Ytelsen til foreslåtte løsninger er utmerket og overlegen i forhold til den nyeste teknologien. Skalerbarhet med antall sensorer er et kritisk problem som må reduseres.
I det andre året har varianter av den grunnleggende modulære arkitekturen blitt utforsket, inkludert bruk av forskjellige byggeklosser og feedback, noe som resulterer i betydelig ytelsesforbedring. Skalerbarhet er fortsatt et problem, og en ny retning som er avhengig av bruk av grafbehandling har vist lovende resultater både når det gjelder ytelse og skalerbarhet. Et reelt datasett relatert til CCS har blitt delt mellom prosjektpartnerne for validering av resultatene.
I det tredje året har skalerbarhetsproblemene blitt løst ved å modifisere den tidligere arkitekturen med introduksjonen av et "graph neural network". I tillegg har modellbaserte tilnærminger blitt foreslått basert på 3 varianter av distribuert Kalman-filtrering med datafusjonsmekanismer. Foreløpige resultater på datasettet knyttet til CCS er produsert.
I det fjerde året har fokus vært på å utvikle modellbaserte distribuerte arkitekturer som er i stand til å håndtere flere samtidige feil med redusert beregningskompleksitet. Utmerkede resultater er oppnådd på syntetiske data som simulerer oppførselen til CO2 og naturgass. Ytelse på data fra fysiske eksperimenter er under etterforskning.
The project shall develop a systematic framework for sensor-fault detection, isolation, and accommodation by forcing a paradigm shift towards the development and the integration of signal processing and machine learning methodologies into novel hybrid-analytics solutions. Building upon ground-breaking concepts from graph signal processing, deep learning and transfer learning, SIGNIFY shall design and test tailored strategies from a Bayesian perspective to be used as tools for sensor validation when importing data from physical assets into digital systems.
Designing optimization strategies exploiting real-time real-world data from sensors is one main value from the digital transformation. Unfortunately, sensors are prone to failures and injection of corrupted data into digital twins generates erroneous planning. When operating in closed loop, erroneous planning may lead to consequences ranging from performance degradation to lack of safety and risk of danger. The need for a validation tool before injecting sensor data into the digital twin is urgent in safety-critical applications.
Among relevant areas, Industry 4.0 focuses on development of safety-critical systems, where the high level of accuracy is needed when validating sensor data. In these systems it is hard to predict a malfunction by looking at the data without prior knowledge of the underlying phenomenon. Results from SIGNIFY will be general enough to apply to a large variety of scientific/application domains, however during the project 2 uses cases within the Industry 4.0 framework will be considered:
(UC1) Flow Assurance for CO2 Transport Operations;
(UC2) Low-Temperature CO2 Liquefaction and Phase Separation for Carbon Capture.
The facilities selected will allow the integration of physical models to benchmark sensor data and fit the Bayesian approach employed in SIGNIFY to combine signal processing and machine learning techniques. Performance improvement will be assessed in terms of validation accuracy.