Tilbake til søkeresultatene

FRIPRO-Fri prosjektstøtte

CaReLearner: Causal Reasoning with Logical Interpretable Learning

Alternativ tittel: CaReLearner: Resonnering om kausalitet med logisk tolkbar læring

Tildelt: kr 12,0 mill.

Forskere samler stadig flere bevis på at maskinlæringsmodeller basert på korrelasjon er skjøre. Disse modellene skiller ikke mellom korrelasjon og årsakssammenheng. Som sådan gir de begrenset innsikt og kan ikke resonnere om virkningene av handlinger. De tradisjonelle feltene logikk, kausal resonnering og dyp læring har slitt med å lære storskala årsaksmodeller i flere tiår. Hver tilnærming står overfor betydelige hindringer. CaReLearner-prosjektet skal utvikle en enhetlig tilnærming som skal løse kjerneutfordringene til hvert paradigme. Prosjektet bygger på Tsetlinmaskinen og tar for seg den uløste læringsutfordringen innen logikk, skaleringsutfordringen til kausal resonnering og korrelasjonsavhengigheten til dyp læring. Vi vil dermed muliggjøre kausale og kontrafaktiske resonnementer i stor skala. Dette innebærer sammenkobling av bilder, tidsserier, tabelldata og tekst i tid og rom, for å håndtere utfordrende multimodale datasett fra kunnskapsintensive anvendelsesområder. En medisinsk datasett vil validere i hvilken grad de lærte modellene fanger opp årsaksmekanismer gjennom multimodale observasjoner vurdert av domeneeksperter. I første fase i prosjektet har vi initiert forskning i tre retninger: 1) Multi-modale Tsetlinmaskiner som kombinerer tekst og bilde; 2) Skalerbar læring av Bayesianske nettverk fra data; og 3) Modellering og analyse av hvordan Tsetlinmaskinen fanger usikkerhet.

Researchers are accumulating increasing evidence that machine learning models based on correlation are brittle. These models do not distinguish between correlation and causation, and, thus, they provide limited insight and cannot reason about the effects of actions for decision-making. The traditional fields of logical engineering, causal inference, and deep learning have struggled with learning causal models at scale for several decades, each approach facing substantial obstacles. The CaReLearner project seeks to adopt a unified approach to address the core challenges from each paradigm, dealing with the unresolved learning challenge in logical engineering, the scaling challenge of probabilistic causal models, and the correlation-reliance of deep learning. The unified approach merges: (1) recursive logical Horne clauses for modeling all possible functions that can be calculated; (2) causal Tsetlin machine learning for distilling causal mechanisms from data into causal Horn clauses; (3) large-scale probabilistic causal reasoning over sparse truth tables in Horn clause form. We will evaluate the ability to do causal and counterfactual reasoning at scale, which entails interconnecting images, time series, tabular data, and natural language text across time and space, on challenging multi-modal datasets from knowledge-intensive domains involving safety-critical decision-making. Compared to deep learning architectures, the performance target measures are: (1) surpassing or maintaining accuracy, (2) reducing energy by 100x, (3) reducing memory by 10x, and (4) reducing the overall computation cost by 10x. A medical case will validate the degree to which the learned models capture causal mechanisms through multi-modal observations, assessed by human domain experts. Overall, the most far-reaching impact of CaReLearner will be to synergize the above three fields, unifying the artificial intelligence community under a new research paradigm.

Publikasjoner hentet fra Cristin

Ingen publikasjoner funnet

Ingen publikasjoner funnet

Ingen publikasjoner funnet

Ingen publikasjoner funnet

Budsjettformål:

FRIPRO-Fri prosjektstøtte

Finansieringskilder