Tilbake til søkeresultatene

FRINATEK-Fri prosj.st. mat.,naturv.,tek

Algorithms and Models for Socially Beneficial Artificial Intelligence

Alternativ tittel: Algoritmer og modeller for sosialt nytte av kunstig intelligens

Tildelt: kr 12,0 mill.

Såkalt ?kunstig intelligens? (KI) brukes i økende grad i digitale informasjonssystemer. For at slike systemer skal vise seg samfunnsnyttige må vi ikke bare sørge for at de fungerer etter utviklernes intensjoner ? men også at konsekvensene av å iverksette disse systemene utvikles i tråd med allmenne hensyn til sosial rettferdighet.? Det er en rekke eksempler på teknologiske løsninger basert på tett interaksjon mellom mennesker og KI, som crowd sourcing, anbefalingssystemer, navigasjonssystemer, selvkjørende kjøretøy, kredittvurdering. KI brukes også i halvautomatiske medisinske systemer. Samspillet mellom mennesker og KI utvikles ofte på måter som ikke i tilstrekkelig grad avspeiler menneskelige motiv, sentrale verdier og typiske handlingsvalg. Skal slike systemer brukes i stor skala må man også ivareta overordnede samfunnsmessige hensyn som personvern og rettferdighet. I prosjektet skal samspillet mellom mennesker og KI undersøkes. Vi skal utvikle metoder for i større grad å tilpasse KI-systemer til etablerte samfunnsverdier. Dette innebærer å innarbeide hensyn til menneskelige prioriteringer og valg slik at teknologien i større grad fungerer i tråd med og ikke løsrevet fra disse. I dette prosjektet så langt har vi vurdert følgende problemer. For det første en meritokratisk forestilling om rettferdighet for grupper av mennesker, som belønner individer basert på deres relative bidrag til gruppen. For det andre en analyse av diskriminering, med fokus på når bekreftende handling iboende er bra for politikkmakeren. For det tredje en foreløpig analyse av data fra universitetsopptak i Norge. Til slutt en teoretisk analyse av stemmesystemer der stemmer kun delvis telles.

Artificially intelligent (AI) systems are playing an ever increasing role in society. To ensure that they are beneficial, we must guarantee that they act not only according to the designer's intentions, but also in a way that is fair to all individuals and groups affected by their decisions. Many applications integrate human and AI decisions, such as crowdsourcing, recommendation systems, navigation and autonomous vehicles, as well as decision support systems for credit risk and criminal recidivism. AI systems are also deployed in semi-automated design tools, and diagnostics in medicine. Humans interact with a pre-designed AI, which may by unaware of the motivations, behaviour or knowledge of people. When such an AI is used at scale, it must take into account broader, societal considerations, such as fairness and privacy. Our project will investigate the relationship between humans and AI in society. We will create algorithms for automatically aligning AI behaviour with societal values. This involves learning about human preferences and behaviour, and using this information so as to take both into account. Our work will be grounded on technical advances in reinforcement learning, mechanism design, differential privacy, and the emerging field of algorithmic fairness. A novel aspect of our proposal are informational notions of fairness, where the decision maker must consider feedback effects, and our explicit handling of human biases. The project will be implemented by the PI, one postdocotral researcher and two PhD students, in collaboration with researchers abroad. The latter will be enhanced through visiting researcher grants of 1-2 months per year. We expect that these will be mainly taken advantage of by the students hired by the project to travel to Harvard (USA), MPI (Germany) and EPFL and St. Gallen (Switzerland) where the PI has collaobrations in the area.

Budsjettformål:

FRINATEK-Fri prosj.st. mat.,naturv.,tek