Tilbake til søkeresultatene

FRIPRO-Fri prosjektstøtte

Unveiling the neural codes for posture and action in 3D

Alternativ tittel: Avduking av nevrale koder for holdning og handling i 3D

Tildelt: kr 12,0 mill.

Et av de store spørsmålene nevrovitenskapen står overfor i det 21. århundre er hvordan hjernen genererer frivillig, målrettet atferd. I arbeidet med å besvare dette spørsmålet har mange nevrovitenskapelige fagmiljøer vha. avansert teknologi i betydelig grad fokusert på å gjøre opptak av og undersøke den pågående nevrale aktiviteten i hjernen hos dyr som utfører ulike prekonfigurerte atferdsoppgaver designet av forskere. Selv om dette har medført en bemerkelsesverdig utvikling av verktøy til å studere funksjonen til nevrale nettverk, så har det samtidig flyttet fokuset bort fra å studere mangfoldet og oppbygningen av atferd som hjernen i utgangspunktet evolusjonært utviklet seg for å generere. Mangelen på avanserte metoder for å kvantifisere naturlig selvdreven atferd begrenser feltets evne til å gjøre meningsfulle sammenkoblinger mellom nevral aktivitet og atferd, noe som begrenser vår forståelse av atferdsfenotyper i genetiske sykdomsmodeller. Dette prosjektet har som mål å redusere denne begrensningen ved å gjøre betydelig avansement innen metodologi for sporing av atferd og deretter koble data fra dette direkte til opptak av nevrale populasjoner gjort under sporingen. For å oppnå denne koblingen av atferdsdata og nevral populasjonskoding vil vi spesifikt utvikle moderne metoder for å integrere sporing av ansiktsuttrykk med 3D sporing av hele kroppen til dyr som beveger seg fritt. Med dette kan vi måle hvordan dyrene aktivt oppfatter miljøet og hvordan de bruker sensorisk input til å dynamisk forme kroppens positur og kinematikk, for deretter å koble dette sammen med simultane opptak av hundre til tusenvis av nevroner på tvers av ulike kortikale regioner. Med det kan vi danne oss et bilde av hvordan dynamisk atferd kodes for i neocortex. Dette prosjektet bygger på vårt tidligere arbeid hvor vi viser at de høyere motorsentrene i cortex tydelig representerer 3D-positurer og bevegelser fremvist under ulike romlige atferdsoppgaver. De viktigste kommende målene er nå å forstå (i) om representasjon av positurer er unik for høyere motoriske områder, eller om den er til stede også i primære kortikale områder, eksempelvis primære visuelle eller motoriske kortikale sentere, og (ii) hvordan sensoriske systemer i hjernen takler det faktum at positurene våre kontinuerlig endres. Med andre ord, hvordan påvirker positursignaler sensorisk prosessering på et nevralt nivå? Ved å studere hvordan hjernen til disse dyrene representerer naturlige atferdsmønstre i 3D, håper vi å avdekke generelle nevrale kodingsprinsipper for målrettet motorisk atferd som kan brukes for eksempel til å forbedre effektiviteten til hjernestyrte proteseanordninger hos pasienter som lider av parese. Dataene hentet fra dette arbeidet kan også brukes i optimalisering av generative bevegelsesalgoritmer innen robotikk - et felt som har til hensikt å produsere maskiner for å hjelpe mennesker i ekstreme eller farlige miljøer og redningssituasjoner.

One of the great scientific challenges facing this century is understanding how the brain generates cognition and behavior. Pursuit of this goal has motivated the development of extraordinary technologies for recording, manipulating and mapping cells throughout the brain. By comparison, far less focus has been placed on tools to quantify animal behavior objectively and precisely, which limits our ability to draw meaningful links between neural activity and behavior, and constrains our understanding of behavioral phenotypes in genetic disease models. Solving such challenges will require novel frameworks for relating neural activity to natural behavior, tracked precisely and at relevant spatiotemporal scales. The goal of this proposal is to therefore make transformative advances in measuring neural tuning to behavior in rodents by integrating eye- and whisker-tracking with a 3D tracking platform pioneered in my lab. The project will have as its starting point our recent discovery of postural coding in the posterior parietal cortex (PPC) and frontal motor cortex (M2), areas critical for coordinating movement through space. The first experiments will test if postural tuning is unique to these regions, or if it is a universal feature of cortical processing, a question that is prompted by our pilot observations of 3D postural tuning in visual cortex (V1). Higher-risk experiments will then incorporate eye tracking to measure how postural and visual signals are integrated in V1, and to characterize visual tuning properties in freely behaving animals. Together, these experiments will provide an unprecedented, comprehensive view on the neural coding of intact behavior using a platform that will be open-sourced and applicable to any disease model in mice or rats.

Publikasjoner hentet fra Cristin

Ingen publikasjoner funnet

Ingen publikasjoner funnet

Ingen publikasjoner funnet

Ingen publikasjoner funnet

Budsjettformål:

FRIPRO-Fri prosjektstøtte

Finansieringskilder