Nye søkealgoritmer inspirert av baner øyets blikk følger, blikkbaner, åpner for en rekke potensielle bruksområder i autonome robotsøk hvor søketiden er kritisk, for eksempel måldeteksjon i overvåkingsapplikasjoner og visuell skanning for selvkjørende biler. Matematisk forskning har en tendens til å se bort fra at øynene er uløselig knyttet til den kognitive prosessen. Her blir øyebevegelser ofte behandlet som en enkel måte å søke etter visuell informasjon. Dette er imidlertid en grov forenkling: måten et menneskes øye skanner omgivelsene på reflekterer mer enn bare en strategi for å søke etter visuell informasjon, og ser ut til å være mer kompleks enn de nevnte intermitterende prosessene og andre søkestrategier som Lévy-flyvninger. Begge disse matematiske prosessene er tilsynelatende universelle når det gjelder å forklare innhøstingsadferden i prosesser så forskjellige som jaktbevegelsen til albatrosser og haier, bevegelsen av svømmebakterier og barns utforskning av Walt Disney Resort. Likevel, paradoksalt nok, pågår debatten fortsatt om hva dens generelle form faktisk er. Vår hypotese i dette "Virtuelt-Øye"-prosjektet er at noe av den ekstra kompleksiteten til blikkbaner, sammenlignet med Lévy-flyvninger eller intermitterende prosesser, er utformet for å optimere søket etter visuell informasjon. Dermed gir evnen til å modellere, forstå og etterligne den iboende dynamikken til menneskelige blikkbaner et stort håp om å revolusjonere fagfeltet autonome søk. Dette vil markere en ny æra i forskningen på autonome søk som tidligere har blitt dominert av søkealgoritmer basert på Lévy-flyvninger og som er en grov forenkling av menneskelige øyebevegelser og som ikke er optimale i virkelige omgivelser. For å modellere blikkbaner vil vi følge to hovedfamilier av tilnærminger: stokastisk modellering og modellering basert på kunstig intelligens (AI).
Novel search algorithms inspired by eye-gaze trajectories admit a list of potential applications in autonomous robotic search where the search time is critical such as target detection in surveillance applications and visual scan for self-driving cars. Mathematical research tends to forego that the eyes are intrinsically linked with the cognitive process. Here, eye movements are often treated as a simple way to forage for visual information. That is, however, a crude simplification: human scan-paths reflect more than just a strategy to forage for visual information and they seem to be more complex than the aforementioned intermittent processes and other searching strategies such as L'evy flights. Both these mathematical processes are seemingly universal in explaining the foraging behaviour in processes as diverse as the hunting movement of albatrosses and sharks, the movement of swimming bacteria or the exploration of the Walt Disney Resort by children. Yet, paradoxically, the debate is still ongoing what its general form actually is. Our hypothesis in this "Virtual-Eye" project is that some of the added complexity of gaze trajectories, when compared to L'evy flights or intermittent processes, are designed to optimize the search for visual information. Thus, the ability to model, understand and mimic the intrinsic dynamics of human eye-gaze trajectories holds a huge promise to revolutionise the field of autonomous search. This will mark a new era in the research of autonomous search which has been dominated by searching algorithms based on L'evy flights and which are crude simplification of human eye movement and are not optimal in real-life settings. In order to model gaze trajectories, we will follow tow main families of approaches: stochastic modelling and Artificial Intelligence (AI) based modelling.