I meccanismi cerebrali della visione e dell’esplorazione visuo-spaziale

Nell’essere umano, oltre il 60% dell’attività cerebrale è connessa con l’elaborazione del segnale visivo. Circa il 90% del tempo impiegato nella visione è dedicato alla fissazione il rimanente 10% è usato per spostare gli occhi dall’attuale punto di fissazione ad un punto successivo. In media avvengono circa tre fissazioni al secondo durante la visione attiva in questi casi ogni fissazione ha una durata variabile (300-500 ms). Le fissazioni sono intercalate da movimenti rapidi di spostamento chiamati  saccadi, che sono i movimenti più veloci che il corpo umano possa eseguire. Il sistema visivo umano per sua natura presenta una limitata capacità di processazione dell’enorme quantità di dettagli che provengono dall’ambiente esterno. Ciò comporta la necessità di selezionare gli stimoli percettivi più salienti. Uno dei settori più prolifici della ricerca nelle neuroscienze della visione, riguarda proprio lo studio dei meccanismi che guidano la selezione degli stimoli e la direzione dello sguardo durante l’esplorazione visuo-spaziale. Tali meccanismi possono dipendere dalla salienza dell’immagine (esplorazione visiva bottom-up), ovvero dalle sue caratteristiche fisiche: colore, forma, contrasto; oppure dalle attuali richieste cognitive, esecuzione di un compito (esplorazione top-down). Sulla base di queste teorie, sono stati costruiti numerosi modelli matematici per riprodurre la direzione di sguardo e prevedere la cattura attentiva durante l’esplorazione visiva di un’immagine. Nello studi apparso in questi giorni su Nature Scientific Reports i ricercatori di UNISI presentano un nuovo modello matematico “gravitazionale”, che descrive in modo originale l’attenzione visiva e che permette di prevedere i movimenti oculari. All’interno dell’articolo viene proposta una descrizione delle aree cerebrali coinvolte in questo processo. L’implementazione del modello consente di simulare in real-time i movimenti oculari su un qualsiasi video. Il confronto con i dati umani mostra un notevole aumento di precisione della stima rispetto alle precedenti proposte. Questi risultati hanno un forte impatto applicativo. In virtual reality (VR) è possibile ottimizzare lo streaming in base ad una stima dei movimenti oculari. Si può migliorare una campagna di marketing valutando in anticipo l’efficacia dei contenuti visivi e prevedendo quali caratteristiche attrarranno maggiormente l’attenzione degli utenti. Infine, simulando i movimenti oculari umani, è possibile dotare intelligenze artificiali di capacità simili all’uomo e renderli capaci di svolgere compiti sempre più complessi e di interagire con gli umani stessi in maniera più naturale.

Assegno di ricerca per Evalab-eyetech

Richieste competenze nell’analisi dei segnali, modelli computazionali e di circuiti

Disponibile posizione per assegnista di ricerca con competenze nell’analisi dei segnali, modelli computazionali e di circuiti (Bioingegnere, Ingegnere Informatico, Ingegnere delle Telecomunicazioni e Sistemi) presso il laboratorio di Eye-Tracking & Visual Applications – EVAlab (Università di Siena, www.evalab-eyetech.com).

Siamo un laboratorio dinamico con esperienza riconosciuta a livello mondiale in analisi del movimento oculare. Offriamo la possibilità di far parte di un ambiente dinamico, a contatto sia con strutture estere sia altre realtà locali. In particolare, ci occupiamo di analisi del movimento oculare, di task di ricerca visiva e di analisi delle pupille con applicazioni sia alla ricerca sia all’ambito clinico. Il candidato ideale deve possedere una buona conoscenza della lingua inglese ed esperienza, o comunque interesse, nella gestione della strumentazione di laboratorio e nell’analisi di segnale fisiologico in Matlab. La conoscenza di uno o più linguaggi di programmazione sarà considerata come un valore aggiunto.

Contatti:

Alessandra Rufa: rufa@unisi.it

EvaLab-EyeTech e-mail: info@evalab-eyetech.com; evalabeyetech@gmail.com

Available research assignment position to work with us!

Available research assignment position for signal processing, computatioal models and circuitry (Bioengineering, Information Technology and Telecommunications engineeringat the Eye-Tracking & Visual Applications – EVAlab (Università di Siena, www.evalab-eyetech.com).

We are a dynamic laboratory with international experience in the eye-movement domain.  We offer the possibility to join a multi-disciplinary group working both with local and international companies. We assess eye-movements and perform visual search tasks and pupil analysis, with application on both the clinical and the research field.  The ideal candidate would have a good knowledge of English and experience and/or interest in the management of the laboratory instrumentation and in the analysis of physiological signal with Matlab.  The knowledge of one or more program languages will be considered an asset.

If you are interested in working with us, contact us by e-mail or telephone! 

CONTACTS

Available research assign to work with us!

Available research assignment position for signal processing, computatioal models and circuitry (Bioengineering, Information Technology and Telecommunications engineering)

We are looking for an engineer to join our laboratory (Eye-Tracking & Visual Applications – EVAlab (Università di Siena, www.evalab-eyetech.com). We are a dynamic laboratory with international experience in the eye-movement domain.  We offer the possibility to join a multi-disciplinary group working both with local and international companies. We assess eye-movements and perform visual search tasks and pupil analysis, with application on both the clinical and the research field.  The ideal candidate would have a good knowledge of English and experience and/or interest in the management of the laboratory instrumentation and in the analysis of physiological signal with Matlab.  The knowledge of one or more program languages will be considered an asset.

If you are interested in working with us, contact us by e-mail or telephone! 

CONTACTS