Agosto 10, 2022

NbaRevolution

Covid crisi politica in Italia

forza di impatto visivo

Le caratteristiche dell'immagine influiscono sul tempo di reazione

immagine: il nuovo metodo determina la reazione in tempo reale dell’utente a un’immagine o una scena in base al movimento degli occhi, in particolare i movimenti oculari rapidi che vibrano tra i punti prima di fissarsi su un’immagine o un oggetto. I ricercatori presenteranno il loro nuovo lavoro, “Image Features Affecting Reaction Time: A Learned Probabilistic Perceptual Model of Saccade Response Time”, al SIGGRAPH 2022 tenutosi dall’8 all’11 agosto a Vancouver, BC, Canada.
Opinione Di più

Credito: ACM SIGGRAPH

Cosa motiva o spinge l’occhio umano a concentrarsi su un obiettivo e come, quindi, viene percepita quell’immagine visiva? Qual è il tempo che intercorre tra la nostra acuità visiva e la nostra reazione all’osservazione? Nel fiorente campo della realtà virtuale immersiva (VR) e della realtà aumentata (AR), collegare questi punti, in tempo reale, tra movimento degli occhi, obiettivi visivi e processo decisionale è la forza trainante di un nuovo modello computazionale sviluppato da un team di informatici della New York University, della Princeton University e di NVIDIA.

Il nuovo approccio determina la reazione in tempo reale di un utente a un’immagine o una scena in base al movimento degli occhi, in particolare i movimenti oculari rapidi che vibrano tra i punti prima della fissazione su un’immagine o un oggetto. Le saccadi consentono frequenti spostamenti di attenzione per comprendere meglio l’ambiente circostante e identificare gli oggetti di interesse. Comprendere il meccanismo e il comportamento delle saccadi è fondamentale per comprendere le prestazioni umane negli ambienti visivi e rappresenta un’entusiasmante area di ricerca nella computer grafica.

I ricercatori presenteranno il loro nuovo lavoro, intitolatoLe proprietà dell’immagine influenzano il tempo di reazione: un modello percettivo probabilistico appreso per la latenza saccadica“, in Seagrave 2022 Si è tenuto dall’8 all’11 agosto a Vancouver, British Columbia, Canada. La conferenza annuale, che quest’anno sarà di persona e virtuale, mette in evidenza i professionisti, gli accademici e le menti creative più importanti del mondo all’avanguardia nella computer grafica e nelle tecnologie interattive.

“Recentemente sono state condotte ricerche approfondite per misurare le qualità visive che gli esseri umani percepiscono, in particolare per gli schermi di realtà virtuale/aumentata”, afferma l’autore senior dell’articolo Qi Sun, PhD, professore associato di informatica e ingegneria presso la Tandon School of Ingegneria.

“Ma dobbiamo ancora esplorare in che modo i contenuti visualizzati possono influenzare i nostri comportamenti, anche in modo significativo, e come possiamo utilizzare questi display per spingere i nostri limiti di prestazioni che altrimenti non sarebbero possibili”.

Ispirandosi al modo in cui il cervello umano trasmette dati e prende decisioni, i ricercatori stanno implementando un modello probabilistico neuro-ispirato che simula l’accumulo di “fiducia cognitiva” che porta al processo decisionale e all’azione umana. Hanno condotto un esperimento psicofisico con stimoli parametrizzati per osservare e misurare l’associazione tra le caratteristiche dell’immagine, il tempo necessario per elaborarla per sparare un paracadutismo e se l’associazione differisce o meno da quella dell’acuità visiva.

Hanno convalidato il modello, utilizzando i dati di oltre 10.000 esperienze utente utilizzando un monitor VR eye-tracking, per comprendere e modellare la relazione tra contenuto visivo e “velocità” del processo decisionale basato sulla reazione a un’immagine. I risultati mostrano che la previsione del nuovo modello rappresenta accuratamente il comportamento umano nel mondo reale.

Il modello proposto può fungere da metrica per prevedere e modificare il tempo di risposta dell’immagine dell’occhio degli utenti nelle applicazioni di computer grafica interattiva e può anche aiutare a migliorare la progettazione di esperienze di realtà virtuale e le prestazioni dei giocatori negli eSport. In altri settori come quello sanitario e automobilistico, il nuovo modello potrebbe aiutare a stimare la capacità di un medico o di un conducente di rispondere rapidamente e di rispondere alle emergenze. Negli eSport, può essere applicato per misurare l’equità della competizione tra i giocatori o per capire meglio come massimizzare le prestazioni individuali poiché i tempi di reazione scendono a millisecondi.

Nel lavoro futuro, il team intende esplorare il potenziale degli effetti multimediali come segnali visivi e audio che influiscono congiuntamente sulla nostra percezione in scenari come la guida. Sono anche interessati ad espandere il lavoro per comprendere e rappresentare meglio le sottigliezze delle azioni umane influenzate dal contenuto visivo.

Autori di articoli, Budmonde Duinkharjav (Università di New York); Pranith Chakravarthula (Princeton); Rachel Brown (Nvidia); Anjul Patni (Nvidia); e Qi Sun (NYU), per dimostrare il loro nuovo metodo l’11 agosto al SIGGRAPH come parte del programma, Sessione tavola rotonda: visualizzazione. La carta può essere trovata qui.

Informazioni su ACM SIGGRAPH
CIGRAFO ACM È una comunità internazionale di ricercatori, artisti, sviluppatori, registi, scienziati e professionisti con un interesse comune per la computer grafica e le tecnologie interattive. L’Association for Computing Machinery (ACM), la prima e più grande comunità informatica al mondo, la nostra missione è coltivare, supportare e collegare ricercatori e professionisti che la pensano allo stesso modo per stimolare l’innovazione nella computer grafica e nelle tecnologie interattive.


Disclaimer: AAAS e EurekAlert! non è responsabile dell’accuratezza delle newsletter inviate su EurekAlert! Attraverso le istituzioni contribuenti o per l’utilizzo di qualsiasi informazione attraverso il sistema EurekAlert.

READ  Bethesda presenta la nuova modalità Doom Eternal Horde nel suo più grande aggiornamento gratuito, la prossima settimana