Wissenschaft & Technik

Die Kraft des visuellen Einflusses

Bildeigenschaften beeinflussen die Reaktionszeit

Bild: Der neue Ansatz bestimmt die Echtzeitreaktion eines Benutzers auf ein Bild oder eine Szene basierend auf seinen Augenbewegungen, insbesondere Sakkaden, extrem schnellen Augenbewegungen, die zwischen Punkten hin und her springen, bevor sie sich auf ein Bild oder Objekt fixieren . Die Forscher werden ihre neue Arbeit mit dem Titel „Image Features Influence Reaction Time: A Learned Probabilistic Perceptual Model for Saccade Latency“ auf der SIGGRAPH 2022 vorstellen, die vom 8. bis 11. August in Vancouver, BC, Kanada, stattfindet.
Aussicht mehr

Kredit: ACM SIGGRAPH

Was motiviert oder veranlasst das menschliche Auge, auf ein Ziel zu fixieren, und wie wird dieses visuelle Bild dann wahrgenommen? Wie groß ist die Verzögerungszeit zwischen unserer Sehschärfe und unserer Reaktion auf die Beobachtung? Im aufstrebenden Bereich der immersiven virtuellen Realität (VR) und erweiterten Realität (AR) ist die Verbindung dieser Punkte in Echtzeit zwischen Augenbewegungen, visuellen Zielen und Entscheidungsfindung die treibende Kraft hinter einem neuen, von einem Team entwickelten Rechenmodell von Informatikern an der New York University, der Princeton University und NVIDIA.

Der neue Ansatz bestimmt die Echtzeitreaktion eines Benutzers auf ein Bild oder eine Szene basierend auf seiner Augenbewegung, insbesondere Sakkaden, extrem schnelle Augenbewegungen, die zwischen Punkten ruckartig wechseln, bevor sie sich auf ein Bild oder Objekt fixieren. Sakkaden ermöglichen häufige Aufmerksamkeitsverschiebungen, um die Umgebung besser zu verstehen und interessante Objekte zu lokalisieren. Das Verständnis des Mechanismus und Verhaltens von Sakkaden ist entscheidend für das Verständnis der menschlichen Leistung in visuellen Umgebungen, die ein spannendes Forschungsgebiet in der Computergrafik darstellen.

Die Forscher werden ihre neue Arbeit mit dem Titel „Image Features Influence Reaction Time: A Learned Probabilistic Perceptual Model for Saccade Latency“ auf der SIGGRAPH 2022 vorstellen, die vom 8. bis 11. August in Vancouver, BC, Kanada, stattfindet. Die jährliche Konferenz, die dieses Jahr persönlich und virtuell stattfinden wird, stellt die weltweit führenden Fachleute, Akademiker und kreativen Köpfe an der Spitze der Computergrafik und interaktiver Techniken vor.

„In letzter Zeit wurden umfangreiche Untersuchungen zur Messung der visuellen Qualitäten durchgeführt, die Menschen wahrnehmen, insbesondere für VR/AR-Displays“, sagt der leitende Autor des Papiers Qi Sun, PhD, Assistenzprofessor für Informatik und Ingenieurwesen an der Tandon School of Engineering der New York University.

“Aber wir müssen noch untersuchen, wie die angezeigten Inhalte unser Verhalten auch nur spürbar beeinflussen können und wie wir diese Displays möglicherweise nutzen könnten, um die Grenzen unserer Leistung zu verschieben, die sonst nicht möglich sind.”

Inspiriert davon, wie das menschliche Gehirn Daten überträgt und Entscheidungen trifft, wenden die Forscher ein neurologisch inspiriertes Wahrscheinlichkeitsmodell an, das die Anhäufung von „kognitivem Vertrauen“ nachahmt, das zu einer menschlichen Entscheidung und Handlung führt. Sie führten ein psychophysisches Experiment mit parametrisierten Stimuli durch, um die Korrelation zwischen Bildmerkmalen und der Zeit, die benötigt wird, um sie zu verarbeiten, um eine Sakkade auszulösen, zu beobachten und zu messen, und ob/wie sich die Korrelation von der der Sehschärfe unterscheidet.

Sie validieren das Modell anhand von Daten aus mehr als 10.000 Benutzerexperimenten mit einem Eye-Tracking-VR-Display, um die Korrelation zwischen visuellen Inhalten und der „Geschwindigkeit“ der bildreaktionsbasierten Entscheidungsfindung zu verstehen und zu artikulieren. Die Ergebnisse zeigen, dass die Vorhersage des neuen Modells das menschliche Verhalten in der realen Welt genau widerspiegelt.

Das vorgeschlagene Modell kann als Metrik zur Vorhersage und Änderung der Reaktionszeit des Benutzeraugenbildes in interaktiven Computergrafikanwendungen dienen und kann auch dazu beitragen, das Design von VR-Erlebnissen und die Spielerleistung im Sport zu verbessern. In anderen Bereichen wie dem Gesundheitswesen und der Automobilindustrie könnte das neue Modell helfen, die Fähigkeit eines Arztes oder eines Fahrers zu beurteilen, schnell zu reagieren und auf Notfallsituationen zu reagieren. Im Sport kann es angewendet werden, um die Fairness des Wettbewerbs zwischen Spielern zu messen oder um besser zu verstehen, wie man seine Leistung maximiert, wenn die Reaktionszeit auf Millisekunden reduziert ist.

In zukünftigen Arbeiten plant das Team, das Potenzial für multimodale Effekte zu untersuchen, wie beispielsweise audiovisuelle Hinweise, die unsere Wahrnehmung in Szenarien wie dem Autofahren gemeinsam beeinflussen. Sie sind auch daran interessiert, das Projekt zu erweitern, um die Genauigkeit menschlicher Handlungen, die durch visuelle Inhalte beeinflusst werden, besser zu verstehen und darzustellen.

Die Autoren des Artikels, Budmonde Duinkharjav (NYU), Praneeth Chakravarthula (Princeton); Rachel Brown (NVIDIA); Anjul Patney (NVIDIA); und Qi Sun (NYU) werden ihre neue Methode am 11. August bei SIGGRAPH im Rahmen des Programms Roundtable Session: Perception demonstrieren. Das Papier finden Sie hier.

Über ACM SIGGRAPH
ACM SIGGRAPH ist eine internationale Gemeinschaft von Forschern, Künstlern, Programmierern, Filmemachern, Wissenschaftlern und Geschäftsleuten mit einem gemeinsamen Interesse an Computergrafik und interaktiven Techniken. Als spezielle Interessengruppe der Association for Computing Machinery (ACM), der weltweit ersten und größten Computergesellschaft, ist es unsere Mission, gleichgesinnte Forscher und Praktiker zu fördern, zu unterstützen und zu verbinden, um Innovationen in Computergrafik und interaktiven Techniken voranzutreiben.


Haftungsausschluss: AAAS und EurekAlert! übernehmen keine Verantwortung für die Richtigkeit der auf EurekAlert veröffentlichten Pressemitteilungen! mit beitragenden Institutionen zu kommunizieren oder Informationen über das EurekAlert-System zu verwenden.

About the author

m-admin

Leave a Comment