DFG project G:(GEPRIS)277092464

Projekt A3. Erwerb und Anpassung von räumlichen Aufmerksamkeitsschablonen in der visuellen Suche

CoordinatorProfessor Dr. Thomas Geyer
Grant period2015 - 2025
Funding bodyDeutsche Forschungsgemeinschaft
 DFG
IdentifierG:(GEPRIS)277092464

FOR 2293: Active Perception

Note: In natürlichen Umgebungen erscheinen einzelne Zielreizobjekte üblicherweise nicht voneinander isoliert, sondern eingebettet in Konfigurationen, die aus mehreren Kontextelementen bzw. Distraktoren bestehen. Wenn in solchen Anordnungen die Position eines Zielreizes relativ zu den Distraktoren über die Zeit konstant gehalten wird, dann werden entsprechende räumlichen Kontingenzen implizit gelernt und lenken nachfolgend die visuelle Suche und Aufmerksamkeit (sog. Contextual-Cueing-Effekt; Chun & Jiang, 1998; Geyer et al., 2010b). Mit Bezug zu prädiktiven Kodierungsmodellen können implizite, konfigurale Lernprozesse als graduelle Aneignung von Assoziationen zwischen Wirkung (sensorischer Stimulation oder gegebenes Suchdisplay) und Ursache (Ort des Targets innerhalb des Suchdisplays) verstanden werden (z.B. Friston, 2010; Conci et al., 2012). Allerdings hängt die Effektivität von kontextuellen Prädiktionen wesentlich von der Konsistenz zwischen bottom-up Eingangssignalen und den entsprechenden Gedächtnisrepräsentationen ab. Wenn beispielsweise nach einer Lernphase ein mit einem Kontext assoziierter Zielreiz an eine nicht vorhergesagte Position (in einem sonst unveränderten Kontext) versetzt wird, dann bricht durch diese Positionsveränderung der kontextuelle Lerneffekt komplett ein. Des Weiteren zeigt sich, dass die sich durch den invarianten Kontext gegebenen Vorteile (vor Änderung des Targetorts) nur sehr langsam, mit fortdauernder Präsentation der geänderten Suchanordnungen wieder aufbauen (Zellin et al. 2014). Der Projektantrag hat zum Ziel, mit Hilfe von behavioralen und neurowissenschaftlichen Methoden das Zusammenspiel zwischen bottom-up und top-down Informationen beim kontextuellen Lernen in der visuellen Suche zu untersuchen.
   

Recent Publications

There are no publications


 Record created 2023-01-19, last modified 2025-03-20