Refine
Year of publication
Document Type
- Doctoral Thesis (97) (remove)
Has Fulltext
- yes (97)
Is part of the Bibliography
- no (97)
Keywords
- Aufmerksamkeit (3)
- Funktionelle NMR-Tomographie (3)
- Interaktion (3)
- fMRI (3)
- Arbeitsgedächtnis (2)
- Arbeitsplatz (2)
- Constraints (2)
- Episodisches Gedächtnis (2)
- Geschlechtsunterschiede (2)
- Gestaltwahrnehmung (2)
Institute
- Psychologie (97) (remove)
Diese Dissertation befasst sich mit Validierungsstrategien von Tests zur Erfassung studentischer Kompetenzen. Kompetenzen von Studierenden werden zu verschiedenen Zwecken erhoben. Dies beginnt beim Eintritt in das Studium durch Zulassungstests und wird im Studium fortgesetzt z.B. durch Tests zur Zertifizierung von Kompetenz (Benotung von Leistung) oder zur Zuteilung auf bestimmte Kurse (Einteilung in Sprachniveaus). Neben diesen internen Tests zur Erfassung studentischer Kompetenzen werden auch externe Tests genutzt um etwa die Lehre zu verbessern (Evaluation von Veranstaltungen). Die mit dem Einsatz von Tests verbundenen Konsequenzen können sowohl für Studierende als auch Lehrpersonen und Entscheidungsträger*innen schwerwiegend sein. Daher sollten Tests wissenschaftlichen Gütekriterien genügen.
Das wichtigste Kriterium für die Beurteilung von wissenschaftlichen Tests ist Validität. In dieser Dissertation wird ein argumentationsbasiertes Validierungsansatz verfolgt. In diesem wird nicht die Validität eines Tests untersucht, sondern die Plausibilität der Interpretation beurteilt, die mit den Testwerten verbunden ist. Bislang fehlt jedoch für viele der wissenschaftlichen Tests für den deutschen Hochschulbereich ein auf die Testwertinterpretation abgestimmtes Validitätskonzept.
In dieser Arbeit wird ein Validierungsschema vorgestellt, in das übliche Testnutzen der Erfassung studentischer Kompetenzen an deutschen Hochschulen eingeordnet werden können. Die Einordnung von Testnutzen in das Schema erlaubt die Ableitung von passenden Validitätsevidenzen. Im Fokus stehen das Verhältnis von Test zu 1) Konstrukt, 2) Lehre und 3) beruflichen Anforderungen.
Das Validierungsschema wird angewandt, um Testwertinterpretationen eines empirischen Forschungsprojektes zur Erfassung von Kompetenz in Nachhaltigkeitsmanagement bei Studierenden zu validieren. Der Schwerpunkt dieser Arbeit liegt auf der Validierung der Interpretation, dass die Testwerte von drei nachhaltigkeitsbezogenen Tests Indikatoren für hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement sind. Die Analysen zur Gewinnung von Validitätsevidenzen konzentrieren sich auf die Grundannahme, dass Lernfortschritte in den nachhaltigkeitsbezogenen Tests vorwiegend hochschulisch vermittelt werden. Dafür wurde ein Messwiederholungsdesign mit zwei Gruppen von Studierenden realisiert. Studierende in der Schwerpunktgruppe besuchten ein Semester lang eine reguläre Lehrveranstaltungen mit Bezug zu Nachhaltigkeitsthemen und Nachhaltigkeitsmanagement, Studierende der Kontrollgruppe besuchten keine solchen Lehrveranstaltung. Die Einteilung in Schwerpunkgruppe und Kontrollgruppe erfolgte über Analyse von Modulhandbüchern und verwendeten Lehrmaterialien. Die Ergebnisse zeigen, dass Studierende aus der Schwerpunktgruppe in zwei der drei Tests höhere Lernfortschritte zeigen als Studierende der Kontrollgruppe. Selbstberichte der Studierenden zu hochschulischen und außerhochschulischen Lerngelegenheiten lassen darauf schließen, dass Studierende der Schwerpunkgruppe auch außerhochschulisch ein höheres Interesse an Nachhaltigkeitsthemen zeigen, dies schlägt sich jedoch nicht in höherem Vorwissen in den verwendeten Tests nieder. Insgesamt wird daher für die zwei Tests mit höheren Lernfortschritten in der Schwerpunktgruppe die Interpretation als plausibel bewertet, dass die Testwerte hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement abbilden.
In der vorliegenden Arbeit wird untersucht, wie das Gehirn Bewusstsein erzeugt. Diese Frage wird als eines der größten Rätsel der heutigen Wissenschaft angesehen: Wie kann es sein, dass aus der Aktivität der Nervenzellen unsere subjektive Welt entsteht? Es ist offensichtlich nicht einfach, diese Frage wissenschaftlich zu untersuchen. Eine der vorgeschlagenen Strategien für die Untersuchung von Bewusstsein behauptet, dass man zunächst die neuronalen Korrelate des Bewusstseins finden sollte (Koch, 2004). Einer Definition zufolge sind die neuronalen Korrelate des Bewusstseins die kleinste Menge neuronaler Prozesse, die hinreichend für eine bestimmte bewusste Erfahrung sind (zum Beispiel für die bewusste Erfahrung des Blaubeergeschmacks). Manche behaupteten, die Entdeckung der neuronalen Korrelate des Bewusstseins würde es erlauben, dem Rätsel des Bewusstseins näher zu kommen (Crick & Koch, 1990). Nur wie soll man die neuronalen Korrelate des Bewusstseins finden? Eine relativ einfache Strategie dafür wurde schon vor mehr als 20 Jahren beschrieben. Es sollten einfach experimentelle Bedingungen erschaffen werden, in welchen ein Reiz manchmal bewusst wahrgenommen wird und manchmal nicht (Baars, 1989). Solche Analysen, die Bedingungen mit und ohne bewusste Wahrnehmung vergleichen, werden als „Kontrastierungsanalyse“ bezeichnet (da zwei Bedingungen miteinander kontrastiert werden). Es existieren viele verschiedene experimentelle Paradigmen, bei welchen man den Reiz unter denselben Bedingungen präsentieren kann, so dass er bei manchen Versuchsdurchgängen bewusst wahrgenommen wird, bei anderen nicht (Kim & Blake, 2005). Mit solchen experimentellen Paradigmen kann man angeblich die neuronalen Korrelate des Bewusstseins finden, wenn man a) bei jedem Durchgang die Versuchsperson fragt, ob oder was die Versuchsperson bei dem Durchgang wahrgenommen hat und b) gleichzeitig die neuronalen Prozesse misst (zum Beispiel mit EEG, MEG oder fMRT). Anschließend kann man die erhobenen neuronalen Daten unter den Bedingungen mit und ohne bewusste Wahrnehmung vergleichen.
Mittlerweile gibt es viele Studien, in denen solche experimentelle Paradigmen – und damit die Kontrastierungsanalyse – angewendet wurden. Insofern könnte man glauben, die neuronalen Korrelate des Bewusstseins seien schon gefunden worden. Allerdings ist dies nicht der Fall. Es existiert in der Literatur weiterhin Uneinigkeit darüber, ob die Korrelate des Bewusstseins früh oder spät in der Zeit liegen, und ob die Korrelate in sensorischen Arealen oder eher im hierarchisch höheren fronto-parietalen Kortex zu finden sind.
Nach unserer Meinung sind die experimentellen Paradigmen, die üblicherweise zum Auffinden der neuronalen Korrelate des Bewusstseins verwendet werden, nicht spezifisch genug, um diese eindeutig zu lokalisieren. Eher glauben wir, dass die klassische Kontrastierungsanalyse auch andere Prozesse als Ergebnisse hervorbringt und uns deshalb prinzipiell nicht zu den neuronalen Korrelaten des Bewusstseins führen kann.
Im Kapitel 2 wird erklärt, wieso die typischen experimentellen Paradigmen nicht die neuronalen Korrelate des Bewusstseins ausfindig machen können. Wir behaupten, dass der Vergleich neuronaler Daten aus experimentellen Bedingungen mit und ohne bewusste Wahrnehmung auch die neuronalen Prozesse widerspiegeln könnte, die bewussten Wahrnehmungen entweder vorausgehen oder folgen. Es ist beispielsweise bekannt, dass neuronale Prozesse vor Auftreten des Reizes darüber bestimmen können, ob der Reiz bewusst wahrgenommen wird oder nicht (Busch, Dubois, & VanRullen, 2009; Mathewson, Gratton, Fabiani, Beck, & Ro, 2009). Wenn man experimentelle Bedingungen mit und ohne bewusster Wahrnehmung miteinander vergleicht, werden auch solche Prozesse als Ergebnis auftauchen, obwohl diese zeitlich klar vor dem Reiz stattfinden und deshalb keine neuronalen Korrelate des Bewusstseins sein können. Es ist natürlich einfach zu entscheiden, dass diese Prozesse, die schon vor dem Reiz stattfinden, der bewussten Wahrnehmung vorausgehen müssen, aber es ist unmöglich zu sagen, ob ein neuronaler Prozess 100 oder 200 Millisekunden nach der Präsentation des Reizes immer noch ein Vorläuferprozess ist schon ein neuronales Korrelat des Bewusstseins darstellt. Deshalb ist die typische Kontrastierungsanalyse nicht spezifisch genug und wir wissen nicht, ob neuronale Prozesse, die durch die Kontrastierungsanalyse aufgedeckt werden, direkt die neuronalen Korrelate des Bewusstseins oder eher Prozesse vor der bewussten Wahrnehmung widerspiegeln.
Nicht nur die Vorläuferprozesse der bewussten Warnehmung stellen ein Problem dar. Auch Konsequenzen der bewussten Verarbeitung werden durch die Kontrastierungsanalyse gefunden. Beispielsweise wurden im medialen Temporallappen Neurone gefunden, die nur dann feuern, wenn ein Patient eine Person auf einem Bild bewusst erkennt, aber nicht feuern, wenn der Patient die Person auf dem Bild nicht bewusst wahrnimmt (Quiroga, Mukamel, Isham, Malach, & Fried, 2008). So könnte man vorerst meinen, dass das Feuern dieser Neurone das neuronale Korrelat des Bewusstseins sein könnte. Nach einer Läsion, sprich neuronalen Schädigung des medialen Temporallappens kann man die Welt jedoch weiterhin bewusst wahrnehmen (man hat jedoch Probleme mit dem Gedächtnis und Wiedererkennen). Insofern kann das Feuern dieser Neurone nicht das neuronale Korrelat des Bewusstseins sein und ist eher ein Beispiel für die Konsequenz der bewussten Verarbeitung. Wir behaupten, dass es noch viele andere solcher Vorläuferprozesse und Konsequenzen gibt, die notwendigerweise als Ergebnis bei der Kontrastierungsanalyse auftauchen, und also ist die typische Kontrastierungsanalyse extrem unspezifisch bezüglich der neuronalen Korrelate des Bewusstseins. In anderen Worten: Die typische Kontrastierungsanalyse, bei welcher man experimentelle Bedingungen mit und ohne bewusste Wahrnehmung miteinander vergleicht, wird uns nicht helfen die neuronalen Korrelate des Bewusstseins zu finden.
Wir glauben, dass neue experimentelle Paradigmen entwickelt werden sollten, um die neuronalen Korrelate des Bewusstseins ausfindig zu machen. Wahrscheinlich gibt es kein einfaches Experiment, mit dem man die Vorläuferprozesse und Konsequenzen vollständig vermeiden kann, um damit direkt die neuronalen Korrelate des Bewusstseins zu bestimmen. Eher braucht man viele verschiedene Experimente, die Schritt für Schritt unser Wissen über die neuronalen Korrelate des Bewusstseins erweitern.
In der vorliegenden Arbeit (in Kapiteln 3, 4 und 5) wird ein neues experimentelles Paradigma angewandt. Dieses Paradigma wird nicht alle oben erwähnten Probleme lösen, wird aber hoffentlich erlauben, einige Vorläuferprozesse der bewussten Wahrnehmung von den neuronalen Korrelaten des Bewusstseins auseinanderzuhalten. Der Vorteil unseres experimentellen Paradigmas besteht darin, dass die bewusste Wahrnehmung durch zwei verschiedene Vorläuferprozesse beeinflusst wird. Die Versuchspersonen müssen auf schnell präsentierten und mittels Rauschens undeutlich gemachten Bildern eine Person detektieren. Die experimentellen Bedingungen sind derart gestaltet, dass die Versuchspersonen nicht bei jedem Durchgang die Person auf dem Bild wahrnehmen können. Damit können wir den Wahrnehmungsprozess manipulieren. Bei einer Manipulation variieren wir den Anteil des Rauschens auf dem Bild und damit die sensorische Evidenz. Je weniger Rauschen, desto besser können die Versuchspersonen die Bilder wahrnehmen und desto öfter sehen sie auch bewusst die Person auf dem Bild. Bei der anderen experimentellen Manipulation der Wahrnehmung werden einige Bilder den Versuchspersonen vorher klar und ohne Rauschen gezeigt. Damit erschafft man Wissen über bestimmte Bilder, die später mit Rauschen präsentiert werden. Man kann zeigen, dass solch bestehendes Wissen tatsächlich die Wahrnehmung beeinflusst. Wenn die Versuchspersonen bestehendes Wissen über ein Bild haben, ist es wahrscheinlicher, dass sie die Person auf dem Bild bewusst wahrnehmen. Damit haben wir zwei verschiedene Vorläuferprozesse – sensorische Evidenz und bestehendes Wissen, die beide die bewusste Wahrnehmung beeinflussen. Beide Vorläuferprozesse erhöhen den Anteil der Durchgänge, in welchen die Versuchspersonen die Person auf dem Bild bewusst wahrnehmen.
Mit diesem experimentellen Paradigma möchten wir einige Aussagen über die neuronalen Korrelate des Bewusstseins testen. Wenn über einen neuronalen Prozess behauptet wird, dass er einem neuronalen Korrelat des Bewusstseins entspricht, müsste dieser Prozess von den beiden manipulierten Vorläuferprozessen in ähnlicher Weise beeinflusst werden, da bewusste Wahrnehmung durch beide manipulierten Vorläuferprozessen in ähnlicher Weise erleichtert wird. Wenn aber der Prozess, über den behauptet wird, er sei ein neuronales Korrelat des Bewusstseins, nicht durch beide Manipulationen geändert wird, kann dieser Prozess kein neuronales Korrelat des Bewusstseins sein, da er nicht beeinflusst wird, obwohl die bewusste Wahrnehmung geändert wurde.
Mit diesem experimentellen Paradigma und dieser Logik haben wir zwei unterschiedliche neuronale Prozesse getestet, von denen behauptet wird, dass sie den neuronalen Korrelaten des Bewusstseins entsprechen könnten. In Kapitel 3 wurde untersucht, ob lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. In Kapitel 4 wurde mit diesem experimentellen Paradigma untersucht, ob die neuronale Synchronisierung dem neuronalen Korrelat des Bewusstseins entsprechen könnte.
Unsere Arbeit im Kapitel 3 baut auf der von Fisch und Kollegen (2009) auf. Fisch und Kollegen (2009) zogen aus ihrer experimentellen Arbeit den Schluss, dass lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. Sie hatten Elektroden auf dem visuellen Kortex von Epilepsiepatienten implantiert und von diesen Elektroden die Gammabandaktivität abgeleitet. Im ersten Schritt suchten sie nach Elektroden, die kategorienspezifische Antworten zeigen. Bei den kategorienspezifischen Elektroden ist die Gammabandaktivität abhängig vom präsentierten Stimulusmaterial. Zum Beispiel kann man bei einer Elektrode auf dem Fusiform Face Area starke Gammabandaktivität nur dann messen, wenn ein Gesicht auf dem Bild zu sehen ist. Die Autoren benutzten solche kategorienspezifischen Elektroden, um nach den neuronalen Korrelaten des Bewusstseins zu suchen. Sie zeigten den Patienten Bilder von Gesichtern, Häusern und Objekten, die direkt nach der kurzen Präsentation maskiert wurden, so dass die Patienten nur bei manchen Durchgängen erkannten, was auf dem Bild war, bei anderen Durchgängen nicht. Dies entspricht der typischen Kontrastierungsanalyse. Die Ergebnisse haben klar gezeigt, dass bei diesen kategorienspezifischen Elektroden die Gammabandaktivität erhöht wurde, als die Patienten bewusst wahrnahmen, was auf dem Bild zu sehen war. Aus diesen Ergebnissen zogen die Autoren den Schluss, dass lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht. Diese Aussage wollten wir mit unserem experimentellen Paradigma testen.
Um diese Behauptung zu untersuchen, erhoben wir sehr ähnliche Daten wie Fisch et al. (2009) und analysierten die Daten auf ähnliche Weise. Unsere experimentelle Frage war, ob die lokale kategorienspezifische Gammabandaktivität durch unsere beiden Manipulationen – sensorische Evidenz und bestehendes Wissen – in ähnlicher Weise erhöht wird. Dies sollte der Fall sein, wenn die lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht, da sensorische Evidenz und bestehendes Wissen beide den Anteil der Durchgänge, in welchen die Versuchsperson die Person auf dem Bild bewusst wahrnimmt, erhöhen. Dieses Ergebnis wurde nicht gefunden. Stattdessen fanden wir, dass die lokale kategorien-spezifische Gammabandaktivität nur durch sensorische Evidenz erhöht wurde, bestehendes Wissen aber keinen Effekt auf diese Aktivierung hatte. Da bestehendes Wissen auch den Anteil der Durchgänge mit bewusster Wahrnehmung erhöht, die kategorienspezifische Gammabandaktivität aber nicht durch bestehendes Wissen erhöht wurde, kann man schlussfolgern, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins reflektieren kann.
Als nächstes (Kapitel 4) haben wir die Hypothese getestet, dass Synchronizität dem neuronalen Korrelat des Bewusstseins entspricht. Um diese Idee zu testen, maßen wir mittels Magnetoenzephalographie die magnetischen Felder des Gehirns, schätzten aus diesen Daten mittels Beamforming die neuronalen Aktivitätsquellen und quantifizierten die Synchronizität zwischen diesen Quellen. Wenn die interareale Synchronizität dem neuronalen Korrelat des Bewusstseins entspräche, sollte die Synchronizität für Bedingungen mit mehr sensorischer Evidenz und mit bestehendem Wissen erhöht sein. Dies wurde nicht beobachtet. Wir fanden, dass Synchronizität (gemittelt über die Quellen) nur bei den Bildern erhöht war, für die bestehendes Wissen vorlag. Ein ähnlicher Effekt für sensorische Evidenz wurde nicht gefunden. Insofern können wir sagen, dass unsere Befunde dagegen sprechen, dass neuronale Synchronizität den Mechanismus für Bewusstsein darstellt. Allerdings können wir das in diesem Fall auch nicht völlig ausschließen, denn Synchronizität könnte die Informationsverarbeitung auf einem kleineren Maßstab koordinieren als wir es mit dem MEG messen können (Singer, in press).
Im Kapitel 5 untersuchten wir, wie schnell bestehendes Wissen bewusste Verarbeitung beeinflussen kann. Um dies herauszufinden machten wir uns die intraindividuellen Unterschiede der perzeptuellen Leistung zu Nutze. Wir fanden, dass bestehendes Wissen bewusste Verarbeitung schon innerhalb der ersten 100 Millisekunden nach der Präsentation des Reizes beeinflusst. Wir beobachteten auch, dass ein größerer perzeptueller Effekt des bestehenden Wissens in geringerer neuronaler Aktivität in Durchgängen mit bestehendem Wissen hervorruft. Diese Ergebnisse sind im Einklang mit Theorien, die besagen, dass unsere Wahrnehmung bestehendes Wissen nutzt, um vorherzusagen, wie die visuelle Welt sich ändert und um die neuronalen Antworten zu verringern (Friston, 2010).
In der vorliegenden Arbeit wurde diskutiert, warum die typische Kontrastierungsanalyse uns nicht zu den neuronalen Korrelaten des Bewusstseins führen kann. Wir schlugen vor, dass neue experimentelle Paradigmen nötig sind, um näher an die neuronalen Korrelate des Bewusstseins heranzukommen. Es wurde ein neues Paradigma benutzt, um zwischen Vorläuferprozessen und neuronalen Korrelate des Bewusstseins zu unterscheiden. Mit diesem Paradigma wurden zwei sehr unterschiedliche Hypothesen getestet und gefunden, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins widerspiegeln kann. Wir hoffen, dass unsere Experimente eine Entwicklung von vielen weiteren und besseren experimentellen Paradigmen stimuliert, die zwischen den Vorläuferprozessen, den Konsequenzen und den eigentlichen Korrelaten des Bewusstseins unterscheiden können. Wenn man über die Kontrastierungsanalyse hinausgeht, kann man die gegenwärtigen Theorien des Bewusstseins testen und damit Schritt für Schritt näher an die neuronalen Grundlagen des Bewusstseins kommen.
In der vorliegenden Arbeit wurden zwei motivationale Erklärungsmodelle, Zielorientierungen und das kognitiv-motivationale Prozessmodell, im Rahmen des selbstregulierten Lernens integriert. Selbstregulationsprozesse sind nach Carver und Scheier (1981) zyklisch angelegt. Zu den Bestandteilen der Selbstregulation gehören nach Boekaerts (1999)Regulation der Informationsverarbeitung, Regulation des Lernprozesses und Regulation des Selbsts. Auf dieser Ebene sind die Zielorientierungen angesiedelt. In dieser Arbeit das 2 x 2 Modell von Elliot und McGregor (2001) herangezogen. Es berücksichtigt zwei Dimensionen, die Valenz (Annäherungs- und Vermeidungskomponente) und die Kompetenz (Vergleichsmaßstab intern und extern). Hieraus resultieren: 1) Lern-Annäherungs-Ziele (positive Valenz & interner Vergleich, 2) Lern-Vermeidungs-Ziele (negative Valenz & interner Vergleich), 3) Leistungs-Annäherungs-Ziele (positive Valenz & externer Vergleich) und 4) Leistungs-Vermeidungs-Ziele (negative Valenz & externer Vergleich). Diese vier Zielorientierungen sind der erste Teil des integrierten Modells, der zweite zentrale Teil ist das kognitiv-motivationale Prozessmodell (Vollmeyer & Rheinberg, 1999, 2006). Ausgangspunkt ist die aktuelle Motivation, die aus 1) der Erfolgswahrscheinlichkeit, 2) der Misserfolgsbefürchtung, 3) dem Interesse und 4) der Herausforderung als unabhängige Faktoren besteht. Diese aktuelle Motivation wirkt nicht direkt auf die Leistung, sondern durch kognitive (hier: Metakognition) und motivationale (hier: Flow-Erleben) Mediatoren. Es wurden drei Fragestellungen bearbeitet. Die erste Fragestellung betraf das Zusammenspiel der Zielorientierungen und der aktuellen Motivation. Eine Überprüfung dieses integrierten Motivationsmodell erfolgte mittels Pfadanalyse. Die zweite und dritte Fragestellung befasste sich spezifisch mit dem kognitiv-motivationalen Prozessmodell. Es wurden Subgruppen auf der Basis der aktuellen Motivation identifiziert und ihre Bedeutung für die Mediatoren und die Leistung untersucht. Die dritte Fragestellung fokussierte den Prozesscharakter des Modells. Hier erfolgten Analysen über den Arbeitsprozess hinweg. Die Fragebögen (Achievement Goal Questionnaire (Elliot & McGregor, 2001), Metakognitionsfragebogen (aufbauend auf LIST (Wild, 2000) und Metacognitive Awareness Inventory (Schraw & Dennison, 1994), Fragebogen zur aktuellen Motivation (Rheinberg, Vollmeyer & Burns, 2001), Flow-Kurz-Skala (Rheinberg, Vollmeyer & Engeser, 2003)) und die Problemlöseaufgaben (Sudokus) wurden in einer Pilotstudie getestet. An der Hauptstudie nahmen 202 Personen teil (73% weiblich). Das integrierte Motivationsmodell geht davon aus, dass eine positiver Effekt der Zielorientierungen als Personenvariable auf die aktuelle Motivation besteht. Die aktuelle Motivation als Startpunkt des situationalen Geschehens wiederum wirkt positiv auf die Mediatoren Flow-Erleben und Metakognition, hat aber keinen direkten Effekt auf die Leistung. Dieser wird nämlich über die Mediatoren vermittelt. Deswegen wird ein positiver Effekt des Flow-Erlebens und der Metakognition auf die Leistung erwartet. Das Zusammenwirken der beiden Mediatoren kann aus dem kognitiv-motivationalen Prozessmodell nicht abgeleitet werden. Ob ein Zusammenhang besteht oder nicht wird geprüft. Für das Vorwissen wird ein positiver Effekt auf die aktuelle Motivation und die Leistung erwartet. Die Pfadanalyse zur Überprüfung des integrierten Motivationsmodells zeigte, dass eine Integration nicht nur theoretisch sinnvoll ist, sondern auch empirisch gestützt wird. Die Bedeutung der Metakognition als kognitiver Mediator wurde gezeigt. Die zweite Fragestellung fokussierte auf die aktuelle Motivation. Auf der Basis dieser wurden mittels Clusteranalyse drei distinkte Gruppen identifiziert: hoch Motivierte, niedrig Motivierte und ängstlich Motivierte (vergleichbar zu Vollmeyer & Rheinberg, 2004). Diese Gruppen unterschieden sich hinsichtlich ihres Flow-Erlebens, ihrer Metakognition und ihrer Leistung. Die hoch Motivierten erlebten am meisten Flow, berichteten mehr Metakognition und zeigten bessere Leistung. Der Prozesscharakter des kognitiv-motivationalen Prozessmodells stand im Mittelpunkt der dritten Fragestellung. Diese Analyse über die drei Sudokus hinweg zeigte eine ähnliche Entwicklung des Flow-Erlebens bei den hoch und niedrig Motivierten. Vom ersten zum zweiten Sudoku stieg es an, um dann wieder abzufallen. Dies war bei der Metakognition nicht der Fall. Die hoch Motivierten berichteten einen stärkeren Rückgang der Metakognition beim dritten Sudoku als die niedrig Motivierten. Bei der Leistung zeigte sich für die hoch Motivierten ein Anstieg beim zweiten Sudoku und dann ein Rückgang beim dritten, wohingegen die Leistung der niedrig Motivierten kontinuierlich abfiel. Abschließend wurden die Schwierigkeiten und Grenzen der vorliegenden Arbeit diskutiert und Implikationen der Ergebnisse für die Theorieentwicklung und ihre Bedeutung für den Anwendungskontext aufgezeigt.
Das Ziel der Studie bestand einerseits in der Untersuchung der Zusammenhänge zwischen der sich im Vorschulalter entwickelnden Theory of Mind und dem sich ebenfalls zu diesem Zeitpunkt ausbildenden episodischen Gedächtnis unter der Berücksichtigung verschiedener potentieller Einflussfaktoren, wie beispielsweise den sprachlichen und exekutiven Fähigkeiten der Kinder. Auf der anderen Seite sollten zudem die Veränderungen innerhalb der einzelnen Konstrukte im zeitlichen Verlauf zwischen dem vierten und fünften Lebensjahr abgebildet werden. Dazu wurden 40 Kindern an zwei im Abstand von einem Jahr stattfindenden Erhebungszeitpunkten verschiedenste Aufgaben zur Erfassung ihrer jeweiligen Fähigkeiten in den unterschiedlichen kognitiven Bereichen vorgelegt. Das Durchschnittsalter der Kinder zum Zeitpunkt der ersten Messung betrug M = 38.73 Monate (SD = 2.84) und beim zweiten Messzeitpunkt M = 51.03 Monate (SD = 2.89). Anhand der erhobenen Daten konnte gezeigt werden, dass neben dem Zeitverständnis vor allem die Fähigkeit der dreijährigen Kinder zur Perspektivübernahme einen signifikanten Beitrag zur Erklärung ihrer späteren Kompetenzen auf dem Gebiet des episodischen Gedächtnisses leistet. Weiterhin konnten mittels der zwei Messzeitpunkte sowohl die quantitativen als auch qualitativen Veränderungen innerhalb der unterschiedlichen Theory of Mind-Kompetenzen bzw. innerhalb des sich wandelnden Repräsentationsverständnisses abgebildet werden. Zudem konnte ebenfalls die bedeutende Rolle der Sprache als optimales Medium zum verbalen Austausch über die verschiedenen Perspektiven von sich und anderen sowie über vergangene, gegenwärtige oder zukünftige Erlebnisse konstatiert werden. Im Gegensatz zu den Befunden anderer Studien scheint hingegen den vorliegenden Befunden nach dem Einfluss der exekutiven Fähigkeiten auf die Theory of Mind-Kompetenzen der Kinder keine so grundlegende Bedeutung zuzukommen.
The current work investigated the association of trait anxiety and the neural efficiency of cognitive processing for affectively neutral (not threat-related) information. In a sample of 46 healthy volunteers, three fMRI experiments were conducted to test the prediction derived from attentional control theory (Eysenck et al., 2007) that high as compared to low trait-anxious individuals expend more neural effort on tasks requiring the top-down control of attention to reach a given level of performance. In a colour-word Stroop task requiring the inhibition of irrelevant stimulus information and associated responses as well as in a working-memorymanipulation task requiring the shifting of attention between items in working memory, trait anxiety (as measured with the State-Trait Anxiety Inventory; Spielberger et al., 1970) was positively associated with task-related increases in the activation of two adjacent regions in the right dorsolateral prefrontal cortex (DLPFC). The finding that along with a stronger activation of this brain region commonly implicated in top-down control processes, the high-anxious subjects showed equal (working memory manipulation) or worse (Stroop) performance when compared to low-anxious subjects, does support the assumption that processing is less efficient in the high anxious. However, in contrast to the predictions, trait anxiety did not show a significant association with task-related brain activation in a task-switching paradigm requiring shifting between task sets. It is discussed how different attentional control demands of the task may account for differences in the effects of trait anxiety on overt behavioural performance and underlying neural processes. In addition to DLPFC activation, trait anxiety modulated the functional connectivity of distributed regions involved in processing of the Stroop and the working-memory-manipulation task. It is discussed how the observed differences in regional DLPFC activation and network connectivity relate to each other. A possible interpretation suggests that activation increases in the DLPFC reflect an attempt to compensate for suboptimal connectivity by investing more effort in prefrontally supported control processes. Overall, the current work shows an association of trait anxiety with the neural efficiency of cognitive processing in affectively neutral tasks involving attentional control. Furthermore, it suggests that investigations of neural efficiency should take into account difference in functional integration in addition to regional activation.
Sozial kompetente Personen sind in der Lage, zwischenmenschliche Interaktionen zu analysieren und zielorientiert zu agieren, während sie gleichzeitig die Interessen ihrer Interaktionspartner berücksichtigen. Sozial kompetente Personen verfügen demnach über perzeptive Fähigkeiten sowie behaviorale Fertigkeiten. Diese auf Thorndike (1920) zurückgehende Definition weist Soziale Kompetenz als leistungsbezogene Persönlichkeitsvariable aus. Förderlich sollte sie sich insbesondere im Umgang mit interpersonellen Stressoren auswirken: Sozial kompetenten Personen sollte es per definitionem gelingen, den Verlauf interpersoneller Konflikte konstruktiv zu beeinflussen. Tatsache ist, dass soziale Konflikte zudem selbst-regulatorische Fähigkeiten verlangen, da nicht nur die negativen Emotionen der Konfliktpartner, sondern auch persönliche aversive Gefühle bewältigt werden müssen. In der vorliegenden Studie wurde untersucht, ob Soziale Kompetenz implizit auch selbstregulative Kompetenzen im Umgang mit negativen Emotionen umfasst. Diese Fragestellung wurde an N = 124 Arbeitnehmern verschiedener Branchen untersucht. Nach einer performanzorientierten Diagnose Sozialer Kompetenz mit Hilfe eines computergestützten Multimedia-Tests (lnteraktives System zur Identifikation Sozialer Kompetenzen, ISIS 2.0; Runde, Bastians, Kluge & Wübbelmann, 1999) sowie der Erhebung von Selbstkonzept- und habitueller Affektivitäts-Variablen per Fragebogen protokollierten die Teilnehmer in einer anschließenden vierwöchigen Untersuchungsphase jeweils am Ende einer Arbeitswoche, wie viele interpersonelle Spannungssituationen sie in den vergangenen Tagen mit Vorgesetzten, Kollegen und/oder Mitarbeitern erlebt und auf welche Weise sie die für sie belastendste Situation bewältigt hatten. Wider Erwarten stand Soziale Kompetenz in positivem Zusammenhang mit defensivem Konfliktverhalten, das durch das Unterdrücken negativer Emotionen, nicht deren Bewältigung gekennzeichnet war. lntegratives Konfliktverhalten, der Prototyp sozial kompetenten Konfliktmanagements, stand hingegen in positivem Zusammenhang mit nicht-leistungsbezogenen Persönlichkeitsvariablen wie statebezogener Positiver Affektivität und Allgemeiner Selbstwirksamkeit. Performanzorientiert gemessene Soziale Kompetenz umfasst demnach die Fähigkeit zur Regulation des Verhaltens, nicht die Fähigkeit zur Regulation eigener Emotionen. Bezüge dieser Ergebnisse zur Emotionsarbeit, insbesondere zu den Auswirkungen emotionaler Dissonanz, werden diskutiert.
Seit den 1980er Jahren fällt dem Computer sowohl in Beruf und Bildung als auch in der Freizeit eine wachsende Bedeutung zu (z.B. Rheinberg & Tramp, 2006). Häufig ist es für Computernutzer erforderlich, sich Computerkenntnisse selbstständig und ohne explizite Anleitung anzueignen (Richter, Naumann & Horz, 2010). Männer und Frauen erleben dabei den Umgang mit dem Computer unterschiedlich; diese Unterschiede können in Lern- und Leistungsdifferenzen resultieren (z.B. Baloğlu & Çevik, 2008). Zur Erklärung potenzieller Lern- und Leistungsunterschiede zwischen den Geschlechtern wurde in der Arbeit das kognitiv-motivationale Prozessmodell zugrunde gelegt. Das Modell erlaubt es, Leistungsunterschiede prozessnah über die aktuelle Motivation, das Flow-Erleben und die Strategiesystematik zu erklären. In Studie 1 (N = 18) wurde ein Beobachtungssystem zur Erfassung von optimalen und suboptimalen Explorationsstrategien am Computer entwickelt. In Studie 2 (N = 33) und 3 (N = 92) wurde im Rahmen eines quasiexperimentellen Designs getestet, ob sich weibliche und männliche Studierende der Wirtschaftswissenschaften in Strategiesystematik, Motivation und Leistung beim selbstregulierten Erlernen des Programms SPSS unterscheiden. Die Teilnehmer hatten nach einer kurzen Einführung in die Benutzeroberfläche von SPSS die Aufgabe, mehrere Statistikaufgaben mit SPSS zu lösen. Die Ergebnisse der Studien erbrachten zum Teil inkonsistente Befunde: Über die Studien hinweg zeigten sich keine statistisch signifikanten Unterschiede in der Motivation vor Beginn der Aufgabenbearbeitung. In Studie 2 ergaben sich jedoch Geschlechtsunterschiede in der aktuellen Motivation und der Strategiesystematik während des Bearbeitungsprozesses sowie in der Leistung. Frauen erreichten dabei niedrigere Werte bzw. weniger Punkte. In beiden Studien standen die aktuelle Motivation, das Flow-Erleben sowie die Strategiesystematik modellkonform in Beziehung mit der Leistung. Die Ergebnisse und die Methodik der Arbeit wurden abschließend kritisch diskutiert.
Das ereigniskorrelierte Potential (EKP) P300 ist eines der am häufigsten untersuchten Potentiale des Elektroenzephalogramms (EEG). Wegen der bedeutsamen Rolle der P300 in der kognitiven Forschung mit gesunden Probanden und psychiatrischen Patienten kommt der Suche nach ihren neuronalen Generatoren ein hoher Stellenwert zu. Man geht im Allgemeinen davon aus, dass sie kein einheitliches Potential darstellt und von mehreren weit verstreuten Quellen generiert wird. Die Fragen nach der genauen Anzahl der P300-Subkomponenten, ihrer Lokalisierung sowie den ihnen zugrunde liegenden kognitiven Prozesse sind jedoch nach wie vor ungelöst. Die Zielsetzung der vorliegenden Arbeit war, die P300 mit Hilfe der Kombination vom EEG und der funktionalen Magnetresonanztomografie (fMRT) in ihre Subkomponenten zu untergliedern und deren Quellen zu lokalisieren. Zu diesem Zweck wurden drei kombinierte EEG/fMRT-Studien durchgeführt. Die ersten beiden Studien beinhalten eine abgewandelte Form des klassischen Oddballparadigmas. Bei der dritten Studie handelt es sich um ein Arbeitsgedächtnisexperiment. Durch die Verknüpfung der fMRT-Ergebnisse mit EKP-Daten aus den beiden Oddball-Experimenten konnten die neuronalen Quellen der zwei wichtigsten Subkomponenten der P300, der P3a und P3b, lokalisiert werden. Es konnte gezeigt werden, dass inferiore und posteriore parietale (IPL bzw. PPC) und inferior temporale (IT) Areale zur Entstehung der P3b beitrugen, während hauptsächlich die präzentralen Regionen (PrCS) die P3a generierten. Die Ergebnisse des Arbeitsgedächtnisexperiments bestätigten die P3b-Quellenlokalisierung der Oddball-Untersuchung mit einr Beteiligung von PPC und IT an der Generierung der P3b-Komponente. Das Arbeitsgedächtnisexperiment verdeutlichte aber auch, dass eine komplexere Abrufanforderung (mit langen Reaktionszeiten) zu einer anhaltenden Aktivität im PPC und einer späten Antwort im ventrolateralen präfrontalen Kortex (VLPFC) führte, die eine zweite P3b-Subkomponente generierten. Durch eine umfassende zeitlich-räumliche Trennung der neuronalen Aktivität beim Arbeitsgedächtnisabruf konnten darüber hinaus die einzelnen Stufen der beteiligten Informationsverarbeitungsprozesse (mentale Chronometrie) beschrieben werden. Diese Anwendung ging über die „reine“ Quellenlokalisation der P300-Komponenten hinaus. Die Ergebnisse zeigten frühe transiente Aktivierungen im IT, die sich zeitlich mit dem Beginn einer anhaltenden Aktivität im PPC überlappten. Darüber hinaus wurden eine späte transiente Aktivität im VLPFC und eine späte anhaltende Aktivität im medialen frontalen und motorischen Kortex (MFC bzw. MC) beobachtet. Es liegt nahe, dass diese neuronalen Signaturen einzelne Stufen kognitiver Aufgabenverarbeitungsschritte wie Reizevaluation (IT), Operationen am Gedächtnispuffer (PPC), aktiven Abruf (VLPFC) und Reaktionsorganisation (MFC und MC) reflektieren. Die vorgestellten Quellenmodelle zeigten übereinstimmend, dass mehrere kortikale Generatoren das P300-EKP erzeugen. Dabei trugen neben den erwarteten parietalen interessanterweise auch inferior temporale und inferior frontale Quellen zur P3b bei, während die P3a vor allem auf anterioren Generatoren im prämotorischen Kortex basierte. Diese Ergebnisse bestätigen teilweise die bisherigen Lokalisationsmodelle, die weitgehend auf neuropsychologischen und invasiven neurophysiologischen Befunden beruhen, widersprechen ihnen aber auch zum Teil, besonders was die Abwesenheit der postulierten präfrontalen und hippocampalen Beiträge zur P3a bzw. P3b betrifft.
Eye-Tracking bezeichnet das Messen und Aufzeichnen der Blickbewegungen einer Person. Historisch gesehen basiert Eye-Tracking auf Beobachtungen des Testleiters, der das Blickverhalten der Probanden während des Versuchsablaufes oder die Videoaufzeichnung des Blickverhaltens eines Probanden in einer Testsituation kodierte. Dabei konnte allerdings nur die Blickrichtung des Probanden erhoben werden. Heutzutage ist es jedoch möglich, aufgrund neuerer, automatisierter Eye-Tracking-Techniken detailliertere Blickbewegungen, wie z.B. Fixationen und Sakkaden, zu messen. Diese Verbesserung der Eye-Tracking-Technik ermöglicht nicht nur passives Eye-Tracking, sondern auch aktives Blickkontingenz-Eye-Tracking. Passives Eye-Tracking bezeichnet das Messen und Aufzeichnen des Blickverhaltens, um herauszufinden, wo der Proband hinschaut. Im Gegensatz dazu erhebt das aktive Blickkontingenz-Eye-Tracking nicht nur, wo ein Proband hinschaut, sondern ermöglicht dem Probanden auch, die Stimuli, die auf einem Bildschirm präsentiert werden, aktiv zu verändern oder zu kontrollieren. Dabei wird das Blickverhalten online kodiert, und spezifisches Blickverhalten ist an eine kontingente Veränderung der Stimuli auf dem Bildschirm gekoppelt. Deshalb kann das aktive Blickkontingenz-Eye-Tracking eingesetzt werden, um den Probanden aktive Kontrolle über ihre visuelle Umwelt zu ermöglichen.
In der psychologischen Forschung ist Eye-Tracking ein wichtiges Forschungs-instrument, da das Blickverhalten in spezifischen Eye-Tracking-Aufgaben genutzt werden kann, um Aufschluss über kognitive Prozesse, wie z.B. Aufmerksamkeit, Lernen und Gedächtnis, zu gewinnen. Unterschiedliche passive und aktiv-blickkontingente Eye-Tracking- Aufgaben wurden entwickelt, um eine Vielzahl an kognitiven Prozessen im Erwachsenen- und Säuglingsalter zu untersuchen. Diese Aufgaben sind besonders wichtig in der Säuglingsforschung, da es in diesem Alter schwierig ist, kognitive Prozesse zu untersuchen. Dies hängt damit zusammen, dass es sich um eine präverbale Stichprobe, die nur über ein limitiertes motorisches Repertoire verfügt, handelt. Obwohl kognitive Prozesse von Erwachsenen anhand verbaler oder anderer motorischer Aufgaben untersucht werden können, werden passive und aktiv-blickkontingente Eye-Tracking-Aufgaben regelmäßig in dieser Altersgruppe eingesetzt, da sie zusätzliche Informationen über kognitive Prozesse liefern können. Neben der Möglichkeit zur Untersuchung von kognitiven Prozessen bieten aktiv-blickkontingente Eye-Tracking-Aufgaben den Probanden auch die Gelegenheit, ihre visuelle Umwelt aktiv zu kontrollieren. Dennoch werden aktiv-blickkontingente Eye-Tracking- Aufgaben nur selten eingesetzt, um Probanden visuelle Kontrolle über ihre Umwelt zu verschaffen.
Bis jetzt wurden aktiv-blickkontingente Eye-Tracking-Aufgaben zur Kontrolle der visuellen Umwelt nur bei Erwachsenen, aber noch nicht bei Säuglingen eingesetzt. Da diese Aufgaben jedoch auch für Säuglinge und Kleinkinder geeignet sind, besteht die Möglichkeit, diese Methode über die gesamte Lebenspanne hinweg anzuwenden. Somit kann das Erlernen des Kontrollierens der Umwelt durch Blickverhalten über die gesamte Lebensspanne untersucht werden.
Die vorliegende Dissertation hat sich genau dies zum Ziel gesetzt. Um dieses Ziel zu erreichen, wurde eine neue aktiv-blickkontingente Eye-Tracking-Aufgabe entwickelt, die sogenannte gaze-contingent learning task (GCLT). Im Wesentlichen ist die GCLT eine operante Konditionierungsaufgabe, bei der sich Probanden Kontrolle über ihre visuelle Umwelt aneignen, indem sie eine bestimmte blickkontingente Assoziation zwischen ihrem Blickverhalten und einem visuellen Effekt erlernen. Die in dieser Dissertation verwendete GCLT umfasst zwei Hauptversionen: zum einen die sog. one disc GCLT, und zum anderen die two discs GCLT. In der one disc GCLT wird ein Kreis auf der rechten Bildschirmseite gezeigt. Jedes Mal, wenn der Proband auf diesen Kreis schaut, erscheint ein Stimulus auf der linken Bildschirmseite. Somit kommt dem Kreis eine Schalterfunktion zu. In der two discs GCLT ist sowohl am rechten als auch am linken Bildschirmrand ein Kreis zu sehen. Hier kommt nur jeweils einem der beiden Kreise die Schalterfunktion zu. Um ihre visuelle Umwelt zu kontrollieren, müssen Probanden innerhalb der one disc GCLT die blickkontingente Assoziation zwischen ihren Blicken auf den Kreis und dem Erscheinen eines Stimulus erlernen, während sie in der two discs GCLT außerdem noch lernen müssen, zwischen dem Kreis mit und dem Kreis ohne Schalterfunktion zu unterscheiden.
Strukturgleichungsmodelle (SEM) werden in den letzten Jahren vermehrt zur Aufdeckung von nichtlinearen Effekten wie Interaktionseffekten oder quadratischen Effekten in der empirischen Forschung verwendet. Daher kommt der Bereitstellung von effizienten und robusten Schätzverfahren für die Analyse von nichtlinearen SEM, die simultan multiple nichtlineare Effekte schätzen können, eine wichtige Bedeutung in der methodologischen Forschung zu. Bisher wurde jedoch nur ungenügend die Problematik untersucht, dass zwar die üblicherweise verwendeten Schätzverfahren aus der Klasse der Produktindikator-(PI)-Ansätze (z.B. der Unconstrained-Ansatz; Kelava & Brandt, 2009; Marsh, Wen & Hau, 2004) und der Klasse der verteilungsanalytischen Verfahren (z.B. LMS oder QML; Klein & Moosbrugger, 2000; Klein & Muthén, 2007) auf der Annahme einer multivariaten Normalverteilung für einen Großteil der im Modell enthaltenen Variablen beruhen, diese jedoch in der Empirie fast nie gegeben ist. Andere Ansätze, wie die momentbasierten Verfahren des 2SMM- oder des MM-Ansatzes (Wall & Amemiya, 2000, 2003; Mooijaart & Bentler, 2010), die die Normalitätsannahme deutlich abschwächen können, finden in der Literatur hingegen nur geringe Berücksichtigung. Im ersten Teil dieser Arbeit werden diese momentbasierten Verfahren zur Schätzung von multiplen nichtlinearen Effekten erweitert und hinsichtlich ihrer Schätzeigenschaften bei nicht-normalverteilten Daten im Vergleich zu den PI- und den verteilungsanalytischen Ansätzen sowohl theoretisch als auch anhand einer umfangreichen Simulationsstudie untersucht (Brandt, Kelava & Klein, in press).
Zusammenfassend zeigt sich, dass LMS und QML bei normalverteilten Indikatoren die effizientesten Schätzungen liefern und in diesem Fall eingesetzt werden sollten. Bei nicht-normalverteilten Daten ist jedoch ein Parameterbias zu beobachten. Der erweiterte Unconstrained-Ansatz liefert zwar sowohl für normalverteilte als auch für nicht-normalverteilte Indikatoren erwartungstreue Parameterschätzungen, die Standardfehler werden jedoch stets unterschätzt (auch bei der Verwendung eines robusten Schätzers für die Standardfehler), was sich in einem erhöhten alpha-Fehler widerspiegelt. Der 2SMM-Ansatz liefert sehr gute Schätzergebnisse für normalverteilte und nicht-normalverteilte Indikatoren und kann insbesondere bei nicht-normalverteilten Indikatoren verwendet werden; bei normalverteilten Indikatoren ist das Verfahren etwas weniger effizient als LMS. Ein Nachteil des Verfahrens ist jedoch seine schwierige Erweiterung für andere als das hier untersuchte Querschnittsmodell (z.B. für Latente Wachstumskurvenmodelle). Der MM-Ansatz zeigt deutliche Schwächen in seinen Schätzungen, die sowohl bei einer simultanen Schätzung von mehr als einem nichtlinearen Effekt als auch bei nicht-normalverteilten Indikatoren auftreten, und stellt daher keine Alternative zu den anderen Schätzverfahren dar.
Um ein Verfahren bereitzustellen, das bei nicht-normalverteilten Daten zuverlässige und effiziente Schätzungen für nichtlineare Effekte liefern kann, wurde der NSEMM-Ansatz entwickelt (Kelava, Nagengast & Brandt, in press). Der NSEMM-Ansatz ist ein allgemeinerer Ansatz als der 2SMM-Ansatz und kann flexibler auch für andere Modelle genutzt werden, da er direkt in Mplus spezifizierbar ist. Der NSEMM-Ansatz verwendet zur Approximation der Verteilung der (latenten) Prädiktoren ein Mischverteilungsmodell, und stellt damit eine Erweiterung der SEMM (Structural Equation Mixture Models) dar. Im Gegensatz zu den SEMM, die nichtlineare Effekte semi-parametrisch modellieren, d.h. keine Funktion für die Nichtlinearität annehmen, verwendet der NSEMM-Ansatz eine parametrische Funktion für die nichtlinearen Effekte (z.B. einen quadratischen Effekt), wodurch eine Aussage über die Effektstärke des nichtlinearen Effekts möglich ist. Neben einer Darstellung des Konzepts der Mischverteilungsmodelle und des NSEMM-Ansatzes werden auch erste Ergebnisse zu den Schätzeigenschaften des NSEMM-Ansatzes im Vergleich zu LMS und dem erweiterten Unconstrained-Ansatz berichtet.
Im letzten Teil der Arbeit wird auf Interaktionseffekte in Längsschnittstudien eingegangen. Hierbei wird das Problem von heterogenen Entwicklungs- und Wachstumsprozessen aufgegriffen, das in der Empirie häufig auftritt, wenn die Streuung der Entwicklungsverläufe von den Ausgangsbedingungen abhängt. Wird diese Heterogenität nicht adäquat berücksichtigt, wie es der Fall bei latenten Wachstumskurvenmodellen (LGM) ist, sind Prognosen basierend auf den Ausgangsbedingungen einer Person nicht akkurat, da die Konfidenzintervalle für die Prognose auf einer fehlspezifizierten Varianz beruhen. Das heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006) erweitert das Standard-LGM um eine heterogene Varianzkomponente, die mit einem spezifischen Interaktionseffekt modelliert wird. Das HGM stellt eine Alternative zu den Growth Curve Mixture Modellen (GMM) dar, wenn keine Annahme über diskrete Klassen getroffen werden soll, sondern eine feinstufigere, kontinuierliche Modellierung der Heterogenität von Interesse ist. In dieser Arbeit wird für das HGM eine Implementierung in Mplus basierend auf dem LMS-Schätzer entwickelt, deren Anwendung und Interpretation an einem empirischen Datensatz aus der AIDS-Forschung demonstriert wird (Brandt, Klein & Gäde, under revision). Die Implementierung ermöglicht eine anwenderfreundliche Verwendung des Verfahrens und erlaubt die Berücksichtigung von Kovariaten zur Erklärung der Heterogenität in den Entwicklungsverläufen. Die Ergebnisse einer Simulationsstudie zeigen, dass das Verfahren auch bei moderater Verletzung der Verteilungsannahmen eine zuverlässige Parameterschätzung liefert.
In vier aufeinander aufbauenden Studien wird den Fragen nachgegangen „Was sind Nicht-Ereignisse?“ und „Welche Verarbeitungshilfen sind effektiv für den Bewältigungsprozess?“. Am Beispiel der ungewollten Kinderlosigkeit wird aus gesundheitspsychologischer Sicht nach zwei Aspekten von psychosozialem Wohlbefinden gefragt: „globaler Lebenszufriedenheit“ und „negativen Emotionen“ (z.B. Scham und Schmerz).
Es werden Bewältigungsstrategien und Bewältigungsstile unterschieden. Die Bewältigungsstile „religiöses Coping“ sowie „hartnäckige Zielverfolgung“ und „flexible Zielanpassung“ werden als andauernde Einflussfaktoren im Bewältigungsprozess betrachtet. Die entwickelten Bewältigungsstrategien „planendes Problemlösen“, „Unterstützung durch Freunde“, „regenerative Strategien“ und „kognitive Umdeutung zur Akzeptanz“ sind erlernbare Vorgehensweisen.
In der Pilotstudie 1 wurden 22 Menschen interviewt, die sich im Nicht-Ereignis-Prozess befinden. In Studie 2 wurden qualitativ und quantitativ 76 Männer und Frauen mit ungewollter Kinderlosigkeit befragt. Studie 3 erhob online mit 216 Teilnehmern die Häufigkeit und eingeschätzte Effektivität von Verarbeitungshilfen. Studie 4 erfasste zu zwei Messzeitpunkten (n = 732, n = 409) vier Bewältigungsstrategien, vier Bewältigungsstile, „globale Lebenszufriedenheit“, „negative Emotionen“ und kinderwunschspezifische Antworten von Menschen mit Kinderwunsch.
Für eine gewünschte Schwangerschaft kann geschlussfolgert werden, dass ein bedeutsamer Prädiktor für die Eintrittswahrscheinlichkeit im frühen Prozess fertility awareness ist. Das Alter der Frau dagegen leistet keinen Beitrag zur Vorhersage. Die Prädiktoren „negatives religiöses Coping“ und „planendes Problemlösen“ im fortgeschrittenen Nicht-Ereignis-Prozess stellen Risikofaktoren für das psychosoziale Wohlbefinden dar. Die Schutzfaktoren „Unterstützung durch Freunde“, „kognitive Umdeutung zur Akzeptanz“ und „flexible Zielanpassung“ sind signifikante Prädiktoren für psychosoziales Wohlbefinden. Interaktionseffekte von „Flexibler Zielanpassung“ und „Hartnäckiger Zielverfolgung“ konnten nicht identifiziert werden.
Amblyopia is a developmental disorder of the visual system that leads to reduced vision in one or both eyes. People suffering from amblyopia show different perceptual deficits like reduced contrast sensitivity, reduced or no stereopsis, spatial uncertainty, and spatial and temporal distortions when viewing with the amblyopic eye. In the following thesis, different psychophysical methods are used to investigate anomalous perception of amblyopic participants in detail with the main focus on the perception of temporal instability. In the qualitative experimental paradigms it is shown that temporal instability is mainly perceived by strabismic and strabismic-anisometropic amblyopes. The temporal deficits occur only at spatial frequencies higher than 1.6 c/deg, and are perceived in addition to the spatial distortions. Illusory colours sometimes accompany the temporal distortions. There seems to be a relationship between crossed hand and eye dominance and the perception of temporal instability. In the quantitative experiments it is shown that temporal instability in amblyopic perception has a negative impact on the performance in psychophysical tasks. Amblyopes perceiving temporal instability show enhanced spatial uncertainty and spatial distortions for different types of stimulus presentation (auditive vs. visual) when compared to amblyopes without temporal instability. This might be due to deficits in auditive-visual mapping. These deficits in auditory-to-visual mapping suggest an impairment of the dorsal “where” pathway. Thus, it might be that amblyopes with temporal distortions have deficits in the dorsal pathway that come up in addition to the known deficits of the ventral “what” pathway and are related to the perception of temporal instability. The different results of the experiments found in this thesis seem to confirm this hypothesis. Studies using functional imaging techniques might be appropriate for a further investigation of amblyopic deficits involving the dorsal pathway.
Auf der Basis komplexer Paaruntersuchungen mit dem erweiterten Gießen-Test (pro Partner sieben Auswertungsbögen) werden zwölf Paare beschrieben und analysiert, die in einer Beziehungskrise die Psychosoziale Ambulanz der Frankfurter Universitätsklinik aufsuchten, um Beratungsgespräche und gegebenenfalls therapeutische Hilfe in Anspruch zu nehmen. Der Erweiterung der Testanwendung auf die Erfassung der Einfühlungsbilder beider Partner (eingefühltes Selbst- und Beziehungsbild sowie eingefühltes Partnerbild, Moeller 1979, siehe 3. Methodik) lag unter anderem die Vermutung zugrunde, dass die — immer auch von der Durchlässigkeit des Partners abhängige — Einfühlungsfähigkeit Aufschluss über den Grad der Beziehungsintensität sowie der Kommunikation des Paares zu geben vermag. Anders formuliert: gravierende Einfühlungsdefizite können möglicherweise auf eine Beziehungsstörung hinweisen, die - wie auch immer bedingt - mit einem zu geringen Austausch über die inneren Befindlichkeiten zusammenhängt. Dabei ist zu berücksichtigen, dass die untersuchten Paare ausnahmslos aufgrund einer Beziehungskrise um professionelle Hilfe nachsuchten, sodass mit globalen oder selektiven Einfühlungsdefiziten zu rechnen ist, aber unter Umständen auch mit einer brüchig gewordenen kollusiven emotionalen Abwehr (Dicks, 1969, S. 68 ff.) die sich in einer — auf den ersten Blick — hohen wechselseitigen Rollenbestätigung niederschlagen wird (siehe 2. Einführung). Die vorliegende Studie demonstriert, welche Aussagen aus den direkten Profilvergleichen hergeleitet werden können, zu denen systematisch auch die Beziehungsbilder einbezogen werden, welche die inneren Veränderungen der Partner in der Beziehung spiegeln. Im Anschluss an jeden Profilvergleich wird gezeigt, inwieweit - ausgehend von je spezifischen Auffälligkeiten - intensive Analysen von Paarbeziehungen anhand der Konzentrierten Paardokumentation durchgeführt werden können (siehe 4.1 Profilvergleiche und dynamische Interpretationen). Damit wird das diagnostische Potenzial des erweiterten Gießen-Tests ausgelotet, indem von einfachen über intra-individuelle und inter-individuelle Vergleiche hin zu komplexen neuen Formen von Gegenüberstellungen geprüft wird, ob und wie die Konzentrierte Beziehungsdokumentation in einer diagnostischen Gesamtschau eine im Aufwand zu vertretende empirische Kontrolle des therapeutischen Prozesses ermöglicht. Weiter soll untersucht werden, inwieweit sie im Rahmen der Erstuntersuchung zu einer Verbesserung und Erweiterung der Paardiagnostik dient. Sie soll damit einen Beitrag zum besseren Verständnis der zwischenmenschlichen Beziehung, der „Dyadologie“ (Moeller 2002) leisten, die das intuitive Wissen um Liebesbeziehungen in Wissenschaft verwandelt, die „Scientification of Love“ (Odent, 1999).
Das Strukturgleichungsmodell (SEM) wird in den Sozial- und Verhaltenswissenschaften oft verwendet, um die Beziehung zwischen latenten Variablen zu modellieren. In der Analyse dieser Modelle spielt die Bewertung der Modellgüte eine wesentliche Rolle, wobei geprüft werden soll, ob das untersuchte Modell (Zielmodell) zu den erhobenen Daten passt. Dafür werden verschiedene inferenzstatistische und deskriptive Gütemaße verwendet. In nichtlinearen SEM, in denen nichtlineare Effekte, wie beispielsweise Interaktionseffekte, modelliert werden, gibt es bisher allerdings keine Verfahren, um die Modellgüte ausreichend prüfen zu können. Insbesondere der χexp2-Test ist für verschiedene nichtlineare SEM nicht geeignet (vgl. Klein & Schermelleh-Engel, 2010; Mooijaart & Satorra, 2009).
In dieser Arbeit werden zwei unterschiedliche nichtlineare SEM betrachtet. Das erste dieser Modelle wird für die Analyse von Interaktions- und quadratischen Effekten verwendet (quadratisches SEM, QSEM). Das zweite Modell ist das Heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006). In diesem Modell wird das latente Wachstumskurvenmodell (LGM), mit dem individuelle Wachstumsverläufe modelliert werden können, um eine heterogene Varianzkomponente des Slope-Faktors erweitert. Diese Heterogenität des Slope-Faktors ist abhängig von den Ausgangswerten und Kovariaten.
Ziel dieser Arbeit war es, die Bewertung der Modellgüte für das QSEM und das HGM zu verbessern. Für das QSEM und das HGM wurde jeweils ein globaler Modelltest entwickelt („Quasi-Likelihood-Ratio-Test“; QLRT). Darüber hinaus wurden Differenztests für diese Art der Modelle diskutiert. Außerdem wurde für beide Modelle je ein Gütemaß bereitgestellt, um fehlende Nichtlinearität, wie fehlende nichtlineare Terme bzw. fehlende Heterogenität der Slope-Varianzen, aufdecken zu können (der Homoscedastic Fit Index, HFI, für das QSEM und der hhet-Test für das HGM).
Die Entwicklung der neuen Gütemaße ist im Wesentlichen von der verwendeten Schätzmethode abhängig. Für beide Modelle, das QSEM und das HGM, wurde in dieser Arbeit die Quasi-Maximum-Likelihood-Methode (Quasi-ML-Methode; Wedderburn, 1974) ausgewählt, mit der für beide betrachteten Modelle geeignete Schätzungen erzielt werden können (Klein & Muthén, 2006, 2007). Die Quasi-ML-Methode ist vergleichbar mit der Maximum-Likelihood-Methode, berücksichtigt allerdings Fehlspezifikationen der LogLikelihood-Funktion, wie beispielsweise kleinere Abweichungen von der angenommenen Verteilung. Für das QSEM wurde im Rahmen der Entwicklung der Modelltests eine zur Schätzung von QSEM entwickelte Quasi-ML-Methode (QML-Methode; Klein & Muthén, 2007) vereinfacht zu der „simplified QML“-Methode (sQML-Methode; Büchner & Klein, 2019). Für die sQML-Methode ist es erheblich einfacher als für die QML-Methode einen globalen Modelltest zu entwickeln. In einer Simulationsstudie konnte gezeigt werden, dass die sQML-Methode ähnlich gute Schätzeigenschaften wie die QML-Methode aufweist.
Die Idee der neuen globalen Modelltests für das QSEM und das HGM besteht darin, statt des für das lineare SEM verwendeten χexp2-Tests, der ein Likelihood-Quotienten-Test („Likelihood Ratio Test“, LRT) ist, einen Quasi-LRT (QLRT) zu verwenden, der auf der Quasi-ML-Methode basiert (Büchner & Klein, 2019; Büchner, Klein & Irmer, 2019). Wie für den χexp2-Test soll das Zielmodell mit einem unbeschränkten Vergleichsmodell verglichen werden. Ist der Unterschied zwischen den Modellen groß, wird darauf geschlossen, dass das Zielmodell nicht gut zu den Daten passt. Die Schwierigkeit bei der Entwicklung solcher QLRT liegt dabei in der Definition eines Vergleichsmodells. Die hier verwendete Idee für solche Vergleichsmodelle besteht darin, wie im χexp2-Test, die Beschränkungen durch das Zielmodell im Vergleichsmodell aufzuheben. Eine weitere Herausforderung ist die Bestimmung der asymptotischen Verteilung der QLRT-Statistiken, die nicht, wie viele LRT-Statistiken, asymptotisch χexp2-verteilt sind. Deshalb wurde die korrekte asymptotische Verteilung dieser Teststatistiken bestimmt, die das Ermitteln von p-Werten ermöglicht.
Globale Modelltests sind zwar geeignet, wichtige Aussagen zur Passung des Modells zu machen, ermöglichen aber keine direkte Aussage über den Vergleich zweier konkurrierender Modelle. Ein solcher Modellvergleich ist aber wichtig, um ein möglichst sparsames Modell zu erhalten. Zum Vergleich ineinander geschachtelter Modelle werden häufig Differenztests verwendet. Diese werden auch in der Arbeit mit dem QSEM und dem HGM empfohlen. Allerdings ist zu beachten, dass die Teststatistiken für mit der Quasi-MLMethode geschätzten Modelle nicht χexp2-verteilt sind. Im Rahmen dieser Arbeit wurde eine korrekte asymptotische Verteilung angegeben. Im Speziellen wurde der Differenztest für den Vergleich zwischen einem HGM und einem LGM vorgestellt, mit dem getestet wird, ob die im HGM modellierten heterogenen Slope-Varianzen notwendig sind.
Ein weiteres Ziel bestand darin, fehlende Nichtlinearität, die nicht in einem Modell berücksichtigt ist, aufzudecken. Dafür wurde ein Test für Regressionsmodelle, der hhet-Test (Klein, Gerhard, Büchner, Diestel & Schermelleh-Engel, 2016), angepasst. Für das SEM wurde dieser Test zu einem Fit-Index, dem HFI (Gerhard, Büchner, Klein & SchermellehEngel, 2017), weiterentwickelt und darin die Verteilung der Residuen der abhängigen Variable bewertet. Der HFI deckt dabei Veränderungen in der Verteilung auf, die durch fehlende nichtlineare Terme verursacht sind. Für das LGM wird der hhet-Test verwendet, um fehlende heterogene Entwicklungsverläufe aufzudecken. Es wird die Verteilung der mit dem LGM standardisierten beobachteten Variablen geprüft.
Für alle vorgeschlagenen Gütemaße wurden Simulationsstudien durchgeführt, um ihre Eignung für die Bewertung des QSEMs bzw. des HGMs zu prüfen. Die α-Fehler-Raten waren meistens nahe an dem erstrebten 5%-Niveau. Für den QLRT für das QSEM bei kleinen Stichproben und für den HFI bei komplexeren Modellen waren sie allerdings erhöht. Darüber hinaus zeigten die Tests insgesamt eine gute Teststärke für das Aufdecken von Fehlspezifikationen. Wie in allen statistischen Tests muss dafür die Stichprobengröße ausreichend groß sein. Die praktische Anwendbarkeit der beiden QLRTs, des hhet-Tests und des Differenztests für das HGM wurde anhand von empirischen Beispielen aufgezeigt.
Soziale Phobie gilt als eine der am weitesten verbreiteten psychischen Störungen (Wittchen & Fehm, 2003; Magee et al., 1996). Obgleich zahlreiche Interventionsansätze zur Behandlung der sozialen Ängste zur Verfügung stehen, gibt es viele Betroffene, die nicht von den Behandlungsmöglichkeiten profitieren oder nach einer Therapie Rückfälle erleben. Aus diesem Grund beschäftigt sich die vorliegende Arbeit mit der Weiterentwicklung von Psychotherapie bei Sozialer Phobie. Sie greift verschiedene Forschungsperspektiven auf, um aktive Wirkfaktoren im therapeutischen Prozess zu identifizieren und für zukünftige Behandlungen nutzbar zu machen. Publikation 1 (Consbruch & Stangier, 2007) gibt einen Überblick über den aktuellen Forschungsstand bzgl. der Diagnostik, Ätiologie und Therapie bei Sozialer Phobie. Die in dieser Publikation dargestellten Forschungsarbeiten zur Behandlung sozialer Ängste vergleichen die therapeutische Wirksamkeit unterschiedlicher Therapieansätze und suchen so nach spezifischen Wirkfaktoren in der Behandlung Sozialer Phobien. Es zeigt sich, dass die kognitiv-verhaltenstherapeutische Behandlung am häufigsten untersucht wurde und dass sich ihre Effektivität durch die Berücksichtigung von Prozessen, die nach Clark und Wells (1995) an der Entstehung und Aufrechterhaltung der Sozialen Ängste beteiligt sind, erheblich verbessern lässt. Publikation 2 (Stangier, Consbruch, Schramm & Heidenreich, 2010) verlässt die ausschließlich an spezifischen Wirkmechanismen interessierte Forschungsperspektive und wendet sich der Frage nach dem Zusammenspiel von spezifischen und allgemeinen Wirkfaktoren zu. Sie vergleicht das Ausmaß der Aktivierung von allgemeinen Wirkfaktoren nach Grawe (1995) sowie deren Einfluss auf das Therapieergebnis in einer kognitiven Verhaltenstherapie (N=29) und einer interpersonellen Therapie (N=33). Die Ergebnisse zeigen, dass Therapeuten in der Interpersonellen Psychotherapie die Aktivierung von Bewältigung, Ressourcenorientierung und Motivationaler Klärung geringer einschätzten als Therapeuten in der kognitiven Verhaltenstherapie, während sie bezüglich der Problemaktivierung und der Güte der therapeutischen Beziehung keine Unterschiede angaben. Stärkere Ressourcenaktivierung stand in beiden Therapieansätzen mit besseren Therapieergebnissen in Beziehung, während höhere Problemaktualisierung nur in KVTBehandlungen zu verbessertem Outcome beitrug. Da die Ressourcenaktivierung in der KVTBedingung stärker ausgeprägt war als in der IPT-Bedingung, lassen sich die Ergebnisse so interpretieren, dass die Problemaktualisierung nur dann zu positiveren Therapieergebnissen führt, wenn sie durch ausreichende Ressourcenaktivierung gestützt wird. Die Studie legt somit nahe, dass spezifische Behandlungsansätze allgemeine Wirkfaktoren, die einen Einfluss auf das Therapieergebnis haben, in unterschiedlichem Maße nutzen. Durch das Fehlen von Angaben zur Therapieintegrität bleibt jedoch offen, welche Rolle individuelles Therapeutenverhalten bei der Aktivierung der allgemeinen und spezifischen Wirkfaktoren spielt. Um zukünftig die Therapieintegrität in der kognitiv-verhaltenstherapeutischen Behandlung von Sozialer Phobie sicherstellen zu können, wurde die Cognitive Therapy Competence Scale for Social Phobia (CTCS-SP) entwickelt, deren psychometrische Eigenschaften in Publikation 3 (Consbruch, Clark & Stangier, in press) dargestellt werden. Zur Bestimmung der Beobachterübereinstimmung wurden 161 Therapiesitzungen von jeweils 2 Ratern mit der CTCS-SP beurteilt. Die Ergebnisse der vorliegenden Untersuchung demonstrieren eine gute interne Konsistenz und gute Interraterreliabilität der Skala, wobei erstmals auch individuelle Items mit ausreichender Reliabilität gemessen werden konnten. Mit der CTCS-SP steht somit ein reliables Messinstrument zur Erfassung therapeutischer Kompetenz in der kognitivverhaltenstherapeutischen Behandlung der Sozialen Phobie zur Verfügung, welches – bei noch zu prüfender Validität - vielfältig eingesetzt werden kann, um die Erforschung
spezifischer und allgemeiner Wirkfaktoren in der kognitiv-verhaltenstherapeutischen Behandlung Sozialer Phobien zu vertiefen.
Object recognition is such an everyday task it seems almost mundane. We look at the spaces around us and name things seemingly effortlessly. Yet understanding how the process of object recognition unfolds is a great challenge to vision science. Models derived from abstract stimuli have little predictive power for the way people explore "naturalistic" scenes and the objects in them. Naturalistic here refers to unaltered photographs of real scenes. This thesis therefore focusses on the process of recognition of the objects in such naturalistic scenes. People can, for instance, find objects in scenes much more efficiently than models derived from abstract stimuli would predict. To explain this kind of behavior, we describe scenes not solely in terms of physical characteristics (colors, contrasts, lines, orientations, etc.) but by the meaning of the whole scene (kitchen, street, bathroom, etc.) and of the objects within the scene (oven, fire hydrant, soap, etc.). Object recognition now refers to the process of the visual system assigning meaning to the object.
The relationship between objects in a naturalistic scene is far from random. Objects do not typically float in mid-air and cannot take up the same physical space. Moreover, certain scenes typically contain certain objects. A fire hydrant in the kitchen would seem like an anomaly to the average observer. These "rules" can be described as the "grammar" of the scene. Scene grammar is involved in multiple aspects of scene- and object perception. There is, for instance, evidence that overall scene category influences identification of individual objects. Typically, experiments that directly target object recognition do not involve eye movements and studies that involve eye movements are not directly aimed at object recognition, but at gaze allocation. But eye movements are abundant in everyday life, they happen roughly 4 times per second. Here we therefore present two studies that use eye movements to investigate when object recognition takes place while people move their eyes from object to object in a scene. The third study is aimed at the application of novel methods for analyzing data from combined eye movement and neurophysiology (EEG) measurements.
One way to study object perception is to violate the grammar of a scene by placing an object in a scene it does not typically occur in and measuring how long people look at the so-called semantic inconsistency, compared to an object that one would expect in the given scene. Typically, people look at semantic inconsistencies longer and more often, signaling that it requires extra processing. In Study 1 we make use of this behavior to ask whether object recognition still happens when it is not necessary for the task. We designed a search task that made it unnecessary to register object identities. Still, participants looked at the inconsistent objects longer than consistent objects, signaling they did indeed process object and scene identities. Interestingly, the inconsistent objects were not remembered better than the consistent ones. We conclude that object and scene identities (their semantics) are processed in an obligatory fashion; when people are involved in a task that does not require it. In Study 2, we investigate more closely when the first signs of object semantic processing are visible while people make eye movements.
Although the finding that semantic inconsistencies are looked at longer and more often has been replicated often, many of these replications look at gaze duration over a whole trial. The question when during a trial differences between consistencies occur, has yielded mixed results. Some studies only report effects of semantic consistency that accumulate over whole trials, whereas others report influences already on the duration of the very first fixations on inconsistent objects. In study 2 we argue that prior studies reporting first fixation duration may have suffered from methodological shortcomings, such as low trial- and sample sizes, in addition to the use of non-robust statistics and data descriptions. We show that a subset of fixations may be influenced more than others (as is indicated by more skewed fixation duration distributions). Further analyses show that the relationship between the effect of object semantics on fixation durations and its effect on oft replicated cumulative measures is not straightforward (fixation duration distributions do not predict dwell effects) but the effect on both measures may be related in a different way. Possibly, the processing of object meaning unfolds over multiple fixations, only when one fixation does not suffice. However, it would be very valuable to be able to study how processing continues, after a fixation ends.
Study 3 aims to make such a measure possible by combining EEG recordings with eye tracking measurements. Difficulties in analyzing eye tracking–EEG data exist because neural responses vary with different eye movements characteristics. Moreover, fixations follow one another in short succession, causing neural responses to each fixation to overlap in time. These issues make the well-established approach of averaging single trial EEG data into ERPs problematic. As an alternative, we propose the use of multiple regression, explicitly modelling both temporal overlap and eye movement parameters. In Study 3 we show that such a method successfully estimates the influence of covariates it is meant to control for. Moreover, we discuss and explore what additional covariates may be modeled and in what way, in order to obtain confound-free estimates of EEG differences between conditions. One important finding is that stimulus properties of physically variable stimuli such as complex scenes, can influence EEG signals and deserve close consideration during experimental design or modelling efforts. Overall, the method compares favorably to averaging methods.
From the studies in this thesis, we directly learn that object recognition is a process that happens in an obligatory fashion, when the task does not require it. We also learn that only a subset of first fixations to objects are affected by the processing of object meaning and its fit to its surroundings. Comparison between first fixation and first dwell effects suggest that, in active vision, object semantics processing sometimes unfolds over multiple fixations. And finally, we learn that regression-based methods for combined eye tracking-EEG analysis provide a plausible way forward for investigating how object recognition unfolds in active vision.
The purpose of this thesis was to investigate different aspects of the promotion of selfregulated learning in primary and secondary school education by focussing on its effectiveness, and on its assessment from different perspectives. Theoretically, the thesis is based on contemporary social-cognitive and constructivist theories of self-regulated learning. Two meta-analyses were conducted, an observation instrument was developed which was tested and employed in two observation studies, and a multi-method study was conducted to investigate different perspectives on the topic. Common to all studies is the evaluation of different aspects of the promotion of self-regulated learning among students. The results of this investigation are reported in four research articles (Studies 1-4), which have been accepted for publication (Study 1 and 2) or submitted to scientific peer reviewed journals (Study 3 and 4). The data are analyzed by applying a multi-method approach, using several sources of data (primary studies, self-reports, video data, interviews) and diverse methods (meta-analysis, observation analysis, survey analysis). The present data generally indicate that self-regulated learning can be enhanced both at primary and secondary school. The results of the first and the second study showed that primary and secondary school students partly benefit from different training characteristics. However, there were also common aspects of effective training characteristics that hold for both school levels. Moreover, the third study revealed that it was possible to develop an instrument to observe teachers’ promotion of self-regulated learning in a reliable way, which can be applied in several contexts. The results indicated that the stability of teachers’ promotion of selfregulated learning varies among the school subjects. Furthermore, the results showed that only little instruction of self-regulated learning takes place in primary and secondary school mathematics lessons. Yet, secondary school teachers showed more promotion of cognitive strategies than primary school teachers did, although the former included more constructivist characteristics in the learning environment. The observation studies produced a rich pool of data, serving as pilot studies for future studies with a larger sample sizes that are needed to further strengthen the results. As the fourth study indicated, teacher ratings differ significantly from video-based observations in perceiving their promotion of self-regulated learning. However, for some aspects they agree with their students’ perception. Finally, it was found that students’ perception on their teachers’ promotion of self-regulated learning had the highest impact on their self-regulation competence. In the future, it will be crucial to include the instruction of self-regulated learning from a theoretical and a practical perspective in the teacher training curriculum. Moreover, in future research the implementation of the promotion of self-regulated learning should be investigated, and in experimental settings different ways of supporting such an implementation should be examined. A close collaboration with teachers would be helpful to get deeper insights into teachers’ behaviour and attitudes. The promotion of self-regulated learning should start as early as in primary school as students are already able to learn it then and as it takes many years to develop it fully. In addition, when investigating teachers’ promotion of self-regulated learning, the school subject should be taken into account during assessment. Long-term measurements could acknowledge such a potential instability. Moreover, in further studies, observation data of a large sample of teachers should be gathered in order to get a representative overview of teachers’ promotion of self-regulated learning. Furthermore, research on the promotion of self-regulated learning should account for the impact of students’ perspectives referring on this.
Die vorliegende Arbeit befasst sich mit den nichtlinearen Zusammenhangsstrukturen in Form von Moderator- und quadratischen Effekten, die einen aktuellen Gegenstand der Forschung darstellen. In der Arbeit wurden zunächst die theoretischen Grundlagen von Strukturgleichungsmodellen sowie die Problematik von manifesten und latenten nichtlinearen Modellen erläutert. Die komplexeren Strukturgleichungsmodelle, die neben einem Moderatorterm auch quadratische Termen enthalten, wurden besprochen und danach sowohl die Produktindikatorverfahren vorgestellt, die zur Parameterschätzung die Maximum-Likelihood-Methode verwenden, als auch die neu entwickelten verteilungsanalytischen Verfahren, nämlich LMS (Klein, 2000; Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007) vorgestellt. Das Thema wurde zuerst aus theoretischer Perspektive analysiert und unter "Fragestellung 1" dargestellt. Bei der Analyse von Moderator- und quadratischen Termen in multiplen Regressionsmodellen kann es bei steigender Prädiktorkorrelation wegen des zunehmenden gemeinsamen Varianzanteils dieser beiden Terme zu einer Fehlspezifizierung der tatsächlich vorhandenen nichtlinearen Effekte kommen. Um eine zuverlässige Aufdeckung dieser Effekte zu ermöglichen, wurde daher in der Vergangenheit mehrfach empfohlen, grundsätzlich Moderator− und quadratische Effekte simultan zu untersuchen. Da psychologische Variablen jedoch selten messfehlerfrei erfasst werden können, erwiesen sich entsprechende Untersuchungen, die lediglich auf manifester Variablenebene durchgeführt worden waren und somit, von perfekt reliablen Messungen ausgingen, als methodisch problematisch. Zur weiterführenden Untersuchung der simultanen Analyse nichtlinearer Effekte empfiehlt sich daher der Einsatz latenter Strukturgleichungsmodelle, die den Messfehler manifester Variablen explizit berücksichtigen. Im Anschluss daran wurden die neu entwickelten verteilungsanalytischen Verfahren, LMS und QML vorgestellt. Diese neuen Verfahren berücksichtigen erstmals explizit die multivariate nichtnormale Verteilung der Indikatorvariablen, die aus nichtlinearen Modellen resultiert. Unter "Fragestellung 2“ wurde ihre Leistungsfähigkeit im Vergleich zu LISRELML-Verfahren überprüft. Die Voraussetzungen zur Anwendung der beiden Methoden ist die Normalverteilung der Indikatoren der latenten Prädiktorvariablen. Da in der empirischen Forschung zu psychologischen oder sozialwissenschaftlichen Fragestellungen normalverteilte Variablen sehr selten sind, wurde unter "Fragestellung 3" die Frage untersucht, wie robust beide Verfahren gegenüber der Verletzung der Verteilungsvoraussetzung sind. Es wurden zahlreiche Simulationsstudien durchgeführt, anhand derer die Robustheit der verteilungsanalytischen Verfahren bei variierender Schiefe und Kurtosis der Variablen nachgewiesen werden konnte. Auch unter weiteren praxisrelevanten Bedingungen, z.B. sehr komplexen Modellen mit bis zu sechs nichtlinearen Effekten und relativ kleinen Stichproben, zeigten beide Methoden sehr gute Schätzeigenschaften. Diese Ergebnisse sind für Anwender sehr ermutigend, da sie zeigen konnten, dass für die Untersuchung von multiplen nichtlinearen Effekten unter verschiedenen simulierten Bedingungen die verteilungsanalytischen Verfahren LMS und QML sehr zuverlässig sind und eingesetzt werden können. Beide Methoden wiesen unter den realisierten Bedingungen bezüglich der Güte der Parameterschätzungen keine bedeutsamen Unterschiede auf. Beide Verfahren lieferten unabhängig von der Komplexität der untersuchten Modelle erwartungstreue Parameterschätzungen und unverzerrte Standardfehlerschätzungen. Anschließend konnte neben dem Nachweis der erweiterten Leistungsfähigkeit der verteilungsanalytischen Verfahren anhand eines empirischen Beispiels aus der Burnout-Forschung gezeigt werden, dass die Analyse von multiplen nichtlinearen Effekten eine praktische Relevanz für die Weiterentwicklung von Theorien haben kann.
Die Schizophrenie stellt eine sehr vielfältige und schwere psychische Erkrankung dar, die fundamentale Bereiche, wie Denken, Fühlen, Wahrnehmen, Willensbildung und Handeln beeinträchtigt (Kircher & Gauggel, 2008). Neben der Störung der Kognition und der Wahrnehmung sind es die Störungen der Emotionen, die das Krankheitsbild der Schizophrenie prägen. Eine Emotion ist Grundlage eines informativen Bedeutungssystems einer Person. Sie informiert über die Relevanz einer Situation sowie über Wohlbefinden, Wünsche und Bedürfnisse. Sie ermöglicht eine bedürfnis- und situationsgerechte Auswahl von Ver-haltensweisen, beeinflusst kognitive Prozesse, prägt die Entscheidungsfindung und Problemlösung. Durch den mimischen Ausdruck, der aus einer Emotion resultiert, bekommt sie eine kommunikative bzw. interpersonelle Funktion. Damit stellen Emotionen zentrale Phänomene des alltäglichen Lebens dar, die einen großen Einfluss auf Ver-halten, Lernen, Wahrnehmung und Gedächtnis haben.
Nicht immer ist es sinnvoll und funktional, Emotionen auszuagieren. Um adäquat mit Emotionen umgehen zu können, bedarf es der Emotionsregulation. Hierbei handelt es sich um einen Prozess, bei dem beeinflusst wird, welche Emotionen wann und wie erlebt und ausgedrückt werden (Gross, 1998), um flexibel auf Umwelteinflüsse und den sozialen Kontext eingehen zu können (Thompson, 1994)...
Die vorliegende Arbeit befasst sich mit der Modellierung von Kundenorientierung und Kundenzufriedenheit und ihren Antezedenzen. Gerade in diesem Forschungsbereich gibt es eine unüberschaubare Zahl an Veröffentlichungen, doch wurden bestimmte Aspekte stets vernachlässigt, wie die Unterscheidung zwischen personaler und organisationaler Kundenorientierung. Aus der Unterscheidung ergibt sich, dass für beide Aspekte der Kundenorientierung unterschiedliche Antezedenzen anzunehmen sind. Die empirische Prüfung der unterschiedlichen Antezedenzen erfolgt in der Literatur zumeist nur für eine der beiden Formen der Kundenorientierung. Weiterhin ist die verwendete Methode bei der Untersuchung der Zusammenhänge von Kundenorientierung und Kundenzufriedenheit zu kritisieren: Fast immer werden Gruppen von Kunden zusammengefasst, ihre Werte gemittelt und mit Gruppen von Mitarbeitern verglichen. Die Rolle der Vorgesetzten wird zwar theoretisch angenommen und betont, jedoch keiner empirischen Prüfung unterzogen. In der vorliegenden Doktorarbeit werden verschiedene theoretische Modelle und Befunde zur Kundenorientierung und Kundenzufriedenheit integriert, um daraus ein umfassenderes Modell der Antezedenzen der Kundenorientierung und der Deszendenz (Kundenzufriedenheit) zu bilden. Integration soll dahingehend erreicht werden, dass organisationale und personale Antezedenzen in einem einzigen Modell zusammengeführt werden, anstatt diese in getrennten Theorien zu betrachten. Des Weiteren wird zwischen organisationaler und personaler Kundenorientierung unterschieden. Personale Kundenorientierung wird als positive Einstellung von Mitarbeitern ihren Kunden und der Arbeit mit Kunden gegenüber aufgefasst. Persönliche Kundenorientierung beinhaltet aber auch die Intention, diese Einstellung in kundenorientierte Performanz umzusetzen (Kundenorientierte Verhaltensintention) und wird demnach nicht im Sinne eines Traits verstanden. Organisationale Kundenorientierung wird aus der Sicht der Mitarbeiter als wahrgenommene Servicequalität der Organisation konzipiert. Der Vergleich der persönlichen Kundenorientierung von Mitarbeitern und der Kundenzufriedenheit erfolgt auf individueller Ebene: Die Aussagen einer Gruppe von Kunden wurden ihrem Servicemitarbeiter zugeordnet. Die Stichprobe dieser Arbeit wurde im medizinisch-therapeutischen Umfeld erhoben- ein (existentiell bedeutsamer) Dienstleistungssektor, der sich zunehmenden Interesses und steigender wirtschaftlicher Bedeutung erfreut. Es wurden insgesamt Daten von n = 851 Probanden mittels Querschnitt erhoben (n = 685 Kunden und n = 166 Dienstleister). Die aufgestellten Hypothesen wurden überwiegend bestätigt. Es konnten verschiedene Antezedenzen der personalen und der organisationalen Kundenorientierung belegt werden: Arbeitsbedingungen, Merkmale des sozialen Systems der Organisation sowie Merkmale des Vorgesetzten beeinflussen organisationale Kundenorientierung. Antezedenzen der persönlichen Kundenorientierung von Mitarbeitern sind Persönlichkeitsmerkmale, Einstellungen gegenüber der Organisation und soziale Kompetenzen. Die direkte Wirkung der Kundenorientierung auf Kundenzufriedenheit konnte nachgewiesen werden, aber auch mediierte Effekte. Demnach verstärken Antezedenzen der Kundenorientierung die personale bzw. organisationale Kundenorientierung und beeinflussen dadurch die Kundenzufriedenheit. Direkte Effekte ergeben sich für organisationale Kundenorientierung und Kundenzufriedenheit, wohingegen persönliche Kundenorientierung nur teilweise mit Kundenzufriedenheit korreliert. Die Rolle des Vorgesetzten wurde in ihrer Bedeutsamkeit belegt, insbesondere dadurch, dass eine Wirkung auf organisationale Kundenorientierung aufgezeigt werden konnte, die wiederum die Kundenzufriedenheit stark beeinflusst. Insgesamt hat sich gezeigt, dass sich Kundenorientierung differenziert betrachten lässt und dadurch empirisch verschiedene Zusammenhänge nachgewiesen werden können.