Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (58) (remove)
Has Fulltext
- yes (58)
Is part of the Bibliography
- no (58)
Keywords
- Funktionelle NMR-Tomographie (2)
- Geschlechtsunterschiede (2)
- Magnetoencephalographie (2)
- Working Memory (2)
- fMRI (2)
- ADHD (1)
- Acculturation (1)
- Achtsamkeit (1)
- Adhärenz (1)
- Adolescence (1)
Institute
- Psychologie (58) (remove)
Diese Dissertation befasst sich mit Validierungsstrategien von Tests zur Erfassung studentischer Kompetenzen. Kompetenzen von Studierenden werden zu verschiedenen Zwecken erhoben. Dies beginnt beim Eintritt in das Studium durch Zulassungstests und wird im Studium fortgesetzt z.B. durch Tests zur Zertifizierung von Kompetenz (Benotung von Leistung) oder zur Zuteilung auf bestimmte Kurse (Einteilung in Sprachniveaus). Neben diesen internen Tests zur Erfassung studentischer Kompetenzen werden auch externe Tests genutzt um etwa die Lehre zu verbessern (Evaluation von Veranstaltungen). Die mit dem Einsatz von Tests verbundenen Konsequenzen können sowohl für Studierende als auch Lehrpersonen und Entscheidungsträger*innen schwerwiegend sein. Daher sollten Tests wissenschaftlichen Gütekriterien genügen.
Das wichtigste Kriterium für die Beurteilung von wissenschaftlichen Tests ist Validität. In dieser Dissertation wird ein argumentationsbasiertes Validierungsansatz verfolgt. In diesem wird nicht die Validität eines Tests untersucht, sondern die Plausibilität der Interpretation beurteilt, die mit den Testwerten verbunden ist. Bislang fehlt jedoch für viele der wissenschaftlichen Tests für den deutschen Hochschulbereich ein auf die Testwertinterpretation abgestimmtes Validitätskonzept.
In dieser Arbeit wird ein Validierungsschema vorgestellt, in das übliche Testnutzen der Erfassung studentischer Kompetenzen an deutschen Hochschulen eingeordnet werden können. Die Einordnung von Testnutzen in das Schema erlaubt die Ableitung von passenden Validitätsevidenzen. Im Fokus stehen das Verhältnis von Test zu 1) Konstrukt, 2) Lehre und 3) beruflichen Anforderungen.
Das Validierungsschema wird angewandt, um Testwertinterpretationen eines empirischen Forschungsprojektes zur Erfassung von Kompetenz in Nachhaltigkeitsmanagement bei Studierenden zu validieren. Der Schwerpunkt dieser Arbeit liegt auf der Validierung der Interpretation, dass die Testwerte von drei nachhaltigkeitsbezogenen Tests Indikatoren für hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement sind. Die Analysen zur Gewinnung von Validitätsevidenzen konzentrieren sich auf die Grundannahme, dass Lernfortschritte in den nachhaltigkeitsbezogenen Tests vorwiegend hochschulisch vermittelt werden. Dafür wurde ein Messwiederholungsdesign mit zwei Gruppen von Studierenden realisiert. Studierende in der Schwerpunktgruppe besuchten ein Semester lang eine reguläre Lehrveranstaltungen mit Bezug zu Nachhaltigkeitsthemen und Nachhaltigkeitsmanagement, Studierende der Kontrollgruppe besuchten keine solchen Lehrveranstaltung. Die Einteilung in Schwerpunkgruppe und Kontrollgruppe erfolgte über Analyse von Modulhandbüchern und verwendeten Lehrmaterialien. Die Ergebnisse zeigen, dass Studierende aus der Schwerpunktgruppe in zwei der drei Tests höhere Lernfortschritte zeigen als Studierende der Kontrollgruppe. Selbstberichte der Studierenden zu hochschulischen und außerhochschulischen Lerngelegenheiten lassen darauf schließen, dass Studierende der Schwerpunkgruppe auch außerhochschulisch ein höheres Interesse an Nachhaltigkeitsthemen zeigen, dies schlägt sich jedoch nicht in höherem Vorwissen in den verwendeten Tests nieder. Insgesamt wird daher für die zwei Tests mit höheren Lernfortschritten in der Schwerpunktgruppe die Interpretation als plausibel bewertet, dass die Testwerte hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement abbilden.
In der vorliegenden Arbeit wird untersucht, wie das Gehirn Bewusstsein erzeugt. Diese Frage wird als eines der größten Rätsel der heutigen Wissenschaft angesehen: Wie kann es sein, dass aus der Aktivität der Nervenzellen unsere subjektive Welt entsteht? Es ist offensichtlich nicht einfach, diese Frage wissenschaftlich zu untersuchen. Eine der vorgeschlagenen Strategien für die Untersuchung von Bewusstsein behauptet, dass man zunächst die neuronalen Korrelate des Bewusstseins finden sollte (Koch, 2004). Einer Definition zufolge sind die neuronalen Korrelate des Bewusstseins die kleinste Menge neuronaler Prozesse, die hinreichend für eine bestimmte bewusste Erfahrung sind (zum Beispiel für die bewusste Erfahrung des Blaubeergeschmacks). Manche behaupteten, die Entdeckung der neuronalen Korrelate des Bewusstseins würde es erlauben, dem Rätsel des Bewusstseins näher zu kommen (Crick & Koch, 1990). Nur wie soll man die neuronalen Korrelate des Bewusstseins finden? Eine relativ einfache Strategie dafür wurde schon vor mehr als 20 Jahren beschrieben. Es sollten einfach experimentelle Bedingungen erschaffen werden, in welchen ein Reiz manchmal bewusst wahrgenommen wird und manchmal nicht (Baars, 1989). Solche Analysen, die Bedingungen mit und ohne bewusste Wahrnehmung vergleichen, werden als „Kontrastierungsanalyse“ bezeichnet (da zwei Bedingungen miteinander kontrastiert werden). Es existieren viele verschiedene experimentelle Paradigmen, bei welchen man den Reiz unter denselben Bedingungen präsentieren kann, so dass er bei manchen Versuchsdurchgängen bewusst wahrgenommen wird, bei anderen nicht (Kim & Blake, 2005). Mit solchen experimentellen Paradigmen kann man angeblich die neuronalen Korrelate des Bewusstseins finden, wenn man a) bei jedem Durchgang die Versuchsperson fragt, ob oder was die Versuchsperson bei dem Durchgang wahrgenommen hat und b) gleichzeitig die neuronalen Prozesse misst (zum Beispiel mit EEG, MEG oder fMRT). Anschließend kann man die erhobenen neuronalen Daten unter den Bedingungen mit und ohne bewusste Wahrnehmung vergleichen.
Mittlerweile gibt es viele Studien, in denen solche experimentelle Paradigmen – und damit die Kontrastierungsanalyse – angewendet wurden. Insofern könnte man glauben, die neuronalen Korrelate des Bewusstseins seien schon gefunden worden. Allerdings ist dies nicht der Fall. Es existiert in der Literatur weiterhin Uneinigkeit darüber, ob die Korrelate des Bewusstseins früh oder spät in der Zeit liegen, und ob die Korrelate in sensorischen Arealen oder eher im hierarchisch höheren fronto-parietalen Kortex zu finden sind.
Nach unserer Meinung sind die experimentellen Paradigmen, die üblicherweise zum Auffinden der neuronalen Korrelate des Bewusstseins verwendet werden, nicht spezifisch genug, um diese eindeutig zu lokalisieren. Eher glauben wir, dass die klassische Kontrastierungsanalyse auch andere Prozesse als Ergebnisse hervorbringt und uns deshalb prinzipiell nicht zu den neuronalen Korrelaten des Bewusstseins führen kann.
Im Kapitel 2 wird erklärt, wieso die typischen experimentellen Paradigmen nicht die neuronalen Korrelate des Bewusstseins ausfindig machen können. Wir behaupten, dass der Vergleich neuronaler Daten aus experimentellen Bedingungen mit und ohne bewusste Wahrnehmung auch die neuronalen Prozesse widerspiegeln könnte, die bewussten Wahrnehmungen entweder vorausgehen oder folgen. Es ist beispielsweise bekannt, dass neuronale Prozesse vor Auftreten des Reizes darüber bestimmen können, ob der Reiz bewusst wahrgenommen wird oder nicht (Busch, Dubois, & VanRullen, 2009; Mathewson, Gratton, Fabiani, Beck, & Ro, 2009). Wenn man experimentelle Bedingungen mit und ohne bewusster Wahrnehmung miteinander vergleicht, werden auch solche Prozesse als Ergebnis auftauchen, obwohl diese zeitlich klar vor dem Reiz stattfinden und deshalb keine neuronalen Korrelate des Bewusstseins sein können. Es ist natürlich einfach zu entscheiden, dass diese Prozesse, die schon vor dem Reiz stattfinden, der bewussten Wahrnehmung vorausgehen müssen, aber es ist unmöglich zu sagen, ob ein neuronaler Prozess 100 oder 200 Millisekunden nach der Präsentation des Reizes immer noch ein Vorläuferprozess ist schon ein neuronales Korrelat des Bewusstseins darstellt. Deshalb ist die typische Kontrastierungsanalyse nicht spezifisch genug und wir wissen nicht, ob neuronale Prozesse, die durch die Kontrastierungsanalyse aufgedeckt werden, direkt die neuronalen Korrelate des Bewusstseins oder eher Prozesse vor der bewussten Wahrnehmung widerspiegeln.
Nicht nur die Vorläuferprozesse der bewussten Warnehmung stellen ein Problem dar. Auch Konsequenzen der bewussten Verarbeitung werden durch die Kontrastierungsanalyse gefunden. Beispielsweise wurden im medialen Temporallappen Neurone gefunden, die nur dann feuern, wenn ein Patient eine Person auf einem Bild bewusst erkennt, aber nicht feuern, wenn der Patient die Person auf dem Bild nicht bewusst wahrnimmt (Quiroga, Mukamel, Isham, Malach, & Fried, 2008). So könnte man vorerst meinen, dass das Feuern dieser Neurone das neuronale Korrelat des Bewusstseins sein könnte. Nach einer Läsion, sprich neuronalen Schädigung des medialen Temporallappens kann man die Welt jedoch weiterhin bewusst wahrnehmen (man hat jedoch Probleme mit dem Gedächtnis und Wiedererkennen). Insofern kann das Feuern dieser Neurone nicht das neuronale Korrelat des Bewusstseins sein und ist eher ein Beispiel für die Konsequenz der bewussten Verarbeitung. Wir behaupten, dass es noch viele andere solcher Vorläuferprozesse und Konsequenzen gibt, die notwendigerweise als Ergebnis bei der Kontrastierungsanalyse auftauchen, und also ist die typische Kontrastierungsanalyse extrem unspezifisch bezüglich der neuronalen Korrelate des Bewusstseins. In anderen Worten: Die typische Kontrastierungsanalyse, bei welcher man experimentelle Bedingungen mit und ohne bewusste Wahrnehmung miteinander vergleicht, wird uns nicht helfen die neuronalen Korrelate des Bewusstseins zu finden.
Wir glauben, dass neue experimentelle Paradigmen entwickelt werden sollten, um die neuronalen Korrelate des Bewusstseins ausfindig zu machen. Wahrscheinlich gibt es kein einfaches Experiment, mit dem man die Vorläuferprozesse und Konsequenzen vollständig vermeiden kann, um damit direkt die neuronalen Korrelate des Bewusstseins zu bestimmen. Eher braucht man viele verschiedene Experimente, die Schritt für Schritt unser Wissen über die neuronalen Korrelate des Bewusstseins erweitern.
In der vorliegenden Arbeit (in Kapiteln 3, 4 und 5) wird ein neues experimentelles Paradigma angewandt. Dieses Paradigma wird nicht alle oben erwähnten Probleme lösen, wird aber hoffentlich erlauben, einige Vorläuferprozesse der bewussten Wahrnehmung von den neuronalen Korrelaten des Bewusstseins auseinanderzuhalten. Der Vorteil unseres experimentellen Paradigmas besteht darin, dass die bewusste Wahrnehmung durch zwei verschiedene Vorläuferprozesse beeinflusst wird. Die Versuchspersonen müssen auf schnell präsentierten und mittels Rauschens undeutlich gemachten Bildern eine Person detektieren. Die experimentellen Bedingungen sind derart gestaltet, dass die Versuchspersonen nicht bei jedem Durchgang die Person auf dem Bild wahrnehmen können. Damit können wir den Wahrnehmungsprozess manipulieren. Bei einer Manipulation variieren wir den Anteil des Rauschens auf dem Bild und damit die sensorische Evidenz. Je weniger Rauschen, desto besser können die Versuchspersonen die Bilder wahrnehmen und desto öfter sehen sie auch bewusst die Person auf dem Bild. Bei der anderen experimentellen Manipulation der Wahrnehmung werden einige Bilder den Versuchspersonen vorher klar und ohne Rauschen gezeigt. Damit erschafft man Wissen über bestimmte Bilder, die später mit Rauschen präsentiert werden. Man kann zeigen, dass solch bestehendes Wissen tatsächlich die Wahrnehmung beeinflusst. Wenn die Versuchspersonen bestehendes Wissen über ein Bild haben, ist es wahrscheinlicher, dass sie die Person auf dem Bild bewusst wahrnehmen. Damit haben wir zwei verschiedene Vorläuferprozesse – sensorische Evidenz und bestehendes Wissen, die beide die bewusste Wahrnehmung beeinflussen. Beide Vorläuferprozesse erhöhen den Anteil der Durchgänge, in welchen die Versuchspersonen die Person auf dem Bild bewusst wahrnehmen.
Mit diesem experimentellen Paradigma möchten wir einige Aussagen über die neuronalen Korrelate des Bewusstseins testen. Wenn über einen neuronalen Prozess behauptet wird, dass er einem neuronalen Korrelat des Bewusstseins entspricht, müsste dieser Prozess von den beiden manipulierten Vorläuferprozessen in ähnlicher Weise beeinflusst werden, da bewusste Wahrnehmung durch beide manipulierten Vorläuferprozessen in ähnlicher Weise erleichtert wird. Wenn aber der Prozess, über den behauptet wird, er sei ein neuronales Korrelat des Bewusstseins, nicht durch beide Manipulationen geändert wird, kann dieser Prozess kein neuronales Korrelat des Bewusstseins sein, da er nicht beeinflusst wird, obwohl die bewusste Wahrnehmung geändert wurde.
Mit diesem experimentellen Paradigma und dieser Logik haben wir zwei unterschiedliche neuronale Prozesse getestet, von denen behauptet wird, dass sie den neuronalen Korrelaten des Bewusstseins entsprechen könnten. In Kapitel 3 wurde untersucht, ob lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. In Kapitel 4 wurde mit diesem experimentellen Paradigma untersucht, ob die neuronale Synchronisierung dem neuronalen Korrelat des Bewusstseins entsprechen könnte.
Unsere Arbeit im Kapitel 3 baut auf der von Fisch und Kollegen (2009) auf. Fisch und Kollegen (2009) zogen aus ihrer experimentellen Arbeit den Schluss, dass lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. Sie hatten Elektroden auf dem visuellen Kortex von Epilepsiepatienten implantiert und von diesen Elektroden die Gammabandaktivität abgeleitet. Im ersten Schritt suchten sie nach Elektroden, die kategorienspezifische Antworten zeigen. Bei den kategorienspezifischen Elektroden ist die Gammabandaktivität abhängig vom präsentierten Stimulusmaterial. Zum Beispiel kann man bei einer Elektrode auf dem Fusiform Face Area starke Gammabandaktivität nur dann messen, wenn ein Gesicht auf dem Bild zu sehen ist. Die Autoren benutzten solche kategorienspezifischen Elektroden, um nach den neuronalen Korrelaten des Bewusstseins zu suchen. Sie zeigten den Patienten Bilder von Gesichtern, Häusern und Objekten, die direkt nach der kurzen Präsentation maskiert wurden, so dass die Patienten nur bei manchen Durchgängen erkannten, was auf dem Bild war, bei anderen Durchgängen nicht. Dies entspricht der typischen Kontrastierungsanalyse. Die Ergebnisse haben klar gezeigt, dass bei diesen kategorienspezifischen Elektroden die Gammabandaktivität erhöht wurde, als die Patienten bewusst wahrnahmen, was auf dem Bild zu sehen war. Aus diesen Ergebnissen zogen die Autoren den Schluss, dass lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht. Diese Aussage wollten wir mit unserem experimentellen Paradigma testen.
Um diese Behauptung zu untersuchen, erhoben wir sehr ähnliche Daten wie Fisch et al. (2009) und analysierten die Daten auf ähnliche Weise. Unsere experimentelle Frage war, ob die lokale kategorienspezifische Gammabandaktivität durch unsere beiden Manipulationen – sensorische Evidenz und bestehendes Wissen – in ähnlicher Weise erhöht wird. Dies sollte der Fall sein, wenn die lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht, da sensorische Evidenz und bestehendes Wissen beide den Anteil der Durchgänge, in welchen die Versuchsperson die Person auf dem Bild bewusst wahrnimmt, erhöhen. Dieses Ergebnis wurde nicht gefunden. Stattdessen fanden wir, dass die lokale kategorien-spezifische Gammabandaktivität nur durch sensorische Evidenz erhöht wurde, bestehendes Wissen aber keinen Effekt auf diese Aktivierung hatte. Da bestehendes Wissen auch den Anteil der Durchgänge mit bewusster Wahrnehmung erhöht, die kategorienspezifische Gammabandaktivität aber nicht durch bestehendes Wissen erhöht wurde, kann man schlussfolgern, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins reflektieren kann.
Als nächstes (Kapitel 4) haben wir die Hypothese getestet, dass Synchronizität dem neuronalen Korrelat des Bewusstseins entspricht. Um diese Idee zu testen, maßen wir mittels Magnetoenzephalographie die magnetischen Felder des Gehirns, schätzten aus diesen Daten mittels Beamforming die neuronalen Aktivitätsquellen und quantifizierten die Synchronizität zwischen diesen Quellen. Wenn die interareale Synchronizität dem neuronalen Korrelat des Bewusstseins entspräche, sollte die Synchronizität für Bedingungen mit mehr sensorischer Evidenz und mit bestehendem Wissen erhöht sein. Dies wurde nicht beobachtet. Wir fanden, dass Synchronizität (gemittelt über die Quellen) nur bei den Bildern erhöht war, für die bestehendes Wissen vorlag. Ein ähnlicher Effekt für sensorische Evidenz wurde nicht gefunden. Insofern können wir sagen, dass unsere Befunde dagegen sprechen, dass neuronale Synchronizität den Mechanismus für Bewusstsein darstellt. Allerdings können wir das in diesem Fall auch nicht völlig ausschließen, denn Synchronizität könnte die Informationsverarbeitung auf einem kleineren Maßstab koordinieren als wir es mit dem MEG messen können (Singer, in press).
Im Kapitel 5 untersuchten wir, wie schnell bestehendes Wissen bewusste Verarbeitung beeinflussen kann. Um dies herauszufinden machten wir uns die intraindividuellen Unterschiede der perzeptuellen Leistung zu Nutze. Wir fanden, dass bestehendes Wissen bewusste Verarbeitung schon innerhalb der ersten 100 Millisekunden nach der Präsentation des Reizes beeinflusst. Wir beobachteten auch, dass ein größerer perzeptueller Effekt des bestehenden Wissens in geringerer neuronaler Aktivität in Durchgängen mit bestehendem Wissen hervorruft. Diese Ergebnisse sind im Einklang mit Theorien, die besagen, dass unsere Wahrnehmung bestehendes Wissen nutzt, um vorherzusagen, wie die visuelle Welt sich ändert und um die neuronalen Antworten zu verringern (Friston, 2010).
In der vorliegenden Arbeit wurde diskutiert, warum die typische Kontrastierungsanalyse uns nicht zu den neuronalen Korrelaten des Bewusstseins führen kann. Wir schlugen vor, dass neue experimentelle Paradigmen nötig sind, um näher an die neuronalen Korrelate des Bewusstseins heranzukommen. Es wurde ein neues Paradigma benutzt, um zwischen Vorläuferprozessen und neuronalen Korrelate des Bewusstseins zu unterscheiden. Mit diesem Paradigma wurden zwei sehr unterschiedliche Hypothesen getestet und gefunden, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins widerspiegeln kann. Wir hoffen, dass unsere Experimente eine Entwicklung von vielen weiteren und besseren experimentellen Paradigmen stimuliert, die zwischen den Vorläuferprozessen, den Konsequenzen und den eigentlichen Korrelaten des Bewusstseins unterscheiden können. Wenn man über die Kontrastierungsanalyse hinausgeht, kann man die gegenwärtigen Theorien des Bewusstseins testen und damit Schritt für Schritt näher an die neuronalen Grundlagen des Bewusstseins kommen.
In der vorliegenden Arbeit wurden zwei motivationale Erklärungsmodelle, Zielorientierungen und das kognitiv-motivationale Prozessmodell, im Rahmen des selbstregulierten Lernens integriert. Selbstregulationsprozesse sind nach Carver und Scheier (1981) zyklisch angelegt. Zu den Bestandteilen der Selbstregulation gehören nach Boekaerts (1999)Regulation der Informationsverarbeitung, Regulation des Lernprozesses und Regulation des Selbsts. Auf dieser Ebene sind die Zielorientierungen angesiedelt. In dieser Arbeit das 2 x 2 Modell von Elliot und McGregor (2001) herangezogen. Es berücksichtigt zwei Dimensionen, die Valenz (Annäherungs- und Vermeidungskomponente) und die Kompetenz (Vergleichsmaßstab intern und extern). Hieraus resultieren: 1) Lern-Annäherungs-Ziele (positive Valenz & interner Vergleich, 2) Lern-Vermeidungs-Ziele (negative Valenz & interner Vergleich), 3) Leistungs-Annäherungs-Ziele (positive Valenz & externer Vergleich) und 4) Leistungs-Vermeidungs-Ziele (negative Valenz & externer Vergleich). Diese vier Zielorientierungen sind der erste Teil des integrierten Modells, der zweite zentrale Teil ist das kognitiv-motivationale Prozessmodell (Vollmeyer & Rheinberg, 1999, 2006). Ausgangspunkt ist die aktuelle Motivation, die aus 1) der Erfolgswahrscheinlichkeit, 2) der Misserfolgsbefürchtung, 3) dem Interesse und 4) der Herausforderung als unabhängige Faktoren besteht. Diese aktuelle Motivation wirkt nicht direkt auf die Leistung, sondern durch kognitive (hier: Metakognition) und motivationale (hier: Flow-Erleben) Mediatoren. Es wurden drei Fragestellungen bearbeitet. Die erste Fragestellung betraf das Zusammenspiel der Zielorientierungen und der aktuellen Motivation. Eine Überprüfung dieses integrierten Motivationsmodell erfolgte mittels Pfadanalyse. Die zweite und dritte Fragestellung befasste sich spezifisch mit dem kognitiv-motivationalen Prozessmodell. Es wurden Subgruppen auf der Basis der aktuellen Motivation identifiziert und ihre Bedeutung für die Mediatoren und die Leistung untersucht. Die dritte Fragestellung fokussierte den Prozesscharakter des Modells. Hier erfolgten Analysen über den Arbeitsprozess hinweg. Die Fragebögen (Achievement Goal Questionnaire (Elliot & McGregor, 2001), Metakognitionsfragebogen (aufbauend auf LIST (Wild, 2000) und Metacognitive Awareness Inventory (Schraw & Dennison, 1994), Fragebogen zur aktuellen Motivation (Rheinberg, Vollmeyer & Burns, 2001), Flow-Kurz-Skala (Rheinberg, Vollmeyer & Engeser, 2003)) und die Problemlöseaufgaben (Sudokus) wurden in einer Pilotstudie getestet. An der Hauptstudie nahmen 202 Personen teil (73% weiblich). Das integrierte Motivationsmodell geht davon aus, dass eine positiver Effekt der Zielorientierungen als Personenvariable auf die aktuelle Motivation besteht. Die aktuelle Motivation als Startpunkt des situationalen Geschehens wiederum wirkt positiv auf die Mediatoren Flow-Erleben und Metakognition, hat aber keinen direkten Effekt auf die Leistung. Dieser wird nämlich über die Mediatoren vermittelt. Deswegen wird ein positiver Effekt des Flow-Erlebens und der Metakognition auf die Leistung erwartet. Das Zusammenwirken der beiden Mediatoren kann aus dem kognitiv-motivationalen Prozessmodell nicht abgeleitet werden. Ob ein Zusammenhang besteht oder nicht wird geprüft. Für das Vorwissen wird ein positiver Effekt auf die aktuelle Motivation und die Leistung erwartet. Die Pfadanalyse zur Überprüfung des integrierten Motivationsmodells zeigte, dass eine Integration nicht nur theoretisch sinnvoll ist, sondern auch empirisch gestützt wird. Die Bedeutung der Metakognition als kognitiver Mediator wurde gezeigt. Die zweite Fragestellung fokussierte auf die aktuelle Motivation. Auf der Basis dieser wurden mittels Clusteranalyse drei distinkte Gruppen identifiziert: hoch Motivierte, niedrig Motivierte und ängstlich Motivierte (vergleichbar zu Vollmeyer & Rheinberg, 2004). Diese Gruppen unterschieden sich hinsichtlich ihres Flow-Erlebens, ihrer Metakognition und ihrer Leistung. Die hoch Motivierten erlebten am meisten Flow, berichteten mehr Metakognition und zeigten bessere Leistung. Der Prozesscharakter des kognitiv-motivationalen Prozessmodells stand im Mittelpunkt der dritten Fragestellung. Diese Analyse über die drei Sudokus hinweg zeigte eine ähnliche Entwicklung des Flow-Erlebens bei den hoch und niedrig Motivierten. Vom ersten zum zweiten Sudoku stieg es an, um dann wieder abzufallen. Dies war bei der Metakognition nicht der Fall. Die hoch Motivierten berichteten einen stärkeren Rückgang der Metakognition beim dritten Sudoku als die niedrig Motivierten. Bei der Leistung zeigte sich für die hoch Motivierten ein Anstieg beim zweiten Sudoku und dann ein Rückgang beim dritten, wohingegen die Leistung der niedrig Motivierten kontinuierlich abfiel. Abschließend wurden die Schwierigkeiten und Grenzen der vorliegenden Arbeit diskutiert und Implikationen der Ergebnisse für die Theorieentwicklung und ihre Bedeutung für den Anwendungskontext aufgezeigt.
The current work investigated the association of trait anxiety and the neural efficiency of cognitive processing for affectively neutral (not threat-related) information. In a sample of 46 healthy volunteers, three fMRI experiments were conducted to test the prediction derived from attentional control theory (Eysenck et al., 2007) that high as compared to low trait-anxious individuals expend more neural effort on tasks requiring the top-down control of attention to reach a given level of performance. In a colour-word Stroop task requiring the inhibition of irrelevant stimulus information and associated responses as well as in a working-memorymanipulation task requiring the shifting of attention between items in working memory, trait anxiety (as measured with the State-Trait Anxiety Inventory; Spielberger et al., 1970) was positively associated with task-related increases in the activation of two adjacent regions in the right dorsolateral prefrontal cortex (DLPFC). The finding that along with a stronger activation of this brain region commonly implicated in top-down control processes, the high-anxious subjects showed equal (working memory manipulation) or worse (Stroop) performance when compared to low-anxious subjects, does support the assumption that processing is less efficient in the high anxious. However, in contrast to the predictions, trait anxiety did not show a significant association with task-related brain activation in a task-switching paradigm requiring shifting between task sets. It is discussed how different attentional control demands of the task may account for differences in the effects of trait anxiety on overt behavioural performance and underlying neural processes. In addition to DLPFC activation, trait anxiety modulated the functional connectivity of distributed regions involved in processing of the Stroop and the working-memory-manipulation task. It is discussed how the observed differences in regional DLPFC activation and network connectivity relate to each other. A possible interpretation suggests that activation increases in the DLPFC reflect an attempt to compensate for suboptimal connectivity by investing more effort in prefrontally supported control processes. Overall, the current work shows an association of trait anxiety with the neural efficiency of cognitive processing in affectively neutral tasks involving attentional control. Furthermore, it suggests that investigations of neural efficiency should take into account difference in functional integration in addition to regional activation.
Seit den 1980er Jahren fällt dem Computer sowohl in Beruf und Bildung als auch in der Freizeit eine wachsende Bedeutung zu (z.B. Rheinberg & Tramp, 2006). Häufig ist es für Computernutzer erforderlich, sich Computerkenntnisse selbstständig und ohne explizite Anleitung anzueignen (Richter, Naumann & Horz, 2010). Männer und Frauen erleben dabei den Umgang mit dem Computer unterschiedlich; diese Unterschiede können in Lern- und Leistungsdifferenzen resultieren (z.B. Baloğlu & Çevik, 2008). Zur Erklärung potenzieller Lern- und Leistungsunterschiede zwischen den Geschlechtern wurde in der Arbeit das kognitiv-motivationale Prozessmodell zugrunde gelegt. Das Modell erlaubt es, Leistungsunterschiede prozessnah über die aktuelle Motivation, das Flow-Erleben und die Strategiesystematik zu erklären. In Studie 1 (N = 18) wurde ein Beobachtungssystem zur Erfassung von optimalen und suboptimalen Explorationsstrategien am Computer entwickelt. In Studie 2 (N = 33) und 3 (N = 92) wurde im Rahmen eines quasiexperimentellen Designs getestet, ob sich weibliche und männliche Studierende der Wirtschaftswissenschaften in Strategiesystematik, Motivation und Leistung beim selbstregulierten Erlernen des Programms SPSS unterscheiden. Die Teilnehmer hatten nach einer kurzen Einführung in die Benutzeroberfläche von SPSS die Aufgabe, mehrere Statistikaufgaben mit SPSS zu lösen. Die Ergebnisse der Studien erbrachten zum Teil inkonsistente Befunde: Über die Studien hinweg zeigten sich keine statistisch signifikanten Unterschiede in der Motivation vor Beginn der Aufgabenbearbeitung. In Studie 2 ergaben sich jedoch Geschlechtsunterschiede in der aktuellen Motivation und der Strategiesystematik während des Bearbeitungsprozesses sowie in der Leistung. Frauen erreichten dabei niedrigere Werte bzw. weniger Punkte. In beiden Studien standen die aktuelle Motivation, das Flow-Erleben sowie die Strategiesystematik modellkonform in Beziehung mit der Leistung. Die Ergebnisse und die Methodik der Arbeit wurden abschließend kritisch diskutiert.
Eye-Tracking bezeichnet das Messen und Aufzeichnen der Blickbewegungen einer Person. Historisch gesehen basiert Eye-Tracking auf Beobachtungen des Testleiters, der das Blickverhalten der Probanden während des Versuchsablaufes oder die Videoaufzeichnung des Blickverhaltens eines Probanden in einer Testsituation kodierte. Dabei konnte allerdings nur die Blickrichtung des Probanden erhoben werden. Heutzutage ist es jedoch möglich, aufgrund neuerer, automatisierter Eye-Tracking-Techniken detailliertere Blickbewegungen, wie z.B. Fixationen und Sakkaden, zu messen. Diese Verbesserung der Eye-Tracking-Technik ermöglicht nicht nur passives Eye-Tracking, sondern auch aktives Blickkontingenz-Eye-Tracking. Passives Eye-Tracking bezeichnet das Messen und Aufzeichnen des Blickverhaltens, um herauszufinden, wo der Proband hinschaut. Im Gegensatz dazu erhebt das aktive Blickkontingenz-Eye-Tracking nicht nur, wo ein Proband hinschaut, sondern ermöglicht dem Probanden auch, die Stimuli, die auf einem Bildschirm präsentiert werden, aktiv zu verändern oder zu kontrollieren. Dabei wird das Blickverhalten online kodiert, und spezifisches Blickverhalten ist an eine kontingente Veränderung der Stimuli auf dem Bildschirm gekoppelt. Deshalb kann das aktive Blickkontingenz-Eye-Tracking eingesetzt werden, um den Probanden aktive Kontrolle über ihre visuelle Umwelt zu ermöglichen.
In der psychologischen Forschung ist Eye-Tracking ein wichtiges Forschungs-instrument, da das Blickverhalten in spezifischen Eye-Tracking-Aufgaben genutzt werden kann, um Aufschluss über kognitive Prozesse, wie z.B. Aufmerksamkeit, Lernen und Gedächtnis, zu gewinnen. Unterschiedliche passive und aktiv-blickkontingente Eye-Tracking- Aufgaben wurden entwickelt, um eine Vielzahl an kognitiven Prozessen im Erwachsenen- und Säuglingsalter zu untersuchen. Diese Aufgaben sind besonders wichtig in der Säuglingsforschung, da es in diesem Alter schwierig ist, kognitive Prozesse zu untersuchen. Dies hängt damit zusammen, dass es sich um eine präverbale Stichprobe, die nur über ein limitiertes motorisches Repertoire verfügt, handelt. Obwohl kognitive Prozesse von Erwachsenen anhand verbaler oder anderer motorischer Aufgaben untersucht werden können, werden passive und aktiv-blickkontingente Eye-Tracking-Aufgaben regelmäßig in dieser Altersgruppe eingesetzt, da sie zusätzliche Informationen über kognitive Prozesse liefern können. Neben der Möglichkeit zur Untersuchung von kognitiven Prozessen bieten aktiv-blickkontingente Eye-Tracking-Aufgaben den Probanden auch die Gelegenheit, ihre visuelle Umwelt aktiv zu kontrollieren. Dennoch werden aktiv-blickkontingente Eye-Tracking- Aufgaben nur selten eingesetzt, um Probanden visuelle Kontrolle über ihre Umwelt zu verschaffen.
Bis jetzt wurden aktiv-blickkontingente Eye-Tracking-Aufgaben zur Kontrolle der visuellen Umwelt nur bei Erwachsenen, aber noch nicht bei Säuglingen eingesetzt. Da diese Aufgaben jedoch auch für Säuglinge und Kleinkinder geeignet sind, besteht die Möglichkeit, diese Methode über die gesamte Lebenspanne hinweg anzuwenden. Somit kann das Erlernen des Kontrollierens der Umwelt durch Blickverhalten über die gesamte Lebensspanne untersucht werden.
Die vorliegende Dissertation hat sich genau dies zum Ziel gesetzt. Um dieses Ziel zu erreichen, wurde eine neue aktiv-blickkontingente Eye-Tracking-Aufgabe entwickelt, die sogenannte gaze-contingent learning task (GCLT). Im Wesentlichen ist die GCLT eine operante Konditionierungsaufgabe, bei der sich Probanden Kontrolle über ihre visuelle Umwelt aneignen, indem sie eine bestimmte blickkontingente Assoziation zwischen ihrem Blickverhalten und einem visuellen Effekt erlernen. Die in dieser Dissertation verwendete GCLT umfasst zwei Hauptversionen: zum einen die sog. one disc GCLT, und zum anderen die two discs GCLT. In der one disc GCLT wird ein Kreis auf der rechten Bildschirmseite gezeigt. Jedes Mal, wenn der Proband auf diesen Kreis schaut, erscheint ein Stimulus auf der linken Bildschirmseite. Somit kommt dem Kreis eine Schalterfunktion zu. In der two discs GCLT ist sowohl am rechten als auch am linken Bildschirmrand ein Kreis zu sehen. Hier kommt nur jeweils einem der beiden Kreise die Schalterfunktion zu. Um ihre visuelle Umwelt zu kontrollieren, müssen Probanden innerhalb der one disc GCLT die blickkontingente Assoziation zwischen ihren Blicken auf den Kreis und dem Erscheinen eines Stimulus erlernen, während sie in der two discs GCLT außerdem noch lernen müssen, zwischen dem Kreis mit und dem Kreis ohne Schalterfunktion zu unterscheiden.
Strukturgleichungsmodelle (SEM) werden in den letzten Jahren vermehrt zur Aufdeckung von nichtlinearen Effekten wie Interaktionseffekten oder quadratischen Effekten in der empirischen Forschung verwendet. Daher kommt der Bereitstellung von effizienten und robusten Schätzverfahren für die Analyse von nichtlinearen SEM, die simultan multiple nichtlineare Effekte schätzen können, eine wichtige Bedeutung in der methodologischen Forschung zu. Bisher wurde jedoch nur ungenügend die Problematik untersucht, dass zwar die üblicherweise verwendeten Schätzverfahren aus der Klasse der Produktindikator-(PI)-Ansätze (z.B. der Unconstrained-Ansatz; Kelava & Brandt, 2009; Marsh, Wen & Hau, 2004) und der Klasse der verteilungsanalytischen Verfahren (z.B. LMS oder QML; Klein & Moosbrugger, 2000; Klein & Muthén, 2007) auf der Annahme einer multivariaten Normalverteilung für einen Großteil der im Modell enthaltenen Variablen beruhen, diese jedoch in der Empirie fast nie gegeben ist. Andere Ansätze, wie die momentbasierten Verfahren des 2SMM- oder des MM-Ansatzes (Wall & Amemiya, 2000, 2003; Mooijaart & Bentler, 2010), die die Normalitätsannahme deutlich abschwächen können, finden in der Literatur hingegen nur geringe Berücksichtigung. Im ersten Teil dieser Arbeit werden diese momentbasierten Verfahren zur Schätzung von multiplen nichtlinearen Effekten erweitert und hinsichtlich ihrer Schätzeigenschaften bei nicht-normalverteilten Daten im Vergleich zu den PI- und den verteilungsanalytischen Ansätzen sowohl theoretisch als auch anhand einer umfangreichen Simulationsstudie untersucht (Brandt, Kelava & Klein, in press).
Zusammenfassend zeigt sich, dass LMS und QML bei normalverteilten Indikatoren die effizientesten Schätzungen liefern und in diesem Fall eingesetzt werden sollten. Bei nicht-normalverteilten Daten ist jedoch ein Parameterbias zu beobachten. Der erweiterte Unconstrained-Ansatz liefert zwar sowohl für normalverteilte als auch für nicht-normalverteilte Indikatoren erwartungstreue Parameterschätzungen, die Standardfehler werden jedoch stets unterschätzt (auch bei der Verwendung eines robusten Schätzers für die Standardfehler), was sich in einem erhöhten alpha-Fehler widerspiegelt. Der 2SMM-Ansatz liefert sehr gute Schätzergebnisse für normalverteilte und nicht-normalverteilte Indikatoren und kann insbesondere bei nicht-normalverteilten Indikatoren verwendet werden; bei normalverteilten Indikatoren ist das Verfahren etwas weniger effizient als LMS. Ein Nachteil des Verfahrens ist jedoch seine schwierige Erweiterung für andere als das hier untersuchte Querschnittsmodell (z.B. für Latente Wachstumskurvenmodelle). Der MM-Ansatz zeigt deutliche Schwächen in seinen Schätzungen, die sowohl bei einer simultanen Schätzung von mehr als einem nichtlinearen Effekt als auch bei nicht-normalverteilten Indikatoren auftreten, und stellt daher keine Alternative zu den anderen Schätzverfahren dar.
Um ein Verfahren bereitzustellen, das bei nicht-normalverteilten Daten zuverlässige und effiziente Schätzungen für nichtlineare Effekte liefern kann, wurde der NSEMM-Ansatz entwickelt (Kelava, Nagengast & Brandt, in press). Der NSEMM-Ansatz ist ein allgemeinerer Ansatz als der 2SMM-Ansatz und kann flexibler auch für andere Modelle genutzt werden, da er direkt in Mplus spezifizierbar ist. Der NSEMM-Ansatz verwendet zur Approximation der Verteilung der (latenten) Prädiktoren ein Mischverteilungsmodell, und stellt damit eine Erweiterung der SEMM (Structural Equation Mixture Models) dar. Im Gegensatz zu den SEMM, die nichtlineare Effekte semi-parametrisch modellieren, d.h. keine Funktion für die Nichtlinearität annehmen, verwendet der NSEMM-Ansatz eine parametrische Funktion für die nichtlinearen Effekte (z.B. einen quadratischen Effekt), wodurch eine Aussage über die Effektstärke des nichtlinearen Effekts möglich ist. Neben einer Darstellung des Konzepts der Mischverteilungsmodelle und des NSEMM-Ansatzes werden auch erste Ergebnisse zu den Schätzeigenschaften des NSEMM-Ansatzes im Vergleich zu LMS und dem erweiterten Unconstrained-Ansatz berichtet.
Im letzten Teil der Arbeit wird auf Interaktionseffekte in Längsschnittstudien eingegangen. Hierbei wird das Problem von heterogenen Entwicklungs- und Wachstumsprozessen aufgegriffen, das in der Empirie häufig auftritt, wenn die Streuung der Entwicklungsverläufe von den Ausgangsbedingungen abhängt. Wird diese Heterogenität nicht adäquat berücksichtigt, wie es der Fall bei latenten Wachstumskurvenmodellen (LGM) ist, sind Prognosen basierend auf den Ausgangsbedingungen einer Person nicht akkurat, da die Konfidenzintervalle für die Prognose auf einer fehlspezifizierten Varianz beruhen. Das heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006) erweitert das Standard-LGM um eine heterogene Varianzkomponente, die mit einem spezifischen Interaktionseffekt modelliert wird. Das HGM stellt eine Alternative zu den Growth Curve Mixture Modellen (GMM) dar, wenn keine Annahme über diskrete Klassen getroffen werden soll, sondern eine feinstufigere, kontinuierliche Modellierung der Heterogenität von Interesse ist. In dieser Arbeit wird für das HGM eine Implementierung in Mplus basierend auf dem LMS-Schätzer entwickelt, deren Anwendung und Interpretation an einem empirischen Datensatz aus der AIDS-Forschung demonstriert wird (Brandt, Klein & Gäde, under revision). Die Implementierung ermöglicht eine anwenderfreundliche Verwendung des Verfahrens und erlaubt die Berücksichtigung von Kovariaten zur Erklärung der Heterogenität in den Entwicklungsverläufen. Die Ergebnisse einer Simulationsstudie zeigen, dass das Verfahren auch bei moderater Verletzung der Verteilungsannahmen eine zuverlässige Parameterschätzung liefert.
In vier aufeinander aufbauenden Studien wird den Fragen nachgegangen „Was sind Nicht-Ereignisse?“ und „Welche Verarbeitungshilfen sind effektiv für den Bewältigungsprozess?“. Am Beispiel der ungewollten Kinderlosigkeit wird aus gesundheitspsychologischer Sicht nach zwei Aspekten von psychosozialem Wohlbefinden gefragt: „globaler Lebenszufriedenheit“ und „negativen Emotionen“ (z.B. Scham und Schmerz).
Es werden Bewältigungsstrategien und Bewältigungsstile unterschieden. Die Bewältigungsstile „religiöses Coping“ sowie „hartnäckige Zielverfolgung“ und „flexible Zielanpassung“ werden als andauernde Einflussfaktoren im Bewältigungsprozess betrachtet. Die entwickelten Bewältigungsstrategien „planendes Problemlösen“, „Unterstützung durch Freunde“, „regenerative Strategien“ und „kognitive Umdeutung zur Akzeptanz“ sind erlernbare Vorgehensweisen.
In der Pilotstudie 1 wurden 22 Menschen interviewt, die sich im Nicht-Ereignis-Prozess befinden. In Studie 2 wurden qualitativ und quantitativ 76 Männer und Frauen mit ungewollter Kinderlosigkeit befragt. Studie 3 erhob online mit 216 Teilnehmern die Häufigkeit und eingeschätzte Effektivität von Verarbeitungshilfen. Studie 4 erfasste zu zwei Messzeitpunkten (n = 732, n = 409) vier Bewältigungsstrategien, vier Bewältigungsstile, „globale Lebenszufriedenheit“, „negative Emotionen“ und kinderwunschspezifische Antworten von Menschen mit Kinderwunsch.
Für eine gewünschte Schwangerschaft kann geschlussfolgert werden, dass ein bedeutsamer Prädiktor für die Eintrittswahrscheinlichkeit im frühen Prozess fertility awareness ist. Das Alter der Frau dagegen leistet keinen Beitrag zur Vorhersage. Die Prädiktoren „negatives religiöses Coping“ und „planendes Problemlösen“ im fortgeschrittenen Nicht-Ereignis-Prozess stellen Risikofaktoren für das psychosoziale Wohlbefinden dar. Die Schutzfaktoren „Unterstützung durch Freunde“, „kognitive Umdeutung zur Akzeptanz“ und „flexible Zielanpassung“ sind signifikante Prädiktoren für psychosoziales Wohlbefinden. Interaktionseffekte von „Flexibler Zielanpassung“ und „Hartnäckiger Zielverfolgung“ konnten nicht identifiziert werden.
Das Strukturgleichungsmodell (SEM) wird in den Sozial- und Verhaltenswissenschaften oft verwendet, um die Beziehung zwischen latenten Variablen zu modellieren. In der Analyse dieser Modelle spielt die Bewertung der Modellgüte eine wesentliche Rolle, wobei geprüft werden soll, ob das untersuchte Modell (Zielmodell) zu den erhobenen Daten passt. Dafür werden verschiedene inferenzstatistische und deskriptive Gütemaße verwendet. In nichtlinearen SEM, in denen nichtlineare Effekte, wie beispielsweise Interaktionseffekte, modelliert werden, gibt es bisher allerdings keine Verfahren, um die Modellgüte ausreichend prüfen zu können. Insbesondere der χexp2-Test ist für verschiedene nichtlineare SEM nicht geeignet (vgl. Klein & Schermelleh-Engel, 2010; Mooijaart & Satorra, 2009).
In dieser Arbeit werden zwei unterschiedliche nichtlineare SEM betrachtet. Das erste dieser Modelle wird für die Analyse von Interaktions- und quadratischen Effekten verwendet (quadratisches SEM, QSEM). Das zweite Modell ist das Heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006). In diesem Modell wird das latente Wachstumskurvenmodell (LGM), mit dem individuelle Wachstumsverläufe modelliert werden können, um eine heterogene Varianzkomponente des Slope-Faktors erweitert. Diese Heterogenität des Slope-Faktors ist abhängig von den Ausgangswerten und Kovariaten.
Ziel dieser Arbeit war es, die Bewertung der Modellgüte für das QSEM und das HGM zu verbessern. Für das QSEM und das HGM wurde jeweils ein globaler Modelltest entwickelt („Quasi-Likelihood-Ratio-Test“; QLRT). Darüber hinaus wurden Differenztests für diese Art der Modelle diskutiert. Außerdem wurde für beide Modelle je ein Gütemaß bereitgestellt, um fehlende Nichtlinearität, wie fehlende nichtlineare Terme bzw. fehlende Heterogenität der Slope-Varianzen, aufdecken zu können (der Homoscedastic Fit Index, HFI, für das QSEM und der hhet-Test für das HGM).
Die Entwicklung der neuen Gütemaße ist im Wesentlichen von der verwendeten Schätzmethode abhängig. Für beide Modelle, das QSEM und das HGM, wurde in dieser Arbeit die Quasi-Maximum-Likelihood-Methode (Quasi-ML-Methode; Wedderburn, 1974) ausgewählt, mit der für beide betrachteten Modelle geeignete Schätzungen erzielt werden können (Klein & Muthén, 2006, 2007). Die Quasi-ML-Methode ist vergleichbar mit der Maximum-Likelihood-Methode, berücksichtigt allerdings Fehlspezifikationen der LogLikelihood-Funktion, wie beispielsweise kleinere Abweichungen von der angenommenen Verteilung. Für das QSEM wurde im Rahmen der Entwicklung der Modelltests eine zur Schätzung von QSEM entwickelte Quasi-ML-Methode (QML-Methode; Klein & Muthén, 2007) vereinfacht zu der „simplified QML“-Methode (sQML-Methode; Büchner & Klein, 2019). Für die sQML-Methode ist es erheblich einfacher als für die QML-Methode einen globalen Modelltest zu entwickeln. In einer Simulationsstudie konnte gezeigt werden, dass die sQML-Methode ähnlich gute Schätzeigenschaften wie die QML-Methode aufweist.
Die Idee der neuen globalen Modelltests für das QSEM und das HGM besteht darin, statt des für das lineare SEM verwendeten χexp2-Tests, der ein Likelihood-Quotienten-Test („Likelihood Ratio Test“, LRT) ist, einen Quasi-LRT (QLRT) zu verwenden, der auf der Quasi-ML-Methode basiert (Büchner & Klein, 2019; Büchner, Klein & Irmer, 2019). Wie für den χexp2-Test soll das Zielmodell mit einem unbeschränkten Vergleichsmodell verglichen werden. Ist der Unterschied zwischen den Modellen groß, wird darauf geschlossen, dass das Zielmodell nicht gut zu den Daten passt. Die Schwierigkeit bei der Entwicklung solcher QLRT liegt dabei in der Definition eines Vergleichsmodells. Die hier verwendete Idee für solche Vergleichsmodelle besteht darin, wie im χexp2-Test, die Beschränkungen durch das Zielmodell im Vergleichsmodell aufzuheben. Eine weitere Herausforderung ist die Bestimmung der asymptotischen Verteilung der QLRT-Statistiken, die nicht, wie viele LRT-Statistiken, asymptotisch χexp2-verteilt sind. Deshalb wurde die korrekte asymptotische Verteilung dieser Teststatistiken bestimmt, die das Ermitteln von p-Werten ermöglicht.
Globale Modelltests sind zwar geeignet, wichtige Aussagen zur Passung des Modells zu machen, ermöglichen aber keine direkte Aussage über den Vergleich zweier konkurrierender Modelle. Ein solcher Modellvergleich ist aber wichtig, um ein möglichst sparsames Modell zu erhalten. Zum Vergleich ineinander geschachtelter Modelle werden häufig Differenztests verwendet. Diese werden auch in der Arbeit mit dem QSEM und dem HGM empfohlen. Allerdings ist zu beachten, dass die Teststatistiken für mit der Quasi-MLMethode geschätzten Modelle nicht χexp2-verteilt sind. Im Rahmen dieser Arbeit wurde eine korrekte asymptotische Verteilung angegeben. Im Speziellen wurde der Differenztest für den Vergleich zwischen einem HGM und einem LGM vorgestellt, mit dem getestet wird, ob die im HGM modellierten heterogenen Slope-Varianzen notwendig sind.
Ein weiteres Ziel bestand darin, fehlende Nichtlinearität, die nicht in einem Modell berücksichtigt ist, aufzudecken. Dafür wurde ein Test für Regressionsmodelle, der hhet-Test (Klein, Gerhard, Büchner, Diestel & Schermelleh-Engel, 2016), angepasst. Für das SEM wurde dieser Test zu einem Fit-Index, dem HFI (Gerhard, Büchner, Klein & SchermellehEngel, 2017), weiterentwickelt und darin die Verteilung der Residuen der abhängigen Variable bewertet. Der HFI deckt dabei Veränderungen in der Verteilung auf, die durch fehlende nichtlineare Terme verursacht sind. Für das LGM wird der hhet-Test verwendet, um fehlende heterogene Entwicklungsverläufe aufzudecken. Es wird die Verteilung der mit dem LGM standardisierten beobachteten Variablen geprüft.
Für alle vorgeschlagenen Gütemaße wurden Simulationsstudien durchgeführt, um ihre Eignung für die Bewertung des QSEMs bzw. des HGMs zu prüfen. Die α-Fehler-Raten waren meistens nahe an dem erstrebten 5%-Niveau. Für den QLRT für das QSEM bei kleinen Stichproben und für den HFI bei komplexeren Modellen waren sie allerdings erhöht. Darüber hinaus zeigten die Tests insgesamt eine gute Teststärke für das Aufdecken von Fehlspezifikationen. Wie in allen statistischen Tests muss dafür die Stichprobengröße ausreichend groß sein. Die praktische Anwendbarkeit der beiden QLRTs, des hhet-Tests und des Differenztests für das HGM wurde anhand von empirischen Beispielen aufgezeigt.
Soziale Phobie gilt als eine der am weitesten verbreiteten psychischen Störungen (Wittchen & Fehm, 2003; Magee et al., 1996). Obgleich zahlreiche Interventionsansätze zur Behandlung der sozialen Ängste zur Verfügung stehen, gibt es viele Betroffene, die nicht von den Behandlungsmöglichkeiten profitieren oder nach einer Therapie Rückfälle erleben. Aus diesem Grund beschäftigt sich die vorliegende Arbeit mit der Weiterentwicklung von Psychotherapie bei Sozialer Phobie. Sie greift verschiedene Forschungsperspektiven auf, um aktive Wirkfaktoren im therapeutischen Prozess zu identifizieren und für zukünftige Behandlungen nutzbar zu machen. Publikation 1 (Consbruch & Stangier, 2007) gibt einen Überblick über den aktuellen Forschungsstand bzgl. der Diagnostik, Ätiologie und Therapie bei Sozialer Phobie. Die in dieser Publikation dargestellten Forschungsarbeiten zur Behandlung sozialer Ängste vergleichen die therapeutische Wirksamkeit unterschiedlicher Therapieansätze und suchen so nach spezifischen Wirkfaktoren in der Behandlung Sozialer Phobien. Es zeigt sich, dass die kognitiv-verhaltenstherapeutische Behandlung am häufigsten untersucht wurde und dass sich ihre Effektivität durch die Berücksichtigung von Prozessen, die nach Clark und Wells (1995) an der Entstehung und Aufrechterhaltung der Sozialen Ängste beteiligt sind, erheblich verbessern lässt. Publikation 2 (Stangier, Consbruch, Schramm & Heidenreich, 2010) verlässt die ausschließlich an spezifischen Wirkmechanismen interessierte Forschungsperspektive und wendet sich der Frage nach dem Zusammenspiel von spezifischen und allgemeinen Wirkfaktoren zu. Sie vergleicht das Ausmaß der Aktivierung von allgemeinen Wirkfaktoren nach Grawe (1995) sowie deren Einfluss auf das Therapieergebnis in einer kognitiven Verhaltenstherapie (N=29) und einer interpersonellen Therapie (N=33). Die Ergebnisse zeigen, dass Therapeuten in der Interpersonellen Psychotherapie die Aktivierung von Bewältigung, Ressourcenorientierung und Motivationaler Klärung geringer einschätzten als Therapeuten in der kognitiven Verhaltenstherapie, während sie bezüglich der Problemaktivierung und der Güte der therapeutischen Beziehung keine Unterschiede angaben. Stärkere Ressourcenaktivierung stand in beiden Therapieansätzen mit besseren Therapieergebnissen in Beziehung, während höhere Problemaktualisierung nur in KVTBehandlungen zu verbessertem Outcome beitrug. Da die Ressourcenaktivierung in der KVTBedingung stärker ausgeprägt war als in der IPT-Bedingung, lassen sich die Ergebnisse so interpretieren, dass die Problemaktualisierung nur dann zu positiveren Therapieergebnissen führt, wenn sie durch ausreichende Ressourcenaktivierung gestützt wird. Die Studie legt somit nahe, dass spezifische Behandlungsansätze allgemeine Wirkfaktoren, die einen Einfluss auf das Therapieergebnis haben, in unterschiedlichem Maße nutzen. Durch das Fehlen von Angaben zur Therapieintegrität bleibt jedoch offen, welche Rolle individuelles Therapeutenverhalten bei der Aktivierung der allgemeinen und spezifischen Wirkfaktoren spielt. Um zukünftig die Therapieintegrität in der kognitiv-verhaltenstherapeutischen Behandlung von Sozialer Phobie sicherstellen zu können, wurde die Cognitive Therapy Competence Scale for Social Phobia (CTCS-SP) entwickelt, deren psychometrische Eigenschaften in Publikation 3 (Consbruch, Clark & Stangier, in press) dargestellt werden. Zur Bestimmung der Beobachterübereinstimmung wurden 161 Therapiesitzungen von jeweils 2 Ratern mit der CTCS-SP beurteilt. Die Ergebnisse der vorliegenden Untersuchung demonstrieren eine gute interne Konsistenz und gute Interraterreliabilität der Skala, wobei erstmals auch individuelle Items mit ausreichender Reliabilität gemessen werden konnten. Mit der CTCS-SP steht somit ein reliables Messinstrument zur Erfassung therapeutischer Kompetenz in der kognitivverhaltenstherapeutischen Behandlung der Sozialen Phobie zur Verfügung, welches – bei noch zu prüfender Validität - vielfältig eingesetzt werden kann, um die Erforschung
spezifischer und allgemeiner Wirkfaktoren in der kognitiv-verhaltenstherapeutischen Behandlung Sozialer Phobien zu vertiefen.