Refine
Year of publication
Document Type
- Doctoral Thesis (66) (remove)
Language
- German (66) (remove)
Has Fulltext
- yes (66)
Is part of the Bibliography
- no (66)
Keywords
- Aufmerksamkeit (3)
- Arbeitsplatz (2)
- Constraints (2)
- Geschlechtsunterschiede (2)
- Interaktion (2)
- Interaktionseffekte (2)
- Kollinearität (2)
- Kundenorientierung (2)
- Mobbing (2)
- Motivation (2)
Institute
- Psychologie (66) (remove)
Diese Dissertation befasst sich mit Validierungsstrategien von Tests zur Erfassung studentischer Kompetenzen. Kompetenzen von Studierenden werden zu verschiedenen Zwecken erhoben. Dies beginnt beim Eintritt in das Studium durch Zulassungstests und wird im Studium fortgesetzt z.B. durch Tests zur Zertifizierung von Kompetenz (Benotung von Leistung) oder zur Zuteilung auf bestimmte Kurse (Einteilung in Sprachniveaus). Neben diesen internen Tests zur Erfassung studentischer Kompetenzen werden auch externe Tests genutzt um etwa die Lehre zu verbessern (Evaluation von Veranstaltungen). Die mit dem Einsatz von Tests verbundenen Konsequenzen können sowohl für Studierende als auch Lehrpersonen und Entscheidungsträger*innen schwerwiegend sein. Daher sollten Tests wissenschaftlichen Gütekriterien genügen.
Das wichtigste Kriterium für die Beurteilung von wissenschaftlichen Tests ist Validität. In dieser Dissertation wird ein argumentationsbasiertes Validierungsansatz verfolgt. In diesem wird nicht die Validität eines Tests untersucht, sondern die Plausibilität der Interpretation beurteilt, die mit den Testwerten verbunden ist. Bislang fehlt jedoch für viele der wissenschaftlichen Tests für den deutschen Hochschulbereich ein auf die Testwertinterpretation abgestimmtes Validitätskonzept.
In dieser Arbeit wird ein Validierungsschema vorgestellt, in das übliche Testnutzen der Erfassung studentischer Kompetenzen an deutschen Hochschulen eingeordnet werden können. Die Einordnung von Testnutzen in das Schema erlaubt die Ableitung von passenden Validitätsevidenzen. Im Fokus stehen das Verhältnis von Test zu 1) Konstrukt, 2) Lehre und 3) beruflichen Anforderungen.
Das Validierungsschema wird angewandt, um Testwertinterpretationen eines empirischen Forschungsprojektes zur Erfassung von Kompetenz in Nachhaltigkeitsmanagement bei Studierenden zu validieren. Der Schwerpunkt dieser Arbeit liegt auf der Validierung der Interpretation, dass die Testwerte von drei nachhaltigkeitsbezogenen Tests Indikatoren für hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement sind. Die Analysen zur Gewinnung von Validitätsevidenzen konzentrieren sich auf die Grundannahme, dass Lernfortschritte in den nachhaltigkeitsbezogenen Tests vorwiegend hochschulisch vermittelt werden. Dafür wurde ein Messwiederholungsdesign mit zwei Gruppen von Studierenden realisiert. Studierende in der Schwerpunktgruppe besuchten ein Semester lang eine reguläre Lehrveranstaltungen mit Bezug zu Nachhaltigkeitsthemen und Nachhaltigkeitsmanagement, Studierende der Kontrollgruppe besuchten keine solchen Lehrveranstaltung. Die Einteilung in Schwerpunkgruppe und Kontrollgruppe erfolgte über Analyse von Modulhandbüchern und verwendeten Lehrmaterialien. Die Ergebnisse zeigen, dass Studierende aus der Schwerpunktgruppe in zwei der drei Tests höhere Lernfortschritte zeigen als Studierende der Kontrollgruppe. Selbstberichte der Studierenden zu hochschulischen und außerhochschulischen Lerngelegenheiten lassen darauf schließen, dass Studierende der Schwerpunkgruppe auch außerhochschulisch ein höheres Interesse an Nachhaltigkeitsthemen zeigen, dies schlägt sich jedoch nicht in höherem Vorwissen in den verwendeten Tests nieder. Insgesamt wird daher für die zwei Tests mit höheren Lernfortschritten in der Schwerpunktgruppe die Interpretation als plausibel bewertet, dass die Testwerte hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement abbilden.
In der vorliegenden Arbeit wurden zwei motivationale Erklärungsmodelle, Zielorientierungen und das kognitiv-motivationale Prozessmodell, im Rahmen des selbstregulierten Lernens integriert. Selbstregulationsprozesse sind nach Carver und Scheier (1981) zyklisch angelegt. Zu den Bestandteilen der Selbstregulation gehören nach Boekaerts (1999)Regulation der Informationsverarbeitung, Regulation des Lernprozesses und Regulation des Selbsts. Auf dieser Ebene sind die Zielorientierungen angesiedelt. In dieser Arbeit das 2 x 2 Modell von Elliot und McGregor (2001) herangezogen. Es berücksichtigt zwei Dimensionen, die Valenz (Annäherungs- und Vermeidungskomponente) und die Kompetenz (Vergleichsmaßstab intern und extern). Hieraus resultieren: 1) Lern-Annäherungs-Ziele (positive Valenz & interner Vergleich, 2) Lern-Vermeidungs-Ziele (negative Valenz & interner Vergleich), 3) Leistungs-Annäherungs-Ziele (positive Valenz & externer Vergleich) und 4) Leistungs-Vermeidungs-Ziele (negative Valenz & externer Vergleich). Diese vier Zielorientierungen sind der erste Teil des integrierten Modells, der zweite zentrale Teil ist das kognitiv-motivationale Prozessmodell (Vollmeyer & Rheinberg, 1999, 2006). Ausgangspunkt ist die aktuelle Motivation, die aus 1) der Erfolgswahrscheinlichkeit, 2) der Misserfolgsbefürchtung, 3) dem Interesse und 4) der Herausforderung als unabhängige Faktoren besteht. Diese aktuelle Motivation wirkt nicht direkt auf die Leistung, sondern durch kognitive (hier: Metakognition) und motivationale (hier: Flow-Erleben) Mediatoren. Es wurden drei Fragestellungen bearbeitet. Die erste Fragestellung betraf das Zusammenspiel der Zielorientierungen und der aktuellen Motivation. Eine Überprüfung dieses integrierten Motivationsmodell erfolgte mittels Pfadanalyse. Die zweite und dritte Fragestellung befasste sich spezifisch mit dem kognitiv-motivationalen Prozessmodell. Es wurden Subgruppen auf der Basis der aktuellen Motivation identifiziert und ihre Bedeutung für die Mediatoren und die Leistung untersucht. Die dritte Fragestellung fokussierte den Prozesscharakter des Modells. Hier erfolgten Analysen über den Arbeitsprozess hinweg. Die Fragebögen (Achievement Goal Questionnaire (Elliot & McGregor, 2001), Metakognitionsfragebogen (aufbauend auf LIST (Wild, 2000) und Metacognitive Awareness Inventory (Schraw & Dennison, 1994), Fragebogen zur aktuellen Motivation (Rheinberg, Vollmeyer & Burns, 2001), Flow-Kurz-Skala (Rheinberg, Vollmeyer & Engeser, 2003)) und die Problemlöseaufgaben (Sudokus) wurden in einer Pilotstudie getestet. An der Hauptstudie nahmen 202 Personen teil (73% weiblich). Das integrierte Motivationsmodell geht davon aus, dass eine positiver Effekt der Zielorientierungen als Personenvariable auf die aktuelle Motivation besteht. Die aktuelle Motivation als Startpunkt des situationalen Geschehens wiederum wirkt positiv auf die Mediatoren Flow-Erleben und Metakognition, hat aber keinen direkten Effekt auf die Leistung. Dieser wird nämlich über die Mediatoren vermittelt. Deswegen wird ein positiver Effekt des Flow-Erlebens und der Metakognition auf die Leistung erwartet. Das Zusammenwirken der beiden Mediatoren kann aus dem kognitiv-motivationalen Prozessmodell nicht abgeleitet werden. Ob ein Zusammenhang besteht oder nicht wird geprüft. Für das Vorwissen wird ein positiver Effekt auf die aktuelle Motivation und die Leistung erwartet. Die Pfadanalyse zur Überprüfung des integrierten Motivationsmodells zeigte, dass eine Integration nicht nur theoretisch sinnvoll ist, sondern auch empirisch gestützt wird. Die Bedeutung der Metakognition als kognitiver Mediator wurde gezeigt. Die zweite Fragestellung fokussierte auf die aktuelle Motivation. Auf der Basis dieser wurden mittels Clusteranalyse drei distinkte Gruppen identifiziert: hoch Motivierte, niedrig Motivierte und ängstlich Motivierte (vergleichbar zu Vollmeyer & Rheinberg, 2004). Diese Gruppen unterschieden sich hinsichtlich ihres Flow-Erlebens, ihrer Metakognition und ihrer Leistung. Die hoch Motivierten erlebten am meisten Flow, berichteten mehr Metakognition und zeigten bessere Leistung. Der Prozesscharakter des kognitiv-motivationalen Prozessmodells stand im Mittelpunkt der dritten Fragestellung. Diese Analyse über die drei Sudokus hinweg zeigte eine ähnliche Entwicklung des Flow-Erlebens bei den hoch und niedrig Motivierten. Vom ersten zum zweiten Sudoku stieg es an, um dann wieder abzufallen. Dies war bei der Metakognition nicht der Fall. Die hoch Motivierten berichteten einen stärkeren Rückgang der Metakognition beim dritten Sudoku als die niedrig Motivierten. Bei der Leistung zeigte sich für die hoch Motivierten ein Anstieg beim zweiten Sudoku und dann ein Rückgang beim dritten, wohingegen die Leistung der niedrig Motivierten kontinuierlich abfiel. Abschließend wurden die Schwierigkeiten und Grenzen der vorliegenden Arbeit diskutiert und Implikationen der Ergebnisse für die Theorieentwicklung und ihre Bedeutung für den Anwendungskontext aufgezeigt.
Das Ziel der Studie bestand einerseits in der Untersuchung der Zusammenhänge zwischen der sich im Vorschulalter entwickelnden Theory of Mind und dem sich ebenfalls zu diesem Zeitpunkt ausbildenden episodischen Gedächtnis unter der Berücksichtigung verschiedener potentieller Einflussfaktoren, wie beispielsweise den sprachlichen und exekutiven Fähigkeiten der Kinder. Auf der anderen Seite sollten zudem die Veränderungen innerhalb der einzelnen Konstrukte im zeitlichen Verlauf zwischen dem vierten und fünften Lebensjahr abgebildet werden. Dazu wurden 40 Kindern an zwei im Abstand von einem Jahr stattfindenden Erhebungszeitpunkten verschiedenste Aufgaben zur Erfassung ihrer jeweiligen Fähigkeiten in den unterschiedlichen kognitiven Bereichen vorgelegt. Das Durchschnittsalter der Kinder zum Zeitpunkt der ersten Messung betrug M = 38.73 Monate (SD = 2.84) und beim zweiten Messzeitpunkt M = 51.03 Monate (SD = 2.89). Anhand der erhobenen Daten konnte gezeigt werden, dass neben dem Zeitverständnis vor allem die Fähigkeit der dreijährigen Kinder zur Perspektivübernahme einen signifikanten Beitrag zur Erklärung ihrer späteren Kompetenzen auf dem Gebiet des episodischen Gedächtnisses leistet. Weiterhin konnten mittels der zwei Messzeitpunkte sowohl die quantitativen als auch qualitativen Veränderungen innerhalb der unterschiedlichen Theory of Mind-Kompetenzen bzw. innerhalb des sich wandelnden Repräsentationsverständnisses abgebildet werden. Zudem konnte ebenfalls die bedeutende Rolle der Sprache als optimales Medium zum verbalen Austausch über die verschiedenen Perspektiven von sich und anderen sowie über vergangene, gegenwärtige oder zukünftige Erlebnisse konstatiert werden. Im Gegensatz zu den Befunden anderer Studien scheint hingegen den vorliegenden Befunden nach dem Einfluss der exekutiven Fähigkeiten auf die Theory of Mind-Kompetenzen der Kinder keine so grundlegende Bedeutung zuzukommen.
Sozial kompetente Personen sind in der Lage, zwischenmenschliche Interaktionen zu analysieren und zielorientiert zu agieren, während sie gleichzeitig die Interessen ihrer Interaktionspartner berücksichtigen. Sozial kompetente Personen verfügen demnach über perzeptive Fähigkeiten sowie behaviorale Fertigkeiten. Diese auf Thorndike (1920) zurückgehende Definition weist Soziale Kompetenz als leistungsbezogene Persönlichkeitsvariable aus. Förderlich sollte sie sich insbesondere im Umgang mit interpersonellen Stressoren auswirken: Sozial kompetenten Personen sollte es per definitionem gelingen, den Verlauf interpersoneller Konflikte konstruktiv zu beeinflussen. Tatsache ist, dass soziale Konflikte zudem selbst-regulatorische Fähigkeiten verlangen, da nicht nur die negativen Emotionen der Konfliktpartner, sondern auch persönliche aversive Gefühle bewältigt werden müssen. In der vorliegenden Studie wurde untersucht, ob Soziale Kompetenz implizit auch selbstregulative Kompetenzen im Umgang mit negativen Emotionen umfasst. Diese Fragestellung wurde an N = 124 Arbeitnehmern verschiedener Branchen untersucht. Nach einer performanzorientierten Diagnose Sozialer Kompetenz mit Hilfe eines computergestützten Multimedia-Tests (lnteraktives System zur Identifikation Sozialer Kompetenzen, ISIS 2.0; Runde, Bastians, Kluge & Wübbelmann, 1999) sowie der Erhebung von Selbstkonzept- und habitueller Affektivitäts-Variablen per Fragebogen protokollierten die Teilnehmer in einer anschließenden vierwöchigen Untersuchungsphase jeweils am Ende einer Arbeitswoche, wie viele interpersonelle Spannungssituationen sie in den vergangenen Tagen mit Vorgesetzten, Kollegen und/oder Mitarbeitern erlebt und auf welche Weise sie die für sie belastendste Situation bewältigt hatten. Wider Erwarten stand Soziale Kompetenz in positivem Zusammenhang mit defensivem Konfliktverhalten, das durch das Unterdrücken negativer Emotionen, nicht deren Bewältigung gekennzeichnet war. lntegratives Konfliktverhalten, der Prototyp sozial kompetenten Konfliktmanagements, stand hingegen in positivem Zusammenhang mit nicht-leistungsbezogenen Persönlichkeitsvariablen wie statebezogener Positiver Affektivität und Allgemeiner Selbstwirksamkeit. Performanzorientiert gemessene Soziale Kompetenz umfasst demnach die Fähigkeit zur Regulation des Verhaltens, nicht die Fähigkeit zur Regulation eigener Emotionen. Bezüge dieser Ergebnisse zur Emotionsarbeit, insbesondere zu den Auswirkungen emotionaler Dissonanz, werden diskutiert.
Seit den 1980er Jahren fällt dem Computer sowohl in Beruf und Bildung als auch in der Freizeit eine wachsende Bedeutung zu (z.B. Rheinberg & Tramp, 2006). Häufig ist es für Computernutzer erforderlich, sich Computerkenntnisse selbstständig und ohne explizite Anleitung anzueignen (Richter, Naumann & Horz, 2010). Männer und Frauen erleben dabei den Umgang mit dem Computer unterschiedlich; diese Unterschiede können in Lern- und Leistungsdifferenzen resultieren (z.B. Baloğlu & Çevik, 2008). Zur Erklärung potenzieller Lern- und Leistungsunterschiede zwischen den Geschlechtern wurde in der Arbeit das kognitiv-motivationale Prozessmodell zugrunde gelegt. Das Modell erlaubt es, Leistungsunterschiede prozessnah über die aktuelle Motivation, das Flow-Erleben und die Strategiesystematik zu erklären. In Studie 1 (N = 18) wurde ein Beobachtungssystem zur Erfassung von optimalen und suboptimalen Explorationsstrategien am Computer entwickelt. In Studie 2 (N = 33) und 3 (N = 92) wurde im Rahmen eines quasiexperimentellen Designs getestet, ob sich weibliche und männliche Studierende der Wirtschaftswissenschaften in Strategiesystematik, Motivation und Leistung beim selbstregulierten Erlernen des Programms SPSS unterscheiden. Die Teilnehmer hatten nach einer kurzen Einführung in die Benutzeroberfläche von SPSS die Aufgabe, mehrere Statistikaufgaben mit SPSS zu lösen. Die Ergebnisse der Studien erbrachten zum Teil inkonsistente Befunde: Über die Studien hinweg zeigten sich keine statistisch signifikanten Unterschiede in der Motivation vor Beginn der Aufgabenbearbeitung. In Studie 2 ergaben sich jedoch Geschlechtsunterschiede in der aktuellen Motivation und der Strategiesystematik während des Bearbeitungsprozesses sowie in der Leistung. Frauen erreichten dabei niedrigere Werte bzw. weniger Punkte. In beiden Studien standen die aktuelle Motivation, das Flow-Erleben sowie die Strategiesystematik modellkonform in Beziehung mit der Leistung. Die Ergebnisse und die Methodik der Arbeit wurden abschließend kritisch diskutiert.
Das ereigniskorrelierte Potential (EKP) P300 ist eines der am häufigsten untersuchten Potentiale des Elektroenzephalogramms (EEG). Wegen der bedeutsamen Rolle der P300 in der kognitiven Forschung mit gesunden Probanden und psychiatrischen Patienten kommt der Suche nach ihren neuronalen Generatoren ein hoher Stellenwert zu. Man geht im Allgemeinen davon aus, dass sie kein einheitliches Potential darstellt und von mehreren weit verstreuten Quellen generiert wird. Die Fragen nach der genauen Anzahl der P300-Subkomponenten, ihrer Lokalisierung sowie den ihnen zugrunde liegenden kognitiven Prozesse sind jedoch nach wie vor ungelöst. Die Zielsetzung der vorliegenden Arbeit war, die P300 mit Hilfe der Kombination vom EEG und der funktionalen Magnetresonanztomografie (fMRT) in ihre Subkomponenten zu untergliedern und deren Quellen zu lokalisieren. Zu diesem Zweck wurden drei kombinierte EEG/fMRT-Studien durchgeführt. Die ersten beiden Studien beinhalten eine abgewandelte Form des klassischen Oddballparadigmas. Bei der dritten Studie handelt es sich um ein Arbeitsgedächtnisexperiment. Durch die Verknüpfung der fMRT-Ergebnisse mit EKP-Daten aus den beiden Oddball-Experimenten konnten die neuronalen Quellen der zwei wichtigsten Subkomponenten der P300, der P3a und P3b, lokalisiert werden. Es konnte gezeigt werden, dass inferiore und posteriore parietale (IPL bzw. PPC) und inferior temporale (IT) Areale zur Entstehung der P3b beitrugen, während hauptsächlich die präzentralen Regionen (PrCS) die P3a generierten. Die Ergebnisse des Arbeitsgedächtnisexperiments bestätigten die P3b-Quellenlokalisierung der Oddball-Untersuchung mit einr Beteiligung von PPC und IT an der Generierung der P3b-Komponente. Das Arbeitsgedächtnisexperiment verdeutlichte aber auch, dass eine komplexere Abrufanforderung (mit langen Reaktionszeiten) zu einer anhaltenden Aktivität im PPC und einer späten Antwort im ventrolateralen präfrontalen Kortex (VLPFC) führte, die eine zweite P3b-Subkomponente generierten. Durch eine umfassende zeitlich-räumliche Trennung der neuronalen Aktivität beim Arbeitsgedächtnisabruf konnten darüber hinaus die einzelnen Stufen der beteiligten Informationsverarbeitungsprozesse (mentale Chronometrie) beschrieben werden. Diese Anwendung ging über die „reine“ Quellenlokalisation der P300-Komponenten hinaus. Die Ergebnisse zeigten frühe transiente Aktivierungen im IT, die sich zeitlich mit dem Beginn einer anhaltenden Aktivität im PPC überlappten. Darüber hinaus wurden eine späte transiente Aktivität im VLPFC und eine späte anhaltende Aktivität im medialen frontalen und motorischen Kortex (MFC bzw. MC) beobachtet. Es liegt nahe, dass diese neuronalen Signaturen einzelne Stufen kognitiver Aufgabenverarbeitungsschritte wie Reizevaluation (IT), Operationen am Gedächtnispuffer (PPC), aktiven Abruf (VLPFC) und Reaktionsorganisation (MFC und MC) reflektieren. Die vorgestellten Quellenmodelle zeigten übereinstimmend, dass mehrere kortikale Generatoren das P300-EKP erzeugen. Dabei trugen neben den erwarteten parietalen interessanterweise auch inferior temporale und inferior frontale Quellen zur P3b bei, während die P3a vor allem auf anterioren Generatoren im prämotorischen Kortex basierte. Diese Ergebnisse bestätigen teilweise die bisherigen Lokalisationsmodelle, die weitgehend auf neuropsychologischen und invasiven neurophysiologischen Befunden beruhen, widersprechen ihnen aber auch zum Teil, besonders was die Abwesenheit der postulierten präfrontalen und hippocampalen Beiträge zur P3a bzw. P3b betrifft.
Strukturgleichungsmodelle (SEM) werden in den letzten Jahren vermehrt zur Aufdeckung von nichtlinearen Effekten wie Interaktionseffekten oder quadratischen Effekten in der empirischen Forschung verwendet. Daher kommt der Bereitstellung von effizienten und robusten Schätzverfahren für die Analyse von nichtlinearen SEM, die simultan multiple nichtlineare Effekte schätzen können, eine wichtige Bedeutung in der methodologischen Forschung zu. Bisher wurde jedoch nur ungenügend die Problematik untersucht, dass zwar die üblicherweise verwendeten Schätzverfahren aus der Klasse der Produktindikator-(PI)-Ansätze (z.B. der Unconstrained-Ansatz; Kelava & Brandt, 2009; Marsh, Wen & Hau, 2004) und der Klasse der verteilungsanalytischen Verfahren (z.B. LMS oder QML; Klein & Moosbrugger, 2000; Klein & Muthén, 2007) auf der Annahme einer multivariaten Normalverteilung für einen Großteil der im Modell enthaltenen Variablen beruhen, diese jedoch in der Empirie fast nie gegeben ist. Andere Ansätze, wie die momentbasierten Verfahren des 2SMM- oder des MM-Ansatzes (Wall & Amemiya, 2000, 2003; Mooijaart & Bentler, 2010), die die Normalitätsannahme deutlich abschwächen können, finden in der Literatur hingegen nur geringe Berücksichtigung. Im ersten Teil dieser Arbeit werden diese momentbasierten Verfahren zur Schätzung von multiplen nichtlinearen Effekten erweitert und hinsichtlich ihrer Schätzeigenschaften bei nicht-normalverteilten Daten im Vergleich zu den PI- und den verteilungsanalytischen Ansätzen sowohl theoretisch als auch anhand einer umfangreichen Simulationsstudie untersucht (Brandt, Kelava & Klein, in press).
Zusammenfassend zeigt sich, dass LMS und QML bei normalverteilten Indikatoren die effizientesten Schätzungen liefern und in diesem Fall eingesetzt werden sollten. Bei nicht-normalverteilten Daten ist jedoch ein Parameterbias zu beobachten. Der erweiterte Unconstrained-Ansatz liefert zwar sowohl für normalverteilte als auch für nicht-normalverteilte Indikatoren erwartungstreue Parameterschätzungen, die Standardfehler werden jedoch stets unterschätzt (auch bei der Verwendung eines robusten Schätzers für die Standardfehler), was sich in einem erhöhten alpha-Fehler widerspiegelt. Der 2SMM-Ansatz liefert sehr gute Schätzergebnisse für normalverteilte und nicht-normalverteilte Indikatoren und kann insbesondere bei nicht-normalverteilten Indikatoren verwendet werden; bei normalverteilten Indikatoren ist das Verfahren etwas weniger effizient als LMS. Ein Nachteil des Verfahrens ist jedoch seine schwierige Erweiterung für andere als das hier untersuchte Querschnittsmodell (z.B. für Latente Wachstumskurvenmodelle). Der MM-Ansatz zeigt deutliche Schwächen in seinen Schätzungen, die sowohl bei einer simultanen Schätzung von mehr als einem nichtlinearen Effekt als auch bei nicht-normalverteilten Indikatoren auftreten, und stellt daher keine Alternative zu den anderen Schätzverfahren dar.
Um ein Verfahren bereitzustellen, das bei nicht-normalverteilten Daten zuverlässige und effiziente Schätzungen für nichtlineare Effekte liefern kann, wurde der NSEMM-Ansatz entwickelt (Kelava, Nagengast & Brandt, in press). Der NSEMM-Ansatz ist ein allgemeinerer Ansatz als der 2SMM-Ansatz und kann flexibler auch für andere Modelle genutzt werden, da er direkt in Mplus spezifizierbar ist. Der NSEMM-Ansatz verwendet zur Approximation der Verteilung der (latenten) Prädiktoren ein Mischverteilungsmodell, und stellt damit eine Erweiterung der SEMM (Structural Equation Mixture Models) dar. Im Gegensatz zu den SEMM, die nichtlineare Effekte semi-parametrisch modellieren, d.h. keine Funktion für die Nichtlinearität annehmen, verwendet der NSEMM-Ansatz eine parametrische Funktion für die nichtlinearen Effekte (z.B. einen quadratischen Effekt), wodurch eine Aussage über die Effektstärke des nichtlinearen Effekts möglich ist. Neben einer Darstellung des Konzepts der Mischverteilungsmodelle und des NSEMM-Ansatzes werden auch erste Ergebnisse zu den Schätzeigenschaften des NSEMM-Ansatzes im Vergleich zu LMS und dem erweiterten Unconstrained-Ansatz berichtet.
Im letzten Teil der Arbeit wird auf Interaktionseffekte in Längsschnittstudien eingegangen. Hierbei wird das Problem von heterogenen Entwicklungs- und Wachstumsprozessen aufgegriffen, das in der Empirie häufig auftritt, wenn die Streuung der Entwicklungsverläufe von den Ausgangsbedingungen abhängt. Wird diese Heterogenität nicht adäquat berücksichtigt, wie es der Fall bei latenten Wachstumskurvenmodellen (LGM) ist, sind Prognosen basierend auf den Ausgangsbedingungen einer Person nicht akkurat, da die Konfidenzintervalle für die Prognose auf einer fehlspezifizierten Varianz beruhen. Das heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006) erweitert das Standard-LGM um eine heterogene Varianzkomponente, die mit einem spezifischen Interaktionseffekt modelliert wird. Das HGM stellt eine Alternative zu den Growth Curve Mixture Modellen (GMM) dar, wenn keine Annahme über diskrete Klassen getroffen werden soll, sondern eine feinstufigere, kontinuierliche Modellierung der Heterogenität von Interesse ist. In dieser Arbeit wird für das HGM eine Implementierung in Mplus basierend auf dem LMS-Schätzer entwickelt, deren Anwendung und Interpretation an einem empirischen Datensatz aus der AIDS-Forschung demonstriert wird (Brandt, Klein & Gäde, under revision). Die Implementierung ermöglicht eine anwenderfreundliche Verwendung des Verfahrens und erlaubt die Berücksichtigung von Kovariaten zur Erklärung der Heterogenität in den Entwicklungsverläufen. Die Ergebnisse einer Simulationsstudie zeigen, dass das Verfahren auch bei moderater Verletzung der Verteilungsannahmen eine zuverlässige Parameterschätzung liefert.
In vier aufeinander aufbauenden Studien wird den Fragen nachgegangen „Was sind Nicht-Ereignisse?“ und „Welche Verarbeitungshilfen sind effektiv für den Bewältigungsprozess?“. Am Beispiel der ungewollten Kinderlosigkeit wird aus gesundheitspsychologischer Sicht nach zwei Aspekten von psychosozialem Wohlbefinden gefragt: „globaler Lebenszufriedenheit“ und „negativen Emotionen“ (z.B. Scham und Schmerz).
Es werden Bewältigungsstrategien und Bewältigungsstile unterschieden. Die Bewältigungsstile „religiöses Coping“ sowie „hartnäckige Zielverfolgung“ und „flexible Zielanpassung“ werden als andauernde Einflussfaktoren im Bewältigungsprozess betrachtet. Die entwickelten Bewältigungsstrategien „planendes Problemlösen“, „Unterstützung durch Freunde“, „regenerative Strategien“ und „kognitive Umdeutung zur Akzeptanz“ sind erlernbare Vorgehensweisen.
In der Pilotstudie 1 wurden 22 Menschen interviewt, die sich im Nicht-Ereignis-Prozess befinden. In Studie 2 wurden qualitativ und quantitativ 76 Männer und Frauen mit ungewollter Kinderlosigkeit befragt. Studie 3 erhob online mit 216 Teilnehmern die Häufigkeit und eingeschätzte Effektivität von Verarbeitungshilfen. Studie 4 erfasste zu zwei Messzeitpunkten (n = 732, n = 409) vier Bewältigungsstrategien, vier Bewältigungsstile, „globale Lebenszufriedenheit“, „negative Emotionen“ und kinderwunschspezifische Antworten von Menschen mit Kinderwunsch.
Für eine gewünschte Schwangerschaft kann geschlussfolgert werden, dass ein bedeutsamer Prädiktor für die Eintrittswahrscheinlichkeit im frühen Prozess fertility awareness ist. Das Alter der Frau dagegen leistet keinen Beitrag zur Vorhersage. Die Prädiktoren „negatives religiöses Coping“ und „planendes Problemlösen“ im fortgeschrittenen Nicht-Ereignis-Prozess stellen Risikofaktoren für das psychosoziale Wohlbefinden dar. Die Schutzfaktoren „Unterstützung durch Freunde“, „kognitive Umdeutung zur Akzeptanz“ und „flexible Zielanpassung“ sind signifikante Prädiktoren für psychosoziales Wohlbefinden. Interaktionseffekte von „Flexibler Zielanpassung“ und „Hartnäckiger Zielverfolgung“ konnten nicht identifiziert werden.
Auf der Basis komplexer Paaruntersuchungen mit dem erweiterten Gießen-Test (pro Partner sieben Auswertungsbögen) werden zwölf Paare beschrieben und analysiert, die in einer Beziehungskrise die Psychosoziale Ambulanz der Frankfurter Universitätsklinik aufsuchten, um Beratungsgespräche und gegebenenfalls therapeutische Hilfe in Anspruch zu nehmen. Der Erweiterung der Testanwendung auf die Erfassung der Einfühlungsbilder beider Partner (eingefühltes Selbst- und Beziehungsbild sowie eingefühltes Partnerbild, Moeller 1979, siehe 3. Methodik) lag unter anderem die Vermutung zugrunde, dass die — immer auch von der Durchlässigkeit des Partners abhängige — Einfühlungsfähigkeit Aufschluss über den Grad der Beziehungsintensität sowie der Kommunikation des Paares zu geben vermag. Anders formuliert: gravierende Einfühlungsdefizite können möglicherweise auf eine Beziehungsstörung hinweisen, die - wie auch immer bedingt - mit einem zu geringen Austausch über die inneren Befindlichkeiten zusammenhängt. Dabei ist zu berücksichtigen, dass die untersuchten Paare ausnahmslos aufgrund einer Beziehungskrise um professionelle Hilfe nachsuchten, sodass mit globalen oder selektiven Einfühlungsdefiziten zu rechnen ist, aber unter Umständen auch mit einer brüchig gewordenen kollusiven emotionalen Abwehr (Dicks, 1969, S. 68 ff.) die sich in einer — auf den ersten Blick — hohen wechselseitigen Rollenbestätigung niederschlagen wird (siehe 2. Einführung). Die vorliegende Studie demonstriert, welche Aussagen aus den direkten Profilvergleichen hergeleitet werden können, zu denen systematisch auch die Beziehungsbilder einbezogen werden, welche die inneren Veränderungen der Partner in der Beziehung spiegeln. Im Anschluss an jeden Profilvergleich wird gezeigt, inwieweit - ausgehend von je spezifischen Auffälligkeiten - intensive Analysen von Paarbeziehungen anhand der Konzentrierten Paardokumentation durchgeführt werden können (siehe 4.1 Profilvergleiche und dynamische Interpretationen). Damit wird das diagnostische Potenzial des erweiterten Gießen-Tests ausgelotet, indem von einfachen über intra-individuelle und inter-individuelle Vergleiche hin zu komplexen neuen Formen von Gegenüberstellungen geprüft wird, ob und wie die Konzentrierte Beziehungsdokumentation in einer diagnostischen Gesamtschau eine im Aufwand zu vertretende empirische Kontrolle des therapeutischen Prozesses ermöglicht. Weiter soll untersucht werden, inwieweit sie im Rahmen der Erstuntersuchung zu einer Verbesserung und Erweiterung der Paardiagnostik dient. Sie soll damit einen Beitrag zum besseren Verständnis der zwischenmenschlichen Beziehung, der „Dyadologie“ (Moeller 2002) leisten, die das intuitive Wissen um Liebesbeziehungen in Wissenschaft verwandelt, die „Scientification of Love“ (Odent, 1999).
Das Strukturgleichungsmodell (SEM) wird in den Sozial- und Verhaltenswissenschaften oft verwendet, um die Beziehung zwischen latenten Variablen zu modellieren. In der Analyse dieser Modelle spielt die Bewertung der Modellgüte eine wesentliche Rolle, wobei geprüft werden soll, ob das untersuchte Modell (Zielmodell) zu den erhobenen Daten passt. Dafür werden verschiedene inferenzstatistische und deskriptive Gütemaße verwendet. In nichtlinearen SEM, in denen nichtlineare Effekte, wie beispielsweise Interaktionseffekte, modelliert werden, gibt es bisher allerdings keine Verfahren, um die Modellgüte ausreichend prüfen zu können. Insbesondere der χexp2-Test ist für verschiedene nichtlineare SEM nicht geeignet (vgl. Klein & Schermelleh-Engel, 2010; Mooijaart & Satorra, 2009).
In dieser Arbeit werden zwei unterschiedliche nichtlineare SEM betrachtet. Das erste dieser Modelle wird für die Analyse von Interaktions- und quadratischen Effekten verwendet (quadratisches SEM, QSEM). Das zweite Modell ist das Heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006). In diesem Modell wird das latente Wachstumskurvenmodell (LGM), mit dem individuelle Wachstumsverläufe modelliert werden können, um eine heterogene Varianzkomponente des Slope-Faktors erweitert. Diese Heterogenität des Slope-Faktors ist abhängig von den Ausgangswerten und Kovariaten.
Ziel dieser Arbeit war es, die Bewertung der Modellgüte für das QSEM und das HGM zu verbessern. Für das QSEM und das HGM wurde jeweils ein globaler Modelltest entwickelt („Quasi-Likelihood-Ratio-Test“; QLRT). Darüber hinaus wurden Differenztests für diese Art der Modelle diskutiert. Außerdem wurde für beide Modelle je ein Gütemaß bereitgestellt, um fehlende Nichtlinearität, wie fehlende nichtlineare Terme bzw. fehlende Heterogenität der Slope-Varianzen, aufdecken zu können (der Homoscedastic Fit Index, HFI, für das QSEM und der hhet-Test für das HGM).
Die Entwicklung der neuen Gütemaße ist im Wesentlichen von der verwendeten Schätzmethode abhängig. Für beide Modelle, das QSEM und das HGM, wurde in dieser Arbeit die Quasi-Maximum-Likelihood-Methode (Quasi-ML-Methode; Wedderburn, 1974) ausgewählt, mit der für beide betrachteten Modelle geeignete Schätzungen erzielt werden können (Klein & Muthén, 2006, 2007). Die Quasi-ML-Methode ist vergleichbar mit der Maximum-Likelihood-Methode, berücksichtigt allerdings Fehlspezifikationen der LogLikelihood-Funktion, wie beispielsweise kleinere Abweichungen von der angenommenen Verteilung. Für das QSEM wurde im Rahmen der Entwicklung der Modelltests eine zur Schätzung von QSEM entwickelte Quasi-ML-Methode (QML-Methode; Klein & Muthén, 2007) vereinfacht zu der „simplified QML“-Methode (sQML-Methode; Büchner & Klein, 2019). Für die sQML-Methode ist es erheblich einfacher als für die QML-Methode einen globalen Modelltest zu entwickeln. In einer Simulationsstudie konnte gezeigt werden, dass die sQML-Methode ähnlich gute Schätzeigenschaften wie die QML-Methode aufweist.
Die Idee der neuen globalen Modelltests für das QSEM und das HGM besteht darin, statt des für das lineare SEM verwendeten χexp2-Tests, der ein Likelihood-Quotienten-Test („Likelihood Ratio Test“, LRT) ist, einen Quasi-LRT (QLRT) zu verwenden, der auf der Quasi-ML-Methode basiert (Büchner & Klein, 2019; Büchner, Klein & Irmer, 2019). Wie für den χexp2-Test soll das Zielmodell mit einem unbeschränkten Vergleichsmodell verglichen werden. Ist der Unterschied zwischen den Modellen groß, wird darauf geschlossen, dass das Zielmodell nicht gut zu den Daten passt. Die Schwierigkeit bei der Entwicklung solcher QLRT liegt dabei in der Definition eines Vergleichsmodells. Die hier verwendete Idee für solche Vergleichsmodelle besteht darin, wie im χexp2-Test, die Beschränkungen durch das Zielmodell im Vergleichsmodell aufzuheben. Eine weitere Herausforderung ist die Bestimmung der asymptotischen Verteilung der QLRT-Statistiken, die nicht, wie viele LRT-Statistiken, asymptotisch χexp2-verteilt sind. Deshalb wurde die korrekte asymptotische Verteilung dieser Teststatistiken bestimmt, die das Ermitteln von p-Werten ermöglicht.
Globale Modelltests sind zwar geeignet, wichtige Aussagen zur Passung des Modells zu machen, ermöglichen aber keine direkte Aussage über den Vergleich zweier konkurrierender Modelle. Ein solcher Modellvergleich ist aber wichtig, um ein möglichst sparsames Modell zu erhalten. Zum Vergleich ineinander geschachtelter Modelle werden häufig Differenztests verwendet. Diese werden auch in der Arbeit mit dem QSEM und dem HGM empfohlen. Allerdings ist zu beachten, dass die Teststatistiken für mit der Quasi-MLMethode geschätzten Modelle nicht χexp2-verteilt sind. Im Rahmen dieser Arbeit wurde eine korrekte asymptotische Verteilung angegeben. Im Speziellen wurde der Differenztest für den Vergleich zwischen einem HGM und einem LGM vorgestellt, mit dem getestet wird, ob die im HGM modellierten heterogenen Slope-Varianzen notwendig sind.
Ein weiteres Ziel bestand darin, fehlende Nichtlinearität, die nicht in einem Modell berücksichtigt ist, aufzudecken. Dafür wurde ein Test für Regressionsmodelle, der hhet-Test (Klein, Gerhard, Büchner, Diestel & Schermelleh-Engel, 2016), angepasst. Für das SEM wurde dieser Test zu einem Fit-Index, dem HFI (Gerhard, Büchner, Klein & SchermellehEngel, 2017), weiterentwickelt und darin die Verteilung der Residuen der abhängigen Variable bewertet. Der HFI deckt dabei Veränderungen in der Verteilung auf, die durch fehlende nichtlineare Terme verursacht sind. Für das LGM wird der hhet-Test verwendet, um fehlende heterogene Entwicklungsverläufe aufzudecken. Es wird die Verteilung der mit dem LGM standardisierten beobachteten Variablen geprüft.
Für alle vorgeschlagenen Gütemaße wurden Simulationsstudien durchgeführt, um ihre Eignung für die Bewertung des QSEMs bzw. des HGMs zu prüfen. Die α-Fehler-Raten waren meistens nahe an dem erstrebten 5%-Niveau. Für den QLRT für das QSEM bei kleinen Stichproben und für den HFI bei komplexeren Modellen waren sie allerdings erhöht. Darüber hinaus zeigten die Tests insgesamt eine gute Teststärke für das Aufdecken von Fehlspezifikationen. Wie in allen statistischen Tests muss dafür die Stichprobengröße ausreichend groß sein. Die praktische Anwendbarkeit der beiden QLRTs, des hhet-Tests und des Differenztests für das HGM wurde anhand von empirischen Beispielen aufgezeigt.