Refine
Year of publication
Document Type
- Doctoral Thesis (97) (remove)
Has Fulltext
- yes (97)
Is part of the Bibliography
- no (97) (remove)
Keywords
- Aufmerksamkeit (3)
- Funktionelle NMR-Tomographie (3)
- Interaktion (3)
- fMRI (3)
- Arbeitsgedächtnis (2)
- Arbeitsplatz (2)
- Constraints (2)
- Episodisches Gedächtnis (2)
- Geschlechtsunterschiede (2)
- Gestaltwahrnehmung (2)
Institute
- Psychologie (97) (remove)
Diese Dissertation befasst sich mit Validierungsstrategien von Tests zur Erfassung studentischer Kompetenzen. Kompetenzen von Studierenden werden zu verschiedenen Zwecken erhoben. Dies beginnt beim Eintritt in das Studium durch Zulassungstests und wird im Studium fortgesetzt z.B. durch Tests zur Zertifizierung von Kompetenz (Benotung von Leistung) oder zur Zuteilung auf bestimmte Kurse (Einteilung in Sprachniveaus). Neben diesen internen Tests zur Erfassung studentischer Kompetenzen werden auch externe Tests genutzt um etwa die Lehre zu verbessern (Evaluation von Veranstaltungen). Die mit dem Einsatz von Tests verbundenen Konsequenzen können sowohl für Studierende als auch Lehrpersonen und Entscheidungsträger*innen schwerwiegend sein. Daher sollten Tests wissenschaftlichen Gütekriterien genügen.
Das wichtigste Kriterium für die Beurteilung von wissenschaftlichen Tests ist Validität. In dieser Dissertation wird ein argumentationsbasiertes Validierungsansatz verfolgt. In diesem wird nicht die Validität eines Tests untersucht, sondern die Plausibilität der Interpretation beurteilt, die mit den Testwerten verbunden ist. Bislang fehlt jedoch für viele der wissenschaftlichen Tests für den deutschen Hochschulbereich ein auf die Testwertinterpretation abgestimmtes Validitätskonzept.
In dieser Arbeit wird ein Validierungsschema vorgestellt, in das übliche Testnutzen der Erfassung studentischer Kompetenzen an deutschen Hochschulen eingeordnet werden können. Die Einordnung von Testnutzen in das Schema erlaubt die Ableitung von passenden Validitätsevidenzen. Im Fokus stehen das Verhältnis von Test zu 1) Konstrukt, 2) Lehre und 3) beruflichen Anforderungen.
Das Validierungsschema wird angewandt, um Testwertinterpretationen eines empirischen Forschungsprojektes zur Erfassung von Kompetenz in Nachhaltigkeitsmanagement bei Studierenden zu validieren. Der Schwerpunkt dieser Arbeit liegt auf der Validierung der Interpretation, dass die Testwerte von drei nachhaltigkeitsbezogenen Tests Indikatoren für hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement sind. Die Analysen zur Gewinnung von Validitätsevidenzen konzentrieren sich auf die Grundannahme, dass Lernfortschritte in den nachhaltigkeitsbezogenen Tests vorwiegend hochschulisch vermittelt werden. Dafür wurde ein Messwiederholungsdesign mit zwei Gruppen von Studierenden realisiert. Studierende in der Schwerpunktgruppe besuchten ein Semester lang eine reguläre Lehrveranstaltungen mit Bezug zu Nachhaltigkeitsthemen und Nachhaltigkeitsmanagement, Studierende der Kontrollgruppe besuchten keine solchen Lehrveranstaltung. Die Einteilung in Schwerpunkgruppe und Kontrollgruppe erfolgte über Analyse von Modulhandbüchern und verwendeten Lehrmaterialien. Die Ergebnisse zeigen, dass Studierende aus der Schwerpunktgruppe in zwei der drei Tests höhere Lernfortschritte zeigen als Studierende der Kontrollgruppe. Selbstberichte der Studierenden zu hochschulischen und außerhochschulischen Lerngelegenheiten lassen darauf schließen, dass Studierende der Schwerpunkgruppe auch außerhochschulisch ein höheres Interesse an Nachhaltigkeitsthemen zeigen, dies schlägt sich jedoch nicht in höherem Vorwissen in den verwendeten Tests nieder. Insgesamt wird daher für die zwei Tests mit höheren Lernfortschritten in der Schwerpunktgruppe die Interpretation als plausibel bewertet, dass die Testwerte hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement abbilden.
Dopaminerge Neurone sind vor allem im Mittelhirn lokalisiert und modulieren die Funktion der Basalganglien, welche eine wichtige Rolle bei motorischem, kognitivem und emotionalem Verhalten spielen. Eine Dysregulation dopaminerger Neurotransmission, speziell die veränderte Belohnungsverarbeitung, spielt eine zentrale Rolle in der Ätiopathogenese der Aufmerksamkeitsdefizit- und Hyperaktivitätsstörung (ADHS), die im Erwachsenenalter häufig durch Komorbiditäten wie affektive Störungen, Angststörungen, Substanzgebrauch-Störungen, Persönlichkeitsstörungen oder Adipositas geprägt ist. Im Rahmen einer Teilstudie eines multizentrischen europäischen Projekts, CoCA (englisch: Comorbid Conditions in ADHD) genannt, soll die Modulation des dopaminergen Belohnungssystems bei gesunden Probanden durch einen pharmakologischen Provokationstest geprüft werden. Die funktionelle Magnetresonanztomographie (MRT) stellt hierbei ein nützliches bildgebendes Verfahren dar, das nicht-invasiv und bei hoher örtlicher Auflösung Veränderungen des sogenannten BOLD-Signals (englisch: blood oxygen level dependent) misst.
Die vorliegende Arbeit untersucht, inwiefern das dopaminerge Belohnungssystem durch einen pharmakologischen Provokationstest mit einem Dopaminagonisten sowie einem Dopaminantagonisten im Vergleich zu Placebo zu modulieren ist. Dazu wurde die BOLD-Antwort mittels funktionellem MRT während eines Gewinnspiels (Monetary Incentive Delay Tasks) mit inbegriffener Antizipations- und Feedback-Phase erforscht. Es wurde zuvor postuliert, dass sich die Aktivität belohnungsabhängiger Strukturen (wie ventrales Striatum, Putamen, Caudatus, anteriore Insula und medialer präfrontaler Kortex) während des Monetary Incentive Delay Tasks in einem pharmakologisch neutralen Haupteffekt reproduzieren lässt. Außerdem wurde ein Unterschied im Aktivitätsniveau des Belohnungssystems unter Pharmaka-Administration versus Placebo erwartet, sodass unter Amisulprid eine Dämpfung, und unter Levodopa eine Aktivitätssteigerung dessen darstellbar werden sollte.
Ein kontrolliert randomisiertes, doppelblindes Cross-over-Studiendesign, umfasste 45 gesunde Probanden, die durchschnittlich circa 23 Jahre alt (SD = 2,71 Jahre) waren. Die Studienteilnehmer absolvierten einen pharmakologischen Provokationstest mit Levodopa (100mg/ 25mg Carbidopa), Amisulprid (200mg) und Placebo sowie anschließender fMRT-Messung in einem 3 Tesla Scanner in randomisierter Reihenfolge. Die Analyse der fMRT-Daten erfolgte anhand von zwei primär definierten Kontrasten: Antizipation Gewinnbedingung > Feedback Gewinnbedingung und Antizipation Gewinnbedingung > Antizipation Kontrollbedingung zur Untersuchung von Belohnungserwartung und Feedback mittels der gemessenen BOLD-Antworten. Das verwendete GewinnspielParadigma, Monetary Incentive Delay Task genannt, erlaubt hierbei eine Beobachtung verschiedener Anteile der Belohnungsverarbeitung.
Im Haupteffekt der beiden Kontraste konnte eine signifikante BOLD-Aktivität in belohnungsabhängigen Gehirnregionen wie Putamen, anteriore Insula und Thalamus dargestellt werden. Unter Amisulprid-Administration konnte ein signifikanter dämpfender Effekt im Vergleich zu Placebo gezeigt werden. Für Levodopa ergab sich wider Erwarten jedoch kein signifikanter Unterschied im Aktivitätsniveau des Belohnungssystems.
Die vorhandenen Ergebnisse der durchgeführten Studie bieten eine Basis, die veränderte Regulation dopaminerger Neurotransmission im Rahmen psychiatrischer Erkrankungen besser zu beurteilen und weiter zu erforschen. Um ADHS mit seinen Komorbiditäten umfänglicher zu erfassen, ist es unvermeidbar, den Pathomechanismus der Dysregulation dopaminerger Neurotransmission, mit der daraus folgenden veränderten Belohnungsverarbeitung, in zukünftigen Studien genauer zu untersuchen.
Das Strukturgleichungsmodell (SEM) wird in den Sozial- und Verhaltenswissenschaften oft verwendet, um die Beziehung zwischen latenten Variablen zu modellieren. In der Analyse dieser Modelle spielt die Bewertung der Modellgüte eine wesentliche Rolle, wobei geprüft werden soll, ob das untersuchte Modell (Zielmodell) zu den erhobenen Daten passt. Dafür werden verschiedene inferenzstatistische und deskriptive Gütemaße verwendet. In nichtlinearen SEM, in denen nichtlineare Effekte, wie beispielsweise Interaktionseffekte, modelliert werden, gibt es bisher allerdings keine Verfahren, um die Modellgüte ausreichend prüfen zu können. Insbesondere der χexp2-Test ist für verschiedene nichtlineare SEM nicht geeignet (vgl. Klein & Schermelleh-Engel, 2010; Mooijaart & Satorra, 2009).
In dieser Arbeit werden zwei unterschiedliche nichtlineare SEM betrachtet. Das erste dieser Modelle wird für die Analyse von Interaktions- und quadratischen Effekten verwendet (quadratisches SEM, QSEM). Das zweite Modell ist das Heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006). In diesem Modell wird das latente Wachstumskurvenmodell (LGM), mit dem individuelle Wachstumsverläufe modelliert werden können, um eine heterogene Varianzkomponente des Slope-Faktors erweitert. Diese Heterogenität des Slope-Faktors ist abhängig von den Ausgangswerten und Kovariaten.
Ziel dieser Arbeit war es, die Bewertung der Modellgüte für das QSEM und das HGM zu verbessern. Für das QSEM und das HGM wurde jeweils ein globaler Modelltest entwickelt („Quasi-Likelihood-Ratio-Test“; QLRT). Darüber hinaus wurden Differenztests für diese Art der Modelle diskutiert. Außerdem wurde für beide Modelle je ein Gütemaß bereitgestellt, um fehlende Nichtlinearität, wie fehlende nichtlineare Terme bzw. fehlende Heterogenität der Slope-Varianzen, aufdecken zu können (der Homoscedastic Fit Index, HFI, für das QSEM und der hhet-Test für das HGM).
Die Entwicklung der neuen Gütemaße ist im Wesentlichen von der verwendeten Schätzmethode abhängig. Für beide Modelle, das QSEM und das HGM, wurde in dieser Arbeit die Quasi-Maximum-Likelihood-Methode (Quasi-ML-Methode; Wedderburn, 1974) ausgewählt, mit der für beide betrachteten Modelle geeignete Schätzungen erzielt werden können (Klein & Muthén, 2006, 2007). Die Quasi-ML-Methode ist vergleichbar mit der Maximum-Likelihood-Methode, berücksichtigt allerdings Fehlspezifikationen der LogLikelihood-Funktion, wie beispielsweise kleinere Abweichungen von der angenommenen Verteilung. Für das QSEM wurde im Rahmen der Entwicklung der Modelltests eine zur Schätzung von QSEM entwickelte Quasi-ML-Methode (QML-Methode; Klein & Muthén, 2007) vereinfacht zu der „simplified QML“-Methode (sQML-Methode; Büchner & Klein, 2019). Für die sQML-Methode ist es erheblich einfacher als für die QML-Methode einen globalen Modelltest zu entwickeln. In einer Simulationsstudie konnte gezeigt werden, dass die sQML-Methode ähnlich gute Schätzeigenschaften wie die QML-Methode aufweist.
Die Idee der neuen globalen Modelltests für das QSEM und das HGM besteht darin, statt des für das lineare SEM verwendeten χexp2-Tests, der ein Likelihood-Quotienten-Test („Likelihood Ratio Test“, LRT) ist, einen Quasi-LRT (QLRT) zu verwenden, der auf der Quasi-ML-Methode basiert (Büchner & Klein, 2019; Büchner, Klein & Irmer, 2019). Wie für den χexp2-Test soll das Zielmodell mit einem unbeschränkten Vergleichsmodell verglichen werden. Ist der Unterschied zwischen den Modellen groß, wird darauf geschlossen, dass das Zielmodell nicht gut zu den Daten passt. Die Schwierigkeit bei der Entwicklung solcher QLRT liegt dabei in der Definition eines Vergleichsmodells. Die hier verwendete Idee für solche Vergleichsmodelle besteht darin, wie im χexp2-Test, die Beschränkungen durch das Zielmodell im Vergleichsmodell aufzuheben. Eine weitere Herausforderung ist die Bestimmung der asymptotischen Verteilung der QLRT-Statistiken, die nicht, wie viele LRT-Statistiken, asymptotisch χexp2-verteilt sind. Deshalb wurde die korrekte asymptotische Verteilung dieser Teststatistiken bestimmt, die das Ermitteln von p-Werten ermöglicht.
Globale Modelltests sind zwar geeignet, wichtige Aussagen zur Passung des Modells zu machen, ermöglichen aber keine direkte Aussage über den Vergleich zweier konkurrierender Modelle. Ein solcher Modellvergleich ist aber wichtig, um ein möglichst sparsames Modell zu erhalten. Zum Vergleich ineinander geschachtelter Modelle werden häufig Differenztests verwendet. Diese werden auch in der Arbeit mit dem QSEM und dem HGM empfohlen. Allerdings ist zu beachten, dass die Teststatistiken für mit der Quasi-MLMethode geschätzten Modelle nicht χexp2-verteilt sind. Im Rahmen dieser Arbeit wurde eine korrekte asymptotische Verteilung angegeben. Im Speziellen wurde der Differenztest für den Vergleich zwischen einem HGM und einem LGM vorgestellt, mit dem getestet wird, ob die im HGM modellierten heterogenen Slope-Varianzen notwendig sind.
Ein weiteres Ziel bestand darin, fehlende Nichtlinearität, die nicht in einem Modell berücksichtigt ist, aufzudecken. Dafür wurde ein Test für Regressionsmodelle, der hhet-Test (Klein, Gerhard, Büchner, Diestel & Schermelleh-Engel, 2016), angepasst. Für das SEM wurde dieser Test zu einem Fit-Index, dem HFI (Gerhard, Büchner, Klein & SchermellehEngel, 2017), weiterentwickelt und darin die Verteilung der Residuen der abhängigen Variable bewertet. Der HFI deckt dabei Veränderungen in der Verteilung auf, die durch fehlende nichtlineare Terme verursacht sind. Für das LGM wird der hhet-Test verwendet, um fehlende heterogene Entwicklungsverläufe aufzudecken. Es wird die Verteilung der mit dem LGM standardisierten beobachteten Variablen geprüft.
Für alle vorgeschlagenen Gütemaße wurden Simulationsstudien durchgeführt, um ihre Eignung für die Bewertung des QSEMs bzw. des HGMs zu prüfen. Die α-Fehler-Raten waren meistens nahe an dem erstrebten 5%-Niveau. Für den QLRT für das QSEM bei kleinen Stichproben und für den HFI bei komplexeren Modellen waren sie allerdings erhöht. Darüber hinaus zeigten die Tests insgesamt eine gute Teststärke für das Aufdecken von Fehlspezifikationen. Wie in allen statistischen Tests muss dafür die Stichprobengröße ausreichend groß sein. Die praktische Anwendbarkeit der beiden QLRTs, des hhet-Tests und des Differenztests für das HGM wurde anhand von empirischen Beispielen aufgezeigt.
Object recognition is such an everyday task it seems almost mundane. We look at the spaces around us and name things seemingly effortlessly. Yet understanding how the process of object recognition unfolds is a great challenge to vision science. Models derived from abstract stimuli have little predictive power for the way people explore "naturalistic" scenes and the objects in them. Naturalistic here refers to unaltered photographs of real scenes. This thesis therefore focusses on the process of recognition of the objects in such naturalistic scenes. People can, for instance, find objects in scenes much more efficiently than models derived from abstract stimuli would predict. To explain this kind of behavior, we describe scenes not solely in terms of physical characteristics (colors, contrasts, lines, orientations, etc.) but by the meaning of the whole scene (kitchen, street, bathroom, etc.) and of the objects within the scene (oven, fire hydrant, soap, etc.). Object recognition now refers to the process of the visual system assigning meaning to the object.
The relationship between objects in a naturalistic scene is far from random. Objects do not typically float in mid-air and cannot take up the same physical space. Moreover, certain scenes typically contain certain objects. A fire hydrant in the kitchen would seem like an anomaly to the average observer. These "rules" can be described as the "grammar" of the scene. Scene grammar is involved in multiple aspects of scene- and object perception. There is, for instance, evidence that overall scene category influences identification of individual objects. Typically, experiments that directly target object recognition do not involve eye movements and studies that involve eye movements are not directly aimed at object recognition, but at gaze allocation. But eye movements are abundant in everyday life, they happen roughly 4 times per second. Here we therefore present two studies that use eye movements to investigate when object recognition takes place while people move their eyes from object to object in a scene. The third study is aimed at the application of novel methods for analyzing data from combined eye movement and neurophysiology (EEG) measurements.
One way to study object perception is to violate the grammar of a scene by placing an object in a scene it does not typically occur in and measuring how long people look at the so-called semantic inconsistency, compared to an object that one would expect in the given scene. Typically, people look at semantic inconsistencies longer and more often, signaling that it requires extra processing. In Study 1 we make use of this behavior to ask whether object recognition still happens when it is not necessary for the task. We designed a search task that made it unnecessary to register object identities. Still, participants looked at the inconsistent objects longer than consistent objects, signaling they did indeed process object and scene identities. Interestingly, the inconsistent objects were not remembered better than the consistent ones. We conclude that object and scene identities (their semantics) are processed in an obligatory fashion; when people are involved in a task that does not require it. In Study 2, we investigate more closely when the first signs of object semantic processing are visible while people make eye movements.
Although the finding that semantic inconsistencies are looked at longer and more often has been replicated often, many of these replications look at gaze duration over a whole trial. The question when during a trial differences between consistencies occur, has yielded mixed results. Some studies only report effects of semantic consistency that accumulate over whole trials, whereas others report influences already on the duration of the very first fixations on inconsistent objects. In study 2 we argue that prior studies reporting first fixation duration may have suffered from methodological shortcomings, such as low trial- and sample sizes, in addition to the use of non-robust statistics and data descriptions. We show that a subset of fixations may be influenced more than others (as is indicated by more skewed fixation duration distributions). Further analyses show that the relationship between the effect of object semantics on fixation durations and its effect on oft replicated cumulative measures is not straightforward (fixation duration distributions do not predict dwell effects) but the effect on both measures may be related in a different way. Possibly, the processing of object meaning unfolds over multiple fixations, only when one fixation does not suffice. However, it would be very valuable to be able to study how processing continues, after a fixation ends.
Study 3 aims to make such a measure possible by combining EEG recordings with eye tracking measurements. Difficulties in analyzing eye tracking–EEG data exist because neural responses vary with different eye movements characteristics. Moreover, fixations follow one another in short succession, causing neural responses to each fixation to overlap in time. These issues make the well-established approach of averaging single trial EEG data into ERPs problematic. As an alternative, we propose the use of multiple regression, explicitly modelling both temporal overlap and eye movement parameters. In Study 3 we show that such a method successfully estimates the influence of covariates it is meant to control for. Moreover, we discuss and explore what additional covariates may be modeled and in what way, in order to obtain confound-free estimates of EEG differences between conditions. One important finding is that stimulus properties of physically variable stimuli such as complex scenes, can influence EEG signals and deserve close consideration during experimental design or modelling efforts. Overall, the method compares favorably to averaging methods.
From the studies in this thesis, we directly learn that object recognition is a process that happens in an obligatory fashion, when the task does not require it. We also learn that only a subset of first fixations to objects are affected by the processing of object meaning and its fit to its surroundings. Comparison between first fixation and first dwell effects suggest that, in active vision, object semantics processing sometimes unfolds over multiple fixations. And finally, we learn that regression-based methods for combined eye tracking-EEG analysis provide a plausible way forward for investigating how object recognition unfolds in active vision.
Expression, perception and recognition of intense emotions in healthy and depressed individuals
(2017)
Die Fähigkeit die Gefühle anderer zu erkennen und einzuordnen ermöglicht es soziale Situationen richtig einzuschätzen und soziale Beziehungen aufzubauen. Da Emotionen also in unserem Leben eine wichtige Rolle spielen, kann eine Dysregulation der Emotionsverarbeitung auch zu elementaren Einschränkungen führen. Menschen, die unter depressiven Episoden leiden, durchleben beispielsweise regelmäßig Phasen intensiver und anhaltender Traurigkeit. Jedoch ist noch nicht vollständig erklärt, wie es zu dieser verzerrten Emotionswahrnehmung kommt. Diese Dissertation hatte deshalb das Ziel, den Ausdruck, die Wahrnehmung und das Erkennen extremer Emotionen genauer zu beleuchten.
In Studie 1 wurden der Ausdruck und das Erkennen extremer Emotionen untersucht.
Hierbei dienten aus dem Internet bezogene Videosequenzen von Kindern und Erwachsenen als Basis, in denen diese sich in Situationen befanden, die sie extrem negative oder extrem positive Emotionen durchleben ließen. Die Gesichtsausdrücke der Kinder und Erwachsenen wurden dann zum Zeitpunkt der stärksten emotionalen Erregung in ein Bild umgewandelt und von unabhängigen Ratern auf ihre Valenz und ihr Arousal eingeschätzt. Es wurde beobachtet, dass - entgegen der Vorhersage etablierter Emotionstheorien (z.B. Ekman, 1993) – Emotionen hoher positiver und negativer Intensität schwer auseinander zu halten sind. Tatsächlich wurden positive Emotionsausdrücke häufig als negativ eingeschätzt. Eine mögliche Erklärung dafür liefern Aragón und Kollegen (2015). Sie schätzen den Ausdruck negativer Emotionen in positiven Situationen als Emotionsregulationsstrategie ein, die dazu dient ein emotionales Equilibrium wieder herzustellen, das durch die überwältigenden positiven Emotionen aus dem Gleichgewicht gebracht wurde.
In Studie 2 und 3 wurde die Wahrnehmung negativer Emotionen bei depressiven Menschen im Vergleich zu gesunden Kontrollprobanden auf subjektiver und physiologischer Ebene untersucht. Hierbei wurde zunächst im Rahmen von Studie 2 untersucht, ob Parameter des autonomen Nervensystems (ANS) sich zwischen depressiven und gesunden Probanden unterscheiden. ANS-Parameter umfassten Hormone (Cortisol und DHEA), Herzratenvariabilität (HRV), Hautleitfähigkeit (GSR), Hauttemperatur (TEMP) und Atemfrequenz (RSP). Es konnten erhöhte DHEA-Werte, eine erhöhte Hauttemperatur und eine reduzierte Atemfrequenz in der Patientengruppe gefunden werden. Eine erhöhte Hauttemperatur korrelierte zudem mit der Ausprägung depressiver Symptome und der aktuellen Stimmung. Reduzierte HRV-Werte wurden hauptsächlich auf antidepressive Medikation zurückgeführt.
In Studie 3 wurde dann die Reaktion der Probanden auf emotionsevozierende Stimuli verschiedener Valenzkategorien (neutral, leicht negative, hoch negative) untersucht. Hierbei wurden sowohl physiologische Parameter (TEMP, HRV, GSR, RSP) als auch die subjektive Einschätzung der Stimuli bezüglich ihrer Valenz und ihres Arousal erhoben. Die Befunde bezüglich Hauttemperatur und HRV-Werte aus Studie 2 konnten in Studie 3 repliziert
werden. Zudem zeigte sich eine akzentuierte Reaktion der RSP sowie höhere Valenz- und Arousalratings in der Patientengruppe. Das subjektiv intensivere Empfinden der Stimuli bei den Patienten hing zusätzlich mit emotionaler und sozialer Kompetenz zusammen.
In dieser Dissertation konnte gezeigt werden, dass Ausdrücke intensiver Emotionen im Gesicht oft als zweideutig wahrgenommen werden. Um ein genaueres Verständnis der Emotionswahrnehmung bei depressiven Menschen zu erlangen, konnten zudem mehrere Parameter des ANS identifiziert werden, die teils noch nicht untersucht wurden und einer intensiveren Emotionswahrnehmung bei depressiven Patienten zugrunde liegen könnten.
Hierbei wurden zusätzlich Zusammenhänge zu weiteren Aspekten der Depression, wie Defiziten in sozialen Kompetenzen, aufgezeigt. Damit gibt diese Dissertation umfassende Aufschlüsse über Emotionsverarbeitungsprozesse bei gesunden und depressiven Menschen.
Die vorliegende Arbeit befasst sich mit der Entwicklung und Validierung eines Messinstrumentes zur Erfassung von psychopathischen Persönlichkeitseigenschaften, dem Fragebogen Psychopathischer Persönlichkeitseigenschaften (FPP), mit der Entwicklung eines Messinstrumentes, das antisoziales Verhalten und Kriminalität getrennt erfasst, der Checkliste für antisoziale Verhaltensweisen und Kriminalität (CAV/K) und mit der differenzierten Untersuchung der Vorhersage von Kriminalität durch psychopathische Eigenschaften.
Psychopathie ist eines der wichtigsten Konstrukte in der Vorhersage von kriminellem und antisozialem Verhalten (Hemphill, Hare & Wong, 1998). Die Konzeption der psychopathischen Persönlichkeit stellt affektive und interpersonelle Eigenschaften in den Vordergrund und definiert Kriminalität als Konsequenz statt Kernsymptom der Psychopathie (Skeem & Cooke, 2010a). Bisherige Ergebnisse zur prädiktiven Validität von psychopathischen Eigenschaften hinsichtlich krimineller Rückfälligkeit weisen allerdings darauf hin, dass affektive und interpersonelle Facetten der Psychopathie keinen Erklärungswert über eine kriminelle Vorgeschichte hinaus haben (Eher, Schilling, Mönichweger, Haubner-MacLean & Rettenberger, 2012; Walters, Knight, Grann & Dahle, 2008; Walters, Wilson & Glover, 2011). Des Weiteren wird im Rahmen der adaptiven Psychopathie postuliert, dass psychopathische Eigenschaften auch hoch ausgeprägt sein können, ohne dass sich die Personen kriminell verhalten (Hall & Benning, 2006). Ergebnisse aus einer Metananalyse eines etablierten Fragebogens zur Psychopathie, dem Psychopathic Personality Inventory (PPI; Lilienfeld & Andrews, 1996) ergaben, dass der erste von zwei Faktoren nicht mit Indizes antisozialer Verhaltensweisen korrelieren. Diese Ergebnisse sprechen dafür, dass der Zusammenhang zwischen Psychopathie und Kriminalität genauer untersucht werden muss, da ein Fehlen dieser Assoziation das Konstrukt Psychopathie obsolet erscheinen lässt.
Voraussetzung für die valide Untersuchung dieses Zusammenhangs ist die Verfügbarkeit von psychometrisch hochwertigen und validen Instrumenten zur Erfassung der Variablen. Die Erfassung von psychopathischen Eigenschaften im Selbstbericht ist ökonomisch und Beurteilungen fallen valide aus (Ray et al., 2013). Der Fragebogen PPI (Lilienfeld & Andrews, 1996) ist bereits gut etabliert, weist jedoch einige methodische Schwächen auf, wie z. B. eine Vielzahl von Items sowie eine schwer replizierbare Faktorenstruktur.
Deshalb wurde im ersten Schritt der Fragebogen Psychopathischer Persönlichkeitseigenschaften (FPP, Etzler & Rohrmann, 2017a, 2017b) entwickelt, der die Kritikpunkte des PPI überwindet und psychopathische Persönlichkeitseigenschaften mit hoher psychometrischer Gute misst. Der FPP erfasst sechs Facetten der Psychopathie, die theoretisch hergeleitet wurden: Fehlende Empathie, Furchtlosigkeit, Narzisstischer Egozentrismus, Impulsivität, Soziale Manipulation und Macht. Diese Facetten unterscheiden sich bis auf Furchtlosigkeit von den Skalen des PPI. Die Items sind kurz und inhaftierungsadäquat formuliert und weisen eine mittlere Situationsspezifität auf. Die Itemselektion basierte auf einer Stichprobe von n = 173 Straftätern und n = 132 Zivilpersonen, was repräsentativ für den Anwendungsbereich des FPP ist. Ergebnisse weisen auf gute psychometrische Eigenschaften, wie Itemkennwerte und Reliabilität (ω = .85) hin, auf überwiegend gleiche Messeigenschaften in Zivil- und Haftstichprobe sowie auf eine Konvergenz mit dem PPI (r = .677∗∗) in erwarteter Höhe. Erwartungskonforme Zusammenhänge mit weiteren Konstrukten, Korrelationen mit antisozialem Verhalten, Disziplinarmaßnahmen in Haft und Inhaftierung selbst unterstützen die Kriteriumsvalidität des FPP.
Die Vorhersage von Kriminalität setzt des Weiteren eine präzise Definition ebendieser Variable voraus. Allerdings wurde Kriminalität bis dato in den publizierten Studien uneinheitlich definiert und operationalisiert. Im Rahmen der vorliegenden Arbeit wurde Kriminalität als soziologisches Konstrukt definiert, das maßgeblich von der Gesetzgebung des Landes und weiteren Faktoren abhängt, die außerhalb einer Person liegen (Eysenck, 1977). Demgegenüber wurde antisoziales Verhalten psychologisch definiert, als Verhalten, das anderen Personen schadet aber dem Akteur selbst von Vorteil ist. Da für die Erfassung von antisozialem Verhalten und Kriminalität bis dato noch kein Messinstrument vorliegt, wurde die Checkliste für Antisoziale Verhaltensweisen und Kriminalität (CAV/K, Etzler & Rohrmann, 2017a) entwickelt, die beide Variablen getrennt voneinander aber dennoch simultan erfasst.
Nach Bereitstellung der Definitionen und Messinstrumente wurde untersucht, wie Kriminalität durch psychopathische Eigenschaften vorhergesagt werden kann (Etzler, Rettenberger & Rohrmann, eingereicht). Im Rahmen der adaptiven Psychopathie wurde angenommen, dass Moderatorvariablen den Zusammenhang zwischen Psychopathie und Kriminalität beeinflussen, wobei verbale Intelligenz hierbei eine zentrale Rolle spielt (Wall, Sellbom & Goodwin, 2013). Antisoziales Verhalten und Kriminalität (als offizielle Verurteilung) wurden getrennt voneinander definiert. Es zeigte sich im Rahmen eines moderierten Mediationsmodells, dass psychopathische Eigenschaften antisoziales Verhalten mit hoher Präzision vorhersagen konnten, insbesondere war die Wahrscheinlichkeit, dafür verurteilt zu werden und damit offiziell kriminell zu sein höher für Personen mit niedriger verbaler Intelligenz als für Personen mit höherer Intelligenz, da für verbale Intelligenz ein protektiver Effekt hinsichtlich Kriminalität gefunden wurde.
Die vorliegende Studie verfolgt einen integrativen Ansatz, indem Eigenschaften untersucht werden, die bei Straftätern und Zivilpersonen gleichermaßen vorliegen. Der FPP kann in der Forschung als ökonomisches Instrument eingesetzt werden sowie als Screeninginstrument in der Praxis, z. B. für die Planung des Vollzugsverlaufs in Haft. Anhand der Ergebnisse des FPP können antisoziale Verhaltensweisen in vielen Kontexten (z. B. Mobbing in Unternehmen, deviantes Verhalten in Haft) vorhergesagt werden und unter Hinzunahme weiterer Moderatoren, wie etwa verbale Intelligenz, kann eine präzisere Vorhersage von Kriminalität anhand psychopathischer Eigenschaften erfolgen.
Faces are thought to be processed primarily according to their configurations which is in-ferred from comparisons with non-facial stimuli. While the whole (face) seems to be more than the sum of its parts, the same does not apply to objects which are processed analytically according to their featural information. A recent recognition model stresses the importance of certain visual information within facial stimuli. By applying a specific filtering technique, stimuli can be generated that are restricted to contain information of only a certain orienta-tion. Dakin and Watt (2009) reported greatest recognition performance with faces that only contained horizontally aligned information with accuracy continuously declining at vertical. Furthermore, they showed that, compared with images of natural scenes, horizontal contours within faces have an unusual tendency to fall into vertically co-aligned clusters which were labelled biological ‘bar code’ referring to a highly constrained one-dimensional code. Con-secutive research tested for face-specific processing by comparing faces and objects that displayed information of different orientations. Results suggested configural processing only for faces that contained horizontal information (Goffaux & Dakin, 2010). The findings con-tribute important insight on a still unanswered question in face processing research: what information is extracted from faces for recognizing them. Despite the importance of remembering human faces on a daily basis, this ability seems to develop disadvantageously over lifetime. Decreased accuracy cannot be attributed to de-creased general cognitive ability (Hildebrandt, Wilhelm, Schmiedek, Herzmann, & Sommer, 2011) and slower reactions times are assumed to be a product of decision making rather than sensory speed (Habak, Wilkinson, & Wilson, 2008). Considering the amount of published work on face recognition, there is a lack of studies available assessing this important ability at a higher age. New theoretical concepts are rarely examined with older participants, appar-ently assuming their general validity. The current dissertation tries to help fill this gap by assessing the importance of horizontal information from a developmental perspective com-paring younger and older adults under different experimental variations. The first study showed, that presenting older participants with horizontally filtered faces has a dispropor-tional negative impact on recognizing younger unfamiliar faces suggesting differential pro-cessing mechanisms, since recognizing stimuli that only contained vertical information did not differ between age groups. On this basis, the following study manipulated the presented stimulus material, since some evidence suggests that own-age faces are more easily recog-nized compared to faces of other ages, which is referred to as “own-age bias”. Therefore, the second study systematically assessed the impact of stimulus age on recognition sensitivity. Moreover, encoding modalities were varied by providing increased exposure duration to the stimuli. The results of the first study were replicated, as older participants’ performance was still poor at recognizing younger faces, independent from encoding modalities. However, similar face recognition sensitivity compared to younger adults was observable when filtered faces of the older adults’ own age had to be recognized. Interestingly, correlations between recognizing filtered and unfiltered faces were obtained for younger adults but not for older adults suggesting age variant processing of horizontal information. The last study assessed the importance of horizontal information with stimulus material familiar to the observer. Although research highlights differences between recognizing unfamiliar and familiar stimu-lus material, this factor is often not considered by contemporary research. By presenting par-ticipants with their own faces, a stimulus of greatest individual familiarity was chosen. The superiority of own face recognition over other familiar material is referred to as “self-face advantage” and has been shown in comparison with personally familiar faces (Keyes & Brady, 2010) and famous faces (Caharel et al., 2002). While younger adults indeed recog-nized their self-faces better compared to famous faces independent from stimuli being fil-tered or unfiltered, older participants displayed a completely different pattern including the inability to recognize their filtered self-faces. Again, significant associations were obtained between filtered and unfiltered recognition conditions suggesting convergent processing mechanisms for younger adults but not for the older age group. This dissertation provides a first insight in the divergence of response behavior in older adults with a recent face processing model. While the obtained data undermine the im-portance of horizontal information in younger adults by replicating and extending previously published work, a profoundly different type of processing is suggested at a higher age which largely relies on low-level pictorial information due to the inability to process horizontally filtered faces configurally. Specifically, it is suggested that with age, focusing on aging-salient features with configural processing disrupted may function as a critical source of di-agnostic information which can ultimately result in performance similar to younger adults.
From an early understanding of organisational theorist (Bartlett & Ghosal, 1989; 1990), the function of global teams in transnational organisations has been conceptualised as the transformation of different embedded cultural practices for the development of a global strategy, products and services. Simultaneously, in the field, from the beginning of the 1990ies to the edge of the new millennium neo-liberal political developments enforced a free flow of capital on a global level (cf. Turner, 2006). In line with the development of respective connectivity via the internet the form of globally distributed team work was spread (Maznevski & Chudoba, 2000). In a study by Biggs (2000), published just after the millennial change, it was shown that 60% of tasks in multinational companies are accomplished by virtual teams. More recent data (Society for Human Resource Management, 2012) showed that the prevalence of such teams stayed more or less constant in the last 10 years. According to the survey 66% of companies are working with distributed global teams.
Globally distributed teams were already described by Bartlett and Ghosal (1989) in their functions of articulation and translation of differing market practices for the integration of requirements and needs on a global level. From a European perspective the importance to further develop innovation capabilities in order to compete in the global market is stressed today (Imp3rove, 2012). In a globalised economy not only the big multinational companies are involved in globally distributed research and development activities (R&D). On the level SMEs, for example, in Switzerland the involvement in global development processes is increasing (Gassmann, 2009). From my own experiences in working with Swiss SMEs, the macro-economic processes in regard to the strong Swiss Franc may accelerate such processes. Thus, the form of globally distributed teams, and their functional task in global development processes, can be viewed as highly relevant, in a globalised economy.
The crucial question for companies at the moment is, if teams can be enabled for innovative project work, which enables the integration of diverging perspectives in a globally distributed setting? Or, if such teams have to be collocated for more innovative, interdependent task work? Requirements for integrating embedded knowledge from different regionally defined clusters into global innovations at least, seems to indicate for the relevance of interdependent globally distributed team work (cf. Li, Eden, Hitt, Ireland, & Garrett, 2012). Bilateral practices of partnering, for example in the Swiss pharmaceutical sector, lead to the integration of selected subsidiaries in the R&D process of the company (Festel et al., 2010). Thus, the form of dispersion for project teams becomes more critical for effective global R&D practices (Boyer O’Leary & Cummings, 2007). So called partially distributed teams integrating balanced subgroups between two sites, hence, become an important subject of inquiry with practical relevance.
The context of partially distributed team work represents by virtue a context involving multiple perspectives influenced by the involvement of actors stemming from different cultural contexts (Dekker, Rutte, & Van den Berg, 2008). It thereby provides the synergetic potential for integrating different perspectives in the resolution of complex problems on a global level (Janssens & Brett, 2006). Simultaneously, cultural diversity engenders challenges for collaboration. Challenges, like different understandings and interpretations regarding tasks, the structuring of communication (Maznevski & Chudoba, 2000) and unexpected events occurring in the collaboration between the actors (Dekker et al., 2008; Oertel & Antoni, 2014) were identified in respective empirical studies.
Opportunities and challenges of partially distributed global teams can be compared with the problematic of face-to-face (f2f) teams with a moderate amount of diversity. Studies have shown (see Thatcher & Patel, 2011 for a meta-analysis) that when the distribution of diversity characteristics is aligned to potentially form culture specific subgroups, so-called diversity faultlines (Lau & Murnighan, 1998), negative subgroup dynamics are reinforced.
To achieve the above mentioned synergetic potentials it seems important to effectively cope with such negative dynamics and allow for a balanced participation in partially distributed teams (Janssens & Brett, 2006). In the research on faultline teams, especially the structuring of task-related interdependences across respective subgroups has been identified as an important impediment for the mentioned subgroup dynamics. Task interdependences, which cross functional roles across respective group faultlines (Bettencourt, Molix, Talley, & Eubanks, 2007; Marcus-Newhall, Miller, Holtz, & Brewer, 1993), are able to unlock the inherent potentials of globally distributed teams on more complex tasks that require the integration of different perspectives. From a work group diversity perspective (van Knippenberg & Schippers, 2007), partially distributed global teams represent a research object for studying the interaction between social categorisation processes involved in the above mentioned subgroup dynamics, and processes of task-related information processing required for innovative team outputs. The exploration of effects of task structures on the interaction between categorisation processes and task-related information processing (van Knippenberg et al., 2004), will be in the main explorative research focus of this thesis. The research thesis represents a heuristic explorative inquiry (Kleining & Witt, 2001) of respective dynamics and structural as well as process-related enablers.
The thesis starts with the theoretical part, in which the historical development of the understanding of teams as open, complex and temporally dynamic systems (Arrow et al., 2005, 2000), will be outlined. A sound definition of partially distributed global teams, including the respective contextual characteristics will be delineated. In a sensitizing framework (Blumer, 1954) which guided the explorative research process, the central boundary condition of task interdependence (Wageman, 2001) and respective episodic theories for explaining global task-related dynamics in teams (Marks et al., 2001), the dynamics of social categorisation (Gaertner, Dovidio, Anastasio, Bachman, & Rust, 1993; Gaertner & Dovidio, 2000), as well as the interaction between social categorisation processes and task-related information processing will be integrated (van Knippenberg et al., 2004). According to the framework, empirical studies on effects of task interdependence on interactions between task-related information processing and social categorisation processes will be addressed (van Knippenberg et al., 2004).
The empirical part of the contribution will be split in two parts. In the first heuristic exploratory study eleven partially distributed global teams are followed up during the time of relevant innovation projects. The approach allowed the study of task interdependence, productive interactions with social categorisation processes and there effects on team innovation. In the second empirical step, the developed hypotheses, were tested in an experimental simulation (Arrow et al., 2005, 2000) in undergraduate courses.
As a conclusion of the two exploratory studies, an episodic team process model will be outlined. The model specifies interdependence dynamics, which allows for team innovation. Furthermore, on a process level, the episodic categorisation-elaboration model (van Knippenberg et al., 2004) proposes three critical team performance episodes. Dynamics in the interplay between task-related information processing and social categorisation processes allow for the development of hypothesis for further research projects. Finally the implications for theory and the practical relevance of the heuristic model will be discussed.
Die Dissertation befasst sich mit den kognitiven Prozessen die Intelligenz ausmachen und ist in drei Teile aufgeteilt. Der erste Teil rezensiert den Beitrag kognitiver und nicht-kognitiver Variablen zur Vorhersage von Hochbegabung in einer Altersspanne die von der Geburt bis zur Einschulung reicht. Aus dem nicht-kognitiven Bereich stammen Konstrukte wie Schlafverhalten, motivationale Faktoren wie Neugier und Interesse, und deren Interaktion mit dem sozialen Umfeld. Kognitive Variablen stellen frühe, außergewöhnliche Sprach-, Lese-, Schreib- und Rechenfähigkeiten dar, sowie Intelligenzquotienten, die mit den gängigsten testpsychologischen Verfahren ermittelt werden, und Komponenten der Informationsverarbeitung wie Habituation und Arbeitsgedächtnis. Trotz der Berichte über mittlere Korrelation ist die aktuelle Datenlage kritisch zu betrachten und weist eine niedrige Vorhersagevalidität der Frühprognose von Hochbegabung auf. Es wird mit dem dynamischen Modell der Intelligenz argumentiert, nach dem die mangelnde prognostische Validität und die Unzuverlässigkeit der kognitiven Vorhersageindikatoren auf die Annahme zurückzuführen sind, dass kognitive Prozesse unabhängig voneinander sind. Erst im Laufe des Lebens werden diese immer häufiger miteinander verknüpft und korreliert (Mutualismus). Das bedeutet, es findet eine zunehmende Integration kognitiver Prozesse statt und daraus resultiert der g-Faktor.
Doch das Arbeitsgedächtnis spielt weiterhin eine zentrale Rolle in Bezug auf Intelligenz, wenn nicht im Säuglingsalter, dann zumindest ab dem Vorschulalter und besonders im Erwachsenenalter. Arbeitsgedächtniskapazität stellt das Ausmaß an Fähigkeit dar, Informationen simultan zu speichern und zu verarbeiten, ohne die Notwendigkeit auf Vorwissen zurückzugreifen. Es kann damit als eng umschriebener kognitiver Prozess aufgefasst werden. Vorherige Forschungsarbeiten haben bereits deutlich gezeigt, dass Arbeitsgedächtnis und Intelligenz korrelativ stark zusammenhängen. Das ist durchaus überraschend, denn die Aufgaben und Tests mit denen die Konstrukte jeweils erfasst werden können sich oberflächlich stark unterscheiden. Um fluide Intelligenz valide erfassen zu können, sind Aufgaben zum induktiven Denken, wie zum Beispiel Matrix-Aufgaben, sehr beliebt. Im Rahmen der zweiten Arbeit hat man sich dem Einfluss der Prozesse Zielmanagement und Regel-Induktion auf den Zusammenhang zwischen Arbeitsgedächtnis und Problemlösung der Matrix-Aufgaben gewidmet. Zielmanagement wurde bereits zuvor mit dem Arbeitsgedächtnis in Verbindung gebracht jedoch war die Befundlage hinsichtlich der Regel-Induktion unklar. Daher sollte die Hypothese ob Regel-Induktion unabhängig vom Arbeitsgedächtnis ist, in einem kritischen Experiment überprüft werden. Bei Neutralisierung der Notwendigkeit für Regelinduktion, indem den Probanden die Regeln im Voraus erklärt wurden, konnte man einen erhöhten Zusammenhang zwischen dem Arbeitsgedächtnis und der Leistung in der Matrix-Aufgabe erkennen. Das deutete in der Tat darauf hin, dass Regel-Induktion nicht vom Arbeitsgedächtnis abhängig ist, zumindest nicht im gleichen Maße wie Zielmanagement. Darüber hinaus zeigte sich: Die Kenntnis der Regeln beeinflusst den Problemlöseprozess. Eye-Tracking-Messungen weisen auf eine konstruktive Anpassungsstrategie in der Experimentalbedingung (mit Regelwissen) hin. Basierend auf den Erkenntnissen aus vier Experimenten, wird mit zwei möglichen Mechanismen argumentiert, die die Steigerung des Zusammenhangs zwischen Arbeitsgedächtnis und Matrix-Problemlösen in der Experimentalgruppe erklären könnten.
Alternativ zur zuvor angenommenen Unabhängigkeit von Regel-Induktion und Arbeitsgedächtnis, könnte die erhöhte Korrelation bei bekannten Regeln auch mit der beobachteten Strategieänderung erklärbar sein. Die dritte und letzte Arbeit widmete sich deshalb erneut dieser Fragestellung. Erneut kamen Matrix-Aufgaben zum Einsatz und es wurden Testleistung, Augenbewegung und Reaktionszeiten erhoben, um den Einfluss von Regelwissen zu erfassen. Es zeigte sich die Anwendung einer effektiveren Lösungsstrategie in der Experimentalbedingung. Anhand der Eye-Tracking Messung wurde gezeigt, dass Probanden mit Regelwissen über einen längeren Zeitraum das problemrelevante Areal der Matrix-Aufgabe fixieren, und eine niedrigere Frequenz an Sakkaden zwischen diesem Areal und den Antwortalternativen aufwiesen.
Weitere Einflussvariablen auf die Lösestrategie stellen Schwierigkeit der Aufgabe und Fähigkeiten des Probanden dar. Diese weisen einen differenziellen Einfluss auf zwei Subgruppen von Indikatoren der Augenbewegungsmessung auf, die in Relation zu den Reaktionszeiten gesetzt wurden um ein besseres Verständnis dieser Variablen zu erzielen. Es wird vermutet, dass Variablen wie Augenbewegungen und Reaktionszeiten das Ausmaß des Entstehens von mentalen Modellen während des logischen Denkens widerspiegeln. Unter der Annahme dass die Komplexität von Mentalen Modellen mit einer gewissen Belastung für das Arbeitsgedächtnis einhergeht, lassen sich auch vorherige Ergebnisse mit dieser Hypothese in Einklang bringen. Abschließend werden die grundlegenden kognitiven Prozesse des induktiven Denkens diskutiert und ein Ausblick auf zukünftige Intelligenzmessung angeboten.
Eye-Tracking bezeichnet das Messen und Aufzeichnen der Blickbewegungen einer Person. Historisch gesehen basiert Eye-Tracking auf Beobachtungen des Testleiters, der das Blickverhalten der Probanden während des Versuchsablaufes oder die Videoaufzeichnung des Blickverhaltens eines Probanden in einer Testsituation kodierte. Dabei konnte allerdings nur die Blickrichtung des Probanden erhoben werden. Heutzutage ist es jedoch möglich, aufgrund neuerer, automatisierter Eye-Tracking-Techniken detailliertere Blickbewegungen, wie z.B. Fixationen und Sakkaden, zu messen. Diese Verbesserung der Eye-Tracking-Technik ermöglicht nicht nur passives Eye-Tracking, sondern auch aktives Blickkontingenz-Eye-Tracking. Passives Eye-Tracking bezeichnet das Messen und Aufzeichnen des Blickverhaltens, um herauszufinden, wo der Proband hinschaut. Im Gegensatz dazu erhebt das aktive Blickkontingenz-Eye-Tracking nicht nur, wo ein Proband hinschaut, sondern ermöglicht dem Probanden auch, die Stimuli, die auf einem Bildschirm präsentiert werden, aktiv zu verändern oder zu kontrollieren. Dabei wird das Blickverhalten online kodiert, und spezifisches Blickverhalten ist an eine kontingente Veränderung der Stimuli auf dem Bildschirm gekoppelt. Deshalb kann das aktive Blickkontingenz-Eye-Tracking eingesetzt werden, um den Probanden aktive Kontrolle über ihre visuelle Umwelt zu ermöglichen.
In der psychologischen Forschung ist Eye-Tracking ein wichtiges Forschungs-instrument, da das Blickverhalten in spezifischen Eye-Tracking-Aufgaben genutzt werden kann, um Aufschluss über kognitive Prozesse, wie z.B. Aufmerksamkeit, Lernen und Gedächtnis, zu gewinnen. Unterschiedliche passive und aktiv-blickkontingente Eye-Tracking- Aufgaben wurden entwickelt, um eine Vielzahl an kognitiven Prozessen im Erwachsenen- und Säuglingsalter zu untersuchen. Diese Aufgaben sind besonders wichtig in der Säuglingsforschung, da es in diesem Alter schwierig ist, kognitive Prozesse zu untersuchen. Dies hängt damit zusammen, dass es sich um eine präverbale Stichprobe, die nur über ein limitiertes motorisches Repertoire verfügt, handelt. Obwohl kognitive Prozesse von Erwachsenen anhand verbaler oder anderer motorischer Aufgaben untersucht werden können, werden passive und aktiv-blickkontingente Eye-Tracking-Aufgaben regelmäßig in dieser Altersgruppe eingesetzt, da sie zusätzliche Informationen über kognitive Prozesse liefern können. Neben der Möglichkeit zur Untersuchung von kognitiven Prozessen bieten aktiv-blickkontingente Eye-Tracking-Aufgaben den Probanden auch die Gelegenheit, ihre visuelle Umwelt aktiv zu kontrollieren. Dennoch werden aktiv-blickkontingente Eye-Tracking- Aufgaben nur selten eingesetzt, um Probanden visuelle Kontrolle über ihre Umwelt zu verschaffen.
Bis jetzt wurden aktiv-blickkontingente Eye-Tracking-Aufgaben zur Kontrolle der visuellen Umwelt nur bei Erwachsenen, aber noch nicht bei Säuglingen eingesetzt. Da diese Aufgaben jedoch auch für Säuglinge und Kleinkinder geeignet sind, besteht die Möglichkeit, diese Methode über die gesamte Lebenspanne hinweg anzuwenden. Somit kann das Erlernen des Kontrollierens der Umwelt durch Blickverhalten über die gesamte Lebensspanne untersucht werden.
Die vorliegende Dissertation hat sich genau dies zum Ziel gesetzt. Um dieses Ziel zu erreichen, wurde eine neue aktiv-blickkontingente Eye-Tracking-Aufgabe entwickelt, die sogenannte gaze-contingent learning task (GCLT). Im Wesentlichen ist die GCLT eine operante Konditionierungsaufgabe, bei der sich Probanden Kontrolle über ihre visuelle Umwelt aneignen, indem sie eine bestimmte blickkontingente Assoziation zwischen ihrem Blickverhalten und einem visuellen Effekt erlernen. Die in dieser Dissertation verwendete GCLT umfasst zwei Hauptversionen: zum einen die sog. one disc GCLT, und zum anderen die two discs GCLT. In der one disc GCLT wird ein Kreis auf der rechten Bildschirmseite gezeigt. Jedes Mal, wenn der Proband auf diesen Kreis schaut, erscheint ein Stimulus auf der linken Bildschirmseite. Somit kommt dem Kreis eine Schalterfunktion zu. In der two discs GCLT ist sowohl am rechten als auch am linken Bildschirmrand ein Kreis zu sehen. Hier kommt nur jeweils einem der beiden Kreise die Schalterfunktion zu. Um ihre visuelle Umwelt zu kontrollieren, müssen Probanden innerhalb der one disc GCLT die blickkontingente Assoziation zwischen ihren Blicken auf den Kreis und dem Erscheinen eines Stimulus erlernen, während sie in der two discs GCLT außerdem noch lernen müssen, zwischen dem Kreis mit und dem Kreis ohne Schalterfunktion zu unterscheiden.
Die vorliegende Dissertation zeigt, dass globale Kohärenz in Lebenserzählungen erst in der Adoleszenz entsteht und sich im Erwachsenenalter weiter entwickelt. Außerdem konnte gezeigt werden, dass die fragmentarische Nutzung der Lebensgeschichte in Form autobiographischen Urteilens in Zeiten tiefgreifender Lebensveränderungen zum Erhalt der Selbst-Kontinuität beiträgt.
In the present work, mismatch negativity (MMN) was used to examine the contribution of spectral vs. temporal perceptual features to vowel length discrimination in children and adults. Three age groups (adults vs. 9-10 years vs. 10-11 years olds) have been taken to examine developmental effects on vowel length perception. Natural (i.e., spectrotemporal) vowel length differences were compared with (artificially modified) stimulus pairs varying only in temporal or spectral characteristics to contrast spectral, temporal and spectrotemporal processing.
The result indicates that, while adults integrate spectral and temporal aspects of the speech signal in an additive way, children of 9-10 years of age sequentially process both features. However, vowel length processing is found to become adultlike at the age of 10-11 years.
Die vorliegende Arbeit beschäftigt sich mit den Arbeitsgedächtnisleistungen zweier sprachlicher Sondergruppen und der Möglichkeit über die Leistung des Arbeitsgedächtnisses validere Prognosen des weiteren sprachlichen bzw. schriftsprachlichen Entwicklungsverlaufs zu erreichen, als dies über eine ausschließliche Erhebung der Sprachleistung möglich ist. Die Basis dieser Untersuchungen bilden zwei Längsschnittstudien. Die Daten der sprachlichen Sondergruppe der Late Talker (kognitive Aspekte) wurden in Heidelberg an der Universität und dem Frühinterventionszentrum (FRIZ) zwischen dem zweiten und dem neunten Lebensjahr der Kinder (N=93 mit n1=59 Late Talkers und n2=34 Kontrollkindern) in bestimmten Abständen erhoben. Neben den sprachlichen und kognitiven Leistungstests wurde zum letzten Messzeitpunkt zusätzlich die Arbeitsgedächtnisleistung erfasst. Dabei sollte untersucht werden, ob die Leistungen im Arbeitsgedächtnis valide unterscheiden können zwischen Kindern mit persistierenden Sprachentwicklungsproblemen und Kindern, die das Defizit im weiteren Entwicklungsverlauf aufholen (Late Bloomer). Die Ergebnisse zeigen, dass mithilfe der Leistungen in der Phonologischen Schleife eine sehr gute Trennung der Late Bloomer von den Kindern, die weiter eine Sprachproblematik aufweisen, vorgenommen werden kann. Ein Hinzuziehen der zentral-exekutiven Leistungen bringt hingegen keine Verbesserung in der Vorhersagegenauigkeit.
Der zweiten Untersuchung liegen zum einen die Daten der Normierung der Arbeitsgedächtnistestbatterie für Kinder von fünf bis zwölf Jahren (AGTB 5-12 {Hasselhorn et al., 2012}) zugrunde (N=1.669 davon 243 Kinder mit Migrationshintergrund), anhand derer überprüft wurde, ob Kinder mit Migrationshintergrund in irgendeiner Weise durch die Nutzung der Testbatterie benachteiligt werden, sei es 1. Durch die ungeprüfte Übernahme des Arbeitsgedächtnismodells (nach dem Vorbild von Baddeley (1986)), dass für Muttersprachler bereits bestätigt werden konnte, 2. Durch Benachteiligungen in bestimmten Untertests und 3. Durch die Testbatterie im Allgemeinen, die Art der Testung und die Wahl bestimmter Items. Zur Überprüfung, inwieweit Prädiktoren, die bei Muttersprachlern valide Prognosen der späteren schriftsprachlichen Leistungen erlauben, auch bei Kindern mit Migrationshintergrund genutzt werden können, wird ein weiterer längsschnittlicher Datensatz herangezogen. Von den 127 Kindern der Längsschnittstudie des Projekts ANNA „Gedächtnis und Schulfähigkeit“ (Individual Development and Adaptive Education of Children at Risk am Deutschen Institut für internationale pädagogische Forschung - DIPF) weisen 60 Kinder einen Migrationshintergrund auf. Auf Basis beider Datensätze konnte nachgewiesen werden, dass das Modell des Arbeitsgedächtnisses auch bei Kindern mit Migrationshintergrund Anwendung findet und die Benachteiligungen bei der Testung besonders gering ausfallen, je früher die Kinder untersucht werden. Es zeigt sich aber auch, dass die AGTB 5-12 an manchen Stellen überarbeitet werden sollte, um mögliche Benachteiligungen noch weiter zu verringern. Außerdem konnte gezeigt werden, dass sich auch bei Kindern mit Migrationshintergrund valide Prognosen späterer schriftsprachlicher Leistungen anhand ihrer Arbeitsgedächtnisleistungen treffen lassen und hier hauptsächlich auf Basis der phonologischen Gesamtleistungen (alle Untertests).
Die vorliegende kumulative Dissertation befasst sich mit der Erfassung der Behandlungsintegrität bestehend aus psychotherapeutischer Adhärenz, Kompetenz sowie der Behandlungsdifferenzierung im Rahmen der Psychotherapieforschung. Die Überprüfung, ob Behandlungen bzw. Interventionen so wie intendiert durchgeführt wurden, ist für die Sicherstellung valider Schlussfolgerungen aus einer klinischen Studie von hoher Relevanz.
Die erste Studie untersucht, ob die Erfassung der Behandlungsintegrität ökonomischer gestaltbar ist. Es zeigte sich, dass Beurteilungen der Adhärenz und Kompetenz basierend auf Sitzungssegmenten im Vergleich zu ganzen Sitzungen keine Unterschiede aufweisen hinsichtlich Reliabilität, Validität und Prädiktion des Behandlungserfolgs.
In der zweiten Studie wird die Entwicklung und Validierung einer Adhärenz- und Kompetenzskala vorgestellt. Diese Studie weist zudem auf die Verwendung im Rahmen der Aus- und Weiterbildung von Therapeuten hin.
Die dritte Studie zeigt, dass in Psychotherapiestudien die im Vergleich stehenden Behandlungsbedingungen gut voneinander unterscheidbar sein müssen. Für die Beschreibung der Behandlungsdifferenzierung und -spezifität wurde der Behandlungs-Spezifitäts-Index entwickelt, dessen Eignung bestätigt werden konnte.
Die vierte Studie überprüft, ob sich erfolgreiche von nicht erfolgreichen Therapien hinsichtlich der psychotherapeutischen Kompetenz, Adhärenz und psychotherapeutischen Beziehung unterscheiden. Es zeigte sich, dass Adhärenz eine Voraussetzung für kompetentes Vorgehen darstellt. Kompetenz beeinflusst die psychotherapeutische Beziehung maßgebend, die mitentscheidend für den (Miss-)Erfolg einer Behandlung zu sein scheint.
Insgesamt tragen die Ergebnisse zu einer differenzierteren, spezifischeren und ökonomischeren Erfassung der Behandlungsintegrität innerhalb der Psychotherapieforschung bei. Gleichzeitig erweitern sie den Fokus auf neue Ansätze für zukünftige Forschungen.
Different types of altruistic behavior, namely help-giving, altruistic punishment, and moral courage, are identifiable and distinguishable in the literature, but little is known how they relate to each other. This is significant because understanding altruism and other-regarding behavior is important in the attempt to solve global problems of overpopulation and depletion of natural resources. Understanding the helping forms of altruism (help-giving and sharing) can be helpful, for example, when designing donation collections or recruiting volunteers. Understanding the punitive forms of altruism (moral courage and altruistic punishment) gives valuable insight on individuals participating in campaigns where there is a need to take action, for example, against polluters or governments that violate human rights. The empirical evidence presented in this dissertation demonstrate individual and cultural differences in help-giving, altruistic punishment, and morally courageous behavior. The willingness to engage in the three types of altruistic behaviors relate differently to subjectively preferred thinking style and to personality traits, both in real-life and on the Internet. The divergencies are observable between Eastern (Indian) and Western (German) cultures, where the overlap of oneself and other individuals is experienced in different levels.
Imitation paradigms are used in various domains of developmental psychological research to assess various cognitive processes such as memory (deferred imitation), action perception and action understanding (mainly direct imitation), as well as categorization and learning about objects (deferred imitation with a change in target objects and generalized imitation). Although these processes are most likely not independent from each other, their relations are still largely unclear. On the one hand, deferred imitation studies have shown that infants' performance improves with increasing age, resulting in the reproduction of more target actions after longer delay intervals. On the other hand, imitation studies focusing on infants' action understanding have found that infants do not necessarily imitate the model's exact actions – actions or action steps that seem to be irrational or irrelevant are omitted by infants under certain circumstances (selective imitation). Additionally, findings of imitation studies that require a transfer of the target actions to novel objects have demonstrated that infants do not only learn about actions, but also about objects, when they engage in imitation.
The present dissertation aims at integrating different perspectives of imitation research by testing 12- and 18-month-old infants in deferred imitation tests consisting of functional vs. arbitrary target actions, and by combining deferred imitation with eye tracking in half of the experiments. A deferred imitation paradigm was chosen to assess memory performance. Systematic variation of target action characteristics enabled the assessment of infants' imitation pattern, i.e., if they would imitate one kind of target actions more frequently than the other. Functionality was chosen as the action characteristic in focus because function is an object's most important property, thus this variation might shed some light on infants' learning about objects in the context of an imitation test. The main goal of the eye tracking experiments was to tackle the relations between infants' visual attention to, and deferred imitation of, different kinds of target actions.
The behavioral experiments revealed that both 12- and 18-month-olds imitated significantly more functional than arbitrary target actions after a delay of 30 minutes. In addition, while 12-month-olds showed a memory effect only for functional actions, 18-month-olds showed a memory effect for both kinds of actions. Thus, 12-month-olds imitated strictly selectively, and 18-month-olds imitated more exactly. This shows that the well established memory effect is modulated by target action functionality, which affects 12- and 18-month-olds' imitation differently. Furthermore, when retested after a two weeks delay, 18-month-olds' performance rates of functional and arbitrary target actions decreased parallel. This suggests that selective imitation is not affected by the duration of the retention interval, and that selection of target actions takes place at an earlier stage of action perception and memory processes.
In the eye tracking experiments, both 12- and 18-month-olds' imitation patterns replicated the findings of the behavioral experiments, showing consistently higher imitation rates of functional than arbitrary target actions. Contrary to this, infants' fixation times to the target actions were not affected by target action functionality. This contrast was supported by statistical analyses that found no clear correspondence between visual attention to and deferred imitation of target actions. This suggests that selective imitation cannot be explained by selective visual attention. Nevertheless, finer-grained analyses of gaze and imitation data in the 18 months old group suggested that infants' increased attention to the social-communicative context of the imitation task was related to more exact imitation, i.e. imitation of not only functional, but also arbitrary target actions.
The findings are discussed against the background of imitation theories, with regard to the relations between different cognitive processes underlying infants' imitation, such as memory, action perception and learning about objects.
Trotz vielfältiger Gleichberechtigungsbestrebungen und -erfolge in den letzten Jahrzehnten sind Frauen – in Deutschland und den meisten anderen westlichen Ländern – in den oberen Führungspositionen weniger stark vertreten als Männer (Catalyst, 2012, 2013, 2014; European Commission, 2013; Eurostat, 2013). Dieser Umstand hat in Politik, Gesellschaft und Wissenschaft Diskussionen einerseits über mögliche Ursachen und andererseits über mögliche Ansatzpunkte für Interventionen zur Stärkung der Gleichberechtigung (bspw. Einführung einer Frauenquote oder frauenspezifische Förderprogramme) angeregt. Betrachtet man die wissenschaftlichen Theorien und Studien zeigt sich, dass es verschiedene Ursachen für die Unterrepräsentanz von Frauen in Führungspositionen gibt (vgl. Hernandez Bark, Escartin, & van Dick, 2014). Anders als in der Metapher der gläsernen Decke, die davon ausgeht, dass es eine undurchlässige Decke gibt, die Frauen den Zugang zu oberen Führungspositionen verwehrt (Morrison, White, & van Velsor, 1992), stellt sich der Weg von Frauen in die oberen Führungspositionen eher als ein Labyrinth dar (vgl. Eagly & Carli, 2007). Auf dem Weg in die oberen Führungspositionen sind Frauen mit verschiedenen Hindernissen und Problemen konfrontiert, welche es für sie zu überwinden gilt (Eagly & Carli, 2007). Eine Möglichkeit, diese verschiedenen Aspekte in dem Labyrinth zu den Führungspositionen zu strukturieren, bietet die Formel von Campbell und Kollegen (Campbell, McCloy, Oppler, & Sager, 1993): Performance=KSA*Motivation*Opportunities. Hierbei steht KSA für Knowledge, Skills und Abilities, also für das Wissen, die Fähigkeiten und Fertigkeiten, ergo dem Können. Motivation steht für die Motivation, ergo dem Wollen. Und Opportunities steht für die Möglichkeiten, ergo dem Dürfen. Somit ergeben sich folgende Fragen: Können Frauen führen? Wollen Frauen führen? Und dürfen Frauen führen? In meiner Dissertation fasse ich im Rahmen eines Reviewartikels zunächst den Forschungsstand hinsichtlich dieser drei Aspekte zusammen (Hernandez Bark et al., 2014). Hierbei liegt der Fokus auf einem Vergleich zwischen Spanien und anderen westlichen Ländern wie beispielsweise der USA oder Deutschland. Anschließend fokussiere ich in dem ersten empirischen Artikel spezifischer den Aspekt des Wollens (Schuh, Hernandez Bark, Van Quaquebeke, Hossiep, Frieg, & van Dick, 2014), welcher durch das Konstrukt der Machtmotivation (McClelland, 1985) operationalisiert wurde. Hierbei untersuche ich Geschlechtsunterschiede in Machtmotivation und ihren Zusammenhang zu Führungsverantwortung. Der zweite Artikel fokussiert das Zusammenspiel des Geschlecht, des Wollens und Könnens für den Besitz von Führungsverantwortung (Hernandez Bark, Escartin & van Dick, under review). Hierbei wurde Wollen erneut durch das Konstrukt der Machtmotivation (McClelland, 1985) und das Können durch das Konstrukt der transformationalen Führung (Bass, 1985) operationalisiert. Insgesamt zeigte sich ein klares Muster: Frauen können effektiv führen und die Repräsentation von Frauen in Vorstand oder Topmanagement steht meist sowohl in einem positiven Zusammenhang mit der organisationalen Leistung als auch mit einer nachhaltigeren Unternehmenspolitik. Dieser Befund ist unabhängig vom Durchführungsland (vgl. Hernandez Bark et al., 2014). Somit lässt sich die Frage „Können Frauen führen?“ eindeutig mit ja beantworten. Eine zentrale Rolle bei der Beantwortung der Fragen „Wollen Frauen führen?“ und „Dürfen Frauen führen?“ bildet die Inkongruenz zwischen der weiblichen Geschlechtsrolle und der Führungsrolle. Während die weibliche Geschlechtsrolle Eigenschaften wie freundlich, unterstützend und warm (kommunale Eigenschaften) umfasst, beinhaltet die Führungsrolle Eigenschaften wie dynamisch, durchsetzungsstark und kompetitiv (agentische Eigenschaften), welche kongruent zu der männlichen Geschlechtsrolle sind. Dies führt zu unterschiedlichen Möglichkeiten (Dürfen) für Frauen und Männer, Führungsverantwortung zu erlangen (vgl. Hernandez Bark et al., 2014). Und auch der Aspekt des Wollens wird dadurch beeinflusst. Das Wollen, ergo auch die Machtmotivation, ist ein wichtiger Einflussfaktor für das Erlangen von Führungsverantwortung (Hernandez Bark et al., under review; Schuh et al., 2014). Jedoch ist das Streben nach Macht (Machtmotivation, agentisch) inkongruent zu der weiblichen Geschlechtsrolle, was sich in einer niedrigeren Machtmotivation von Frauen widerspiegelt und zu einer Unterrepräsentanz von Frauen in Führungsverantwortung beiträgt (Hernandez Bark et al., under review; Schuh et al., 2014). Auch transformationale Führung ist positiv mit Führungsverantwortung verknüpft, jedoch ist sie kongruent zu der weiblichen Geschlechtsrolle und Frauen zeigen dieses Führungsverhalten stärker als Männer, was sich positiv auf die Repräsentanz von Frauen in Führungsverantwortung auswirken sollte (Eagly, Johannesen-Schmidt & van Engen, 2003; Hernandez Bark et al., under review). Jedoch ist Machtmotivation auch ein Prädiktor transformationaler Führung und der Zusammenhang zwischen Geschlecht und Führungsverantwortung wird seriell durch Machtmotivation und transformationale Führung mediiert, was zu der stärkeren Repräsentanz von Männern in Führungsverantwortung beiträgt (Hernandez Bark et al., under review). Dieser Vorteil wird noch dadurch verstärkt, dass der Zusammenhang zwischen Machtmotivation und transformationaler Führung für Männer stärker ist als für Frauen (Hernandez Bark et al., under review). Die Implikationen dieser Befunde für weitere Forschung und Stärkung von Gleichberechtigung von Frauen und Männern in Führungsverantwortung werden am Ende dieser Arbeit diskutiert.
The term compensation is widely used in every-day language, in psychological research, and also discussed in the context of Attention Deficit Hyperactivity Disorder (ADHD). However, few studies have looked at psychological compensation in ADHD systematically and theory based. Compensation can be inferred if a deficit (i.e., a mismatch between skill and environmental demand) is counterbalanced by the investment of more effort, the utilization of latent or the acquisition of new skills. Based on the application of a theoretical framework (Bäckman & Dixon, 1992) to ADHD, I developed the following aims: (1) To reassess the awareness of deficits in ADHD and (2) to explore psychological compensation in a group with ADHD that accomplishes high achievement.
The results of Study 1 showed that children with ADHD did not overestimate their own skills compared to a group matched for academic achievement. In Study 2, college students with ADHD reported higher achievement motivation compared to college students without ADHD. Furthermore, results indicated that women with ADHD compensate by adopting compensatory effort and obsessive-compulsive behavior. Study 3 showed that female college students compensate for possible deficits in solving a flanker task by being overly cautious, which may reflect more obsessive-compulsive behavior.
The studies are discussed within the framework of psychological compensation. They add to the understanding of compensation in ADHD by (1) the reassessment of awareness of deficits in ADHD by including a group without ADHD but with low achievement, and by (2) suggesting that overly cautious behavior could be a form of psychological compensation in females with ADHD enabling them to enter college, leading to a late diagnosis and to good performance in cognitive tasks (i.e., flanker task).
Limitations are, that I did not test all components of the theoretical framework in one study and that I did not include adults with ADHD that did not enter college in Study 2 and 3 to test if achievement motivation or overly cautious behavior explains why some adults with ADHD gain admittance to higher education and show good performance in cognitive tasks and others do not.
Die Adoleszenz, d.h. die Reifungsphase des Jugendlichen zum Erwachsenen, stellt einen zentralen Abschnitt in der menschlichen Entwicklung dar, der mit tief greifenden emotionalen und kognitiven Veränderungen verbunden ist. Neure Studien (Bunge et al., 2002; Durston et al., 2002; Casey et al., 2005; Crone et al., 2006; Bunge and Wright, 2007) machen deutlich, dass sich die funktionelle Architektur des Gehirns während der Adoleszenz grundlegend verändert und dass diese Veränderungen mit der Reifung höherer kognitiven Funktionen in der Adoleszenz assoziiert sein könnten. Messungen des Gehirn-Volumens mit Hilfe der Magnet-Resonanz-Tomographie (MRT) zum Beispiel zeigen eine nicht-lineare Reduktion der grauen und eine Zunahme der weißen Substanz während der Adoleszenz (Giedd et al., 1999; Sowell et al., 1999, 2003). Des weiteren treten in dieser Zeit Veränderungen in exzitatorischen und inhibitorischen Neurotransmitter-Systemen auf (Tseng and O’Donnell, 2005; Hashimoto et al., 2009). Zusammen deuten diese Ergebnisse darauf hin, dass während der Adoleszenz ein Umbau der kortikalen Netzwerke stattfindet, der wichtige Konsequenzen für die Reifung neuronaler Oszillationen haben könnte. Im Anschluss an eine Einführung im Kapitel 2, fasst Kapitel 3 der vorliegenden Dissertation die Vorbefunde bezüglich entwicklungsbedingter Veränderungen in der Amplitude, Frequenz und Synchronisation neuronaler Oszillationen zusammen und diskutiert den Zusammenhang zwischen der Entwicklung neuronaler Oszillationen und der Reifung höhere kognitiver Funktionen während der Adoleszenz. Ebenso werden die anatomischen und physiologischen Mechanismen, die diesen Veränderungen möglicherweise zu Grunde liegen könnten, theoretisch vorgestellt. Die in Kapitel 4-6 vorgestellten eigenen empirischen Arbeiten untersuchen neuronale Oszillationen mit Hilfe der Magnetoencephalographie (MEG), um die Frequenzbänder und die funktionellen Netzwerke zu charakterisieren, die mit höheren kognitiven Prozessen und deren Entwicklung in der Adoleszenz assoziiert sind. Hierzu wurden drei Experimente durchgeführt, bei denen MEG-Aktivität während der Bearbeitung einer Arbeitsgedächtnisaufgabe und im Ruhezustand aufgezeichnet wurde. Die Ergebnisse dieser Experimente zeigen, dass Alpha Oszillationen und Gamma-Band Aktivität sowohl task-abhängig als auch im Ruhezustand gemeinsam auftreten. Darüber hinaus ergänzen die vorliegenden Untersuchungen Vorarbeiten, indem sie eine Wechselwirkung zwischen beiden Frequenzbändern aufgezeigt wird, die als ein Mechanismus für das gezielte Weiterleiten von Informationen dienen könnte. Die in Kapitel 6 vorgestellten Entwicklungsdaten weisen weiterhin darauf, dass in der Adoleszenz späte Veränderungen im Alpha und Gamma-Band stattfinden und dass diese Veränderungen involviert sind in die Entwicklung der Arbeitsgedächtnis-Kapazität und die Entwicklung der Fähigkeit, Distraktoren zu inhibieren. Abschliessend werden in Kapitel 7, die in dieser Dissertation vorgestellten Arbeiten, aus einer übergeordneten Perspektive im Gesamtzusammenhang diskutiert.
In der vorliegenden Arbeit wird untersucht, wie das Gehirn Bewusstsein erzeugt. Diese Frage wird als eines der größten Rätsel der heutigen Wissenschaft angesehen: Wie kann es sein, dass aus der Aktivität der Nervenzellen unsere subjektive Welt entsteht? Es ist offensichtlich nicht einfach, diese Frage wissenschaftlich zu untersuchen. Eine der vorgeschlagenen Strategien für die Untersuchung von Bewusstsein behauptet, dass man zunächst die neuronalen Korrelate des Bewusstseins finden sollte (Koch, 2004). Einer Definition zufolge sind die neuronalen Korrelate des Bewusstseins die kleinste Menge neuronaler Prozesse, die hinreichend für eine bestimmte bewusste Erfahrung sind (zum Beispiel für die bewusste Erfahrung des Blaubeergeschmacks). Manche behaupteten, die Entdeckung der neuronalen Korrelate des Bewusstseins würde es erlauben, dem Rätsel des Bewusstseins näher zu kommen (Crick & Koch, 1990). Nur wie soll man die neuronalen Korrelate des Bewusstseins finden? Eine relativ einfache Strategie dafür wurde schon vor mehr als 20 Jahren beschrieben. Es sollten einfach experimentelle Bedingungen erschaffen werden, in welchen ein Reiz manchmal bewusst wahrgenommen wird und manchmal nicht (Baars, 1989). Solche Analysen, die Bedingungen mit und ohne bewusste Wahrnehmung vergleichen, werden als „Kontrastierungsanalyse“ bezeichnet (da zwei Bedingungen miteinander kontrastiert werden). Es existieren viele verschiedene experimentelle Paradigmen, bei welchen man den Reiz unter denselben Bedingungen präsentieren kann, so dass er bei manchen Versuchsdurchgängen bewusst wahrgenommen wird, bei anderen nicht (Kim & Blake, 2005). Mit solchen experimentellen Paradigmen kann man angeblich die neuronalen Korrelate des Bewusstseins finden, wenn man a) bei jedem Durchgang die Versuchsperson fragt, ob oder was die Versuchsperson bei dem Durchgang wahrgenommen hat und b) gleichzeitig die neuronalen Prozesse misst (zum Beispiel mit EEG, MEG oder fMRT). Anschließend kann man die erhobenen neuronalen Daten unter den Bedingungen mit und ohne bewusste Wahrnehmung vergleichen.
Mittlerweile gibt es viele Studien, in denen solche experimentelle Paradigmen – und damit die Kontrastierungsanalyse – angewendet wurden. Insofern könnte man glauben, die neuronalen Korrelate des Bewusstseins seien schon gefunden worden. Allerdings ist dies nicht der Fall. Es existiert in der Literatur weiterhin Uneinigkeit darüber, ob die Korrelate des Bewusstseins früh oder spät in der Zeit liegen, und ob die Korrelate in sensorischen Arealen oder eher im hierarchisch höheren fronto-parietalen Kortex zu finden sind.
Nach unserer Meinung sind die experimentellen Paradigmen, die üblicherweise zum Auffinden der neuronalen Korrelate des Bewusstseins verwendet werden, nicht spezifisch genug, um diese eindeutig zu lokalisieren. Eher glauben wir, dass die klassische Kontrastierungsanalyse auch andere Prozesse als Ergebnisse hervorbringt und uns deshalb prinzipiell nicht zu den neuronalen Korrelaten des Bewusstseins führen kann.
Im Kapitel 2 wird erklärt, wieso die typischen experimentellen Paradigmen nicht die neuronalen Korrelate des Bewusstseins ausfindig machen können. Wir behaupten, dass der Vergleich neuronaler Daten aus experimentellen Bedingungen mit und ohne bewusste Wahrnehmung auch die neuronalen Prozesse widerspiegeln könnte, die bewussten Wahrnehmungen entweder vorausgehen oder folgen. Es ist beispielsweise bekannt, dass neuronale Prozesse vor Auftreten des Reizes darüber bestimmen können, ob der Reiz bewusst wahrgenommen wird oder nicht (Busch, Dubois, & VanRullen, 2009; Mathewson, Gratton, Fabiani, Beck, & Ro, 2009). Wenn man experimentelle Bedingungen mit und ohne bewusster Wahrnehmung miteinander vergleicht, werden auch solche Prozesse als Ergebnis auftauchen, obwohl diese zeitlich klar vor dem Reiz stattfinden und deshalb keine neuronalen Korrelate des Bewusstseins sein können. Es ist natürlich einfach zu entscheiden, dass diese Prozesse, die schon vor dem Reiz stattfinden, der bewussten Wahrnehmung vorausgehen müssen, aber es ist unmöglich zu sagen, ob ein neuronaler Prozess 100 oder 200 Millisekunden nach der Präsentation des Reizes immer noch ein Vorläuferprozess ist schon ein neuronales Korrelat des Bewusstseins darstellt. Deshalb ist die typische Kontrastierungsanalyse nicht spezifisch genug und wir wissen nicht, ob neuronale Prozesse, die durch die Kontrastierungsanalyse aufgedeckt werden, direkt die neuronalen Korrelate des Bewusstseins oder eher Prozesse vor der bewussten Wahrnehmung widerspiegeln.
Nicht nur die Vorläuferprozesse der bewussten Warnehmung stellen ein Problem dar. Auch Konsequenzen der bewussten Verarbeitung werden durch die Kontrastierungsanalyse gefunden. Beispielsweise wurden im medialen Temporallappen Neurone gefunden, die nur dann feuern, wenn ein Patient eine Person auf einem Bild bewusst erkennt, aber nicht feuern, wenn der Patient die Person auf dem Bild nicht bewusst wahrnimmt (Quiroga, Mukamel, Isham, Malach, & Fried, 2008). So könnte man vorerst meinen, dass das Feuern dieser Neurone das neuronale Korrelat des Bewusstseins sein könnte. Nach einer Läsion, sprich neuronalen Schädigung des medialen Temporallappens kann man die Welt jedoch weiterhin bewusst wahrnehmen (man hat jedoch Probleme mit dem Gedächtnis und Wiedererkennen). Insofern kann das Feuern dieser Neurone nicht das neuronale Korrelat des Bewusstseins sein und ist eher ein Beispiel für die Konsequenz der bewussten Verarbeitung. Wir behaupten, dass es noch viele andere solcher Vorläuferprozesse und Konsequenzen gibt, die notwendigerweise als Ergebnis bei der Kontrastierungsanalyse auftauchen, und also ist die typische Kontrastierungsanalyse extrem unspezifisch bezüglich der neuronalen Korrelate des Bewusstseins. In anderen Worten: Die typische Kontrastierungsanalyse, bei welcher man experimentelle Bedingungen mit und ohne bewusste Wahrnehmung miteinander vergleicht, wird uns nicht helfen die neuronalen Korrelate des Bewusstseins zu finden.
Wir glauben, dass neue experimentelle Paradigmen entwickelt werden sollten, um die neuronalen Korrelate des Bewusstseins ausfindig zu machen. Wahrscheinlich gibt es kein einfaches Experiment, mit dem man die Vorläuferprozesse und Konsequenzen vollständig vermeiden kann, um damit direkt die neuronalen Korrelate des Bewusstseins zu bestimmen. Eher braucht man viele verschiedene Experimente, die Schritt für Schritt unser Wissen über die neuronalen Korrelate des Bewusstseins erweitern.
In der vorliegenden Arbeit (in Kapiteln 3, 4 und 5) wird ein neues experimentelles Paradigma angewandt. Dieses Paradigma wird nicht alle oben erwähnten Probleme lösen, wird aber hoffentlich erlauben, einige Vorläuferprozesse der bewussten Wahrnehmung von den neuronalen Korrelaten des Bewusstseins auseinanderzuhalten. Der Vorteil unseres experimentellen Paradigmas besteht darin, dass die bewusste Wahrnehmung durch zwei verschiedene Vorläuferprozesse beeinflusst wird. Die Versuchspersonen müssen auf schnell präsentierten und mittels Rauschens undeutlich gemachten Bildern eine Person detektieren. Die experimentellen Bedingungen sind derart gestaltet, dass die Versuchspersonen nicht bei jedem Durchgang die Person auf dem Bild wahrnehmen können. Damit können wir den Wahrnehmungsprozess manipulieren. Bei einer Manipulation variieren wir den Anteil des Rauschens auf dem Bild und damit die sensorische Evidenz. Je weniger Rauschen, desto besser können die Versuchspersonen die Bilder wahrnehmen und desto öfter sehen sie auch bewusst die Person auf dem Bild. Bei der anderen experimentellen Manipulation der Wahrnehmung werden einige Bilder den Versuchspersonen vorher klar und ohne Rauschen gezeigt. Damit erschafft man Wissen über bestimmte Bilder, die später mit Rauschen präsentiert werden. Man kann zeigen, dass solch bestehendes Wissen tatsächlich die Wahrnehmung beeinflusst. Wenn die Versuchspersonen bestehendes Wissen über ein Bild haben, ist es wahrscheinlicher, dass sie die Person auf dem Bild bewusst wahrnehmen. Damit haben wir zwei verschiedene Vorläuferprozesse – sensorische Evidenz und bestehendes Wissen, die beide die bewusste Wahrnehmung beeinflussen. Beide Vorläuferprozesse erhöhen den Anteil der Durchgänge, in welchen die Versuchspersonen die Person auf dem Bild bewusst wahrnehmen.
Mit diesem experimentellen Paradigma möchten wir einige Aussagen über die neuronalen Korrelate des Bewusstseins testen. Wenn über einen neuronalen Prozess behauptet wird, dass er einem neuronalen Korrelat des Bewusstseins entspricht, müsste dieser Prozess von den beiden manipulierten Vorläuferprozessen in ähnlicher Weise beeinflusst werden, da bewusste Wahrnehmung durch beide manipulierten Vorläuferprozessen in ähnlicher Weise erleichtert wird. Wenn aber der Prozess, über den behauptet wird, er sei ein neuronales Korrelat des Bewusstseins, nicht durch beide Manipulationen geändert wird, kann dieser Prozess kein neuronales Korrelat des Bewusstseins sein, da er nicht beeinflusst wird, obwohl die bewusste Wahrnehmung geändert wurde.
Mit diesem experimentellen Paradigma und dieser Logik haben wir zwei unterschiedliche neuronale Prozesse getestet, von denen behauptet wird, dass sie den neuronalen Korrelaten des Bewusstseins entsprechen könnten. In Kapitel 3 wurde untersucht, ob lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. In Kapitel 4 wurde mit diesem experimentellen Paradigma untersucht, ob die neuronale Synchronisierung dem neuronalen Korrelat des Bewusstseins entsprechen könnte.
Unsere Arbeit im Kapitel 3 baut auf der von Fisch und Kollegen (2009) auf. Fisch und Kollegen (2009) zogen aus ihrer experimentellen Arbeit den Schluss, dass lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. Sie hatten Elektroden auf dem visuellen Kortex von Epilepsiepatienten implantiert und von diesen Elektroden die Gammabandaktivität abgeleitet. Im ersten Schritt suchten sie nach Elektroden, die kategorienspezifische Antworten zeigen. Bei den kategorienspezifischen Elektroden ist die Gammabandaktivität abhängig vom präsentierten Stimulusmaterial. Zum Beispiel kann man bei einer Elektrode auf dem Fusiform Face Area starke Gammabandaktivität nur dann messen, wenn ein Gesicht auf dem Bild zu sehen ist. Die Autoren benutzten solche kategorienspezifischen Elektroden, um nach den neuronalen Korrelaten des Bewusstseins zu suchen. Sie zeigten den Patienten Bilder von Gesichtern, Häusern und Objekten, die direkt nach der kurzen Präsentation maskiert wurden, so dass die Patienten nur bei manchen Durchgängen erkannten, was auf dem Bild war, bei anderen Durchgängen nicht. Dies entspricht der typischen Kontrastierungsanalyse. Die Ergebnisse haben klar gezeigt, dass bei diesen kategorienspezifischen Elektroden die Gammabandaktivität erhöht wurde, als die Patienten bewusst wahrnahmen, was auf dem Bild zu sehen war. Aus diesen Ergebnissen zogen die Autoren den Schluss, dass lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht. Diese Aussage wollten wir mit unserem experimentellen Paradigma testen.
Um diese Behauptung zu untersuchen, erhoben wir sehr ähnliche Daten wie Fisch et al. (2009) und analysierten die Daten auf ähnliche Weise. Unsere experimentelle Frage war, ob die lokale kategorienspezifische Gammabandaktivität durch unsere beiden Manipulationen – sensorische Evidenz und bestehendes Wissen – in ähnlicher Weise erhöht wird. Dies sollte der Fall sein, wenn die lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht, da sensorische Evidenz und bestehendes Wissen beide den Anteil der Durchgänge, in welchen die Versuchsperson die Person auf dem Bild bewusst wahrnimmt, erhöhen. Dieses Ergebnis wurde nicht gefunden. Stattdessen fanden wir, dass die lokale kategorien-spezifische Gammabandaktivität nur durch sensorische Evidenz erhöht wurde, bestehendes Wissen aber keinen Effekt auf diese Aktivierung hatte. Da bestehendes Wissen auch den Anteil der Durchgänge mit bewusster Wahrnehmung erhöht, die kategorienspezifische Gammabandaktivität aber nicht durch bestehendes Wissen erhöht wurde, kann man schlussfolgern, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins reflektieren kann.
Als nächstes (Kapitel 4) haben wir die Hypothese getestet, dass Synchronizität dem neuronalen Korrelat des Bewusstseins entspricht. Um diese Idee zu testen, maßen wir mittels Magnetoenzephalographie die magnetischen Felder des Gehirns, schätzten aus diesen Daten mittels Beamforming die neuronalen Aktivitätsquellen und quantifizierten die Synchronizität zwischen diesen Quellen. Wenn die interareale Synchronizität dem neuronalen Korrelat des Bewusstseins entspräche, sollte die Synchronizität für Bedingungen mit mehr sensorischer Evidenz und mit bestehendem Wissen erhöht sein. Dies wurde nicht beobachtet. Wir fanden, dass Synchronizität (gemittelt über die Quellen) nur bei den Bildern erhöht war, für die bestehendes Wissen vorlag. Ein ähnlicher Effekt für sensorische Evidenz wurde nicht gefunden. Insofern können wir sagen, dass unsere Befunde dagegen sprechen, dass neuronale Synchronizität den Mechanismus für Bewusstsein darstellt. Allerdings können wir das in diesem Fall auch nicht völlig ausschließen, denn Synchronizität könnte die Informationsverarbeitung auf einem kleineren Maßstab koordinieren als wir es mit dem MEG messen können (Singer, in press).
Im Kapitel 5 untersuchten wir, wie schnell bestehendes Wissen bewusste Verarbeitung beeinflussen kann. Um dies herauszufinden machten wir uns die intraindividuellen Unterschiede der perzeptuellen Leistung zu Nutze. Wir fanden, dass bestehendes Wissen bewusste Verarbeitung schon innerhalb der ersten 100 Millisekunden nach der Präsentation des Reizes beeinflusst. Wir beobachteten auch, dass ein größerer perzeptueller Effekt des bestehenden Wissens in geringerer neuronaler Aktivität in Durchgängen mit bestehendem Wissen hervorruft. Diese Ergebnisse sind im Einklang mit Theorien, die besagen, dass unsere Wahrnehmung bestehendes Wissen nutzt, um vorherzusagen, wie die visuelle Welt sich ändert und um die neuronalen Antworten zu verringern (Friston, 2010).
In der vorliegenden Arbeit wurde diskutiert, warum die typische Kontrastierungsanalyse uns nicht zu den neuronalen Korrelaten des Bewusstseins führen kann. Wir schlugen vor, dass neue experimentelle Paradigmen nötig sind, um näher an die neuronalen Korrelate des Bewusstseins heranzukommen. Es wurde ein neues Paradigma benutzt, um zwischen Vorläuferprozessen und neuronalen Korrelate des Bewusstseins zu unterscheiden. Mit diesem Paradigma wurden zwei sehr unterschiedliche Hypothesen getestet und gefunden, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins widerspiegeln kann. Wir hoffen, dass unsere Experimente eine Entwicklung von vielen weiteren und besseren experimentellen Paradigmen stimuliert, die zwischen den Vorläuferprozessen, den Konsequenzen und den eigentlichen Korrelaten des Bewusstseins unterscheiden können. Wenn man über die Kontrastierungsanalyse hinausgeht, kann man die gegenwärtigen Theorien des Bewusstseins testen und damit Schritt für Schritt näher an die neuronalen Grundlagen des Bewusstseins kommen.