Refine
Document Type
- Doctoral Thesis (7)
- Bachelor Thesis (1)
Has Fulltext
- yes (8)
Is part of the Bibliography
- no (8)
Keywords
- Digitale Simulation (1)
- Einfühlungsvermögen (1)
- Empathie (1)
- Face Reader (1)
- Interaktionsmodell (1)
- Klassenraumsimulation (1)
- Lehramtsstudium (1)
- Lehrevaluation (1)
- Service Learning (1)
- Simulationsmodell (1)
Institute
Studentische Lehrevaluationsergebnisse sind ein weit verbreitetes Maß, um die Qualität universitärer Lehre zu erfassen. Diese Ergebnisse werden unter anderem dafür genutzt, Entscheidungen für die Modifikation des Lehrangebots zu treffen oder die Vergabe der Leistungsorientieren Mittelvergabe mitzubestimmen. Aufgrund dieser relevanten Folgen wird in dieser Arbeit der Frage nachgegangen, wie ein angemessener Validierungsprozess bezüglich studentischer Lehrevaluationsergebnisse gestaltet werden könnte.
Bisherige Validierungsstudien zu studentischen Lehrevaluationsinventaren fokussierten sich meist auf die Überprüfung verschiedener Validitätsarten (inhaltsbezogene, kriteriumsbezogene oder faktorielle) und die Erfassung der Messfehlerfreiheit.
Allerdings ist zum einen zu hinterfragen, ob diese Ansätze grundsätzlich für alle Inventare geeignet sind. Weiterhin hat sich das Verständnis von dem verändert, was unter Validität verstanden wird: Von der Annahme von Validität als Testeigenschaft, verschiedener Validitätsarten und binärer Aussagen auf Basis von Einzelbefunden hin zu dem Verständnis von Validität bezogen auf die Testwert-Interpretation und Verwendung, zu einem einheitlichen Validitätskonzept und zu einer Validitäts-Argumentation. Diese Veränderungen werden in den neueren argumentationsbasierten Validitätsansätzen berücksichtigt und bieten einen Rahmen, der auf die jeweilige Intention ausgerichtet ist, einen Test oder Fragebogen einzusetzen.
Auf Grundlage dieser argumentationsbasierten Ansätze wird in dieser Arbeit die Interpretation studentischer Lehrevaluationsergebnisse überprüft, die als das Ausmaß an qualitätsbezogener Zufriedenheit der Teilnehmer mit der Durchführung einer Lehrveranstaltung und der Vermittlung von Lehrinhalten angesehen werden. Der Validierungsprozess wird anhand der Lehrevaluationsdaten des Frankfurter Promotionskollegs am Fachbereich Medizin dargestellt. Dieser Prozess bestätigte weitgehend die beabsichtigte Interpretation, zeigte aber auch eine zumindest teilweise Revision des Inventars und eine weitere Überprüfung an. Eine Validierung bezüglich der Verwendung der Lehrevaluationsergebnisse sowie der auf diesen basierenden beabsichtigten Konsequenzen wird in einer Folgestudie überprüft.
Anhand dieser Arbeit wird Anwendern und Entwicklern von Lehrevaluationsinventaren eine Her- und Anleitung für den Validierungsprozess gegeben und die Vorteile argumentationsbasierter Ansätze aufgezeigt.
Empathie ist ein mehrdimensionales psychologisches Konstrukt, das aus verschiedenen Facetten besteht (Decety & Ickes, 2011). Es ist anzunehmen, dass Empathie ein wichtiger Mechanismus ist, um Menschen miteinander zu verbinden und eine Gruppenkohäsion möglich zu machen (Rameson & Lieberman, 2009). Neben der Fähigkeit die Erlebenswelt des Gegenübers mit eigenen mentalen Repräsentationen nachzuvollziehen, werden dadurch Emotionen ausgelöst, die denen des Gegenübers sehr ähnlich sind. Gleichzeitig unterscheidet sich dieses Gefühlserleben aber beispielsweise von reiner Gefühlsansteckung, da eine Selbst-Andere Differenzierung stattfindet und in einer empathischen Episode immer im Vordergrund steht, dass man sich aufgrund der Gefühle des anderen so fühlt (Altmann, 2015). Hier spielt Imitation eine wichtige Rolle, wenn es darum geht, die Erlebenswelt der anderen Person zu erfassen (Meltzoff & Decety, 2003). Besonders auch bei Lehrkräften zeigt sich eine Wichtigkeit von empathischem Handeln und Verstehen (Tausch & Tausch, 2008). In verschiedenen Studien zeigten sich positive Effekte von Empathie auf die Schülerschaft und die Unterrichtsqualität. Die SchülerInnen trauen sich mehr, es herrscht weniger Angst im Klassenzimmer und die Qualität der Unterrichtsbeiträge steigt (vgl. Tausch & Tausch, 1998). Empathie selbst besteht aus State- und Trait-Anteilen, so dass zumindest Teile davon trainierbar sind (Butters, 2010). Eine potentielle Möglichkeit um Empathie zu fördern scheint das Lehr-Lern-Format Service Learning (SL) darzustellen. Hierbei handelt es sich um ein Veranstaltungskonzept, bei dem ein meist fachlicher, akademischer Inhalt mit einem ehrenamtlichen Engagement außerhalb der Universität verknüpft wird (Reinders, 2016). Forschung aus dem angloamerikanischen Raum weist darauf hin, dass Empathie durch derartige Formate gefördert werden kann (Lundy, 2007; Wilson, 2011). Da die meisten Messverfahren von Empathie auf Selbstauskunft basieren und damit nur indirekt Anteile wie das affektive Mitschwingen abbilden können, war es Teil dieser Arbeit im ersten Schritt einen objektiven, videobasierten Test zu entwickeln, der dann mit anderen Verfahren zur Messung eingesetzt werden sollte. In zwei ExpertInnen-Befragungen wurden aus einem Pool von Videosequenzen mit Unterrichtssituationen insgesamt zehn Videoclips mit jeweils vier Items und zugehörigen Antwortoptionen extrahiert. In einer darauf folgenden Validierung mit Studierenden der Goethe-Universität (N = 112) wurden diese Vignetten mit verschiedenen Verfahren zur Messung von Empathie gemeinsam erhoben und die Zusammenhänge analysiert. Die Reliabilitäten der drei Testscores bewegten sich in den beiden gebildeten Testversionen zwischen Cronbachs α = .53 (Verhaltens-Score der Testversion 1) und α = .76 (Intensitäts-Score der Testversion 2). Es zeigten sich zu allen Fragebögen erwartungskonforme Zusammenhänge von kleinen bis mittleren Effekten. Die Itemschwierigkeiten bei den meisten Items lagen zwischen 50 und 65, die Trennschärfen zwischen .18 und .70.
Im nächsten Entwicklungsschritt wurden die Vignetten in neu zusammengestellten Testversionen nur Lehramtsstudierenden (N = 41) vorgelegt und zusätzlich Videoaufnahmen der Gesichter der ProbandInnen gemacht, um sie mit Face-Reader zu analysieren und die Facette Mitschwingen abzubilden. Die Reliabilitäten der Testversionen lagen mit einem neuen Scoring nun zwischen α = .24 (Emotionserkennungs-Score Prä-Testversion) und
α = .57 (Intensitäts-Score Prä-Testversion) sowie zwischen α = .10 (Emotionserkennungs-Score Post-Testversion) und α = .77 (Intensitäts-Score Post-Testversion). Auch die Schwierigkeiten und Trennschärfen änderten sich nach Adaptieren des Scorings und bewegten sich in beiden Testversionen nun von 30 bis 89 (Schwierigkeit) und von .0 bis .5 (Trennschärfe). Die Face-Reader Analysen zeigten nur in Teilen kongruente Emotionen mit den Selbstauskunftsdaten bzw. den eingeschätzten Intensitäten in den Videosequenzen, dann allerdings mittlere bis große Effekte, so dass in Teilen von einem affektiven Mitschwingen ausgegangen werden kann. Da sich die internen Konsistenzen im Vergleich zur Validierung verschlechterten, wurden die Zusammensetzungen der Testversionen für den Praxiseinsatz wieder auf die Validierungs-Versionen umgestellt.
Im Praxiseinsatz wurden Lehramtsstudierende in SL und Non-SL-Veranstaltungen rekrutiert und miteinander verglichen. Insgesamt nahmen N = 68 Personen an drei Messzeitpunkten teil (n = 30 in SL und n = 38 in Non-SL-Seminaren). Die Analysen zeigten, dass es zwischen den Gruppen keine signifikanten Unterschiede in den genutzten Instrumenten gab. Auch über die Zeit gab es nach der Bonferroni-Korrektur nur einen signifikanten Effekt (F (2,52) = 6.57, p = .003, η2 = .20). Es ist anzunehmen, dass diese Ergebnisse vor allem auf methodische Einschränkungen und Verbesserungsmöglichkeiten des entwickelten Testverfahrens zurückzuführen sind. Weitere Möglichkeiten werden diskutiert.
Kompetenzen bezeichnen „erlernbare kontextspezifische Leistungsdispositionen, die sich funktional auf Situationen und Anforderungen in bestimmten Domänen beziehen“ (Klieme & Hartig, 2007, S. 17). Für den Bereich der Lehrerbildung wurden durch die Kultusministerkonferenz (2004) Standards für die Lehrerbildung: Bildungswissenschaften formuliert, die als Explikation professioneller pädagogischer Kompetenzen gelten können. Durch die Formulierung dieser Standards sieht sich die Lehrerbildung mit der Aufgabe konfrontiert, Studierende des Lehramts so auszubilden, dass die resultierenden Kompetenzen den genannten Standards genügen. Dies impliziert eine standard- und somit kompetenzorientierte Evaluation der Lehrerbildung. Bislang wird eine Evaluation der Lehrerbildung jedoch meist durch Selbsteinschätzungsverfahren umgesetzt – eine Methodik, die im Bereich der Kompetenzdiagnostik kritisch diskutiert wird (z. B. Nerdinger et al, 2008).
Der Situational Judgement Test als kompetenzdiagnostisches Instrumentarium weist die Vorteile situationsorientierter Verfahren auf und kann zusätzlich aufgrund der schriftlichen Darbietung problemlos auf große Stichproben angewandt werden. In der vorliegenden Studie wurde ein solcher Test entwickelt, um die professionelle pädagogische Kompetenz Lehramtsstudierender kontextnah und ökonomisch erfassen zu können. Die Studie hatte zum Ziel, den entwickelten standardorientierten Situational Judgement Test anhand verschiedener Außenkriterien konvergent und diskriminant zu validieren. Hierbei wurden konvergente Validitätsnachweise lediglich teilweise signifikant, wobei diskriminante Validitätsnachweise anhand des Studienfachs (Lehramtsstudium vs. Studium technisch-naturwissenschaftlicher Fächer) deutliche Signifikanzen und Effektstärken zeigten.
Deutsche Hochschulen wählen Studienbewerber üblicherweise anhand der Abiturnote aus. Zu beobachten ist aktuell ein Trend zu Online-Self-Assessments, die die Selbstselektion der Studierenden fördern sollen. Hierfür ist die Identifizierung guter Prädiktoren von Studienerfolg erforderlich. Stressverarbeitung ist in diesem Zusammenhang noch unzureichend erforscht. In der vorliegenden Studie nahmen 420 Studierende der Rechtswissenschaft, Wirtschaftswissenschaften und Psychologie an einer Online-Umfrage zu ihren Stressverarbeitungsweisen und ihren Abitur- und Studiennoten teil. Multiple Regressionsanalysen mit den Studiennoten als Kriterium, sowie der Abiturnote und den Stressverarbeitungsweisen als Prädiktoren identifizierten die Abiturnote mit zwischen 17% und 20% erklärter Varianz als stärksten Prädiktor und die Stressverarbeitungsweisen als zusätzliche Prädiktoren für Studierende der Rechtswissenschaft (zusätzliche 6,0%) und Wirtschaftswissenschaften (zusätzliche 7,5%), aber nicht für die Psychologiestudierenden. Die Analyse von Subgruppen (frühe und späte Studienphase) ergab bei den Juristen 5,8% zusätzliche Varianzaufklärung in der frühen und 14,8% in der späten Studienphase. Bei den Wirtschaftswissenschaftlern ergab sich nur für die aktuellen Bachelorstudierenden eine zusätzliche Varianzaufklärung (9,9 %), nicht aber für die Bachelorabschlussnoten der Masterstudierenden. Einfache Korrelationen stützten diese Ergebnisse und zeigten bei den Juristen in der späten Studienphase mehr signifikante Korrelationen als in der frühen; bei den Bachelorstudierenden der Wirtschaftswissenschaften zeigte sich ein deutlicher Trend zu mehr signifikanten Korrelationen in höheren Semestern. Die fehlende Prädiktionskraft der Stressverarbeitung für die Bachelorabschlussnote in den Wirtschaftswissenschaften könnte durch die Selektion der befragten Masterstudierenden erklärbar sein, während im Falle der Psychologiestudierenden zu vermuten ist, dass Stressverarbeitung insgesamt keine erhebliche Rolle für die Studiennoten spielt. Insgesamt zeigt diese Studie, dass Stressverarbeitung für bestimmte Fächer zusätzlich zur Abiturnote ein guter Prädiktor für die Studiennoten ist. Zukünftige Forschung sollte insbesondere darauf abzielen, die Erfassung studienrelevanter Stressverarbeitungsweisen kompakter als in der vorliegenden Studie zu gestalten, sodass sie für den ökonomischen Einsatz in Self-Assessments geeignet ist.
From an early understanding of organisational theorist (Bartlett & Ghosal, 1989; 1990), the function of global teams in transnational organisations has been conceptualised as the transformation of different embedded cultural practices for the development of a global strategy, products and services. Simultaneously, in the field, from the beginning of the 1990ies to the edge of the new millennium neo-liberal political developments enforced a free flow of capital on a global level (cf. Turner, 2006). In line with the development of respective connectivity via the internet the form of globally distributed team work was spread (Maznevski & Chudoba, 2000). In a study by Biggs (2000), published just after the millennial change, it was shown that 60% of tasks in multinational companies are accomplished by virtual teams. More recent data (Society for Human Resource Management, 2012) showed that the prevalence of such teams stayed more or less constant in the last 10 years. According to the survey 66% of companies are working with distributed global teams.
Globally distributed teams were already described by Bartlett and Ghosal (1989) in their functions of articulation and translation of differing market practices for the integration of requirements and needs on a global level. From a European perspective the importance to further develop innovation capabilities in order to compete in the global market is stressed today (Imp3rove, 2012). In a globalised economy not only the big multinational companies are involved in globally distributed research and development activities (R&D). On the level SMEs, for example, in Switzerland the involvement in global development processes is increasing (Gassmann, 2009). From my own experiences in working with Swiss SMEs, the macro-economic processes in regard to the strong Swiss Franc may accelerate such processes. Thus, the form of globally distributed teams, and their functional task in global development processes, can be viewed as highly relevant, in a globalised economy.
The crucial question for companies at the moment is, if teams can be enabled for innovative project work, which enables the integration of diverging perspectives in a globally distributed setting? Or, if such teams have to be collocated for more innovative, interdependent task work? Requirements for integrating embedded knowledge from different regionally defined clusters into global innovations at least, seems to indicate for the relevance of interdependent globally distributed team work (cf. Li, Eden, Hitt, Ireland, & Garrett, 2012). Bilateral practices of partnering, for example in the Swiss pharmaceutical sector, lead to the integration of selected subsidiaries in the R&D process of the company (Festel et al., 2010). Thus, the form of dispersion for project teams becomes more critical for effective global R&D practices (Boyer O’Leary & Cummings, 2007). So called partially distributed teams integrating balanced subgroups between two sites, hence, become an important subject of inquiry with practical relevance.
The context of partially distributed team work represents by virtue a context involving multiple perspectives influenced by the involvement of actors stemming from different cultural contexts (Dekker, Rutte, & Van den Berg, 2008). It thereby provides the synergetic potential for integrating different perspectives in the resolution of complex problems on a global level (Janssens & Brett, 2006). Simultaneously, cultural diversity engenders challenges for collaboration. Challenges, like different understandings and interpretations regarding tasks, the structuring of communication (Maznevski & Chudoba, 2000) and unexpected events occurring in the collaboration between the actors (Dekker et al., 2008; Oertel & Antoni, 2014) were identified in respective empirical studies.
Opportunities and challenges of partially distributed global teams can be compared with the problematic of face-to-face (f2f) teams with a moderate amount of diversity. Studies have shown (see Thatcher & Patel, 2011 for a meta-analysis) that when the distribution of diversity characteristics is aligned to potentially form culture specific subgroups, so-called diversity faultlines (Lau & Murnighan, 1998), negative subgroup dynamics are reinforced.
To achieve the above mentioned synergetic potentials it seems important to effectively cope with such negative dynamics and allow for a balanced participation in partially distributed teams (Janssens & Brett, 2006). In the research on faultline teams, especially the structuring of task-related interdependences across respective subgroups has been identified as an important impediment for the mentioned subgroup dynamics. Task interdependences, which cross functional roles across respective group faultlines (Bettencourt, Molix, Talley, & Eubanks, 2007; Marcus-Newhall, Miller, Holtz, & Brewer, 1993), are able to unlock the inherent potentials of globally distributed teams on more complex tasks that require the integration of different perspectives. From a work group diversity perspective (van Knippenberg & Schippers, 2007), partially distributed global teams represent a research object for studying the interaction between social categorisation processes involved in the above mentioned subgroup dynamics, and processes of task-related information processing required for innovative team outputs. The exploration of effects of task structures on the interaction between categorisation processes and task-related information processing (van Knippenberg et al., 2004), will be in the main explorative research focus of this thesis. The research thesis represents a heuristic explorative inquiry (Kleining & Witt, 2001) of respective dynamics and structural as well as process-related enablers.
The thesis starts with the theoretical part, in which the historical development of the understanding of teams as open, complex and temporally dynamic systems (Arrow et al., 2005, 2000), will be outlined. A sound definition of partially distributed global teams, including the respective contextual characteristics will be delineated. In a sensitizing framework (Blumer, 1954) which guided the explorative research process, the central boundary condition of task interdependence (Wageman, 2001) and respective episodic theories for explaining global task-related dynamics in teams (Marks et al., 2001), the dynamics of social categorisation (Gaertner, Dovidio, Anastasio, Bachman, & Rust, 1993; Gaertner & Dovidio, 2000), as well as the interaction between social categorisation processes and task-related information processing will be integrated (van Knippenberg et al., 2004). According to the framework, empirical studies on effects of task interdependence on interactions between task-related information processing and social categorisation processes will be addressed (van Knippenberg et al., 2004).
The empirical part of the contribution will be split in two parts. In the first heuristic exploratory study eleven partially distributed global teams are followed up during the time of relevant innovation projects. The approach allowed the study of task interdependence, productive interactions with social categorisation processes and there effects on team innovation. In the second empirical step, the developed hypotheses, were tested in an experimental simulation (Arrow et al., 2005, 2000) in undergraduate courses.
As a conclusion of the two exploratory studies, an episodic team process model will be outlined. The model specifies interdependence dynamics, which allows for team innovation. Furthermore, on a process level, the episodic categorisation-elaboration model (van Knippenberg et al., 2004) proposes three critical team performance episodes. Dynamics in the interplay between task-related information processing and social categorisation processes allow for the development of hypothesis for further research projects. Finally the implications for theory and the practical relevance of the heuristic model will be discussed.
Der Aufbau des World Wide Web hat enorm dazu beigetragen, Wissen zu strukturieren, aufzubereiten und verfügbar zu machen. Die Art und Weise, wie Texte im Web miteinander in Verbindung stehen, kann jedoch das Lesen und Textverstehen stark beeinflussen. Die Dissertation „Demands and Cognitive Processes in Reading Digital Text“ untersucht daher individuelle kognitive Prozesse, die mit der Informationsverarbeitung beim Lesen digitaler Texte einhergehen. Hierzu wird im ersten Teil der Arbeit kurz in die Unterschiede zwischen linearen und nicht-linearen Text (sog. Hypertext) eingeführt. Hypertexte zeichnen sich dabei durch eine verzweigte Verbindungsstruktur zwischen einzelnen Textteilen (engl. nodes) aus. Diese Textteile sind untereinander durch Hyperlinks verbunden, über die sie angesteuert werden können. Das Auswahlprofil, in denen einzelne Textteile aufgerufen werden, wird hierbei als Navigationsverhalten bezeichnet. Entsprechend dieser Unterscheidung werden die Begriffe des linearen und digitalen Lesens eingeführt. Lesen ist nach konstruktivistischer Auffassung ein aktiver Prozess des Lesenden, in dem er ein propositionales Modell eines Textes mental erarbeitet und mit Wissen und Erfahrungen zu einem Situationsmodell anreichert. Digitales Lesen erfordert aber, dass Leserinnen und Leser neben dem eigentlichen Leseprozess zusätzliche kognitive Ressourcen aktivieren, um mit den besonderen Eigenschaften von Hypertext angemessen umzugehen.
Anhand eines Prozessmodells digitalen Lesens wurden zwei Forschungsfragen abgeleitet, die im zweiten Teil der Arbeit vorgestellt werden. Die erste Forschungsfrage konzentriert sich auf die Identifikation kognitiver Fähigkeiten, die das digitale Lesen konstituieren. Im Konkreten wurden Hypothesen über die Zusammenhänge digitalen Lesens mit (1) Lesefähigkeiten auf Wort-, Satz- und Textebene, (2) Arbeitsgedächtnisfähigkeiten, (3) Fähigkeiten, Online-Informationen hinsichtlich ihrer Passung für bestimmte Leseaufgaben zu bewerten, und (4) basalen Fähigkeiten im Umgang mit Computerumgebungen formuliert. Daran anknüpfend thematisiert die zweite Forschungsfrage, wie die angenommenen Beziehungen des digitalen Lesens mit seinen Konstituenten erklärt werden können. Hierzu wurde insbesondere die Informationsauswahl, die Lesende durch ihr Navigationsverhalten treffen, als zentrale vermittelnde Variable betrachtet.
Zur Beantwortung der beiden Forschungsfragen wurden drei Studien herangezogen, die im dritten Teil der Arbeit zusammengefasst dargestellt werden. In diesen Studien wurden kognitive Prozesse des digitalen Lesens mit Hilfe von Daten aus der Nationalen Begleitforschung zur Einführung computerbasierten Assessments (CBA) im Programme for International Student Assessment (PISA) 2012 untersucht. Die erste der drei Studien konzentriert sich auf die Rolle, die das Arbeitsgedächtnis beim Lesen digitaler Texte einnimmt. Die zweite Studie behandelt Einflüsse von ICT-bezogenen Fähigkeiten. Als ICT-bezogene Fähigkeitsvariablen wurden basale Computerfähigkeiten sowie Fähigkeiten zur kritischen Bewertung von Online-Informationen hinsichtlich ihrer Relevanz und Nützlichkeit betrachtet. Die Bewertung von Online-Informationen und ihre Auswahl von Ergebnisseiten aus Suchmaschinenabfragen (engl. search engine result pages) werden in der dritten Studie als Spezialfall digitalen Lesens herausgegriffen und gesondert betrachtet. Hierbei wurde untersucht, welche Rolle Lesefähigkeiten auf der Wort-, Satz- und Textebene bei der Bewertung von Online-Informationen einnehmen.
Im abschließenden vierten Teil der Arbeit werden grundlegende kognitive Prozesse der Informationsverarbeitung digitalen Textes diskutiert. Zusammengefasst zeigten die drei Studien, dass fähige Leser zielorientierter aufgabenrelevante Texte identifizieren und verarbeiten können. Schülerinnen und Schüler profitierten dabei von effizienten Arbeitsgedächtnisfunktionen – unabhängig davon, ob sie gute Leser waren oder nicht. Defizite des Arbeitsgedächtnisses wurden durch einen strategischen Umgang mit der Hypertextumgebung kompensiert. Das Textverstehen wurde zudem indirekt durch routinierte Fertigkeiten im Umgang mit Computern und direkt durch Fähigkeiten zur Bewertung von Online-Informationen unterstützt. Es wurde geschlussfolgert, dass kompetente Leser in der Lage sind, ihre kognitiven Ressourcen effizient zu verteilen. Als Resultat der gemeinsamen Betrachtung der drei Studien erscheint digitales Lesen als komplexes Fähigkeitsgemisch. Dieses beruht auf allgemeinen Lesefähigkeiten, auf einer effizienten Allokation kognitiver Ressourcen, auf der strategiegetriebenen Vorhersage von Informationen und auf rudimentären Fertigkeiten im Umgang mit Computerumgebungen. Dabei beschreibt digitales Lesen kein neues, aber ein zeitgenössisches Konstrukt, das sich als Reaktion auf aktuelle individuelle und gesellschaftliche Informationsbedürfnisse entwickelt hat und sich entsprechend der fortschreitenden technischen Weiterentwicklung verändern wird.
Das Ziel der vorliegenden Arbeit ist die Identifikation von leistungsrelevanten kognitiven Prozessen beim komplexen Problemlösen (KPL). Außerdem soll untersucht werden, ob sich Leistungsunterschiede beim KPL zwischen soziodemografischen Gruppen durch Prozessmaße erklären lassen. Dazu wurden in den drei Einzelarbeiten, auf denen diese Arbeit basiert, verschiedene Prozesse und ihr Zusammenhang mit der Leistung beim KPL untersucht. Darüber hinaus schafft die vorliegende Arbeit einen theoretischen Rahmen, in den sich die drei Einzelarbeiten einordnen lassen. Die Fähigkeit komplexe Probleme lösen zu können, ist eine grundlegende Kompetenz in Bildung und Alltag und ermöglicht eine aktive Teilhabe an der Gesellschaft.
KPL kann daher auch als Schlüsselkompetenz in der Wissensgesellschaft des 21. Jahrhunderts verstanden werden (Binkley et al., 2012; Trilling & Fadel, 2009). Komplexe Probleme begegnen jedem Menschen im beruflichen und privaten Umfeld sowie auf gesellschaftlicher Ebene. Daher ist es wichtig zu verstehen, welche Prozesse für effektives KPL relevant sind. Darüber hinaus wurden wiederholt Leistungsunterschiede beim KPL in Abhängigkeit vom Geschlecht und vom Migrationshintergrund der Personen festgestellt (OECD, 2014a; Sonnleitner, Brunner, Keller & Martin, 2014; Wüstenberg, Greiff, Molnár & Funke, 2014).
In der ersten Arbeit wird der Zusammenhang verschiedener Aspekte von Planung mit der Leistung beim KPL untersucht. Die betrachteten Planungsaspekte sind die Dauer des längsten Planungsintervalls, der Zeitpunkt zu dem Planung erfolgt und die Variation der Dauer von Planungsintervallen im Problemlöseprozess. Zudem wird untersucht, ob die Effekte bei verschiedenen Aufgaben unterschiedlich ausgeprägt sind und ob es Interaktionseffekte der drei Planungsaspekte gibt. Die Ergebnisse zeigen, dass Planung grundsätzlich zu einem möglichst frühen Zeitpunkt stattfinden sollte. Die beiden anderen Planungsaspekte wiesen hingegen aufgabenabhängige Effekte auf. Außerdem gab es Interaktionseffekte. Insgesamt wurde bei leichten KPL-Aufgaben festgestellt, dass ähnlich wie beim analytischen Problemlösen Planung zu einem frühen Zeitpunkt einen positiven Einfluss auf die Leistung hat (Unterrainer & Owen, 2006). Auch der Einfluss der Variation der Planungsdauer hing mit der Aufgabenschwierigkeit zusammen, wobei bei leichten Aufgaben ein gleichmäßiges und bei schweren Aufgaben ein ungleichmäßigeres Vorgehen vorteilhaft war. Der Effekt der Planungsdauer war ebenfalls aufgabenabhängig, jedoch nur schwach mit der Aufgabenschwierigkeit korreliert. Somit scheinen andere Aufgabeneigenschaften für diesen Zusammenhang ursächlich zu sein.
In der zweiten Arbeit werden Leistungsunterschiede beim KPL in Abhängigkeit vom Geschlecht und vom Migrationshintergrund der Schülerinnen und Schüler untersucht.
Das Ziel dieser Arbeit ist es, Leistungsunterschiede zwischen diesen Gruppen durch Prozessmaße zu erklären. Da es Evidenz für einen Zusammenhang der Häufigkeit von Interaktion beziehungsweise Exploration mit der Leistung beim KPL gibt, werden diese als Prozessmaße verwendet (Bell & Kozlowski, 2008; Dormann & Frese, 1994; Naumann, Goldhammer, Rölke & Stelter, 2014). Erwartungskonform wurden Leistungsunterschiede beim KPL zugunsten von Jungen gegenüber Mädchen und zugunsten von Schülerinnen und Schülern ohne Migrationshintergrund gegenüber Schülerinnen und Schülern mit Migrationshintergrund festgestellt. Außerdem zeigte sich, dass beide Prozessmaße positiv mit der KPL-Leistung korrelierten. Der Leistungsunterschied zwischen Jungen und Mädchen konnte durch die Interaktionshäufigkeit teilweise und durch die Explorationshäufigkeit vollständig aufgeklärt werden. Der Leistungsunterschied in Abhängigkeit des Migrationshintergrundes konnte hingegen durch keines der beiden Maße erklärt werden.
Die dritte Arbeit hat zum einen das Ziel, die Rolle von Explorationsverhalten beim KPL genauer zu klären. Zum anderen werden mit einem explorativen Ansatz komplexe Verhaltensmuster untersucht. Dazu wurde eine weitere Differenzierung von Exploration in lösungsrelevante und lösungsunabhängige Exploration vorgenommen. Es konnte gezeigt werden, dass im Gegensatz zu den Ergebnissen aus der zweiten Arbeit lösungsunabhängige Exploration vermehrt bei erfolgloser Aufgabenbearbeitung auftritt. Lediglich lösungsrelevante Exploration scheint also zu einer höheren KPL-Leistung beizutragen.
Zudem wurden verschiedene Verhaltensmuster identifiziert, die auf konkrete Stärken und Schwächen im komplexen Problemlöseprozess von Schülerinnen und Schülern hinweisen. Die vorliegende Arbeit erweitert die theoretische Basis für KPL, indem sie kognitive Prozesse ordnet und im Sinne einer Intention interpretierbar macht. Weiterhin werden durch die empirischen Arbeiten Erkenntnisse über die Relevanz der untersuchten Prozesse für die Leistung beim KPL und für die Erklärung von Leistungsunterschieden gewonnen. Damit erleichtert diese Arbeit die Erklärung der Rolle kognitiver Prozesse beim KPL, um so das Verständnis dieses Konstruktes zu verbessern. Dies ist wiederum die Basis, um Schülerinnen und Schüler beim Erwerb der Kompetenz zum Lösen komplexer Probleme zu unterstützen und sie so auf die Herausforderungen des 21. Jahrhunderts vorzubereiten.
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.