Refine
Year of publication
Document Type
- Article (5)
- Doctoral Thesis (5)
- Part of a Book (4)
- Part of Periodical (2)
- Conference Proceeding (1)
- Diploma Thesis (1)
- magisterthesis (1)
- Report (1)
Language
- German (20) (remove)
Has Fulltext
- yes (20) (remove)
Keywords
- Interaktion (20) (remove)
Institute
- Psychologie (2)
- Biochemie und Chemie (1)
- Gesellschaftswissenschaften (1)
- Informatik (1)
- Kulturwissenschaften (1)
- Medizin (1)
- Wirtschaftswissenschaften (1)
In diesem Beitrag beziehe ich mich auf mehrere Beispiele aus der Feldforschung und bereits vorliegender Sekundärliteratur, um verbreitete Vorstellungen und Wahrnehmungen zur Präsenz körperlicher Gesten in einigen Performance-Kontexten afrikanischer Gesellschaften sowohl zu verdeutlichen als auch neu zu positionieren. Meine Argumentation und das zu ihrer Unterstützung herangezogene Material betrachten dabei auch Nicht-Körperliches als einen integralen und unentbehrlichen Teil körperlicher Expressivität. Mentale, somatische und verbal nicht artikulierbare Elemente erweisen sich als Teilbestände nicht-körperlicher Schauplätze, die eine dialogische Beziehung zwischen körperlicher Expressivität und der subjektiven Existenz ihrer Teilnehmer beeinflussen und aufrechterhalten. Die Beschäftigung mit dem Themenkomplex der körperlichen Expressivität wird zusätzlich von der Beobachtung geleitet, dass die expressiven und kommunikativen Funktionen körperlicher Gesten und mit ihnen assoziierte Bedeutungsstufen zumindest in der auf Afrika bezogenen Forschungsliteratur bislang nur geringe theoretische und methodologische Aufmerksamkeit gefunden haben. Der vorliegende Aufsatz versteht körperliche Expressivität in letzter Instanz daher als eine kulturelle Praxis, was eine erweiterte Perspektive auf die Erläuterung alltäglicher und außergewöhnlicher Umstände eröffnet, in denen man auf körperliche und nicht-körperliche Ausdrucksformen stößt. Die Substanz dieses Artikels soll jedoch den der Berliner Tagung "Kinaesthetik und Kommunikation" (2010) zugrunde liegenden Forschungsfragen und Schlüsselthemen wie Kontext, Epistemologie und Zwischenbereichen kultureller Kontextualisierung, Bedeutung und Redefinition gelten. Der Artikel stützt seine Argumentation dabei auf das spezifische Beispiel der personalisierten "Name Performance" der Anlo-Ewe in Ghana, die verschiedene Implikationen für die Methodik der Untersuchung körperlicher und nicht-körperlicher Expressivität in afrikanischen Performance-Traditionen aufzeigen.
Die Sprache ist ein hervorragendes Werk, das durch Interaktion entsteht und mit dem wir eine Wirklichkeit erzeugen, die eine sowohl konstruierende als auch destruierende Rolle spielen kann. Manche Linguisten vergleichen den Sprachgebrauch mit dem Sprachspiel. Mit seiner Hervorhebung der Sprachverwendung und seinem einprägsamen und geschliffenen Ausspruch 'Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache' gilt Wittgenstein als Vorgänger der linguistischen Pragmatik. Seine Äußerungen inspirierten die Theoretiker der Sprechakttheorie. Nach Austin verläuft der Sprachgebrauch in Sprechakten, wobei jeder Akt aus den Teilakten Lokution, Illokution und Perlokution entsteht und auch defizitäre Sprechakte möglich sind. Aus der Tatsache, dass der Anzahl der Kontexte keine Grenzlinie zu ziehen ist, dass es also unendlich viele Kontexte und dementsprechend so viele Funktionen gibt, können wir ebenfalls auf eine unendliche Zahl von expliziten oder impliziten Sprechakten schließen. Die Sprechakte haben einen modalen Charakter, der a) vom Blickpunkt des Sprechers und des Hörers, b) vom Kontext, in dem sich die Sprechakte abspielen, c) von der Gesellschaft als der Trägerin einer Kultur und d) von den Naturumständen, unter denen die Interaktanten leben, abhängt. Die Sprechakte gelingen nur dann, wenn die Interaktanten kooperationsbereit sind. Das allein genügt aber nicht; auch das Höflichkeitsprinzip ist sehr konstitutiv. In dieser Arbeit werden besondere türkische Sprechakte analysiert, die zeigen, dass die Äußerungstypen nicht immer mit den Illokutionen übereinstimmen. Das kann vom Kontext und auch von suprasegmentalen Merkmalen des jeweiligen Sprechaktes abhängen.
Dieser Beitrag entstand im Rahmen meiner biographie- und interaktionsanalytischen Pilotstudie zur Darstellung narrativer Identitäten und zum biographischen Werdegang von in Deutschland sozialisierten türkischstämmigen Germanistik-StudentInnen in Istanbul, die als Jugendliche bzw. junge Erwachsene meist auf der Basis von Familienentscheidungen in die Türkei migriert sind. Im Fokus der folgenden Analyse des biographischen Interviews mit dem Informanten Ali steht der biographische Entwicklungsprozess und die sukzessive Herstellung seiner Selbstverortung jenseits ethnisch-nationaler Kategorien. Bei der Rekonstruktion des biografischen Werdegangs lassen sich direkte Bezüge zu den Pries'schen Modellen zum Verhältnis von Migration und Integration herstellen: Während sich Alis Eltern an dem Modell des "Gastarbeiters" orientieren, der nach einer begrenzten Zeit im Ausland in sein Heimatland "zurückkehrt", entwickelt Ali für sich das Lebensmodell als "Transmigrant". Bei der narrativen Herstellung von Identitätsaspekten gibt es außerdem deutliche Übereinstimmungen mit den von Sievers et. al. beschriebenen Eigenschaften eines Transmigranten. Die Ergebnisse der Untersuchung zeigen, dass in der Kindheit und Jugend des Gastarbeiterkindes einschneidende Erlebnisse im deutschen Bildungskontext fokussiert werden. Bei der Bewältigung der Probleme gelingt es dem Erzähler jedoch sich als agentivisch starker und durchsetzungsfähiger Akteur zu präsentieren. Nach der familiären "Rückkehr" in die Türkei spielt die Auseinandersetzung mit der türkischen Umwelt die zentrale Rolle, die zur sukzessiven Loslösung aus beiden Lebenswelten und hin zur Herausbildung eines neuen transmigrantischen Selbstbildes führt.
The focus on communication in research on professional and scientific language somehow reflects the intention of John L. Austin's phrase "How to do things with words?" But a description based on the concept of communication ultimately also relies on linguistic idiosyncrasies. We will look at things the other way round and ask first "how to do (professional) things" and then look at the linguistic units used specifically for this purpose. Professionalism in this view takes very different forms for different types of actions ("practices"). Although reliability and professional authority are central features of all linguistic realizations to be considered, they are represented in very different ways. As a result, professionalism not only shows in the high degree of explicitness of technical prose typical for written scientific discussion. It is also reflected in the high degree of implicitness of speech that accompanies and constitutes practical action.
Im Aufsatz wird die Rekonstruktion einer kurzen Sequenz der pädagogischen Interaktion aus dem Unterricht einer großstädtischen Grundschule und in Ergänzung dazu die Rekonstruktion der Sequenz einer Lehrer-Eltern-Interaktion am Rande des gleichen Unterrichts vorgestellt. Diese mit dem Verfahren der Sequenzanalyse der Objektiven Hermeneutik durchgeführten Rekonstruktionen stehen im Kontext der Entwicklung eines theoretischen Modells der Struktur des pädagogischen Handelns. Die Entwicklung eines solchen Modells setzt die Bestimmung der Strukturprobleme dieses Handelns, so wie es derzeit in deutschen Schulen vorzufinden ist, voraus. Die Rekonstruktionen sollen zugleich der Überprüfung der von Ulrich Oevermann im Rahmen seiner Professionalisierungstheorie entwickelten These dienen, dass es sich beim pädagogischen Handeln um den eigentümlichen Fall einer Profession handelt, die bislang nicht professionalisiert ist, obwohl sie angesichts der Struktur der grundlegenden Handlungsprobleme, die in diesem Berufshandeln zu bewältigen sind, als professionalisierungsbedürftig gelten kann.
Leidenschaft ist eine Emotion, die ganz und gar zum subjektiven Erleben eines Individuums gehört. Ein leidenschaftlich Handelnder ist offensichtlich so sehr von ihr ergriffen, dass sie sein Inneres vollkommen ausfüllt. Ebenso wie die Leidenschaft ganz zu ihm gehört, gehört auch er ganz seiner Leidenschaft. Es gibt dann keinen Raum in ihm für andere emotionale oder gar rationale Regungen.
In dieser klinischen Phase I-Studie an 39 gesunden, männlichen Probanden im Alter zwischen 18 und 45 Jahren wurde die Fragestellung untersucht, wie ein Übergang von intravenöser Blutgerinnungshemmung mit dem direkten Thrombinhemmer Argatroban und den oralen Antikoagulantien Phenprocoumon und Acenocoumarol in der klinischen Praxis zu kontrollieren ist. Bei den bisher verwendeten Laboruntersuchungen, wie der aPTT existieren Interaktionen zwischen Argatroban und oraler Antikoagulation, welche nicht notwendigerweise die wirkliche in vivo Situation reflektieren, was durch eine ex vivo-in vitro-Interferenz des Gerinnungsassays verursacht wird. APTT Reagenzien aktivieren die intrinsische Gerinnungskaskade zu einem sehr frühen Zeitpunkt (gleich zu Beginn derselben bei Faktor XI). Dadurch werden die Interaktionen zwischen der oralen Antikoagulation und den Rückkopplungsmechanismen zwischen beiden Gerinnungswegen, welche durch die orale Antikoagulation teilweise erschöpft sind, begreifbar. Ebenso wurde die Interaktion zwischen anderen direkten Thrombinhemmern und der oralen Antikoagulation am Beispiel Napsagatran mit Warfarin beschrieben 35: Die Gabe von Napsagatran alleine führte zur Erhöhung von aPTT und Prothrombinzeit (PT), die zusätzliche Einmaldosis Warfarin erhöhte die AUEC (Fläche unter der Effekt-Kurve) für die PT zusätzlich um das vierfache und für die aPTT um 45%. Obwohl die PT unter dem Einfluss direkter Thrombinhemmer verlängert ist, wird sie nicht als Parameter des Monitorings der Wirkung therapeutischer Dosierungen von Argatroban und anderen direkten Thrombinhemmern bei der Thrombosephrophylaxe und Behandlung tiefer Beinvenethrombosen empfohlen 39. Die aPTT wird hingegen, neben ihrem Einsatz zur Überwachung der klinischen Therapie direkter Thrombinhemmer 40,41, auch als pharmakodynamischer Schlüsselparameter in Phase-I-Studien derselben eingesetzt 42,43. Da jedoch höhere Konzentrationen der Thrombinhemmer die aPTT-Werte für die Kalibrierung verändern und darüber hinaus verschiedene aPTT-Reagenzien mit unterschiedlicher Empfindlichkeit gegenüber den Thrombinhemmern angeboten werden, ist die aPTT nicht der ideale Parameter zur Überwachung der Wirkung direkter Thrombinhemmer. Die ECT ist hierfür wesentlich spezifischer 40,41. Dennoch werden validierte ECT-Assays nicht kommerziell vertrieben, was deren Einsatz in der Klinik bisher unmöglich macht. Insofern ist es notwendig geworden, eine Empfehlung für den Übergang von intravenöser auf orale Antikoagulation mit dem bisherigen Instrument der INR zu finden. Auch wenn dies aus den o.g. Gründen nicht optimal ist, mag es zulässig sein, die Nomogramme für Acenocoumarol und Phenprocoumon in einfache Regeln zu übersetzen, ohne daß ein Sicherheitsproblem in der Klinik entsteht. Vorausgesetzt, ein Vorhersagefehler von <± 0,6 wird als annehmbar akzeptiert, 35 so erlaubt das Nomogramm für Phenprocoumon und Acenocoumarol eine valide Vorhersage der realen Gerinnungsverhältnisse bis zu einer Dosis von 2,0 µg/kg/min unter Verwendung eines ISI von 1-2. Derzeitige Richtlinien für die Hepariniserung nach tiefer Beinvenenthrombose 47 erlauben den Stopp der Infusionstherapie mit niedermolekularen Heparinen (bei gleichzeitiger Gabe einer oralen Antikoagluation), wenn der INR wenigstens 2,0 erreicht hat. Um den Übergang von Argatroban zu einer oralen Antikoagulation zu vereinfachen, wird eine Regel für die Berechnung der "wahren" INR während der Übergangsperiode vorgeschlagen: 1. Die Argatrobaninfusion kann eingestellt werden, wenn unter gleichzeitiger oraler Antikoagulation die INR für einen angemessenen Zeitraum der Komedikation bei 4,0 angekommen ist. Das gilt für einen ISI des PT-Reagens von 1-2. Die reale INR befindet sich dann im therapeutischen Bereich zwischen 2,2 und 3,7. 2. aPTT-Ergebnisse unter Argatroban und beginnender oraler Antikoagulation müssen um 5-15 Sekunden verkürzt abgelesen werden. Die Verlängerung der aPTT während des Übergangs von Argatroban auf die oraler Antikoagulation sollten nicht zu einer Unterbrechung bzw. Dosiserniedrigung der Argatroban-Infusion während dieses Zeitraums führen. Prinzipiell sollte die Dosis von Argatroban während der Übergangszeit auf die orale Antikoagulation bei 1-2 µg/kg/min fixiert werden. Genauso wie bei Hirudin 48 sollte die ECT, wenn klinisch angezeigt, zur Überwachung der direkten Argatroban-Effekte auf die Gerinnung benutzt und hierbei der aPTT als Alternative vorgezogen werden. Das gilt sowohl für die Anwendung von Argatroban alleine als auch die Kombination mit oralen Antikoagulanzien. Wie bereits oben erwähnt steht die ECT als validierte Messmethode für die Klinik bisher jedoch nicht zur Verfügung. Die Blutungszeit war in dieser Untersuchung in der Periode der Umstellung von Argatroban auf orale Antikoagulation nicht wesentlich verlängert, so daß für Patienten keine zusätzliche Blutungsgefahr entstanden ist. Einschränkend ist dennoch zu bemerken, daß obwohl in den erwähnten Phase-I-Untersuchungen an gesunden Probanden keine größeren Blutungsereignisse aufgetreten sind, bei Patienten durchaus ein erhöhte Blutungsgefährdung bei einer INR von > 3,0 bestehen kann. Dies ist in der Praxis aufmerksam zu kontrollieren. Argatroban ist also für HIT Typ II-Patienten, die unter klinischen Bedingungen antikoaguliert werden müssen, eine gut steuerbare Alternative, bei welcher auch die anschließende Umstellung auf orale Antikoagulation kontrolliert sicher handhabbar ist.
In einem Gespräch kommt es oft vor, dass dem Sprecher bei der Formulierung eines Gedankens ein "bestimmtes" Wort nicht einfällt, das er zum Ausdruck dessen, was er sagen möchte, benötigt. In diesem Moment wird häufig mit Hilfe des jeweiligen Gesprächspartners eine Suche nach dem passenden Ausdruck für den intentierten Sinn eingeleitet, die in einer das Gesprächsverständnis gewährleistenden lexikalischen Auswahl besteht. Dieser Vorgang offenbart – wie auch zahlreiche weitere Sprachhandlungen – den lebendigen Charakter der Sprache und lässt ersichtlich werden, dass Sprache im Sinne Humboldts 'Energeia' ist. Gegenstand und Zweck dieses Artikels sind die Beobachtung, Analyse und Beschreibung dieses lebendigen Charakters, wie er sich in der portugiesischen Sprache in Formulierungen in Gesprächssituationen manifestiert. Auf diese Weise will der Artikel auch daran erinnern, wie sehr Humboldts Sprachkonzeption den Grundlagen heutiger Studien zur Umgangssprache vorausliegt.
Zur Bibliographie: Aufgenommen sind alle Veröffentlichungen, die im SSCI oder A&HCI bis einschließlich 1991 als Quellen für Zitierungen der Aufsätze Horton/Wohl (1956) und Horton/Strauss (1957) nachgewiesen sind, sowie alle anderen mir vorliegenden Arbeiten, die diese Aufsätze bzw. das Konzept der parasozialen Interaktion erwähnen. Aufgrund dieses Verfahrens erscheinen einige Arbeiten, die Horton und Wohls Aufsatz lediglich am Rande erwähnen oder auch gar nicht der Kommunikationsforschung angehören. Leider werden deutschsprachige Zeitschriften bibliographisch kaum ausgewertet, so daß man für die Erfassung der deutschen Rezeption auf Querverweise und Zufallsfunde angewiesen ist.
1956 veröffentlichten Donald Horton und R. Richard Wohl in der Zeitschrift Psychiatry eine Arbeit mit dem Titel Mass communication and para-social interaction. Observations on intimacy at a distance. Sie schlugen darin vor, die Aktivitäten von Zuschauern bei der Nutzung von Massenmedien (insbesondere des Fernsehens) im Zusammenhang mit sozialer Interaktion zu verstehen. Eine der wichtigsten Eigenschaften der Massenmedien sei, so die These von Horton und Wohl, die Erzeugung einer Illusion von "face-to-face" Beziehungen zwischen Zuschauern und Darstellern (1956, 215). Besonders dem Fernsehen gelinge es, derartige Beziehungen zu ermöglichen, da es Größen abbildet, auf die soziale Wahrnehmung normalerweise gerichtet ist, wie z.B. Aussehen und Verhalten von Personen. Diese Beziehung der Zuschauer zu den im Medium Auftretenden wird "parasozial" genannt.Eine besondere Rolle bei der Erzeugung parasozialer Beziehungen fällt nach der These Horton und Wohls der direkten Adressierung des Publikums zu. Die passive Rolle eines nur Zusehenden werde überlagert, indem er in das Beziehungsgefüge hineingezogen werde, das das Programm anbiete. Anders ausgedrückt, er wird selbst Teil des Beziehungsgefüges.
Die vorliegende Arbeit befasst sich mit der übergeordneten Frage nach dem Einfluss der Multikollinearität bei der Spezifikation und Schätzung von latenten nichtlinearen Effekten in Strukturgleichungsmodellen. Da das Multikollinearitätsproblem in latenten nicht-linearen Strukturgleichungsmodellen bisher in der Literatur kaum Beachtung gefunden hat, wird als erstes die Frage beantwortet, welche Relevanz das Vorliegen von Multikollinearität in nichtlinearen Strukturgleichungsmodellen hat. Dabei wird aufgezeigt, dass Multikollinearität von Prädiktoren nicht nur bei linearen Strukturgleichungsmodellen ein Problem darstellt, sondern vor allem bei nicht-linearen Strukturgleichungsmodellen aufgrund des Vorhandenseins nicht-linearer Terme. Da nicht-lineare Terme untereinander in einem höheren Zusammenhang stehen können als lineare Terme eines Strukturmodells, kann es zu Scheineffekten und zu verzerrten Schätzungen der nichtlinearen Effekte kommen. Ein Teststärkeverlust tritt immer ein. Als zweites wird gezeigt, dass die am stärksten vertretene Ansatzklasse zur simultanen Schätzung von Interaktionseffekten und quadratischen Effekten, nämlich die Klasse der Produkt-Indikator-Ansätze, seit ihrer Erstpublikation durch Kenny und Judd (1984) Spezifikationsfehler aufweist, welche in ähnlicher Form auch in jüngeren Publikationen enthalten sind (z.B. bei Lee, Song & Poon, 2004). Spezifikationsfehler machen die ganze Ansatzklasse für Multikollinearität „anfällig“, so dass es theoretisch zu verzerrten Schätzungen oder Scheineffekten kommen muss. Es wird gezeigt, wie man die Spezifikationsfehler korrigieren kann, d.h. wie man die bestehenden Ansätze erweitern muss. Da die latente Prädiktorkorrelation Bestandteil der Spezifikationsfehler ist, stellt sich die Frage, wie groß die Verzerrungen sind, die sich bei der Anwendung der (unkorrigierten) Produkt-Indikator-Ansätze ergeben, wenn die Multikollinearität steigt. Um diese Frage zu beantworten, wird eine Simulationsstudie durchgeführt. Sie zeigt, dass der Zwei-Stufen-Ansatz von Ping (1996) verzerrte Schätzungen der nicht-linearen Effekte produziert. Dieser Ansatz ist ein Vertreter der Produkt-Indikator-Ansätze und enthält die besagten Spezifikationsfehler. In der Simulationsstudie wird außerdem gezeigt, dass die korrekte Erweiterung des Ansatzes von Jöreskog und Yang (1996) zu erwartungstreuen Schätzungen führt. Als drittes wird der Frage nachgegangen werden, welche theoretischen und empirischen Unterschiede zwischen den neuen verteilungsanalytischen Ansätzen LMS (Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007), einerseits, und den klassischen Produkt-Indikator-Ansätzen, andererseits, zu erwarten sind. Dazu werden die theoretischen Eigenschaften der verteilungsanalytischen Verfahren, LMS und QML, untereinander und mit der Klasse der Produkt-Indikator-Ansätze verglichen. Ihre theoretischen Eigenschaften werden beim Vorliegen von Multikollinearität betrachtet. Illustriert werden die theoretischen Unterschiede anhand einer Simulationsstudie, die die Ansätze hinsichtlich ihrer Schätzeigenschaften bei steigender Multikollinearität miteinander vergleicht. In der Simulationsstudie werden die theoretisch herausgearbeiteten Vorteile der verteilungsanalytischen Verfahren, LMS und QML, bestätigt. In der Zusammenschau der theoretischen Überlegungen und der Ergebnisse aus den Simulationsstudien zeigt sich, dass Multikollinearität für alle Ansätze zur simultanen Schätzung multipler nicht-linearer Effekte eine Herausforderung ist. Die forschungspraktische und inhaltliche Relevanz des Multikollinearitätsproblems wird anhand eines Beispiels veranschaulicht. Für in jüngster Zeit diskutierte komplexere Modelle (z.B. moderierte Mediatormodelle) wird Multikollinearität ein Kernproblem sein, dem sich alle Ansätze werden stellen müssen oder für das neue Ansätze entwickelt werden müssen.
Die vorliegende Arbeit befasst sich mit der übergeordneten Frage nach dem Einfluss der Multikollinearität bei der Spezifikation und Schätzung von latenten nichtlinearen Effekten in Strukturgleichungsmodellen. Da das Multikollinearitätsproblem in latenten nicht-linearen Strukturgleichungsmodellen bisher in der Literatur kaum Beachtung gefunden hat, wird als erstes die Frage beantwortet, welche Relevanz das Vorliegen von Multikollinearität in nichtlinearen Strukturgleichungsmodellen hat. Dabei wird aufgezeigt, dass Multikollinearität von Prädiktoren nicht nur bei linearen Strukturgleichungsmodellen ein Problem darstellt, sondern vor allem bei nicht-linearen Strukturgleichungsmodellen aufgrund des Vorhandenseins nicht-linearer Terme. Da nicht-lineare Terme untereinander in einem höheren Zusammenhang stehen können als lineare Terme eines Strukturmodells, kann es zu Scheineffekten und zu verzerrten Schätzungen der nichtlinearen Effekte kommen. Ein Teststärkeverlust tritt immer ein. Als zweites wird gezeigt, dass die am stärksten vertretene Ansatzklasse zur simultanen Schätzung von Interaktionseffekten und quadratischen Effekten, nämlich die Klasse der Produkt-Indikator-Ansätze, seit ihrer Erstpublikation durch Kenny und Judd (1984) Spezifikationsfehler aufweist, welche in ähnlicher Form auch in jüngeren Publikationen enthalten sind (z.B. bei Lee, Song & Poon, 2004). Spezifikationsfehler machen die ganze Ansatzklasse für Multikollinearität „anfällig“, so dass es theoretisch zu verzerrten Schätzungen oder Scheineffekten kommen muss. Es wird gezeigt, wie man die Spezifikationsfehler korrigieren kann, d.h. wie man die bestehenden Ansätze erweitern muss. Da die latente Prädiktorkorrelation Bestandteil der Spezifikationsfehler ist, stellt sich die Frage, wie groß die Verzerrungen sind, die sich bei der Anwendung der (unkorrigierten) Produkt-Indikator-Ansätze ergeben, wenn die Multikollinearität steigt. Um diese Frage zu beantworten, wird eine Simulationsstudie durchgeführt. Sie zeigt, dass der Zwei-Stufen-Ansatz von Ping (1996) verzerrte Schätzungen der nicht-linearen Effekte produziert. Dieser Ansatz ist ein Vertreter der Produkt-Indikator-Ansätze und enthält die besagten Spezifikationsfehler. In der Simulationsstudie wird außerdem gezeigt, dass die korrekte Erweiterung des Ansatzes von Jöreskog und Yang (1996) zu erwartungstreuen Schätzungen führt. Als drittes wird der Frage nachgegangen werden, welche theoretischen und empirischen Unterschiede zwischen den neuen verteilungsanalytischen Ansätzen LMS (Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007), einerseits, und den klassischen Produkt-Indikator-Ansätzen, andererseits, zu erwarten sind. Dazu werden die theoretischen Eigenschaften der verteilungsanalytischen Verfahren, LMS und QML, untereinander und mit der Klasse der Produkt-Indikator-Ansätze verglichen. Ihre theoretischen Eigenschaften werden beim Vorliegen von Multikollinearität betrachtet. Illustriert werden die theoretischen Unterschiede anhand einer Simulationsstudie, die die Ansätze hinsichtlich ihrer Schätzeigenschaften bei steigender Multikollinearität miteinander vergleicht. In der Simulationsstudie werden die theoretisch herausgearbeiteten Vorteile der verteilungsanalytischen Verfahren, LMS und QML, bestätigt. In der Zusammenschau der theoretischen Überlegungen und der Ergebnisse aus den Simulationsstudien zeigt sich, dass Multikollinearität für alle Ansätze zur simultanen Schätzung multipler nicht-linearer Effekte eine Herausforderung ist. Die forschungspraktische und inhaltliche Relevanz des Multikollinearitätsproblems wird anhand eines Beispiels veranschaulicht. Für in jüngster Zeit diskutierte komplexere Modelle (z.B. moderierte Mediatormodelle) wird Multikollinearität ein Kernproblem sein, dem sich alle Ansätze werden stellen müssen oder für das neue Ansätze entwickelt werden müssen.
Interkulturelle Kommunikation, interkulturelle Kompetenz und (soziale) Interaktion sind längst zu Schlagworten geworden, mit denen moderne Gesellschaften zentrale praktische Herausforderungen und wichtige Aspekte ihres Selbstverständnisses auf den Begriff zu bringen versuchen. Der Terminus interkulturelle Kommunikation steht dabei oft auch für Verständigungsschwierigkeiten, die in ganz verschiedenen Lebensbereichen und Berufsfeldern kontinuierlich zunehmen (vgl. Straub / Weidemann, 2007, S. 1). Kulturelle Differenzen gelten in dieser Hinsicht als beinahe unerschöpfliche Quelle von potentiellen Problemen der kommunikativen Verständigung. Im folgenden Beitrag werden vor allem Spezifika der interkulturellen Kommunikation im Allgemeinen und die soziale Interaktion der Akteure (Interaktionspartner) in der Kommunikation im Besonderen behandelt. Das Thema fokussiert in diesem Zusammenhang die Faktoren, die in der gegenseitigen Interaktion zwischen miteinander kommunizierenden Akteuren auftreten können bzw., welche Fragen in diesem Zusammenhang im Zentrum des Interesses stehen und was eher an der Peripherie (nebensächlich) ist.
Verpackt in Feedbackschleifen : Einblicke in Digitale Lehrformate des digitalen Sommersemesters
(2021)
Mit der pandemiebedingten Notwendigkeit im Sommersemester ausschließlich digital zu unterrichten ging eine große Frage einher: "Wie komme ich in Kontakt mit unseren Studierenden?" und mehr noch "Wie halte ich diesen Kontakt?" Studierende sind untereinander im Idealfall durch Messenger-Gruppen verbunden, für uns Dozierende bleibt häufig nur ein Kanal: die traditionelle E-Mail. Viele Studierende fragen ihre universitätseigene E-Mail nicht ab oder leiten sie nicht auf eine private E-Mail-Adresse um, was für uns im Grunde bedeutete, dass nur unsere Homepage als sicherer aber eben auch einseitiger Informationskanal zur Verfügung stand. "Wegweiser" zu den neuen digitalen Räumen konnten hier zwar aufgestellt werden, was in diesen Räumen aber angeboten wurde, sollte m.E. interaktiv an die Bedarfe unserer Studierenden angepasst werden. Es brauchte also eigentlich sogar mehr Interaktion als in analogen Lehrveranstaltungen. Daher war für mich bei der Transformation der für das Sommersemester geplanten Lehrveranstaltungen die Integration von Interaktionsmöglichkeiten ein zentraler Aspekt, ein Prozess der selbst aber eben auch ein Trial and Error-Verfahren war, der ohne Feedback ins Leere gelaufen wäre. Nachfolgend möchte ich ein Seminar und drei Formate vorstellen, die Feedback und Interaktion auf unterschiedliche Weise integrieren.
Die Universalität des Ausdrucks : zur empirischen Grundlage eines anthropologischen Phänomens
(2013)
Die These von der Universalität bestimmter grundlegender Emotionen und ihrer mimischen Ausdrucksformen ist eine Position, die in vielen Lehrbüchern der Emotionspsychologie vertreten wird. Sie ist allerdings nicht unumstritten. Ich gehe nun so vor, dass ich zunächst einige sehr grundlegende Annahmen der Emotionspsychologie skizziere, um dann die empirischen Untersuchungen von Ekman und anderen darzustellen. Ein letzter Teil wird sich mit ausgewählten emotionspsychologischen Modellen hinsichtlich der Natur-Kultur-Differenz beschäftigen. Neuere ökologische Ansätze kritisieren die theoretischen Modelle, die von Ekman und anderen aus den empirischen Untersuchungen zur Universalitätsthese gezogen werden, als Rückfall in stratigraphische Konzeptionen der menschlichen Existenz.
The aim of the present paper is to highlight some aspects of bilingualism in a German minority language community located in the South of Brazil. Based on ethnographic research methods, the study describes language use in face-to-face interactions between bilingual students and their teacher in a monolingual primary school, focusing on Portuguese-German code-switching from a socio-functional perspective. The results suggest that code-switching should not be associated with language deficit, but with the bilingual discourse since the phenomenon could be seen both as a relevant conversational strategy as well as a significant learning resource among bilingual children.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
Die moderne Biochemie ist eine Wissenschaft, die sich im Wandel befindet. Während die bisherige Forschung sehr stark experimentell geprägt ist, existiert eine theoretische Biologie, analog zur theoretischen Chemie, nur in Ansätzen. Trotzdem wandelt sich auch diese Wissenschaft hin zu einer stärkeren Einbindung theoretischer Ansätze. Der Grund hierfür liegt in der Betrachtung von zunehmend komplexeren Systemen. So beschäftigt man sich in der Systembiologie, einem Teilbereich der Biochemie, unter anderem mit der Aufklärung komplexer Reaktionsnetzwerke. Während Ausschnitte dieser Netzwerke weiterhin experimentell aufgeklärt und verstanden werden, lässt sich das zusammenhängende Bild zunehmend nur noch durch eine theoretisch geprägte Modellbildung fassen. Darüber hinaus zeigen neuere Forschungsergebnisse die Bedeutung der Tatsache, dass Moleküle, Zellen und Zellhaufen, also wichtige Forschungsubjekte der Biochmie, dreidimensionale Gebilde sind – eine Tatsache, die bei der Modellbildung berücksichtigt werden muss. Eine Antwort auf die genannten Herausforderungen ist der konzertierte Einsatz von Simulation und Visualisierung als Mittel des Erkenntnisgewinns. Damit ist die Informatik gefordert entsprechende dedizierte Werkzeuge zu entwickeln, die Simulation, Visualisierung und Interaktion im Kontext des von der Anwendungsdisziplin gesetzten räumlich-zeitlichen Problemkreises miteinander verbinden. In dieser Arbeit wird ein integriertes Konzept zu Simulation, Interaktivität und Visualisierung vorgelegt, das auf einer Anforderungsanalyse in Bezug auf Anforderungen an die Simulation und Anforderungen an die Interaktivität und Visualisierung basiert. Zur Lösung der aufgeworfenen Probleme wird ein „Baukastensystem“ auf Basis von Multi-Agenten-Systemen vorgeschlagen. Die Auswahl des geeigneten Simulationsverfahrens, z. B. die Auswahl eines stochastischen Verfahrens gegenüber einem deterministischen Verfahrens, wird so zur Auswahl eines Bausteins, wobei gezeigt wird, wie z. B. mit Hilfe von Regeln die Auswahl auch automatisiert werden kann. Ebenso wird gezeigt, wie man „Baussteine“ auch im räumlichen Sinne verstehen kann, als Dinge, die in einem dreidimensionalen Kontext einen bestimmten Raum einnehmen und die, in ihrer Gesamtheit betrachtet, den Beobachtungsraum der Simulation ausfüllen. Diese Bausteine finden sich entsprechend ebenfalls im Kontext der Interaktion wieder. Ein wichtiger Aspekt in diesem Baukastenkonzept ist die Frage der Kommunikationsstruktur und des Kommunikationsprotokolls, für den ein Vorschlag erarbeitet wird. Das entwickelte Gesamtkonzept besteht aus zwei Teilen: Einem Konzept für Ein- und Ausgabegeräte mit einer gemeinsamen Metapher, die die Geräte logisch in den Anwendungskontext einbettet und einem Simulations- und Visualisierungskonzept auf der Basis der Kopplung heterogener intelligenter Agenten in eine gemeinsame Simulationsumgebung. Hierfür wurde ein spezieller Dialekt einer Agentenkommunikationssprache entwickelt, der dabei insbesondere den Aspekt der dreidimensionalen Visualierung einer solchen Simulation berücksichtigt.
Das Ziel der vorliegenden Arbeit bestand darin, die Wechselwirkung des AD-assoziierten Proteins PS1 mit dem Cytoskelett in verschiedenen biochemischen und immuncytochemischen Modellen zu untersuchen. Auf diese Weise sollten Hinweise für das Verständnis der bisher nur in Grundzügen bekannten physiologischen Funktion von PS1 erhalten werden. Ausgehend vom Nachweis der Anreicherung endoproteolytischer PSI-Fragmente in Cytoskelett-Fraktionen aus Hirngewebe wurde die spezifische Assoziation des Proteins mit Mikrofilamenten, Mikrotubuli und Neurofilamenten untersucht. Alle durchgeführten biochemischen und immuncytochemischen Experimente zeigen übereinstimmend die spezifische Assoziation von PS1 mit Mikrofilamenten. So konnten PSI-Fragmente über zwei Depolymerisations/ Polymerisations-Zyklen zusammen mit Actin aus Rattenhirn aufgereinigt werden. Die spezifische Spaltung von Actin-Filamenten durch Gelsolin in cytoskelettreichen Fraktionen aus Hirngewebe führte zur Freisetzung kürzerer Filamente, die nach Zentrifugation zusammen mit PS1- Fragmenten im Überstand erschienen. In immuncytochemischen Färbungen kolokalisierte PS1 mit Actin-Filamenten in primären Gliazellen und der neuronalen Zelinie NT2. Eine vor kurzem veröffentlichte Arbeit zeigte außerdem die Kolokalisation von PS1 und Mikrofdamenten in primären Hippocampus-Neuronen. Die fehlende Kosedimentation von in-vitro translatiertem PS1 und Deletionskonstrukten von PS1 mit aufgereinigten und in-vitro assemblierten Actin-Filamenten, das Fehlen konservierter Actin-Bindungsmotive in der Aminosäuresequenz von PS1 sowie bekannte Interaktionen von PS1 mit Actin-bindenden Vertretern der Filamin- und Armadillo-Proteinfamilien lassen auf eine indirekte Assoziation von PS1 mit Mikrofdamenten schließen. Die vorliegende Arbeit konnte die Frage, welche Rolle Mikrotuli oder Neurofilamente bei der Cytoskelett-Assoziation von PS1 spielen, nicht abschließend Mären. PS1-Fragemente wurden im ersten, nicht jedoch im zweiten Depolymerisations/Polymerisations-Zyklus zusammen mit Tubulin aus Rattenhirn aufgereinigt. In dem gleichen Versuchsansatz kosedimentierte in-vitro translatiertes PS1 nicht mit Mikrotubuli. Immuncytochemische Färbungen zeigten dagegen die Kolokalisation von PS1 mit Mikrotubuli in primären Hippocampus-Neuronen, die auch von zwei aktuellen Arbeiten in primären Hippocampus-Neuronen und murinen Embryonen bestätigt wurde. Die spezifische Depolymerisation von Mikrotubuli in cytoskelettreichen Fraktionen war unter den in der vorliegenden Arbeit verwendeten Bedingungen nicht erfolgreich, so daß aus diesem Experiment keine Aussagen zur Assoziation von PS1 mit Mikrotubuli abgeleitet werden konnten. Es Iäßt sich die Hypothese aufstellen, daß sehr kleine PSI-haltige Vesikel über andere Proteine als PS1 mit Mikrotubuli verbunden sind, so daß PS1 mit Mikrotubuli scheinbar kolokalisiert ist. Hochauflösenden lichtmikroskopische bzw. elektronenmikroskopische Aufnahmen oder biochemische Versuche, die nicht zur Zerstörung der Vesikel durch Detergens führen, könnten für die Überprüfung dieser Hypothese herangezogen werden. In-vitro translatiertes PS1 sowie Deletionskonstrukte von PS1 kosedimentierten nicht mit aufgereinigten und in-vitro assemblierten Neurofilamenten, und in primären Hippocampus-Neuronen kolokalisierte PS1 nicht mit Neurofilamenten. Es wäre jedoch wünschenswert, die Experimente mit geeigneten Positiv-Kontrollen für die Kosedimentation und geeigneteren Antikörpern, die bei einem besseren Signal/Hintergrund-Verhältnis eine stärkere Vergrößerung der Immunfluoreszenzen erlauben, zu wiederholen. Im transgenen Tiermodell beeinträchtigten pathogene Mutationen von PS1 nicht, zumindest nicht quantitativ, die Fähigkeit von PS1, an Cytoskelett-Elemente zu binden. Es wäre jedoch möglich, daß es Unterschiede in der Cytoskelett-Assoziation von wt PS1 und PS1 mit pathogenen Mutationen gibt, die nur im Gewebe von FAD-Patienten zu detektieren sind, nicht aber im transgenen Tiermodell, da die bisher bekannten AD-Tiermodelle nicht alle Aspekte der Erkrankung reproduzieren. Die vorliegenden Ergebnisse können die Basis bilden für weitergehende Untersuchungen zur Funktion von PS1 und der Bedeutung von PS1-Cytoskelettinteraktionen in der Alzheimer Demenz. Aktuelle Arbeiten fokussieren dabei stark auf die Interaktion von PS1 mit Mikrofilament-bindenden Vertretern der Armadillo-Proteinfamilie, die bei Zell-Zell-Adhäsionsprozessen eine wichtige Rolle spielen. Im Diskussionsteil wurde ausgeführt, daß aber, gerade im Hinblick auf die Neurodegeneration bei der Alzheimer Demenz, ein möglicher Einfluß von PS1 auf den schnellen axonalen Transport ein interessanter Ansatz für weitere Versuche sein kann.