Refine
Year of publication
Document Type
- Article (7)
- Doctoral Thesis (6)
- Part of a Book (3)
- Part of Periodical (2)
- Conference Proceeding (1)
- Diploma Thesis (1)
- magisterthesis (1)
- Report (1)
Language
- German (17)
- English (4)
- Portuguese (1)
Has Fulltext
- yes (22)
Is part of the Bibliography
- no (22) (remove)
Keywords
- Interaktion (22) (remove)
Institute
- Psychologie (3)
- Biochemie und Chemie (1)
- Gesellschaftswissenschaften (1)
- Informatik (1)
- Kulturwissenschaften (1)
- Medizin (1)
- Wirtschaftswissenschaften (1)
Die Sprache ist ein hervorragendes Werk, das durch Interaktion entsteht und mit dem wir eine Wirklichkeit erzeugen, die eine sowohl konstruierende als auch destruierende Rolle spielen kann. Manche Linguisten vergleichen den Sprachgebrauch mit dem Sprachspiel. Mit seiner Hervorhebung der Sprachverwendung und seinem einprägsamen und geschliffenen Ausspruch 'Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache' gilt Wittgenstein als Vorgänger der linguistischen Pragmatik. Seine Äußerungen inspirierten die Theoretiker der Sprechakttheorie. Nach Austin verläuft der Sprachgebrauch in Sprechakten, wobei jeder Akt aus den Teilakten Lokution, Illokution und Perlokution entsteht und auch defizitäre Sprechakte möglich sind. Aus der Tatsache, dass der Anzahl der Kontexte keine Grenzlinie zu ziehen ist, dass es also unendlich viele Kontexte und dementsprechend so viele Funktionen gibt, können wir ebenfalls auf eine unendliche Zahl von expliziten oder impliziten Sprechakten schließen. Die Sprechakte haben einen modalen Charakter, der a) vom Blickpunkt des Sprechers und des Hörers, b) vom Kontext, in dem sich die Sprechakte abspielen, c) von der Gesellschaft als der Trägerin einer Kultur und d) von den Naturumständen, unter denen die Interaktanten leben, abhängt. Die Sprechakte gelingen nur dann, wenn die Interaktanten kooperationsbereit sind. Das allein genügt aber nicht; auch das Höflichkeitsprinzip ist sehr konstitutiv. In dieser Arbeit werden besondere türkische Sprechakte analysiert, die zeigen, dass die Äußerungstypen nicht immer mit den Illokutionen übereinstimmen. Das kann vom Kontext und auch von suprasegmentalen Merkmalen des jeweiligen Sprechaktes abhängen.
Dieser Beitrag entstand im Rahmen meiner biographie- und interaktionsanalytischen Pilotstudie zur Darstellung narrativer Identitäten und zum biographischen Werdegang von in Deutschland sozialisierten türkischstämmigen Germanistik-StudentInnen in Istanbul, die als Jugendliche bzw. junge Erwachsene meist auf der Basis von Familienentscheidungen in die Türkei migriert sind. Im Fokus der folgenden Analyse des biographischen Interviews mit dem Informanten Ali steht der biographische Entwicklungsprozess und die sukzessive Herstellung seiner Selbstverortung jenseits ethnisch-nationaler Kategorien. Bei der Rekonstruktion des biografischen Werdegangs lassen sich direkte Bezüge zu den Pries'schen Modellen zum Verhältnis von Migration und Integration herstellen: Während sich Alis Eltern an dem Modell des "Gastarbeiters" orientieren, der nach einer begrenzten Zeit im Ausland in sein Heimatland "zurückkehrt", entwickelt Ali für sich das Lebensmodell als "Transmigrant". Bei der narrativen Herstellung von Identitätsaspekten gibt es außerdem deutliche Übereinstimmungen mit den von Sievers et. al. beschriebenen Eigenschaften eines Transmigranten. Die Ergebnisse der Untersuchung zeigen, dass in der Kindheit und Jugend des Gastarbeiterkindes einschneidende Erlebnisse im deutschen Bildungskontext fokussiert werden. Bei der Bewältigung der Probleme gelingt es dem Erzähler jedoch sich als agentivisch starker und durchsetzungsfähiger Akteur zu präsentieren. Nach der familiären "Rückkehr" in die Türkei spielt die Auseinandersetzung mit der türkischen Umwelt die zentrale Rolle, die zur sukzessiven Loslösung aus beiden Lebenswelten und hin zur Herausbildung eines neuen transmigrantischen Selbstbildes führt.
The focus on communication in research on professional and scientific language somehow reflects the intention of John L. Austin's phrase "How to do things with words?" But a description based on the concept of communication ultimately also relies on linguistic idiosyncrasies. We will look at things the other way round and ask first "how to do (professional) things" and then look at the linguistic units used specifically for this purpose. Professionalism in this view takes very different forms for different types of actions ("practices"). Although reliability and professional authority are central features of all linguistic realizations to be considered, they are represented in very different ways. As a result, professionalism not only shows in the high degree of explicitness of technical prose typical for written scientific discussion. It is also reflected in the high degree of implicitness of speech that accompanies and constitutes practical action.
Im Aufsatz wird die Rekonstruktion einer kurzen Sequenz der pädagogischen Interaktion aus dem Unterricht einer großstädtischen Grundschule und in Ergänzung dazu die Rekonstruktion der Sequenz einer Lehrer-Eltern-Interaktion am Rande des gleichen Unterrichts vorgestellt. Diese mit dem Verfahren der Sequenzanalyse der Objektiven Hermeneutik durchgeführten Rekonstruktionen stehen im Kontext der Entwicklung eines theoretischen Modells der Struktur des pädagogischen Handelns. Die Entwicklung eines solchen Modells setzt die Bestimmung der Strukturprobleme dieses Handelns, so wie es derzeit in deutschen Schulen vorzufinden ist, voraus. Die Rekonstruktionen sollen zugleich der Überprüfung der von Ulrich Oevermann im Rahmen seiner Professionalisierungstheorie entwickelten These dienen, dass es sich beim pädagogischen Handeln um den eigentümlichen Fall einer Profession handelt, die bislang nicht professionalisiert ist, obwohl sie angesichts der Struktur der grundlegenden Handlungsprobleme, die in diesem Berufshandeln zu bewältigen sind, als professionalisierungsbedürftig gelten kann.
Nesse trabalho, será mostrado que fórmulas dão evidência de padrões convencionais de interação e também os inicializam. Esses padrões de interação não são universais, mas são configurados por cada comunidade lingüística. Conhecê-los faz parte da competência idiomática. Um dicionário bilíngüe semasiológico e onomasiológico pode contribuir tanto para a aquisição de fórmulas, quanto transmitir o conhecimento de padrões de interação.
In dieser klinischen Phase I-Studie an 39 gesunden, männlichen Probanden im Alter zwischen 18 und 45 Jahren wurde die Fragestellung untersucht, wie ein Übergang von intravenöser Blutgerinnungshemmung mit dem direkten Thrombinhemmer Argatroban und den oralen Antikoagulantien Phenprocoumon und Acenocoumarol in der klinischen Praxis zu kontrollieren ist. Bei den bisher verwendeten Laboruntersuchungen, wie der aPTT existieren Interaktionen zwischen Argatroban und oraler Antikoagulation, welche nicht notwendigerweise die wirkliche in vivo Situation reflektieren, was durch eine ex vivo-in vitro-Interferenz des Gerinnungsassays verursacht wird. APTT Reagenzien aktivieren die intrinsische Gerinnungskaskade zu einem sehr frühen Zeitpunkt (gleich zu Beginn derselben bei Faktor XI). Dadurch werden die Interaktionen zwischen der oralen Antikoagulation und den Rückkopplungsmechanismen zwischen beiden Gerinnungswegen, welche durch die orale Antikoagulation teilweise erschöpft sind, begreifbar. Ebenso wurde die Interaktion zwischen anderen direkten Thrombinhemmern und der oralen Antikoagulation am Beispiel Napsagatran mit Warfarin beschrieben 35: Die Gabe von Napsagatran alleine führte zur Erhöhung von aPTT und Prothrombinzeit (PT), die zusätzliche Einmaldosis Warfarin erhöhte die AUEC (Fläche unter der Effekt-Kurve) für die PT zusätzlich um das vierfache und für die aPTT um 45%. Obwohl die PT unter dem Einfluss direkter Thrombinhemmer verlängert ist, wird sie nicht als Parameter des Monitorings der Wirkung therapeutischer Dosierungen von Argatroban und anderen direkten Thrombinhemmern bei der Thrombosephrophylaxe und Behandlung tiefer Beinvenethrombosen empfohlen 39. Die aPTT wird hingegen, neben ihrem Einsatz zur Überwachung der klinischen Therapie direkter Thrombinhemmer 40,41, auch als pharmakodynamischer Schlüsselparameter in Phase-I-Studien derselben eingesetzt 42,43. Da jedoch höhere Konzentrationen der Thrombinhemmer die aPTT-Werte für die Kalibrierung verändern und darüber hinaus verschiedene aPTT-Reagenzien mit unterschiedlicher Empfindlichkeit gegenüber den Thrombinhemmern angeboten werden, ist die aPTT nicht der ideale Parameter zur Überwachung der Wirkung direkter Thrombinhemmer. Die ECT ist hierfür wesentlich spezifischer 40,41. Dennoch werden validierte ECT-Assays nicht kommerziell vertrieben, was deren Einsatz in der Klinik bisher unmöglich macht. Insofern ist es notwendig geworden, eine Empfehlung für den Übergang von intravenöser auf orale Antikoagulation mit dem bisherigen Instrument der INR zu finden. Auch wenn dies aus den o.g. Gründen nicht optimal ist, mag es zulässig sein, die Nomogramme für Acenocoumarol und Phenprocoumon in einfache Regeln zu übersetzen, ohne daß ein Sicherheitsproblem in der Klinik entsteht. Vorausgesetzt, ein Vorhersagefehler von <± 0,6 wird als annehmbar akzeptiert, 35 so erlaubt das Nomogramm für Phenprocoumon und Acenocoumarol eine valide Vorhersage der realen Gerinnungsverhältnisse bis zu einer Dosis von 2,0 µg/kg/min unter Verwendung eines ISI von 1-2. Derzeitige Richtlinien für die Hepariniserung nach tiefer Beinvenenthrombose 47 erlauben den Stopp der Infusionstherapie mit niedermolekularen Heparinen (bei gleichzeitiger Gabe einer oralen Antikoagluation), wenn der INR wenigstens 2,0 erreicht hat. Um den Übergang von Argatroban zu einer oralen Antikoagulation zu vereinfachen, wird eine Regel für die Berechnung der "wahren" INR während der Übergangsperiode vorgeschlagen: 1. Die Argatrobaninfusion kann eingestellt werden, wenn unter gleichzeitiger oraler Antikoagulation die INR für einen angemessenen Zeitraum der Komedikation bei 4,0 angekommen ist. Das gilt für einen ISI des PT-Reagens von 1-2. Die reale INR befindet sich dann im therapeutischen Bereich zwischen 2,2 und 3,7. 2. aPTT-Ergebnisse unter Argatroban und beginnender oraler Antikoagulation müssen um 5-15 Sekunden verkürzt abgelesen werden. Die Verlängerung der aPTT während des Übergangs von Argatroban auf die oraler Antikoagulation sollten nicht zu einer Unterbrechung bzw. Dosiserniedrigung der Argatroban-Infusion während dieses Zeitraums führen. Prinzipiell sollte die Dosis von Argatroban während der Übergangszeit auf die orale Antikoagulation bei 1-2 µg/kg/min fixiert werden. Genauso wie bei Hirudin 48 sollte die ECT, wenn klinisch angezeigt, zur Überwachung der direkten Argatroban-Effekte auf die Gerinnung benutzt und hierbei der aPTT als Alternative vorgezogen werden. Das gilt sowohl für die Anwendung von Argatroban alleine als auch die Kombination mit oralen Antikoagulanzien. Wie bereits oben erwähnt steht die ECT als validierte Messmethode für die Klinik bisher jedoch nicht zur Verfügung. Die Blutungszeit war in dieser Untersuchung in der Periode der Umstellung von Argatroban auf orale Antikoagulation nicht wesentlich verlängert, so daß für Patienten keine zusätzliche Blutungsgefahr entstanden ist. Einschränkend ist dennoch zu bemerken, daß obwohl in den erwähnten Phase-I-Untersuchungen an gesunden Probanden keine größeren Blutungsereignisse aufgetreten sind, bei Patienten durchaus ein erhöhte Blutungsgefährdung bei einer INR von > 3,0 bestehen kann. Dies ist in der Praxis aufmerksam zu kontrollieren. Argatroban ist also für HIT Typ II-Patienten, die unter klinischen Bedingungen antikoaguliert werden müssen, eine gut steuerbare Alternative, bei welcher auch die anschließende Umstellung auf orale Antikoagulation kontrolliert sicher handhabbar ist.
In einem Gespräch kommt es oft vor, dass dem Sprecher bei der Formulierung eines Gedankens ein "bestimmtes" Wort nicht einfällt, das er zum Ausdruck dessen, was er sagen möchte, benötigt. In diesem Moment wird häufig mit Hilfe des jeweiligen Gesprächspartners eine Suche nach dem passenden Ausdruck für den intentierten Sinn eingeleitet, die in einer das Gesprächsverständnis gewährleistenden lexikalischen Auswahl besteht. Dieser Vorgang offenbart – wie auch zahlreiche weitere Sprachhandlungen – den lebendigen Charakter der Sprache und lässt ersichtlich werden, dass Sprache im Sinne Humboldts 'Energeia' ist. Gegenstand und Zweck dieses Artikels sind die Beobachtung, Analyse und Beschreibung dieses lebendigen Charakters, wie er sich in der portugiesischen Sprache in Formulierungen in Gesprächssituationen manifestiert. Auf diese Weise will der Artikel auch daran erinnern, wie sehr Humboldts Sprachkonzeption den Grundlagen heutiger Studien zur Umgangssprache vorausliegt.
Zur Bibliographie: Aufgenommen sind alle Veröffentlichungen, die im SSCI oder A&HCI bis einschließlich 1991 als Quellen für Zitierungen der Aufsätze Horton/Wohl (1956) und Horton/Strauss (1957) nachgewiesen sind, sowie alle anderen mir vorliegenden Arbeiten, die diese Aufsätze bzw. das Konzept der parasozialen Interaktion erwähnen. Aufgrund dieses Verfahrens erscheinen einige Arbeiten, die Horton und Wohls Aufsatz lediglich am Rande erwähnen oder auch gar nicht der Kommunikationsforschung angehören. Leider werden deutschsprachige Zeitschriften bibliographisch kaum ausgewertet, so daß man für die Erfassung der deutschen Rezeption auf Querverweise und Zufallsfunde angewiesen ist.
1956 veröffentlichten Donald Horton und R. Richard Wohl in der Zeitschrift Psychiatry eine Arbeit mit dem Titel Mass communication and para-social interaction. Observations on intimacy at a distance. Sie schlugen darin vor, die Aktivitäten von Zuschauern bei der Nutzung von Massenmedien (insbesondere des Fernsehens) im Zusammenhang mit sozialer Interaktion zu verstehen. Eine der wichtigsten Eigenschaften der Massenmedien sei, so die These von Horton und Wohl, die Erzeugung einer Illusion von "face-to-face" Beziehungen zwischen Zuschauern und Darstellern (1956, 215). Besonders dem Fernsehen gelinge es, derartige Beziehungen zu ermöglichen, da es Größen abbildet, auf die soziale Wahrnehmung normalerweise gerichtet ist, wie z.B. Aussehen und Verhalten von Personen. Diese Beziehung der Zuschauer zu den im Medium Auftretenden wird "parasozial" genannt.Eine besondere Rolle bei der Erzeugung parasozialer Beziehungen fällt nach der These Horton und Wohls der direkten Adressierung des Publikums zu. Die passive Rolle eines nur Zusehenden werde überlagert, indem er in das Beziehungsgefüge hineingezogen werde, das das Programm anbiete. Anders ausgedrückt, er wird selbst Teil des Beziehungsgefüges.
Die vorliegende Arbeit befasst sich mit der übergeordneten Frage nach dem Einfluss der Multikollinearität bei der Spezifikation und Schätzung von latenten nichtlinearen Effekten in Strukturgleichungsmodellen. Da das Multikollinearitätsproblem in latenten nicht-linearen Strukturgleichungsmodellen bisher in der Literatur kaum Beachtung gefunden hat, wird als erstes die Frage beantwortet, welche Relevanz das Vorliegen von Multikollinearität in nichtlinearen Strukturgleichungsmodellen hat. Dabei wird aufgezeigt, dass Multikollinearität von Prädiktoren nicht nur bei linearen Strukturgleichungsmodellen ein Problem darstellt, sondern vor allem bei nicht-linearen Strukturgleichungsmodellen aufgrund des Vorhandenseins nicht-linearer Terme. Da nicht-lineare Terme untereinander in einem höheren Zusammenhang stehen können als lineare Terme eines Strukturmodells, kann es zu Scheineffekten und zu verzerrten Schätzungen der nichtlinearen Effekte kommen. Ein Teststärkeverlust tritt immer ein. Als zweites wird gezeigt, dass die am stärksten vertretene Ansatzklasse zur simultanen Schätzung von Interaktionseffekten und quadratischen Effekten, nämlich die Klasse der Produkt-Indikator-Ansätze, seit ihrer Erstpublikation durch Kenny und Judd (1984) Spezifikationsfehler aufweist, welche in ähnlicher Form auch in jüngeren Publikationen enthalten sind (z.B. bei Lee, Song & Poon, 2004). Spezifikationsfehler machen die ganze Ansatzklasse für Multikollinearität „anfällig“, so dass es theoretisch zu verzerrten Schätzungen oder Scheineffekten kommen muss. Es wird gezeigt, wie man die Spezifikationsfehler korrigieren kann, d.h. wie man die bestehenden Ansätze erweitern muss. Da die latente Prädiktorkorrelation Bestandteil der Spezifikationsfehler ist, stellt sich die Frage, wie groß die Verzerrungen sind, die sich bei der Anwendung der (unkorrigierten) Produkt-Indikator-Ansätze ergeben, wenn die Multikollinearität steigt. Um diese Frage zu beantworten, wird eine Simulationsstudie durchgeführt. Sie zeigt, dass der Zwei-Stufen-Ansatz von Ping (1996) verzerrte Schätzungen der nicht-linearen Effekte produziert. Dieser Ansatz ist ein Vertreter der Produkt-Indikator-Ansätze und enthält die besagten Spezifikationsfehler. In der Simulationsstudie wird außerdem gezeigt, dass die korrekte Erweiterung des Ansatzes von Jöreskog und Yang (1996) zu erwartungstreuen Schätzungen führt. Als drittes wird der Frage nachgegangen werden, welche theoretischen und empirischen Unterschiede zwischen den neuen verteilungsanalytischen Ansätzen LMS (Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007), einerseits, und den klassischen Produkt-Indikator-Ansätzen, andererseits, zu erwarten sind. Dazu werden die theoretischen Eigenschaften der verteilungsanalytischen Verfahren, LMS und QML, untereinander und mit der Klasse der Produkt-Indikator-Ansätze verglichen. Ihre theoretischen Eigenschaften werden beim Vorliegen von Multikollinearität betrachtet. Illustriert werden die theoretischen Unterschiede anhand einer Simulationsstudie, die die Ansätze hinsichtlich ihrer Schätzeigenschaften bei steigender Multikollinearität miteinander vergleicht. In der Simulationsstudie werden die theoretisch herausgearbeiteten Vorteile der verteilungsanalytischen Verfahren, LMS und QML, bestätigt. In der Zusammenschau der theoretischen Überlegungen und der Ergebnisse aus den Simulationsstudien zeigt sich, dass Multikollinearität für alle Ansätze zur simultanen Schätzung multipler nicht-linearer Effekte eine Herausforderung ist. Die forschungspraktische und inhaltliche Relevanz des Multikollinearitätsproblems wird anhand eines Beispiels veranschaulicht. Für in jüngster Zeit diskutierte komplexere Modelle (z.B. moderierte Mediatormodelle) wird Multikollinearität ein Kernproblem sein, dem sich alle Ansätze werden stellen müssen oder für das neue Ansätze entwickelt werden müssen.
Die vorliegende Arbeit befasst sich mit der übergeordneten Frage nach dem Einfluss der Multikollinearität bei der Spezifikation und Schätzung von latenten nichtlinearen Effekten in Strukturgleichungsmodellen. Da das Multikollinearitätsproblem in latenten nicht-linearen Strukturgleichungsmodellen bisher in der Literatur kaum Beachtung gefunden hat, wird als erstes die Frage beantwortet, welche Relevanz das Vorliegen von Multikollinearität in nichtlinearen Strukturgleichungsmodellen hat. Dabei wird aufgezeigt, dass Multikollinearität von Prädiktoren nicht nur bei linearen Strukturgleichungsmodellen ein Problem darstellt, sondern vor allem bei nicht-linearen Strukturgleichungsmodellen aufgrund des Vorhandenseins nicht-linearer Terme. Da nicht-lineare Terme untereinander in einem höheren Zusammenhang stehen können als lineare Terme eines Strukturmodells, kann es zu Scheineffekten und zu verzerrten Schätzungen der nichtlinearen Effekte kommen. Ein Teststärkeverlust tritt immer ein. Als zweites wird gezeigt, dass die am stärksten vertretene Ansatzklasse zur simultanen Schätzung von Interaktionseffekten und quadratischen Effekten, nämlich die Klasse der Produkt-Indikator-Ansätze, seit ihrer Erstpublikation durch Kenny und Judd (1984) Spezifikationsfehler aufweist, welche in ähnlicher Form auch in jüngeren Publikationen enthalten sind (z.B. bei Lee, Song & Poon, 2004). Spezifikationsfehler machen die ganze Ansatzklasse für Multikollinearität „anfällig“, so dass es theoretisch zu verzerrten Schätzungen oder Scheineffekten kommen muss. Es wird gezeigt, wie man die Spezifikationsfehler korrigieren kann, d.h. wie man die bestehenden Ansätze erweitern muss. Da die latente Prädiktorkorrelation Bestandteil der Spezifikationsfehler ist, stellt sich die Frage, wie groß die Verzerrungen sind, die sich bei der Anwendung der (unkorrigierten) Produkt-Indikator-Ansätze ergeben, wenn die Multikollinearität steigt. Um diese Frage zu beantworten, wird eine Simulationsstudie durchgeführt. Sie zeigt, dass der Zwei-Stufen-Ansatz von Ping (1996) verzerrte Schätzungen der nicht-linearen Effekte produziert. Dieser Ansatz ist ein Vertreter der Produkt-Indikator-Ansätze und enthält die besagten Spezifikationsfehler. In der Simulationsstudie wird außerdem gezeigt, dass die korrekte Erweiterung des Ansatzes von Jöreskog und Yang (1996) zu erwartungstreuen Schätzungen führt. Als drittes wird der Frage nachgegangen werden, welche theoretischen und empirischen Unterschiede zwischen den neuen verteilungsanalytischen Ansätzen LMS (Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007), einerseits, und den klassischen Produkt-Indikator-Ansätzen, andererseits, zu erwarten sind. Dazu werden die theoretischen Eigenschaften der verteilungsanalytischen Verfahren, LMS und QML, untereinander und mit der Klasse der Produkt-Indikator-Ansätze verglichen. Ihre theoretischen Eigenschaften werden beim Vorliegen von Multikollinearität betrachtet. Illustriert werden die theoretischen Unterschiede anhand einer Simulationsstudie, die die Ansätze hinsichtlich ihrer Schätzeigenschaften bei steigender Multikollinearität miteinander vergleicht. In der Simulationsstudie werden die theoretisch herausgearbeiteten Vorteile der verteilungsanalytischen Verfahren, LMS und QML, bestätigt. In der Zusammenschau der theoretischen Überlegungen und der Ergebnisse aus den Simulationsstudien zeigt sich, dass Multikollinearität für alle Ansätze zur simultanen Schätzung multipler nicht-linearer Effekte eine Herausforderung ist. Die forschungspraktische und inhaltliche Relevanz des Multikollinearitätsproblems wird anhand eines Beispiels veranschaulicht. Für in jüngster Zeit diskutierte komplexere Modelle (z.B. moderierte Mediatormodelle) wird Multikollinearität ein Kernproblem sein, dem sich alle Ansätze werden stellen müssen oder für das neue Ansätze entwickelt werden müssen.
Th¬e main principle of holism – "the whole is more than the sum of its parts" – can be traced back to ancient philosophical studies. Although the term itself was coined by Jan Christiaan Smuts in 1926, the earliest formulations can already be found in Taoism, in the philosophy of Lao Tzu, as well as in Aristotle's 'Metaphysics'. However, a complete and profound sense of the principle has only been revealed in such theories as Gestalt psychology (Kurt Koffka, Max Wertheimer and others), the general systems theory (Ludwig von Bertalanffy), and the theory of complexity (synergetics) as formulated by the Moscow school of synergetics (Sergey Pavlovich Kurdyumov), to name just a few. ¬inking in this direction, from the whole to the parts (subsystems), is quite unusual for classical science which, in its course of analysis, usually moves from distinct parts to the whole. In synergetics, according to Hermann Haken, order parameters determine how parts (subsystems) of complex systems behave. A select few order parameters, as Haken says, encompass the complex behavior of diverse parts and, therefore, lead to enormously reducing the complexity in a description of a given system.
Connecting narrative worlds
(2014)
Interkulturelle Kommunikation, interkulturelle Kompetenz und (soziale) Interaktion sind längst zu Schlagworten geworden, mit denen moderne Gesellschaften zentrale praktische Herausforderungen und wichtige Aspekte ihres Selbstverständnisses auf den Begriff zu bringen versuchen. Der Terminus interkulturelle Kommunikation steht dabei oft auch für Verständigungsschwierigkeiten, die in ganz verschiedenen Lebensbereichen und Berufsfeldern kontinuierlich zunehmen (vgl. Straub / Weidemann, 2007, S. 1). Kulturelle Differenzen gelten in dieser Hinsicht als beinahe unerschöpfliche Quelle von potentiellen Problemen der kommunikativen Verständigung. Im folgenden Beitrag werden vor allem Spezifika der interkulturellen Kommunikation im Allgemeinen und die soziale Interaktion der Akteure (Interaktionspartner) in der Kommunikation im Besonderen behandelt. Das Thema fokussiert in diesem Zusammenhang die Faktoren, die in der gegenseitigen Interaktion zwischen miteinander kommunizierenden Akteuren auftreten können bzw., welche Fragen in diesem Zusammenhang im Zentrum des Interesses stehen und was eher an der Peripherie (nebensächlich) ist.
Verpackt in Feedbackschleifen : Einblicke in Digitale Lehrformate des digitalen Sommersemesters
(2021)
Mit der pandemiebedingten Notwendigkeit im Sommersemester ausschließlich digital zu unterrichten ging eine große Frage einher: "Wie komme ich in Kontakt mit unseren Studierenden?" und mehr noch "Wie halte ich diesen Kontakt?" Studierende sind untereinander im Idealfall durch Messenger-Gruppen verbunden, für uns Dozierende bleibt häufig nur ein Kanal: die traditionelle E-Mail. Viele Studierende fragen ihre universitätseigene E-Mail nicht ab oder leiten sie nicht auf eine private E-Mail-Adresse um, was für uns im Grunde bedeutete, dass nur unsere Homepage als sicherer aber eben auch einseitiger Informationskanal zur Verfügung stand. "Wegweiser" zu den neuen digitalen Räumen konnten hier zwar aufgestellt werden, was in diesen Räumen aber angeboten wurde, sollte m.E. interaktiv an die Bedarfe unserer Studierenden angepasst werden. Es brauchte also eigentlich sogar mehr Interaktion als in analogen Lehrveranstaltungen. Daher war für mich bei der Transformation der für das Sommersemester geplanten Lehrveranstaltungen die Integration von Interaktionsmöglichkeiten ein zentraler Aspekt, ein Prozess der selbst aber eben auch ein Trial and Error-Verfahren war, der ohne Feedback ins Leere gelaufen wäre. Nachfolgend möchte ich ein Seminar und drei Formate vorstellen, die Feedback und Interaktion auf unterschiedliche Weise integrieren.
Visual working memory (WM) and selective attention are fundamental cognitive mechanisms, both operating at the interface between perception and action. They are related because both are postulated to have limits with respect to how much information can be processed. Specifically, selective attention has been implicated as a limiting factor for the storage capacity of visual WM. However, visual WM and attention have been largely studied in isolation and interactions between the two have rarely been addressed. This dissertation aimed at investigating interactions between selective attention and the encoding of information into visual WM in the context of one common characteristic feature, namely their limitation in capacity. An experimental task was used that combined visual search with delayed discrimination and the demands on selective attention and WM encoding were manipulated orthogonally. In each trial participants were presented with a search array consisting of nine different grey geometric shapes. A small L-shaped item that appeared in one of four different orientations and that was coloured either blue or red was placed in the centre of each shape. Participants were instructed to search for predefined target items (Ls oriented 90°) and to memorise the shapes associated with these target items. After a delay phase a probe was presented and participants decided whether it did or did not match one of the memorised shapes. Attentional demand was manipulated by changing the search efficiency in the visual search component of the task (easy vs. difficult search) and WM load was manipulated by the number of targets (1 to 5). A behavioural study was conducted to isolate the processes that allowed participants to successfully encode complex shapes into WM while engaging spatial attention for a visual search task. The data provided evidence for a two-step encoding strategy. In the first step participants selected and memorised only the locations of all target items and only then they encoded the associated shapes at a later step. This strategy allowed them to cope with the interference between WM and attention that would otherwise take place. In the second part of this dissertation interference between visual attention and the encoding into visual WM was investigated on the level of neural activation using functional magnetic resonance imaging (fMRI). Specifically, the hypothesis was tested that the capacity limitation of visual WM is due to common limited-capacity neural resources shared by visual WM and attention. Two separate fMRI experiments were conducted that combined visual search and delayed visual discrimination for either objects (experiment 1) or locations (experiment 2). The results revealed overlapping activation for attention-demanding visual search and object WM encoding in distributed posterior and frontal regions. In the right prefrontal cortex and bilateral insula BOLD activation additively increased with increased WM load and attentional demand. Conversely, the analysis revealed an interaction effect in several visual, parietal, and premotor areas. These regions showed overlapping activation for the two task components and were severely reduced in their WM load response under the condition with high attentional demand. This interaction effect was found in similar frontal and posterior regions when combining visual search and spatial WM encoding in experiment 2. In contrast, regions in the prefrontal cortex were selectively responsive to WM load and differed to some degree depending on the WM domain. Here, activation associated with increased WM load was delayed rather than reduced under high attentional demand. The fMRI results provide convergent evidence that visual selective attention and the encoding of information into WM share, to a high degree, common neural resources. The findings indicate that competition for resources shared by visual attention and WM encoding can limit processing capabilities in distributed posterior brain regions but not the prefrontal cortex. The findings support the view that WM evolves from the recruitement of attentional mechanisms (Cowan, 2001; Wheeler und Treisman, 2002) the very same that act upon perceptual representations as well (Slotnick, 2004; Jonides et al., 2005; Pasternak and Greenlee, 2005; Postle, 2006; Ranganath, 2006). The similarity in the effects of interference between attention and the encoding of objects or locations into WM indicates that the attention-based model of WM encoding is valid across different WM domains. The capacity of visual WM can be limited at various stages of processing. The behavioural and fMRI data presented in this dissertation illustrate that one major bottleneck of information processing arises from the common demands on neural and cognitive resources shared between visual WM and selective attention during the encoding stage.
The aim of the present paper is to highlight some aspects of bilingualism in a German minority language community located in the South of Brazil. Based on ethnographic research methods, the study describes language use in face-to-face interactions between bilingual students and their teacher in a monolingual primary school, focusing on Portuguese-German code-switching from a socio-functional perspective. The results suggest that code-switching should not be associated with language deficit, but with the bilingual discourse since the phenomenon could be seen both as a relevant conversational strategy as well as a significant learning resource among bilingual children.
Current objectives of human-animal studies : why the story of Harriet the tortoise should be retold
(2022)
In her article, "Current Objectives of Human-Animal Studies: Why the Story of Harriet the Tortoise Should Be Retold," Mieke Roscher responds to Haraway's call to action in "When Species Meet" in order to propose a political history of animals. To develop this new historiographical approach, she turns to concepts of agency and human-animal interaction as the most widely discussed paths to making visible the involvement of animals in "our" shared history. Built on the story of Harriet, a Galápagos tortoise and a decisive historical figure living in the Galápagos Islands during Darwin's visit in 1835, who died as recently as 2006, Roscher shows how praxiography, material culture, and spatial approaches could be connected to tell different stories to the ones currently being told by traditional historiography. Tortoises and turtles in particular have already influenced historical thinking, not least because they have come to symbolize the extinction discourse as well as debates on climatic change and the Anthropocene. Hence, Roscher introduces a political history of animals that pays attention to agency and relations (and agency as a relation), practices and materialities, spaces and places, and offers a way to retell Harriet's life story - and the life stories of many other animals - in the future.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
Die moderne Biochemie ist eine Wissenschaft, die sich im Wandel befindet. Während die bisherige Forschung sehr stark experimentell geprägt ist, existiert eine theoretische Biologie, analog zur theoretischen Chemie, nur in Ansätzen. Trotzdem wandelt sich auch diese Wissenschaft hin zu einer stärkeren Einbindung theoretischer Ansätze. Der Grund hierfür liegt in der Betrachtung von zunehmend komplexeren Systemen. So beschäftigt man sich in der Systembiologie, einem Teilbereich der Biochemie, unter anderem mit der Aufklärung komplexer Reaktionsnetzwerke. Während Ausschnitte dieser Netzwerke weiterhin experimentell aufgeklärt und verstanden werden, lässt sich das zusammenhängende Bild zunehmend nur noch durch eine theoretisch geprägte Modellbildung fassen. Darüber hinaus zeigen neuere Forschungsergebnisse die Bedeutung der Tatsache, dass Moleküle, Zellen und Zellhaufen, also wichtige Forschungsubjekte der Biochmie, dreidimensionale Gebilde sind – eine Tatsache, die bei der Modellbildung berücksichtigt werden muss. Eine Antwort auf die genannten Herausforderungen ist der konzertierte Einsatz von Simulation und Visualisierung als Mittel des Erkenntnisgewinns. Damit ist die Informatik gefordert entsprechende dedizierte Werkzeuge zu entwickeln, die Simulation, Visualisierung und Interaktion im Kontext des von der Anwendungsdisziplin gesetzten räumlich-zeitlichen Problemkreises miteinander verbinden. In dieser Arbeit wird ein integriertes Konzept zu Simulation, Interaktivität und Visualisierung vorgelegt, das auf einer Anforderungsanalyse in Bezug auf Anforderungen an die Simulation und Anforderungen an die Interaktivität und Visualisierung basiert. Zur Lösung der aufgeworfenen Probleme wird ein „Baukastensystem“ auf Basis von Multi-Agenten-Systemen vorgeschlagen. Die Auswahl des geeigneten Simulationsverfahrens, z. B. die Auswahl eines stochastischen Verfahrens gegenüber einem deterministischen Verfahrens, wird so zur Auswahl eines Bausteins, wobei gezeigt wird, wie z. B. mit Hilfe von Regeln die Auswahl auch automatisiert werden kann. Ebenso wird gezeigt, wie man „Baussteine“ auch im räumlichen Sinne verstehen kann, als Dinge, die in einem dreidimensionalen Kontext einen bestimmten Raum einnehmen und die, in ihrer Gesamtheit betrachtet, den Beobachtungsraum der Simulation ausfüllen. Diese Bausteine finden sich entsprechend ebenfalls im Kontext der Interaktion wieder. Ein wichtiger Aspekt in diesem Baukastenkonzept ist die Frage der Kommunikationsstruktur und des Kommunikationsprotokolls, für den ein Vorschlag erarbeitet wird. Das entwickelte Gesamtkonzept besteht aus zwei Teilen: Einem Konzept für Ein- und Ausgabegeräte mit einer gemeinsamen Metapher, die die Geräte logisch in den Anwendungskontext einbettet und einem Simulations- und Visualisierungskonzept auf der Basis der Kopplung heterogener intelligenter Agenten in eine gemeinsame Simulationsumgebung. Hierfür wurde ein spezieller Dialekt einer Agentenkommunikationssprache entwickelt, der dabei insbesondere den Aspekt der dreidimensionalen Visualierung einer solchen Simulation berücksichtigt.
Das Ziel der vorliegenden Arbeit bestand darin, die Wechselwirkung des AD-assoziierten Proteins PS1 mit dem Cytoskelett in verschiedenen biochemischen und immuncytochemischen Modellen zu untersuchen. Auf diese Weise sollten Hinweise für das Verständnis der bisher nur in Grundzügen bekannten physiologischen Funktion von PS1 erhalten werden. Ausgehend vom Nachweis der Anreicherung endoproteolytischer PSI-Fragmente in Cytoskelett-Fraktionen aus Hirngewebe wurde die spezifische Assoziation des Proteins mit Mikrofilamenten, Mikrotubuli und Neurofilamenten untersucht. Alle durchgeführten biochemischen und immuncytochemischen Experimente zeigen übereinstimmend die spezifische Assoziation von PS1 mit Mikrofilamenten. So konnten PSI-Fragmente über zwei Depolymerisations/ Polymerisations-Zyklen zusammen mit Actin aus Rattenhirn aufgereinigt werden. Die spezifische Spaltung von Actin-Filamenten durch Gelsolin in cytoskelettreichen Fraktionen aus Hirngewebe führte zur Freisetzung kürzerer Filamente, die nach Zentrifugation zusammen mit PS1- Fragmenten im Überstand erschienen. In immuncytochemischen Färbungen kolokalisierte PS1 mit Actin-Filamenten in primären Gliazellen und der neuronalen Zelinie NT2. Eine vor kurzem veröffentlichte Arbeit zeigte außerdem die Kolokalisation von PS1 und Mikrofdamenten in primären Hippocampus-Neuronen. Die fehlende Kosedimentation von in-vitro translatiertem PS1 und Deletionskonstrukten von PS1 mit aufgereinigten und in-vitro assemblierten Actin-Filamenten, das Fehlen konservierter Actin-Bindungsmotive in der Aminosäuresequenz von PS1 sowie bekannte Interaktionen von PS1 mit Actin-bindenden Vertretern der Filamin- und Armadillo-Proteinfamilien lassen auf eine indirekte Assoziation von PS1 mit Mikrofdamenten schließen. Die vorliegende Arbeit konnte die Frage, welche Rolle Mikrotuli oder Neurofilamente bei der Cytoskelett-Assoziation von PS1 spielen, nicht abschließend Mären. PS1-Fragemente wurden im ersten, nicht jedoch im zweiten Depolymerisations/Polymerisations-Zyklus zusammen mit Tubulin aus Rattenhirn aufgereinigt. In dem gleichen Versuchsansatz kosedimentierte in-vitro translatiertes PS1 nicht mit Mikrotubuli. Immuncytochemische Färbungen zeigten dagegen die Kolokalisation von PS1 mit Mikrotubuli in primären Hippocampus-Neuronen, die auch von zwei aktuellen Arbeiten in primären Hippocampus-Neuronen und murinen Embryonen bestätigt wurde. Die spezifische Depolymerisation von Mikrotubuli in cytoskelettreichen Fraktionen war unter den in der vorliegenden Arbeit verwendeten Bedingungen nicht erfolgreich, so daß aus diesem Experiment keine Aussagen zur Assoziation von PS1 mit Mikrotubuli abgeleitet werden konnten. Es Iäßt sich die Hypothese aufstellen, daß sehr kleine PSI-haltige Vesikel über andere Proteine als PS1 mit Mikrotubuli verbunden sind, so daß PS1 mit Mikrotubuli scheinbar kolokalisiert ist. Hochauflösenden lichtmikroskopische bzw. elektronenmikroskopische Aufnahmen oder biochemische Versuche, die nicht zur Zerstörung der Vesikel durch Detergens führen, könnten für die Überprüfung dieser Hypothese herangezogen werden. In-vitro translatiertes PS1 sowie Deletionskonstrukte von PS1 kosedimentierten nicht mit aufgereinigten und in-vitro assemblierten Neurofilamenten, und in primären Hippocampus-Neuronen kolokalisierte PS1 nicht mit Neurofilamenten. Es wäre jedoch wünschenswert, die Experimente mit geeigneten Positiv-Kontrollen für die Kosedimentation und geeigneteren Antikörpern, die bei einem besseren Signal/Hintergrund-Verhältnis eine stärkere Vergrößerung der Immunfluoreszenzen erlauben, zu wiederholen. Im transgenen Tiermodell beeinträchtigten pathogene Mutationen von PS1 nicht, zumindest nicht quantitativ, die Fähigkeit von PS1, an Cytoskelett-Elemente zu binden. Es wäre jedoch möglich, daß es Unterschiede in der Cytoskelett-Assoziation von wt PS1 und PS1 mit pathogenen Mutationen gibt, die nur im Gewebe von FAD-Patienten zu detektieren sind, nicht aber im transgenen Tiermodell, da die bisher bekannten AD-Tiermodelle nicht alle Aspekte der Erkrankung reproduzieren. Die vorliegenden Ergebnisse können die Basis bilden für weitergehende Untersuchungen zur Funktion von PS1 und der Bedeutung von PS1-Cytoskelettinteraktionen in der Alzheimer Demenz. Aktuelle Arbeiten fokussieren dabei stark auf die Interaktion von PS1 mit Mikrofilament-bindenden Vertretern der Armadillo-Proteinfamilie, die bei Zell-Zell-Adhäsionsprozessen eine wichtige Rolle spielen. Im Diskussionsteil wurde ausgeführt, daß aber, gerade im Hinblick auf die Neurodegeneration bei der Alzheimer Demenz, ein möglicher Einfluß von PS1 auf den schnellen axonalen Transport ein interessanter Ansatz für weitere Versuche sein kann.