Refine
Year of publication
Document Type
- Article (5)
- Doctoral Thesis (5)
- Part of Periodical (2)
- Part of a Book (1)
- Conference Proceeding (1)
- Diploma Thesis (1)
- magisterthesis (1)
- Report (1)
Language
- German (17) (remove)
Has Fulltext
- yes (17)
Is part of the Bibliography
- no (17) (remove)
Keywords
- Interaktion (17) (remove)
Institute
- Psychologie (2)
- Biochemie und Chemie (1)
- Gesellschaftswissenschaften (1)
- Informatik (1)
- Kulturwissenschaften (1)
- Medizin (1)
- Wirtschaftswissenschaften (1)
The aim of the present paper is to highlight some aspects of bilingualism in a German minority language community located in the South of Brazil. Based on ethnographic research methods, the study describes language use in face-to-face interactions between bilingual students and their teacher in a monolingual primary school, focusing on Portuguese-German code-switching from a socio-functional perspective. The results suggest that code-switching should not be associated with language deficit, but with the bilingual discourse since the phenomenon could be seen both as a relevant conversational strategy as well as a significant learning resource among bilingual children.
In einem Gespräch kommt es oft vor, dass dem Sprecher bei der Formulierung eines Gedankens ein "bestimmtes" Wort nicht einfällt, das er zum Ausdruck dessen, was er sagen möchte, benötigt. In diesem Moment wird häufig mit Hilfe des jeweiligen Gesprächspartners eine Suche nach dem passenden Ausdruck für den intentierten Sinn eingeleitet, die in einer das Gesprächsverständnis gewährleistenden lexikalischen Auswahl besteht. Dieser Vorgang offenbart – wie auch zahlreiche weitere Sprachhandlungen – den lebendigen Charakter der Sprache und lässt ersichtlich werden, dass Sprache im Sinne Humboldts 'Energeia' ist. Gegenstand und Zweck dieses Artikels sind die Beobachtung, Analyse und Beschreibung dieses lebendigen Charakters, wie er sich in der portugiesischen Sprache in Formulierungen in Gesprächssituationen manifestiert. Auf diese Weise will der Artikel auch daran erinnern, wie sehr Humboldts Sprachkonzeption den Grundlagen heutiger Studien zur Umgangssprache vorausliegt.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
The focus on communication in research on professional and scientific language somehow reflects the intention of John L. Austin's phrase "How to do things with words?" But a description based on the concept of communication ultimately also relies on linguistic idiosyncrasies. We will look at things the other way round and ask first "how to do (professional) things" and then look at the linguistic units used specifically for this purpose. Professionalism in this view takes very different forms for different types of actions ("practices"). Although reliability and professional authority are central features of all linguistic realizations to be considered, they are represented in very different ways. As a result, professionalism not only shows in the high degree of explicitness of technical prose typical for written scientific discussion. It is also reflected in the high degree of implicitness of speech that accompanies and constitutes practical action.
Interkulturelle Kommunikation, interkulturelle Kompetenz und (soziale) Interaktion sind längst zu Schlagworten geworden, mit denen moderne Gesellschaften zentrale praktische Herausforderungen und wichtige Aspekte ihres Selbstverständnisses auf den Begriff zu bringen versuchen. Der Terminus interkulturelle Kommunikation steht dabei oft auch für Verständigungsschwierigkeiten, die in ganz verschiedenen Lebensbereichen und Berufsfeldern kontinuierlich zunehmen (vgl. Straub / Weidemann, 2007, S. 1). Kulturelle Differenzen gelten in dieser Hinsicht als beinahe unerschöpfliche Quelle von potentiellen Problemen der kommunikativen Verständigung. Im folgenden Beitrag werden vor allem Spezifika der interkulturellen Kommunikation im Allgemeinen und die soziale Interaktion der Akteure (Interaktionspartner) in der Kommunikation im Besonderen behandelt. Das Thema fokussiert in diesem Zusammenhang die Faktoren, die in der gegenseitigen Interaktion zwischen miteinander kommunizierenden Akteuren auftreten können bzw., welche Fragen in diesem Zusammenhang im Zentrum des Interesses stehen und was eher an der Peripherie (nebensächlich) ist.
In dieser klinischen Phase I-Studie an 39 gesunden, männlichen Probanden im Alter zwischen 18 und 45 Jahren wurde die Fragestellung untersucht, wie ein Übergang von intravenöser Blutgerinnungshemmung mit dem direkten Thrombinhemmer Argatroban und den oralen Antikoagulantien Phenprocoumon und Acenocoumarol in der klinischen Praxis zu kontrollieren ist. Bei den bisher verwendeten Laboruntersuchungen, wie der aPTT existieren Interaktionen zwischen Argatroban und oraler Antikoagulation, welche nicht notwendigerweise die wirkliche in vivo Situation reflektieren, was durch eine ex vivo-in vitro-Interferenz des Gerinnungsassays verursacht wird. APTT Reagenzien aktivieren die intrinsische Gerinnungskaskade zu einem sehr frühen Zeitpunkt (gleich zu Beginn derselben bei Faktor XI). Dadurch werden die Interaktionen zwischen der oralen Antikoagulation und den Rückkopplungsmechanismen zwischen beiden Gerinnungswegen, welche durch die orale Antikoagulation teilweise erschöpft sind, begreifbar. Ebenso wurde die Interaktion zwischen anderen direkten Thrombinhemmern und der oralen Antikoagulation am Beispiel Napsagatran mit Warfarin beschrieben 35: Die Gabe von Napsagatran alleine führte zur Erhöhung von aPTT und Prothrombinzeit (PT), die zusätzliche Einmaldosis Warfarin erhöhte die AUEC (Fläche unter der Effekt-Kurve) für die PT zusätzlich um das vierfache und für die aPTT um 45%. Obwohl die PT unter dem Einfluss direkter Thrombinhemmer verlängert ist, wird sie nicht als Parameter des Monitorings der Wirkung therapeutischer Dosierungen von Argatroban und anderen direkten Thrombinhemmern bei der Thrombosephrophylaxe und Behandlung tiefer Beinvenethrombosen empfohlen 39. Die aPTT wird hingegen, neben ihrem Einsatz zur Überwachung der klinischen Therapie direkter Thrombinhemmer 40,41, auch als pharmakodynamischer Schlüsselparameter in Phase-I-Studien derselben eingesetzt 42,43. Da jedoch höhere Konzentrationen der Thrombinhemmer die aPTT-Werte für die Kalibrierung verändern und darüber hinaus verschiedene aPTT-Reagenzien mit unterschiedlicher Empfindlichkeit gegenüber den Thrombinhemmern angeboten werden, ist die aPTT nicht der ideale Parameter zur Überwachung der Wirkung direkter Thrombinhemmer. Die ECT ist hierfür wesentlich spezifischer 40,41. Dennoch werden validierte ECT-Assays nicht kommerziell vertrieben, was deren Einsatz in der Klinik bisher unmöglich macht. Insofern ist es notwendig geworden, eine Empfehlung für den Übergang von intravenöser auf orale Antikoagulation mit dem bisherigen Instrument der INR zu finden. Auch wenn dies aus den o.g. Gründen nicht optimal ist, mag es zulässig sein, die Nomogramme für Acenocoumarol und Phenprocoumon in einfache Regeln zu übersetzen, ohne daß ein Sicherheitsproblem in der Klinik entsteht. Vorausgesetzt, ein Vorhersagefehler von <± 0,6 wird als annehmbar akzeptiert, 35 so erlaubt das Nomogramm für Phenprocoumon und Acenocoumarol eine valide Vorhersage der realen Gerinnungsverhältnisse bis zu einer Dosis von 2,0 µg/kg/min unter Verwendung eines ISI von 1-2. Derzeitige Richtlinien für die Hepariniserung nach tiefer Beinvenenthrombose 47 erlauben den Stopp der Infusionstherapie mit niedermolekularen Heparinen (bei gleichzeitiger Gabe einer oralen Antikoagluation), wenn der INR wenigstens 2,0 erreicht hat. Um den Übergang von Argatroban zu einer oralen Antikoagulation zu vereinfachen, wird eine Regel für die Berechnung der "wahren" INR während der Übergangsperiode vorgeschlagen: 1. Die Argatrobaninfusion kann eingestellt werden, wenn unter gleichzeitiger oraler Antikoagulation die INR für einen angemessenen Zeitraum der Komedikation bei 4,0 angekommen ist. Das gilt für einen ISI des PT-Reagens von 1-2. Die reale INR befindet sich dann im therapeutischen Bereich zwischen 2,2 und 3,7. 2. aPTT-Ergebnisse unter Argatroban und beginnender oraler Antikoagulation müssen um 5-15 Sekunden verkürzt abgelesen werden. Die Verlängerung der aPTT während des Übergangs von Argatroban auf die oraler Antikoagulation sollten nicht zu einer Unterbrechung bzw. Dosiserniedrigung der Argatroban-Infusion während dieses Zeitraums führen. Prinzipiell sollte die Dosis von Argatroban während der Übergangszeit auf die orale Antikoagulation bei 1-2 µg/kg/min fixiert werden. Genauso wie bei Hirudin 48 sollte die ECT, wenn klinisch angezeigt, zur Überwachung der direkten Argatroban-Effekte auf die Gerinnung benutzt und hierbei der aPTT als Alternative vorgezogen werden. Das gilt sowohl für die Anwendung von Argatroban alleine als auch die Kombination mit oralen Antikoagulanzien. Wie bereits oben erwähnt steht die ECT als validierte Messmethode für die Klinik bisher jedoch nicht zur Verfügung. Die Blutungszeit war in dieser Untersuchung in der Periode der Umstellung von Argatroban auf orale Antikoagulation nicht wesentlich verlängert, so daß für Patienten keine zusätzliche Blutungsgefahr entstanden ist. Einschränkend ist dennoch zu bemerken, daß obwohl in den erwähnten Phase-I-Untersuchungen an gesunden Probanden keine größeren Blutungsereignisse aufgetreten sind, bei Patienten durchaus ein erhöhte Blutungsgefährdung bei einer INR von > 3,0 bestehen kann. Dies ist in der Praxis aufmerksam zu kontrollieren. Argatroban ist also für HIT Typ II-Patienten, die unter klinischen Bedingungen antikoaguliert werden müssen, eine gut steuerbare Alternative, bei welcher auch die anschließende Umstellung auf orale Antikoagulation kontrolliert sicher handhabbar ist.
Die moderne Biochemie ist eine Wissenschaft, die sich im Wandel befindet. Während die bisherige Forschung sehr stark experimentell geprägt ist, existiert eine theoretische Biologie, analog zur theoretischen Chemie, nur in Ansätzen. Trotzdem wandelt sich auch diese Wissenschaft hin zu einer stärkeren Einbindung theoretischer Ansätze. Der Grund hierfür liegt in der Betrachtung von zunehmend komplexeren Systemen. So beschäftigt man sich in der Systembiologie, einem Teilbereich der Biochemie, unter anderem mit der Aufklärung komplexer Reaktionsnetzwerke. Während Ausschnitte dieser Netzwerke weiterhin experimentell aufgeklärt und verstanden werden, lässt sich das zusammenhängende Bild zunehmend nur noch durch eine theoretisch geprägte Modellbildung fassen. Darüber hinaus zeigen neuere Forschungsergebnisse die Bedeutung der Tatsache, dass Moleküle, Zellen und Zellhaufen, also wichtige Forschungsubjekte der Biochmie, dreidimensionale Gebilde sind – eine Tatsache, die bei der Modellbildung berücksichtigt werden muss. Eine Antwort auf die genannten Herausforderungen ist der konzertierte Einsatz von Simulation und Visualisierung als Mittel des Erkenntnisgewinns. Damit ist die Informatik gefordert entsprechende dedizierte Werkzeuge zu entwickeln, die Simulation, Visualisierung und Interaktion im Kontext des von der Anwendungsdisziplin gesetzten räumlich-zeitlichen Problemkreises miteinander verbinden. In dieser Arbeit wird ein integriertes Konzept zu Simulation, Interaktivität und Visualisierung vorgelegt, das auf einer Anforderungsanalyse in Bezug auf Anforderungen an die Simulation und Anforderungen an die Interaktivität und Visualisierung basiert. Zur Lösung der aufgeworfenen Probleme wird ein „Baukastensystem“ auf Basis von Multi-Agenten-Systemen vorgeschlagen. Die Auswahl des geeigneten Simulationsverfahrens, z. B. die Auswahl eines stochastischen Verfahrens gegenüber einem deterministischen Verfahrens, wird so zur Auswahl eines Bausteins, wobei gezeigt wird, wie z. B. mit Hilfe von Regeln die Auswahl auch automatisiert werden kann. Ebenso wird gezeigt, wie man „Baussteine“ auch im räumlichen Sinne verstehen kann, als Dinge, die in einem dreidimensionalen Kontext einen bestimmten Raum einnehmen und die, in ihrer Gesamtheit betrachtet, den Beobachtungsraum der Simulation ausfüllen. Diese Bausteine finden sich entsprechend ebenfalls im Kontext der Interaktion wieder. Ein wichtiger Aspekt in diesem Baukastenkonzept ist die Frage der Kommunikationsstruktur und des Kommunikationsprotokolls, für den ein Vorschlag erarbeitet wird. Das entwickelte Gesamtkonzept besteht aus zwei Teilen: Einem Konzept für Ein- und Ausgabegeräte mit einer gemeinsamen Metapher, die die Geräte logisch in den Anwendungskontext einbettet und einem Simulations- und Visualisierungskonzept auf der Basis der Kopplung heterogener intelligenter Agenten in eine gemeinsame Simulationsumgebung. Hierfür wurde ein spezieller Dialekt einer Agentenkommunikationssprache entwickelt, der dabei insbesondere den Aspekt der dreidimensionalen Visualierung einer solchen Simulation berücksichtigt.
Die vorliegende Arbeit befasst sich mit der übergeordneten Frage nach dem Einfluss der Multikollinearität bei der Spezifikation und Schätzung von latenten nichtlinearen Effekten in Strukturgleichungsmodellen. Da das Multikollinearitätsproblem in latenten nicht-linearen Strukturgleichungsmodellen bisher in der Literatur kaum Beachtung gefunden hat, wird als erstes die Frage beantwortet, welche Relevanz das Vorliegen von Multikollinearität in nichtlinearen Strukturgleichungsmodellen hat. Dabei wird aufgezeigt, dass Multikollinearität von Prädiktoren nicht nur bei linearen Strukturgleichungsmodellen ein Problem darstellt, sondern vor allem bei nicht-linearen Strukturgleichungsmodellen aufgrund des Vorhandenseins nicht-linearer Terme. Da nicht-lineare Terme untereinander in einem höheren Zusammenhang stehen können als lineare Terme eines Strukturmodells, kann es zu Scheineffekten und zu verzerrten Schätzungen der nichtlinearen Effekte kommen. Ein Teststärkeverlust tritt immer ein. Als zweites wird gezeigt, dass die am stärksten vertretene Ansatzklasse zur simultanen Schätzung von Interaktionseffekten und quadratischen Effekten, nämlich die Klasse der Produkt-Indikator-Ansätze, seit ihrer Erstpublikation durch Kenny und Judd (1984) Spezifikationsfehler aufweist, welche in ähnlicher Form auch in jüngeren Publikationen enthalten sind (z.B. bei Lee, Song & Poon, 2004). Spezifikationsfehler machen die ganze Ansatzklasse für Multikollinearität „anfällig“, so dass es theoretisch zu verzerrten Schätzungen oder Scheineffekten kommen muss. Es wird gezeigt, wie man die Spezifikationsfehler korrigieren kann, d.h. wie man die bestehenden Ansätze erweitern muss. Da die latente Prädiktorkorrelation Bestandteil der Spezifikationsfehler ist, stellt sich die Frage, wie groß die Verzerrungen sind, die sich bei der Anwendung der (unkorrigierten) Produkt-Indikator-Ansätze ergeben, wenn die Multikollinearität steigt. Um diese Frage zu beantworten, wird eine Simulationsstudie durchgeführt. Sie zeigt, dass der Zwei-Stufen-Ansatz von Ping (1996) verzerrte Schätzungen der nicht-linearen Effekte produziert. Dieser Ansatz ist ein Vertreter der Produkt-Indikator-Ansätze und enthält die besagten Spezifikationsfehler. In der Simulationsstudie wird außerdem gezeigt, dass die korrekte Erweiterung des Ansatzes von Jöreskog und Yang (1996) zu erwartungstreuen Schätzungen führt. Als drittes wird der Frage nachgegangen werden, welche theoretischen und empirischen Unterschiede zwischen den neuen verteilungsanalytischen Ansätzen LMS (Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007), einerseits, und den klassischen Produkt-Indikator-Ansätzen, andererseits, zu erwarten sind. Dazu werden die theoretischen Eigenschaften der verteilungsanalytischen Verfahren, LMS und QML, untereinander und mit der Klasse der Produkt-Indikator-Ansätze verglichen. Ihre theoretischen Eigenschaften werden beim Vorliegen von Multikollinearität betrachtet. Illustriert werden die theoretischen Unterschiede anhand einer Simulationsstudie, die die Ansätze hinsichtlich ihrer Schätzeigenschaften bei steigender Multikollinearität miteinander vergleicht. In der Simulationsstudie werden die theoretisch herausgearbeiteten Vorteile der verteilungsanalytischen Verfahren, LMS und QML, bestätigt. In der Zusammenschau der theoretischen Überlegungen und der Ergebnisse aus den Simulationsstudien zeigt sich, dass Multikollinearität für alle Ansätze zur simultanen Schätzung multipler nicht-linearer Effekte eine Herausforderung ist. Die forschungspraktische und inhaltliche Relevanz des Multikollinearitätsproblems wird anhand eines Beispiels veranschaulicht. Für in jüngster Zeit diskutierte komplexere Modelle (z.B. moderierte Mediatormodelle) wird Multikollinearität ein Kernproblem sein, dem sich alle Ansätze werden stellen müssen oder für das neue Ansätze entwickelt werden müssen.
Die vorliegende Arbeit befasst sich mit der übergeordneten Frage nach dem Einfluss der Multikollinearität bei der Spezifikation und Schätzung von latenten nichtlinearen Effekten in Strukturgleichungsmodellen. Da das Multikollinearitätsproblem in latenten nicht-linearen Strukturgleichungsmodellen bisher in der Literatur kaum Beachtung gefunden hat, wird als erstes die Frage beantwortet, welche Relevanz das Vorliegen von Multikollinearität in nichtlinearen Strukturgleichungsmodellen hat. Dabei wird aufgezeigt, dass Multikollinearität von Prädiktoren nicht nur bei linearen Strukturgleichungsmodellen ein Problem darstellt, sondern vor allem bei nicht-linearen Strukturgleichungsmodellen aufgrund des Vorhandenseins nicht-linearer Terme. Da nicht-lineare Terme untereinander in einem höheren Zusammenhang stehen können als lineare Terme eines Strukturmodells, kann es zu Scheineffekten und zu verzerrten Schätzungen der nichtlinearen Effekte kommen. Ein Teststärkeverlust tritt immer ein. Als zweites wird gezeigt, dass die am stärksten vertretene Ansatzklasse zur simultanen Schätzung von Interaktionseffekten und quadratischen Effekten, nämlich die Klasse der Produkt-Indikator-Ansätze, seit ihrer Erstpublikation durch Kenny und Judd (1984) Spezifikationsfehler aufweist, welche in ähnlicher Form auch in jüngeren Publikationen enthalten sind (z.B. bei Lee, Song & Poon, 2004). Spezifikationsfehler machen die ganze Ansatzklasse für Multikollinearität „anfällig“, so dass es theoretisch zu verzerrten Schätzungen oder Scheineffekten kommen muss. Es wird gezeigt, wie man die Spezifikationsfehler korrigieren kann, d.h. wie man die bestehenden Ansätze erweitern muss. Da die latente Prädiktorkorrelation Bestandteil der Spezifikationsfehler ist, stellt sich die Frage, wie groß die Verzerrungen sind, die sich bei der Anwendung der (unkorrigierten) Produkt-Indikator-Ansätze ergeben, wenn die Multikollinearität steigt. Um diese Frage zu beantworten, wird eine Simulationsstudie durchgeführt. Sie zeigt, dass der Zwei-Stufen-Ansatz von Ping (1996) verzerrte Schätzungen der nicht-linearen Effekte produziert. Dieser Ansatz ist ein Vertreter der Produkt-Indikator-Ansätze und enthält die besagten Spezifikationsfehler. In der Simulationsstudie wird außerdem gezeigt, dass die korrekte Erweiterung des Ansatzes von Jöreskog und Yang (1996) zu erwartungstreuen Schätzungen führt. Als drittes wird der Frage nachgegangen werden, welche theoretischen und empirischen Unterschiede zwischen den neuen verteilungsanalytischen Ansätzen LMS (Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007), einerseits, und den klassischen Produkt-Indikator-Ansätzen, andererseits, zu erwarten sind. Dazu werden die theoretischen Eigenschaften der verteilungsanalytischen Verfahren, LMS und QML, untereinander und mit der Klasse der Produkt-Indikator-Ansätze verglichen. Ihre theoretischen Eigenschaften werden beim Vorliegen von Multikollinearität betrachtet. Illustriert werden die theoretischen Unterschiede anhand einer Simulationsstudie, die die Ansätze hinsichtlich ihrer Schätzeigenschaften bei steigender Multikollinearität miteinander vergleicht. In der Simulationsstudie werden die theoretisch herausgearbeiteten Vorteile der verteilungsanalytischen Verfahren, LMS und QML, bestätigt. In der Zusammenschau der theoretischen Überlegungen und der Ergebnisse aus den Simulationsstudien zeigt sich, dass Multikollinearität für alle Ansätze zur simultanen Schätzung multipler nicht-linearer Effekte eine Herausforderung ist. Die forschungspraktische und inhaltliche Relevanz des Multikollinearitätsproblems wird anhand eines Beispiels veranschaulicht. Für in jüngster Zeit diskutierte komplexere Modelle (z.B. moderierte Mediatormodelle) wird Multikollinearität ein Kernproblem sein, dem sich alle Ansätze werden stellen müssen oder für das neue Ansätze entwickelt werden müssen.