Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (3646) (remove)
Language
- German (3646) (remove)
Is part of the Bibliography
- no (3646)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (10)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1403)
- Biochemie und Chemie (447)
- Biowissenschaften (409)
- Pharmazie (237)
- Physik (216)
- Biochemie, Chemie und Pharmazie (101)
- Gesellschaftswissenschaften (96)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
Die Unternehmensbesteuerung ist eines der Instrumentarien das im Wettbewerb um den mobilen Faktor Kapital von den Industriestaaten eingesetzt wird. Hinsichtlich der wissenschaftlichen Forschung, die den Zusammenhang zwischen der Unternehmensbesteuerung und dem unternehmerischen Kapitalstock untersucht, ist mittlerweile eine beträchtliche Zahl von Literatur entstanden. Aus der vorhandenen Literatur sind jedoch zwei Schwächen zu erkennen. Erstens basieren viele der empirischen Analysen auf makroökonomischen Zeitreihendaten und zweitens finden vor allem Reduzierte-Form-Modelle Anwendung. Die vorliegende Dissertation gliedert sich in die Reihe empirischer Arbeiten unter Verwendung von Mikrodaten ein, die Aspekte der Unternehmensbesteuerung untersuchen. Die Arbeiten liefern einen Beitrag zum tieferen Verständnis aus den Teilbereichen der Finanzierunkstruktur, der gemeinsamen Bemessungsgrundlage sowie der Messung der marginalen Steuerbelastung. Dabei konzentrieren sich die Analysen auf die Aktivitäten deutscher Unternehmen im In- und Ausland sowie ausländischer Unternehmen in Deutschland. Grundlage der empirischen Untersuchungen sind vor allem vertrauliche Mikrodaten der Deutschen Bundesbank. Im Rahmen der deskriptiven und multivariaten Analyse werden Hinweise für den Zusammenhang zwischen der Besteuerung und dem unternehmerischen verhalten nachgewiesen. Damit dienen die Resultate auch als Diskussionsgrundlage für die Ausgestaltung künftiger Steuerpolitik in Deutschland und der EU.
Die Entwicklung künstlicher Ribonucleasen bietet das Potential, Werkzeuge für die Biotechnologie und langfristig neuartige Pharmaka bereitzustellen. 2-Aminobenzimidazole haben sich als metallfreie Katalysatoren zur unspezifischen Spaltung von Ribonucleinsäuren bewährt. In der vorliegenden Arbeit sollte das Konzept von künstlichen Ribonucleasen auf Basis dieser Molekülklasse auf seine Tragfähigkeit gerprüft werden. Außerdem sollten weitere mechanistische Erkenntnisse über die Katalyse der RNA-Hydrolyse durch 2-Aminobenzimidazole gewonnen werden. Hierzu wurden kupplungsfähige 2-Aminobenzimidazol-Derivate hergestellt und anschließend an RNA-Liganden gekuppelt. Diese Konjugate wurden auf ihre Spaltaktivität gegenüber RNA bei physiologischen Bedingungen sowie auf ihre Substrat- und Ortsspezifität getestet. Zunächst wurden Tripeptidkonjugate synthetisiert und untersucht. Hierbei konnte eine gegenüber den unkonjugierten Spezies erhöhte Affinität der Konjugate zum Substrat festgestellt werden. Auch wurde gezeigt, dass 2-Aminobenzimidazole, die in wässriger Lösung zur Aggregation neigen, auch als Einzelmoleküle in der Lage sind, die RNA-Hydrolyse zu katalysieren. Die Substrat- und Ortsspezifität der Tripeptidkonjugate ließ jedoch zu wünschen übrig. Durch die Konjugation von 2-Aminobenzimidazol-Derivaten an Antisense-DNA gelang schließlich die sequenz- und ortsspezifische Affinitätsspaltung von RNA mit beachtlicher Aktivität. Damit war die Tragfähigkeit des Konzepts bewiesen. Ferner konnten durch die weitere Untersuchung der Konjugate starke Indizien gewonnen werden, die das Modell, auf dem die Auswahl der 2-Aminobenzimidazole als katalytische Einheit beruht, stützen.
Während seiner mittlerweile über 30jährigen Auseinandersetzung mit dem Porträt gelangte Vollrad Kutscher zu der Erkenntnis, dass es unmöglich ist, in unserer Zeit ein gültiges Bild von sich selbst und in der Folge von anderen zu erstellen. Dass Kutscher dennoch immer wieder Porträts herstellt, zeigt einen Widerspruch auf, der sich leitmotivisch durch die Arbeiten zieht und in ihnen selbst formal manifestiert ist. ...
Entrepreneurship eröffnet aus didaktischer und organisatorischer Sicht vielversprechende Chancen zum Bewältigen der Modernitätskrise dualer Berufsausbildung, birgt jedoch auch Risiken in sich. Sowohl didaktische Konzeptionen, die von der – traditionell – funktional-objektivistischen Entrepreneurship-Definition ausgehen (z.B. der „Medienkoffer Selbstständigkeit“), als auch subjektorientierte Ansätze (z.B. die „Arbeitsorientierte Exemplarik“) zeichnen sich dadurch aus, dass sie, anders als duale Berufsausbildung, allgemeine Bildungsinhalte gegenüber fachbezogenen stärker gewichten, was sich u.a. in Fachgrenzen überschreitenden Lehr-/Lernarrangements (Projektunterricht) konkretisiert. Damit wird nicht nur den – Stichworte Lean Production und Globalisierung – veränderten Qualifikationsbedarfen am Arbeitsmarkt entsprochen. Auch bestehen Anknüpfungspunkte zu einem Teil der subjektiven Wissens- und Rationalitätsgrundlagen, die aus Sicht der Theorie der reflexiven Modernisierung in der Zweiten Moderne für unabdingbar erachtet werden (Anerkennung von Unsicherheit/nicht erwarteten Nebenfolgen, Befähigung zur kooperativen Entscheidungsfindung). Die untersuchten Ansatzmöglichkeiten weisen jedoch auch Schwachpunkte auf. Die „Arbeitsorientierte Exemplarik“ stellt zwar eine geschlossene didaktische Konzeption dar. Ihre Umsetzung beschränkt sich jedoch weitgehend auf die Erwachsenenbildung. Zudem fehlen Daten, die es ermöglichen, die Validität der „Arbeitsorientierten Exemplarik“ im Feld zu evaluieren. Umgekehrt liegt eine Vielzahl praxiserprobter und auch evaluierter „Entrepreneurship Education“-Programme, -Projekte und -Lehrgänge vor, die jedoch nicht bildungstheoretisch fundiert sind. Auch drohen „Entrepreneurship Education“ und die „Arbeitsorientierte Exemplarik“ entweder von neoliberalen wirtschaftspolititischen Interessen vereinnahmt oder unmittelbar in den Dienst der Gewinnerzielungsabsichten global operierender Konzerne gestellt zu werden. Während bildungstheoretische und empirische Lücken vergleichsweise einfach – durch Bildungsforschung – geschlossen werden können, verdichten sich im Spannungsfeld zwischen funktional-objektivistischen ökonomischen Interessen und dem anthropologisch begründbaren Ethos nach Entwicklung und Entfaltung individueller Persönlichkeitspotentiale divergierende politische Implikationen, mit denen Entrepreneurship (nicht nur) im Kontext erwerbsarbeitsbezogener Bildung konfrontiert ist. Hier bieten sich zwei Reaktionsmöglichkeiten an: Einerseits eine separierende Sichtweise, die entweder funktional-objektivistischen oder subjektivistisch-individuellen Rationalitäten Vorrang einräumt. Dies hätte zur Folge, dass Entrepreneurship entweder für unternehmerisches Denken und Handeln zu qualifizieren hätte oder, losgelöst von utilitaristischen Erwägungen, die gattungsspezifischen und individuellen Entwicklungsbedürfnisse des Menschen zu entfalten wären. Mit Blick auf die Herausforderungen der Zweiten Moderne erscheint gegenüber einer separierenden eine bündelnde Sichtweise erfolgversprechender, die versucht, Entrepreneurship als Option zur Gestaltung von Gesellschaft zu interpretieren ohne zu vernachlässigen, dass das Subjekt Resultat und Produzent seiner – durch die gegebene primär marktwirtschaftliche Wirtschaftsordnung beeinflussten – Vernetzung, Situierung, Verortung, Gestalt ist. Eine solche Quasi-Subjektbildung hätte neben den in der „Theorie reflexiver Modernisierung“ denominierten subjektiven Wissens- und Rationalitätsgrundlagen auch auf den Ausgleich wirtschafts-, gesellschafts- und sozialpolitischer Interessen zu zielen. Auch in organisatorischer Hinsicht beeinflussen ökonomische Rationalitäten die Modernisierungsmöglichkeiten erwerbsarbeitsbezogener Ausbildung. Zwar können die in das öffentliche Bildungssystem eingebundenen Schulen in nicht-staatlicher Trägerschaft als Repräsentanten des Entrepreneurship-Gedankens die kraft ihrer Rechtsform gegebenen pädagogischen Gestaltungsmöglichkeiten nutzen, um dem Berufsausbildungssystem Modernisierungsimpulse zu induzieren. In diesem Zusammenhang wären etwa Angebote zu nennen, in denen berufsbildende mit allgemeinbildenden Inhalten unter Einbezug neuartiger Theorie-Praxis-Kombinationen verschränkt werden. Auch sind einige Privatschulen an Modellversuchen zur Erprobung neuartiger Bildungsgänge beteiligt, die in Kooperation mit den Kultusministerien durchgeführt werden. Gleichwohl zeichnet sich ab, dass die Entscheidungsträger privater Schulen dazu übergehen, ihrer Auffassung nach moderne Erwerbsarbeitsqualifikation zunehmend außerhalb des Berufsausbildungssystems anzubieten, etwa in Form studienqualifizierender Bildungsgänge, im Rahmen berufsqualifizierender Bildungsangebote, die ausschließlich Abiturienten vorbehalten bleiben, oder gar indem berufsbildende durch Fachhochschulstudiengänge substituiert werden. Wenn nun aber moderne Erwerbsarbeitsqualifizierung zunehmend außerhalb des dualen Systems offeriert wird, so untermauert dies nicht nur die These, dass sich das duale System in einer Modernitätskrise befindet. Auch verstärkt dieses an leistungsstarken Schülern orientierte Angebotsverhalten die Selektionsfunktion, welche die Privatschulen ohnehin schon ausüben, indem sie regelmäßig Schulgeld erheben. Vieles spricht dafür, dass die staatliche Finanzhilfe, die sowieso nur Ersatz-, nicht jedoch Ergänzungsschulen beanspruchen können, allein nicht ausreicht, um den Finanzmittelbedarf der Einrichtungen zu decken. Sollen die (verbleibenden) von den Schulen in freier Trägerschaft ausgehenden Modernisierungsimpulse als nachhaltige Schrittmacher für zeitgemäße Erwerbsarbeitsqualifikation fungieren, so bedarf es nicht nur in finanzieller Hinsicht staatlicher Unterstützung. Auch die je nach Bundesland mehr oder weniger großzügigen schulrechtlichen Privatschulrechtsnormen einschließlich ihrer Anwendung durch die Aufsichtsbehörden bedürfen zumindest der Angleichung. Nicht umsonst konnten die von den Kaufmannsvereinigungen betriebenen Schulen Ende des 19. Jahrhunderts erst dann eine (allerdings auf berufliche Ertüchtigung) fokussierte Modernisierungsfunktion übernehmen, nachdem der Staat die hierfür erforderlichen, gesellschaftspolitisch motivierten, weil gegen die Sozialdemokratie gerichteten Rahmenbedingungen geschaffen hatte. Einen Rahmen, die herausgearbeiteten Spannungsbögen zwischen Theorie und Praxis, partikularistischem und holistischem Paradigma sowie ökonomischen und pädagogischen Interessen neuartig zu betrachten, vermag die Historische Anthropologie bereitzustellen. Historisch-anthropologische Forschung ist multiparadigmatisch und zeichnet sich durch Transdisziplinarität sowie Transnationalität aus. In transdisziplinären Forschungsprojekten können die Vertreter mehrerer Fachdisziplinen auf unterschiedliche Wissenskonstellationen, Fragestellungen, Begriffe sowie methodische Zugänge zurückgreifen und so – Stichwort „Quasi-Subjektivität“ – neuartige Lösungsvorschläge für konkrete Problemstellungen einbringen (vgl. WULF 2004, 262). Beim Überschreiten von durch Fachgrenzen begrenztem Denken „spielt das Staunen, das radikale Fragen, die philosophische Kritik und Selbstkritik eine wichtige Rolle“ (WULF 2004, 264). Staunen dürfte sich aller Voraussicht dann einstellen, wenn nicht nur ernsthaft diskutiert würde, dass private Schulen – unter Voraussetzung veränderter Rahmenbedingungen – den öffentlichen Bildungsauftrag möglicherweise besser umsetzen können als staatliche Einrichtungen, sondern auch seitens der politisch Verantwortlichen die hierfür erforderlichen Maßnahmen ergriffen würden. Transnationale (historisch-anthropologische) Forschung eröffnet zudem die Gelegenheit, Grenzen, genauer: ethnische oder kulturelle Grenzen zu überschreiten. (vgl. WULF 2004, 268). Bezogen auf Entrepreneurship böte sich insofern die Option, die anglo-amerikanische Färbung des Entrepreneurship-Diskurses ebenso zu erweitern wie den zentraleuropäischen Nexus des historischen Subjektbildungsdiskurses.
Klonierung und Charakterisierung eines ecotropen porzinen endogenen Retrovirus der Klasse C (PERV-C)
(2006)
Durch die vertikale Vererbung von endogenen Retroviren, deren Fähigkeit humane Zellen in vitro zu infizieren und ihrer Rekombinationsfähigkeit besteht ein Risikopotential bei der Verwendung porziner Gewebe bzw. Organe im Rahmen der XTx, weshalb ein Screening auf PERV im Genom von Spendertieren und eine immunologische Kontrolle von Xenotransplantatempfängern von Bedeutung ist. Im Rahmen dieser Arbeit konnten vier native, teilweise unvollständige, provirale Sequenzen aus einer Genbibliothek einer Zelllinie von Minischweinen isoliert werden. Der Molekularklon PERV-C(1312) zeigt die vollständigen Leserahmen für das gag-, pol- und env-Gen, die 5LTR Sequenz beinhaltet einen Repeat mit 39 bp. Das Virus ist in der Lage produktiv porzine ST-IOWA Zellen in vitro zu infizieren und nach Transfektion in humane Nierenzellen in das Genom zu integrieren. Eine Rekombination mit PERV-B(33)/ATG Partikeln konnte nicht gezeigt werden. Nach Transfektion von Deletionsmutanten von PERV-B(33)/ATG in MAX-T Zellen, denen das gag- und pol-Gen fehlte und lediglich der offene Leserahmen für das env-Gen intakt war, konnte keine Rekombination bzw. Inkorporation von Env-B Proteinen in PERV-C Partikeln nachgewiesen werden. Für eine immunologische Detektion des Env-C Proteins wurde ein polyklonales Antiserums in Kaninchen generiert und ein monoklonaler Antikörper hergestellt. Die Epitope für beide Antikörper sind im SU des env-C Gens lokalisiert. Das Env-C Protein kann durch das polyklonale Antiserum durch Western Blot Analyse in Zelllysaten und in immunhistochemischen Analysen in verschiedenen Zelllinien detektiert werden. In PERV-C Partikeln wird das Env-Protein sowohl durch das polyklonale Antiserum als auch durch den monoklonalen Antikörper spezifisch detektiert. Durch den immunologischen Nachweis von PERV-C Proteinen ist es möglich im Hinblick auf eine XTx den Nachweis dieser Proteine in möglichen Rezipienten durchzuführen. Durch die zusätzlich isolierten Flankensequenzen des replikationskompetenten Molekularklons PERV-C(1312) wäre eine Screening Methode, durch die Verwendung einer spezifischen Flankensonde, möglich, um genomische Integrationsorte und somit die Präsenz dieses Provirus in den Zellen des Spendertieres vorab zu überprüfen, um möglichst Spendertiere für eine XTx zu verwenden, die frei von PERV-C(1312) sind. Somit leistet diese Arbeit einen Beitrag zur besseren Evaluierung des Risikopotentials zukünftiger Xenotransplantationen.
In der vorliegenden Arbeit wurden festkörperunterstützte Membranen in Verbindung mit schnellen Lösungswechseln als Methode zur Messung von elektrogenen Transportvorgängen in biologischen Membranen untersucht und charakterisiert. Parallel zu einem manuellen Messsystem wurde eine Technologie auf der Basis eines Pipettierroboters mitentwickelt und charakterisiert, die es erlaubt, automatisierte Messungen mit erhöhtem Durchsatz durchzuführen. Die Sensoren wurden als Sensorarray auf der Basis einer standardisierten 96er Mikrotiterplatte realisiert. Zur Lösungshantierung kam ein Pipettierroboter zum Einsatz, der mit einer selbstentwickelten Injektionseinheit bestückt wurde. In dieser Injektionseinheit ließen sich die verwendeten Lösungen überschichten, wodurch ein Lösungswechsel von einer substratfreien zu einer substrathaltigen Lösung durchgeführt werden konnte. Mit dem beschriebenen System konnten die in dieser Arbeit behandeleten Proteine EAAC1 und NhaA erfolgreich aktiviert und charakterisiert werden. Hinsichtlich der Transportaktivität wurden mit beiden Proteinen vergleichbare Ergebnisse erzielt wie mit dem manuellen Messsystem. Aus kultivierten CHO-Zellen, die den neuronalen Glutamattransporter EAAC1 rekombinant und fuktional exprimierten, wurden EAAC1-haltigen Cytoplasmamembranen in einem Aufreinigungsschritt (Membranpräparation) gewonnen. Die derart vorliegenden Membranfragmente konnten erfolgreich auf der festkörperunterstützten Membran angelagert werden. In der Abwesenheit von Natriumionen war der EAAC1 nicht aktiv, und er konnte durch den spezifischen kompetitiven Inhibitor TBOA inhibiert werden (Inhibitionskonstante Ki = 1µM). Es wurde beobachtet, dass die Transportströme des EAAC1 in der Abwesenheit von Kaliumionen eine andere Kinetik aufwiesen als in der Anwesenheit von Kaliumionen, und die Affinität für L-Glutamat war in der Abwesenheit von Kaliumionen verringert (K0,5 = 144 µM). Analysen der Signalformen ergaben eine reduzierte Relokationsrate, wobei es wahrscheinlich ist, dass der EAAC1 ohne Kaliumionen einen Single-Turnover durchführt. Eine weitere Eigenschaft des EAAC1 ist die Fähigkeit, bestimmte Anionen zu leiten. Diese Anionenleitfähigkeit ist strikt Natriumabhängig und wird durch die Bindung von L-Glutamat getriggert. Wenn bei einem Experiment zusätzlich bestimmte Anionen (z.B. Chlorid oder Thiocyanat) anwesend waren, wies der Transportstrom des EAAC1 in der Abwesenheit von Kaliumionen eine negative Komponente auf. Diese Komponente konnte auf den Einstrom der Anionen entlang des durch den Glutamattransport aufgebauten elektrischen Gradienten zurückgeführt werden. Des Weiteren konnte die Anionenleitfähigkeit mit Anionensprüngen in der Anwesenheit von L-Glutamat und Natriumionen direkt induziert werden. Damit wurden erstmals kanalartige Ionenströme an der festkörperunterstützten Membran nachgewiesen. Der Anionenstrom wies dabei die gleiche Abhängigkeit von der Glutamatkonzentration auf (K0,5 = 31 µM) wie der Transportstrom. Der Übergang in den leitfähigen Zustand und der Transport hängt demnach von dem gleichen L-glutamatgebundenen Zustand des EAAC1 ab. Dies konnte auch unter Verwendung des Inhibitors HIP-B gezeigt werden. HIP-B wurde erstmals an EAAC1 getestet und wies eine Inhibitionswirkung auf den Transportstrom auf, die nicht auf eine kompetitive Bindung zurückzuführen war. Die Anionenleitfähigkeit ließ sich mit HIP-B hingegen nicht inhibieren. Der bakterielle Natrium-Protonen-Austauscher NhaA lag rekonstituiert in Liposomen vor, die auf der festkörperunterstützten Membran angelagert wurden. Bedingt durch die RSO-Orientierung des NhaA, konnte der Natriumtransport entgegen der natürlichen Transportrichtung (extrazelluläre Natriumbindung) untersucht werden. Der Transportstrom wies eine ausgeprägte Abhängigkeit vom pH-Wert auf. Bei neutralen bzw. sauren pH-Werten (pH <= 7) war die Aktivität des NhaA gegenüber dem alkalischen Bereich (7 < pH < 9) erheblich reduziert. Dieses Verhalten entspricht Literaturangaben für die Intrazellulärseite des NhaA. Dennoch war der NhaA bei einem neutralen pH-Wert nicht vollständig inaktiv. Die Affinität für Natriumionen konnte bei einem pH-Wert von 8,5 zu K0,5 = 11 mM und bei pH 7,0 zu K0,5 = 180 mM bestimmt werden. Neben einer Verringerung der Wechselzahl sinkt im neutralen/sauren Bereich also auch die Affinität für Natriumionen. Durch die Verwendung von Liposomen, in denen der NhaA mit verschiedenen Lipid- zu Protein-Verhältnissen rekonstituiert wurde, konnte gezeigt werden, dass die Messströme auf die Aufladung der Liposomen zurückführbar sind. Der Transportstrom konnte mit der amiloridähnlichen Substanz 2-Aminoperimidin inhibiert werden (Ki = 3 µM). Eine Inhibitionswirkung war nur zu beobachten, wenn der pH-Wert kleiner als pH 8 war. Zusammmen mit der ausgeprägten pH-Wertabhängigkeit kann dieses Phänomen auf eine pH-induzierte Konformationsänderung des NhaA zurückgeführt werden.
Dynamische Aspekte im Kaufverhalten : die Determinanten von Kaufzeitpunkt, Marken- und Mengenwahl
(2007)
Die vorliegende Arbeit untersucht das Wahlverhalten von Konsumenten in differenzierten Produktkategorien des Konsumgütermarktes. Ausgangspunkt ist die Beobachtung, dass ein Marketing-Mix nicht nur die aktuellen Reaktionen der Konsumenten, sondern auch die resultierenden Konsequenzen für die Zukunft berücksichtigen muss. So führen insbesondere Preispromotions, welche den größten Anteil des Marketing-Budgets bei Konsumgütern in Anspruch nehmen, oft lediglich zu einer Vorverlagerung der Käufe statt zu einem Mehrabsatz durch Markenwechsel und sind daher durchaus kritisch zu bewerten. Anhand von Haushaltspaneldaten zweier Produktkategorien wird der Einfluss dynamischer Aspekte im Rahmen der Konsumentenentscheidungen hinsichtlich Kaufzeitpunkt, Marken- und Mengenwahl untersucht. Auf Grund kontroverser Diskussionen in der Marketing-Forschung bezüglich der korrekten Modellierung der drei Entscheidungen, steht diese neben der expliziten Spezifikation der Dynamiken im Fokus der Betrachtungen. Die empirischen Analysen sowie die anschließenden Simulationen von Marktszenarien zeigen zunächst die Überlegenheit einer getrennten gegenüber einer gemeinsamen Nutzenfunktion bei der Modellierung der drei Entscheidungen auf. Des Weiteren findet sich in einer Produktkategorie die Abhängigkeit der Preissensitivität der Konsumenten von der in der Vergangenheit beobachteten Häufigkeit von Preispromotions. Die Preissensitivität in der Mengenwahl ist dabei von dieser Häufigkeit wesentlich stärker betroffen als die der Markenwahl, was als Erklärungsansatz für die empirisch beobachtete Vorverlagerung von Käufen gewertet werden kann.
Die vorliegende Arbeit verdeutlicht für das Handlungsfeld „Ethnomarketing in Deutschland“, wie ethnische Grenzen gezogen werden. Sein Ausgangspunkt ist der gesellschaftliche Diskurs über das Deutschsein und seine Gegenstücke: das Türkische, Russische, Orientalische, Südländische usw.. Im Niemandsland zwischen Fremdem und Eigenem führen die Akteure des Ethnomarketings ihr eigenes Spiel mit der Ethnizität auf, indem sie sich die kursierenden ethnischen Zuschreibungen zu nutze machen. Sie übernehmen selektiv die im Diskurs vorgefundenen ethnischen Konstruktionen eines „kollektiven Gedächtnisses“ in der Gesellschaft über sich selbst und „die Anderen“, modifizieren diese Konstruktionen in ihrem Marketing entsprechend eigener Vorstellungen und Interessen, verstärken ihre Wirkung durch Ausstrahlung in den Medien und greifen so selbst ein in den machtbasierten gesellschaftlichen Prozess ethnischer Rollenzuweisung und Anerkennung. Die Gestaltung des eigenen Marketings zwingt die Akteure, sich auf eindeutige Werbebilder festzulegen, und ihre Präsenz in der Öffentlichkeit nötigt sie, sich und ihr ethnisches Marketing zu erklären. Sie offenbaren dadurch ihre Persönlichkeiten, Interessen, Vorstellungen, Fähigkeiten, Rollenverständnisse und Strategien – nicht jedoch das vermeintliche „Wesen“ ethnischer Zielgruppen, die sie adäquat zu bewerben glauben. Wie aus einleitender Definition hervorgeht, ist für Ethnomarketing ein Umfeld ethnischer Divergenz notwendig, um bestehen und funktionieren zu können. Es sind die fortwährenden Debatten in Deutschland über Ausländer, Asylanten, deutsche Werte, Einbürgerung, Fundamentalismus usw., in welchen entlang vermeintlich realer Kriterien wie Herkunft, Mentalität, Religion, Aussehen, Sprache usw. die soziale Realität ethnischer Gruppen (re-)konstruiert und ihnen stigmatisierend Eigenschaften zugeschrieben werden. Am vorläufigen Ende dieses Prozesses stehen Einbürgerungstests, mit welchen das „Deutsche“ vom „Undeutschen“ getrennt und bewahrt werden soll, die jedoch lediglich den Glauben ihrer Urheber demonstrieren, dies sei möglich. Als Gegenpol zum „guten“ Deutschen hat der Diskurs eine Chimäre aus zahlreichen, zumeist abwertenden Zuschreibungen für das Östliche, Südländische, Orientalische, Islamische usw. hervorgebracht, die im Türkischen oft einen Platzhalter findet: „Der Türke“ ist für viele Menschen zum Bild vom „unliebsamen“ Ausländer generell geworden. Vor diesem gesellschaftlichen Hintergrund ist Ethnomarketing erfolgreich, wenn es gelingt, den „verletzten Seelen“ die ethnische Wertschätzung zu geben, die sie sich von der „deutschen“ Gesellschaft vergeblich wünschen. Ethnomarketing kompensiert jedoch nicht nur das Gefühl mangelnder ethnischer Akzeptanz, das viele ethnisch stigmatisierte Rezipienten empfinden, sondern ist auch ein Mikrokosmos, in welchem die gleichen Prozesse der Konstruktion und Instrumentalisierung von Ethnizität wirksam sind wie in der umschließenden Gesellschaft. ....
Zur Vorhersage der Konformationen organischer Moleküle in wässriger Lösung wurde ein explizites Solvatationsmodell (TPA3) für das Kraftfeldprogramm MOMO entwickelt, getestet und erfolgreich angewendet. Für jede zu optimierende Konformation wird eine der räumlichen Ausdehnung entsprechende Solvathülle generiert. Dadurch werden zu große Solvathüllen mit vielen Wassermolekülen vermieden. Diesem ersten Schritt liegt das Aneinanderreihen von Eiselementarzellen und ungeordneten Wasserzellen zugrunde. Überschneidungen oder unrealistisch nahe Orientierungen von Wassermolekülen zu dem solvatisierten Molekül werden ausgeschlossen. Gleichzeitig wird sichergestellt, dass in der Umgebung von Wasserstoffbrücken-Donoren und -Akzeptoren im solvatisierten Molekül Wassermoleküle zu finden sind.
Die Optimierung vereinfachter Wassermoleküle ohne molekularen Zusammenhalt basiert auf vektoriellen Ausgleichsbewegungen, in die die Bewegungsvektoren der minimierten Wassermolekül-Atome eingehen. Dadurch ist es möglich, ein einziges Potential für Coulomb- und vdw-Wechselwirkungen ohne Vernachlässigung der Rotation zu nutzen, was eine deutliche Rechenzeitoptimierung bedeutet. Die besondere Beachtung der Programmstruktur von MOMO und die sich daraus ergebende Interaktion des Solvatationsmodells mit nahezu allen relevanten Programmteilen des Kraftfeldprogramms ermöglicht trotz ihres kontinuierlichen Austauschs eine Unterscheidung von präzise behandelten nahen und vereinfachten fernen Wassermolekülen während der gesamten Minimierung. Gleichzeitig werden von jedem nahen Wassermolekül die Einzelenergiebeiträge der Wechselwirkungen mit dem solvatisierten Molekül direkt in den Potentialen gesammelt und durch Summation die Stabilisierungsenergie Estab bestimmt.
Somit wird ein Nahbereich mit ungeordneten Wassermolekülen um ein solvatisiertes Molekül herum mit der gesamten in MOMO möglichen Präzision behandelt. Hierbei ist die Berechnung von Wasserstoffbrücken zwischen dem solvatisierten Molekül und umgebenden Wassermolekülen für Estab von entscheidender Bedeutung. Hingegen wird der Fernbereich ausgehend und basierend auf der Eisstruktur rechenzeitoptimiert behandelt. Dynamik und Durchmischung mit dem Nahbereich werden durch den auf der Minimierung der isolierten Atome basierenden TPA3-Algorithmus erreicht.
Mit den erreichten Rechenzeitoptimierungen können systematische Konformationsanalysen an Di- und Tripeptiden in Wasser mit bis zu 2500 Konformationen problemlos durchgeführt werden. Mit den statistischen Auswertungsmethoden des Clusterings, der Medianbildung und der Datenrasterung ergaben sich aussagekräftige Energieflächen über Ramachandran-Diagrammen der berechneten Peptide. Die Visualisierung der Trajektorien und der Minimum-Konformationen der Peptide mit deren Wasserstoffbrücken und der daran beteiligten Wassermoleküle sowie die detaillierte Analyse der Energiebeiträge lieferten eine solide Interpretationsbasis der vorhergesagten Strukturen.
Insgesamt wurden Konformationsanalysen im Vakuum und mit dem neu entwickelten TPA3-Solvatationsmodell an zehn Peptiden durchgeführt. Ungeschützte Peptide wurden in unterschiedlich protonierten Formen berechnet. Vergleichende Konformationsanalysen mit AMBER11 und TIP3P-Solvatationsmodell waren nur für die zwitterionische Form möglich.
Bei dem geschützten Alaninpeptid N-Acetyl-L-L-dialanin-N-methylamid zeigte sich eine Begünstigung der PPII-Struktur. Daneben trat ein Minimum im β-Faltblattbereich auf; eine Stabilisierung des αR-helikalen Bereichs wurde ebenfalls beobachtet. Dies entspricht den in der aktuellen Literatur zu findenden spektroskopisch erhaltenen Ergebnissen.
Aufgrund nicht vorhandener Informationen bezüglich der Energiebeiträge durch das explizite TIP3P-Solvatationsmodell war die Auswertung der AMBER11-Konformationsanalysen auf die Verteilung der Konformationen im Ramachandran-Diagramm begrenzt und somit stark eingeschränkt. Bezüglich N-Acetyl-L-L-dialanin-Nmethylamid ergaben sich auch mit AMBER11 Häufungen im PPII- und β-Faltblatt-Bereich und darüber hinaus im αD-helikalen Bereich.
Für Peptide mit negativ geladenen Seitenketten in der zentralen Position wurden Konformationen, die in Turns zu finden sind, als begünstigt berechnet. Bei Tripeptiden mit Aminosäuren, die Donoren D bzw. Akzeptoren A zur Wasserstoffbrückenbildung in ihren Seitenketten besitzen (Ala−Lys−Ala, Ala−Asp−Ala, Cys−Asn−Ser), wurden in allen Fällen zweifache Wasserstoffbrücken über verbrückende Wassermoleküle hinweg (D/A···H2O···D/A) beobachtet. Diese scheinen insbesondere bei Ala−Asp−Ala durch Beteiligung des Aspartatrestes und einem zweimalig negativen Energiebetrag von mehr als 10 kJ/mol Einfluss auf die Konformation zu nehmen und δ-Turn-Konformationen zu stabilisieren. Die AMBER11-Konformationsanalyse mit TIP3P-Modell ergab hingegen eine deutliche Häufung minimierter Konformationen für φ < 120°. Diese Häufung zeigt sich als deutlicher Streifen im Ramachandran-Diagramm bei φ ≈ 60°. Die α-helikalen Konformationen αD und αL sowie die C7 ax-Struktur sind von AMBER11 hier stark begünstigt. Die Konformationsanalyse mit TPA3-Solvatationsmodell an Ala−Lys−Ala zeigte mehrere Minima; die Konformationen im Bereich δR / PPII / C7 eq werden jedoch besonders stabilisiert. Ein verbrückendes Wassermolekül ist auch hier beteiligt.
Bei den Tripeptiden mit sperrigen Seitenketten, wie Ala−Phe−Ala und Gly−Phe−Gly, wird eine sterische Abschirmung durch den Phenylrest deutlich, die zu einer Abschwächung der Begünstigung von PPII-Konformationen führt. Stattdessen sind α-helikale Konformationen favorisiert. Bei Gly−Phe−Gly scheint diese Abschirmung einen weniger starken Einfluss zu haben: im PPII- und β-Faltblattbereich sind wieder Minima vorhanden. Generell sind die Ergebnisse der MOMO/TPA3-Konformationsanalysen im Einklang mit der aktuellen Literatur und sehr plausibel für Peptide, bei denen (noch) keine eindeutigen Literaturergebnisse vorliegen. Die aktuelle Annahme, dass intramolekulare Wasserstoffbrücken in Peptiden Turn-Konformationen in Wasser stabilisieren könnten, wird mit den in dieser Arbeit mehrfach aufgetretenen zweifachen Wasserstoffbrücken über verbrückende Wassermoleküle erweitert.
Mit AMBER11 konnte dagegen kaum Bezug zu experimentellen Literaturergebnissen hergestellt werden. Dies liegt vor allem daran, dass die für eine aussagekräftige Auswertung unverzichtbaren Energiebeiträge der Peptid-Wechselwirkungen mit einzelnen Wassermolekülen mit AMBER11 nicht zur Verfügung standen. AMBER11 eignet sich daher kaum als Referenz für die mit MOMO und dem neu entwickelten TPA3-Solvatationsmodell erhaltenen Ergebnisse.
Ziel der vorliegenden Arbeit war es, die kognitiven und neurophysiologischen Grundlagen des visuellen Arbeitsgedächtnisses (AG) zu untersuchen. Es wurden zwei Studien durchgeführt. In der ersten wurden per Verhaltensdaten die Ressourcen von Manipulationsprozessen im visuellen AG nach Materialart erfasst. Dazu wurden insgesamt sechs Experimente konstruiert. In der zweiten Studie wurden mit zwei Experimenten die neurophysiologischen Grundlagen des visuellen AG per funktioneller Magnetresonanztomographie (fMRT) dargestellt. Im Folgenden wird kurz das Modell des Arbeitsgedächtnisses nach Baddeley (1992) erläutert, gefolgt von einer Beschreibung der visuellen Pfade, welche für die Struktur des visuellen AG grundlegend sind. Danach werden die kortikalen Korrelate des visuellen AG skizziert. Anschließend werden aus den dargestellten Befunden die Methoden für die beiden Studien dargestellt und deren Ergebnisse diskutiert. Baddeley (1992) definiert das Arbeitsgedächtnis als ein System für das kurzfristige Halten und Manipulieren von Information, welche für weitere komplexe kognitive Prozesse wie Verstehen, Lernen und Schlussfolgern benötigt wird (Baddeley, 1992). Baddeley und Hitch (1974) entwickelten ein Modell des Arbeitsgedächtnisses, das aus drei getrennten Subsystemen besteht: Einer zentralen Exekutive (ZE), welche als übergeordnetes Aufmerksamkeits-Kontrollsystem arbeitet und die in das aktive Manipulieren von Material involviert ist, wie z.B. die mentale Rotation von Objekten. Dazu wurden zwei Sklavensysteme postuliert, die phonologischen Schleife und der visuell-räumlichen Notizblock (im folgenden visuelles AG genannt). Die phonologische Schleife hält phonologisch basierte Information und der visuell-räumliche Notizblock visuelles Material. Resultate aus psychologischen Experimenten und bildgebenden Studien dokumentieren, dass sowohl die kognitiven wie die neurophysiologischen Grundlagen des visuellen AG auf Basis der Materialart („Was vs. Wo“) und den operierenden kognitiven Prozessen („Halten vs. Manipulieren“) organisiert sind. Das Verhältnis zwischen den beiden Faktoren Material und Prozess ist bisher sowohl für die kognitive als auch für die neurophysiologische Ebene trotz einer Vielzahl an Untersuchungen umstritten. Im folgenden Abschnitt werden knapp die für die Struktur des visuellen AG wichtigen parallelen perzeptuellen Bahnen beschrieben. Eine funktionelle Trennung der visuellen Wahrnehmung erfolgt bereits in der Retina. Magnozelluläre Ganglienzellen sprechen vor allem auf Luminanzunterschiede an, parvozelluläre auf Wellenlängenunterschiede (Livingstone und Hubel, 1987). Kortikal wird die visuelle Information weiter in parallelen Bahnen verarbeitet. Eine ventrale Bahn analysiert vor allem Form und Farbe („Was“), eine dorsale die räumliche Position von Objekten und Bewegungen („Wo“, Ungerleider und Mishkin, 1982). Es konnte demonstriert werden, dass die Aufteilung der visuellen Wahrnehmung in eine ventrale und dorsale Bahn auch für höhere kognitive Prozesse wie das Halten von Information im visuellen AG erhalten ist (Della Sala et al., 1999). Die Autoren fanden bei neuropsychologischen Patienten Doppel-Dissoziationen in der Bearbeitungsleistung von Arbeitsgedächtnistests, welche sensitiv für das Halten von ventraler und dorsaler perzeptuelle Information sein sollten. Zusätzlich validierten die Autoren die Tests mit Interferenzaufgaben an Gesunden. Die Leistungen beider Tests wurden jeweils durch verschiedene Arten von Interferenz (räumliche vs. visuelle) beeinträchtigt. Somit konnte demonstriert werden, dass das Halten im visuellen AG nach Materialart getrennte Ressourcen aufweist. Ungeklärt ist, ob diese Trennung auch für aktive Prozesse wie das Manipulieren bestehen bleibt. Auch in den kognitiven Neurowissenschaften ist die Organisation der neurophysiologischen Grundlagen des Arbeitsgedächtnisses umstritten. Es fanden sich in einer Reihe von Studien deutliche Hinweise, dass der frontale Kortex (FK) eine zentrale Rolle für das visuelle AG einnimmt (Bauer und Fuster, 1976). Eine Vielzahl an Studien erbrachte allerdings widersprüchliche Ergebnisse hinsichtlich der funktionalen Organisation des FK nach Material („Was vs. Wo“, domänspezifische Theorie, Goldman-Rakic, 1987) und Prozessart („Halten vs. Manipulieren“, prozessspezifische Theorie, Petrides, 1994). Studien, die demonstrierten, dass der ventrolaterale FK für das Halten von Objekten und der dorsolaterale für das Halten von räumlichen Relationen spezialisiert ist (Courtney et al., 1998), konnten nicht immer bestätigt werden (DEsposito et al., 1998). Es konnte allerdings gezeigt werden, dass das verwendete Stimulusmaterial in den Experimenten großen Einfluss auf die Ergebnisse hatte und dass vor allem ein Defizit in der Konstruktion von ventralen Stimuli bestand, welche nur wenige räumliche Bestandteile beinhalteten (Sala, Rämä und Courtney, 2003). Somit ist diese unklare Befundlage unter anderem auf den Mangel an geeigneten Paradigmen zur Untersuchung vom Halten und Manipulieren ventraler Information zurückzuführen. Mit Studie 1 sollte per Verhaltensdaten untersucht werden, ob Prozesse der Manipulation auf materialspezifisch getrennten, kognitiven Ressourcen basieren. Die Studie bestand aus sechs Experimenten. Die ersten drei bestanden aus einer Dual-Aufgabe, in der ventrale und dorsale Information einzeln oder synchron manipuliert werden mussten. Die Manipulation ventraler Information wurde über das Mischen von Farben erfasst, die Manipulation dorsalen Materials über das mentale Rotieren von Halbkreisen. Zur Kontrolle von perzeptuellen und seriellen Lösungsstrategien wurden drei Varianten des Experimentes konstruiert, welche sich in der zeitlichen Darbietung der Stimuli unterschieden. In den Dual-Bedingungen der Experimente 1-3 trat keine Interferenz auf. Dieses Resultat unterstützt die Annahme getrennter, materialspezifischer kognitiver Ressourcen für das Manipulieren visuellen Materials. Im vierten Experiment mussten die Probanden eine räumlich-räumliche Dual-Aufgabe bearbeiten. In der Dual-Bedingung von Experiment 4 entstand Interferenz, da beide Aufgaben das gleiche dorsale System im visuellen AG beanspruchen. Zwei zusätzliche Experimente wurden zur Kontrolle der untersuchten Prozesse konstruiert (Experimente 5 und 6). Mit ihnen sollte überprüft werden, in welchen Umfang Prozesse des Manipulierens und des Haltens der visuellen Stimuli (Farbe und Rotation) auf Ressourcen der phonologischen Schleife und der zentralen Exekutive basieren. Es wurde dokumentiert, dass weder das Halten noch das Manipulieren des Materials die phonologische Schleife in Anspruch nimmt. Die Manipulation des visuellen Materials beruhte im Gegensatz zu deren Halten auf zentral-exekutive Ressourcen. Die Resultate zeigen, dass die materialspezifische Aufteilung der visuellen Verarbeitung auch für höhere kognitive Prozesse des Manipulierens erhalten ist und dass sich das Manipulieren im Ausmaß der benötigten zentral-exekutiven Ressourcen vom Halten unterscheidet. Studie 2 beschäftigte sich mit der funktionellen Organisation der neurophysiologischen Grundlagen des visuellen AG. Auf Basis des für Studie 1 entwickelten ventralen und dorsalen Halten- und Manipulationsparadigmas wurden zwei Experimente für das fMRT konstruiert. Im ersten Experiment mussten die Probanden Farben und räumliche Orientierungen halten, im zweiten Experiment mussten sie beide Materialarten manipulieren. Es konnte aufgezeigt werden, dass die Aufteilung des FK materialspezifisch erfolgt. Das Halten und Manipulieren der Farbinformation aktivierte Regionen um den Sulcus frontalis inferior, das Halten und Manipulieren des räumlichen Materials beanspruchte Regionen in der Nähe des Frontalen Augenfeldes (Kreuzung des Sulcus praecentralis / Sulcus frontalis superior). Der Kontrast zwischen Halten und Manipulieren erbrachte keine solche dorso-ventrale Dissoziation des FK. Die Ergebnisse der Verhaltens- und fMRT-Daten beider Studien verdeutlichen die Organisation der kognitiven und neurophysiologischen Ressourcen des FK nach Materialart, aufbauend auf dem ventralen und dorsalen perzeptuellen Pfad. Das Ergebnis der vorliegenden Studie bestätigt frühere Untersuchungen zur Organisation des FK (Courtney et al., 1998) und erweitert die bisherigen Resultate dahingehend, dass der FK auch für Manipulationsprozesse materialspezifisch organisiert ist.