Refine
Year of publication
- 2008 (1577) (remove)
Document Type
- Article (610)
- Doctoral Thesis (230)
- Part of Periodical (165)
- Book (153)
- Review (121)
- Part of a Book (108)
- Report (59)
- Working Paper (34)
- Conference Proceeding (28)
- Magister's Thesis (15)
Language
- German (1577) (remove)
Has Fulltext
- yes (1577) (remove)
Keywords
- Filmmusik (40)
- Literatur (36)
- Germanistik (31)
- Deutsch (29)
- Russland (29)
- Rezension (23)
- Jelinek, Elfriede (19)
- Theater (17)
- Übersetzung (16)
- Johann Wolfgang von Goethe (15)
Institute
- Medizin (152)
- Präsidium (126)
- Extern (121)
- Erziehungswissenschaften (61)
- Gesellschaftswissenschaften (41)
- Biowissenschaften (39)
- Rechtswissenschaft (39)
- Neuere Philologien (34)
- Biochemie und Chemie (32)
- Geschichtswissenschaften (31)
In der Frauenarbeit liegt einer der wichtigsten Schlüssel zur Weltentwicklung. Frauen arbeiten – bezahlt und unbezahlt – sehr viel mehr als Männer. Weltweit sind 40 Prozent der Menschen in Beschäftigungsverhältnissen Frauen. Die unbezahlte Familien- und Fürsorgearbeit, wozu neben Versorgung, Erziehung, emotionaler und gesundheitlicher Pfl ege auch die unentlohnte Arbeit in der Landwirtschaft gehört, ist bekanntlich überwiegend Frauensache. Frauen sind somit zugleich zentrale Akteurinnen und Adressatinnen, wenn es um die Lösung der großen Probleme von Weltentwicklung wie Klimawandel, Ernährungskrise oder Bevölkerungsentwicklung geht. Auch die großen politischen Ziele wie die Sicherung von Frieden und Demokratie lassen sich nur erreichen, wenn Männer und Frauen wirklich gleichberechtigt sind.
Mumbai, Mexico City, Lagos und Kairo – das sind Megacities des neuen Jahrtausends. Sie leiden ausnahmslos unter ähnlichen Problemen: Mehr als die Hälfte der Einwohner lebt von unregelmäßigen Einkünften in den Slums am Rande der Metropolen. Die soziale Polarisierung wächst ebenso wie das Sicherheitsproblem. Wo das staatliche Gewaltmonopol zunehmend zerfällt, nutzen private Akteure ihre Chance, um Sicherheit zu schaffen und Gebiete zu kontrollieren – nicht selten gewaltsam.
Wolken haben einen maßgeblichen Einfluss auf den Wasserhaushalt der Erde, das Wettergeschehen und das Klima. Sie wissenschaftlich zu beschreiben, ist schwierig – und das erschwert die Niederschlagsvorhersage ebenso wie die Klimamodellierung. Wichtig für die Entstehung von Regen in unseren Breiten sind Eispartikel. Sie machen einen großen Teil der Wolken aus. Doch wie bilden sie sich, und warum sind sie für viele physikalische Prozesse in den Wolken unentbehrlich? Und schließlich: Wirkt sich menschliches Handeln auf die Wolken aus?
Staubwolken sind im Universum die Geburtsstätten neuer Sterne. Dort wiederholen sich Prozesse, die vor 4,56 Milliarden Jahren auch zur Entstehung unseres Sonnensystems geführt haben. Noch heute gibt es Zeugen aus dieser Zeit: Kometenstaub, Sternenstaub und interstellarer Staub. Die »Stardust-Mission« hat sie eingefangen, und Frankfurter Geowissenschaftler haben darin – dank modernster Labor-Analytik – erstaunliche Funde gemacht.
Der Ozean gehört zu den am wenigsten erforschten Regionen unseres Planeten, obwohl er für den Wärme- und Energiehaushalt der Erde und die Gemeinschaft ihrer Bewohner eine wichtige Rolle spielt. Der Mensch fischt und badet vor allem in den Flachmeeren. Dort ist auch die Schifffahrt am dichtesten. Doch obwohl die Flachmeere nur etwa 5 Prozent des Ozeanbodens ausmachen, wirken sich Veränderungen empfindlich auf alle Meeresbewohner aus, bis in die dunkle, kalte und nahrungsarme Tiefsee.
"Herakleitos sagt, dass die Wachenden ein und dieselbe gemeinsame Welt (éna kai koinòn kosmon) haben, während von den Schlafenden ein jeder sich zu seiner eigenen (Welt; eis ídion apostréphesthai) abwende." (DK 22 B 89) Diese "eigene" Welt des Schlafenden heißt ídios kósmos, die Welt der Träume. "In der Nacht entzündet der Mensch ein Licht für sich selbst, sterbend, seine Sehkraft ist erloschen." (DK 22 B 26). – Heraklit (535 - ca. 475 v. u.Z.) trifft die Überzeugung der gesamten antiken Kultur, dass der Wachzustand eine Welt des Zugänglichen, des Lichterfüllten, die Welt also des Öffentlichen, des Gemeinsamen und des Logos darstelle: koinos kósmos. ...
Schon früh hatte das Unbekannte viele mit Versprechungen gelockt. Aber das Reisen war mit Gefahren verbunden. Vor allem Seereisen erforderten Mut. Nicht immer waren es Abenteuerlust oder Neugier, die Menschen hinaustrieben. Viele Reisende waren Pioniere und Entdecker. Inseln und Berge, Ströme und Meeresengen sind nach ihnen benannt. Von den Anstrengungen des Reisens, den oft seltsamen oder auch überraschenden Begegnungen mit dem Fremden, den Beobachtungen von Flora und Fauna wissen wir durch ihre Aufzeichnungen, die später als Reiseberichte publiziert wurden. Besonders im 18. Jahrhundert waren Reiseberichte ein äußerst beliebtes Genre, weil sie auf unterhaltsame und spannende Weise über die nahe und ferne Fremde informierten. Gelegentlich fungierten sie auch als kritischer Spiegel der alten Welt.
Die Kreativwirtschaft beschäftigt in Frankfurt etwa ebenso viele Menschen wie das Kreditgewerbe, trägt bislang allerdings lediglich 4,6 Prozent zum städtischen Gesamtumsatz bei. Seit einigen Monaten richtet die Frankfurter Wirtschaftsförderung ihr Augenmerk besonders auf den Kreativsektor. Der »1. Frankfurter Kreativwirtschaftsbericht«, den Wirtschaftsdezernent Boris Rhein (CDU) im Sommer der Öffentlichkeit vor stellte, wurde von Humangeografen der Goethe-Universität unter Leitung von Christian Berndt, Pascal Goeke und Peter Lindner erarbeitet.
Dem Wandel rechtzeitig begegnen : Landesförderung ermöglicht richtungsweisende Klimafolgenforschung
(2008)
Humanes Perikard kann in vielen chirurgischen Bereichen zu Transplantationszwecken genutzt werden, da keine Abstoßungsreaktion beim Empfänger erfolgt und das Gewebe durch funktionelles, körpereigenes Gewebe ersetzt wird. Die Entnahme humanen Gewebes wird durch das „Gesetz über die Spende, Entnahme und Übertragung von Organen und Geweben (Transplantationsgesetz – TPG)“ und Richtlinien der European Association of Tissue Banks (EATB) geregelt. Von der EATB wurde ein Intervall von 24h nach dem Tod zur Entnahme menschlicher Gewebe festgelegt. Dieses Intervall verkürzt sich auf 12 Stunden, falls die Leiche nicht innerhalb von 4 bis 6 Stunden postmortal gekühlt wird. In der vorliegenden Arbeit wurden humane Perikardproben mit einer Zugfestigkeitsprüfmaschine bis zum Zerreißen gedehnt. Gemessen wurden die Maximalkraft beim Reißen der Probe und die prozentuale Dehnung bei einer Krafteinwirkung von 10 N. Die Ergebnisse zeigen keinen signifikanten Einfluss der Leichenliegezeit auf die biomechanischen Eigenschaften des Perikards. Die Probendicke, das Lebensalter und das Geschlecht zeigten signifikante Einflüsse auf die Reißfestigkeit des Perikards. Die höchste Reißfestigkeit konnte bei dicken Proben, bei einem jungen Alter der Verstorbenen und dem männlichen Geschlecht gemessen werden. Unter mechanischen Aspekten gibt es keine Bedenken das Intervall von 24 Stunden zu verlängern. Eine Verlängerung der Entnahmefrist würde die Anzahl potentieller Spender erhöhen und somit das Angebot humaner Gewebetransplantate steigern. Weiter wurde der Anteil vitaler Zellen in den Perikardproben mit dem Cytotoxicity detection Kit der Fa. Roche bestimmt. Hierbei wird das Gewebe in Phosphatpuffer aufgenommen und die Aktivität der Laktatdehydrogenase (LDH) im Überstand ermittelt. Durch die Bestimmung der LDH- Aktivität vor und nach Zugabe eines Zellmembranlysierenden Detergens konnte auf den Anteil vitaler Zellen einer Probe indirekt geschlossen werden. Es zeigte sich eine gute Korrelation der Leichenliegezeit mit der Anzahl vitaler Zellen im Perikard. Diese Methode könnte man zur Bestimmung der Leichenliegezeit nützen. Man hätte damit in der Rechtsmedizin ein einfaches Instrument zur Bestimmung mittlerer und längerer Leichenliegezeiten. In weiteren Untersuchungen müsste die Methode validiert und eventuell auch auf andere Gewebe ausgedehnt werden.
Die vorliegende quasiexperimentelle Studie geht der Frage nach, welche kognitiven Merkmale sich im hohen Alter als trennscharf für die Abgrenzung einer beginnenden Alzheimer-Demenz von einer Major-Depression erweisen. 186 hochaltrige Patienten, die von April 2001 bis April 2007 in einer geriatrischen Abteilung eines Akutkrankenhauses stationär aufgenommen waren, wurden nach einem bewährten Prozedere fünf Untersuchungsgruppen (Kontrollgruppe, Gruppe der Major-Depression, Gruppe der leichten kognitiven Beeinträchtigung, Gruppe der Alzheimer-Demenz und Gruppe der Alzheimer-Demenz mit einer gleichzeitig bestehenden Major-Depression) zugewiesen. Eine sich anschließende neuropsychologische Untersuchung erfasste kognitive Leistungen wie die verzögerte Reproduktion von verbalem Material, Intrusionsfehler, visuell-räumliche Leistungen, formallexikalische und semantische Wortflüssigkeitsleistungen sowie Benennleistungen. Es zeigte sich, dass kognitive Merkmale wie das mittelfristige verbale Neugedächtnis, geprüft über die verzögerte Reproduktionsrate, die semantische Wortflüssigkeit sowie visuelle Benennleistungen wirksam zwischen einer beginnenden Alzheimer-Demenz und einer Major-Depression unterscheiden. Wenig aussagefähig sind dagegen eine quantitative Analyse von Intrusionsfehlern und eine Prüfung visuell-räumlicher Leistungen mit oder ohne expliziten Sprachbezug. Das in der Literatur vielfach beschriebene spezifische kognitive Profil der Depression der deutlich verminderten exekutiven Leistungen konnte in der hier zugrunde liegenden Studie nicht nachgewiesen werden. Kognitive Plastizitätskennwerte wie Retest- oder Trainingseffekte haben sich im Funktionsbereich des Benennens als differenzialdiagnostisch nicht bedeutsam erwiesen. Auch weisen Trainingseffekte keine größere prognostische Validität auf als Retesteffekte. Interessanterweise konnten bei Alzheimer-Patienten im Funktionsbereich des Benennens erwartungskonträre Retest- und Trainingseffekte nicht unerheblichen Ausmaßes gefunden werden. Diese sind auf weitgehend erhaltene perzeptive Priming-Effekte zurückzuführen und weisen bei Alzheimer-Patienten auf Lernressourcen hin, die rehabilitativ genutzt werden sollten. Verminderte konzeptuelle Priming-Effekte deuten auf eine beginnende Alzheimer-Erkrankung hin, was der Differenzialdiagnostik eine neue Perspektive eröffnet. Da ein zufälliges, gemeinsames Auftreten der beiden Krankheitsbilder Major-Depression und beginnende Alzheimer-Demenz nicht auszuschließen ist, bleibt trotz einer sorgfältigen evidenzbasierten Diagnostik insbesondere bei älteren oder hochbetagten Patienten die Abgrenzung von einer beginnenden Alzheimer-Demenz und einer Major-Depression schwierig.
Die Komplementarität der molekularen Oberflächen und der Pharmakophorpunkte ist ein verbreiteter Konzept im rechnergestützen Moleküldesign. Diesem Konzept folgend wurde die Software SQUIRREL neu entwickelt und in der Programmiersprache Java implemetiert. Die Software generiert die Vorschläge für den bioisosteren Ersatz von Molekülen und Molekülfragmenten. SQUIRREL kombiniert Oberflächen- und Pharmakophoreigenschaften bioaktiver Substanzen und kann im virtuellen Screening und fragment-basierten de novo Design eingesetzt werden. In einer prospektiven Studie wurde SQUIRREL verwendet, um neue selektive PPARalpha-Agonisten aus einer kommerziellen Moleküldatenbank zu identifizieren. Die Software lieferte eine potente Substanz (EC50 = 44 nM) mit über 100facher Selektivität gegenüber PPARgamma. In einer zweiten Studie wurde eine Leitstruktur de novo generiert und synthetisiert. Als Ausgangstruktur diente der bekannte PPARalpha-Agonist GW590735. Während des Designvorgangs wurden zwei Teilstrukturen, die für die Aktivität von GW590735 verantwortlich sind, durch bioisostere Gruppen ersetzt, die von SQUIRRELnovo vorgeschlagen wurden. Die neue Leitstruktur aktiviert PPARalpha in einem zellbasierten Reportergen-Testsystem bei einem EC50 von 0.51 µM.
Diese Arbeit beschreibt wie mit physikalischen Methoden die Glukosekonzentration gemessen werden kann. Die Infrarot-Spektroskopie bietet eine Möglichkeit da die Energie der meisten Molekülschwingungen Photonenenergien im infraroten Spektralbereich entspricht. Hier zeigen Glukosemoleküle charakteristische Absorptionsspektren, die mit spektroskopischen Methoden gemessen werden. Um nicht invasiv zu messen, wurde eine photoakustische Messmethode gewählt. Die Grundidee ist, dass die durch Licht angeregten Moleküle ihre Anregungsenergie teilweise in Form von Wärme abgeben. Da die anregende Strahlung intensitätsmoduliert ist, wird auch die Wärmeentwicklung periodisch verlaufen wodurch periodische Volumenänderungen hervorgerufen werden, die eine Druckwelle erzeugen, die sich durch empfindliche Mikrofone oder Schallwandler erfassen lässt. So kann im MIR auf Grund der hohen Spezifizität, der Glukosegehalt mit sehr hoher Genauigkeit bestimmt werden. Die Wellenlänge der Glukoseabsorptionsbanden im MIR Bereich sind im Wesentlichen gekoppelte C=O Streck- und O–H Biegeschwingungen. Im MIR-Bereich zeigen Spektren zwischen 8,3µm bis 11,1µm fünf glukoserelevanten Banden. Der photoakustische Effekt wird durch die Rosencwaig-Gersho Theorie beschrieben. Die Absorption des Lichtes in der Probe bewirkt eine Temperaturerhöhung, die als Wärme an Umgebung abgegeben wird. Da das eingestrahlte Licht gepulst ist, wird auch die Wärme periodisch abgegeben. Durch die Absorption eines Laserpulses in der Haut entsteht ein Temperaturgradient, die abhängig vom Absorptionskoeffizienten und der Glukosekonzentration ist. Der führt zu einer Diffusion von Wärme im Absorptionsvolumen. Die Hautoberfläche und damit eine dünne Luftschicht über der Hautoberfläche werden durch die Diffusionswärme periodisch mit der Modulationsfrequenz der Laser aufgeheizt, was als Druckschwankungen in Messkammer mit Mikrofon detektiert wird. Im Mitteinfrarot geben Quantenkaskadenlaser die beste Lichtquelle, wegen ihre gute Strahlqualität und hohe optische Leistung. Die verwendete photoakustische(PA) Resonanzzelle ist nach dem Prinzip des Helmholtz-Resonators konzipiert. Der Vorteil des Verstärkungsverhaltens einer resonanten PA-Zelle kann unter Umständen durch Verwendung Volumenreduzierten und mit empfindlichen Mikrofonen ausgestatteten nicht-resonanten PA-Zelle erreicht werde. Zum Erfassung der PA Signale wird eine Kombination aus einen Analog-Digital Wandlerkarte verwendet, die eine gemeinsame Zeitbasis mit der synchronen Lasersteuerung und der Datenerfassung liefert und phasenechte Fourieranalyse der photoakustischen Signale ermöglicht. Es wurde ein Modellsystem entwickelt um photoakustischen Glukosemessungen in vitro zu testen. Dieses „Phantommodell“ besteht aus einer dünnen Polymermembran befestigt in eine Gefäß von nur paar ml Volumen die mit verschiedenen Glukosekonzentrationen gefüllt wurde. Die modulierte Laserstrahlung passiert die Messzelle und dringt durch die Folie in die wässerige Glukoselösung ein. Das Folienmaterial und Dicke wurde so gewählt, dass keineAbsorption im verwendeten MIR-Bereich entsteht. Als Lösung für die jeweiligen Glukosekonzentrationen wurde ein Wasser-Albumin Gemisch verwendet mit einen 10%igen Albuminanteil, die verwendet wurde, um den Proteingehalt der Haut zu imitieren und zu zeigen, dass Eiweiß keinen Störeinfluss im Glukosefingerprintbereich hat. Messungen wurden bei steigenden und fallenden Glukosekonzentration durchgeführt damit gezeigt könnte, dass das Messsignal in der PA- Zelle nicht von der Lufterwärmung in der Zelle stammt, sondern vom PA-Signale der Glukose. Die Glukoseschwankungen in der extrazellulären Flüssigkeit der Epidermis spiegeln die Glukoseschwankungen im Blut gut wider, bei einer Messung am Arm entsteht eine Verzögerung von paar Minuten. Im Daumenballenbereich findet aufgrund der guten Durchblutung ein schneller Austausch der Glukosekonzentration der von uns gemessenen interstitiellen Flüssigkeit mit der Blutzuckerkonzentration statt. Deshalb wurden die in-vivo Messungen am Daumenballen durchgeführt. Das Stratum spinosum ist für uns von Bedeutung, da dies das interstitielle Wasser enthält, in dem der Glukosegehalt mit dem Glukosegehalt im Blut gut übereinstimmt. Die photoakustische Messmethode wird nicht-invasiv durchgeführt. Probanden wird Zucker verabreichet und danach in Abständen von 5 Minuten der Blutzucker konventionell bestimmt und gleichzeitig mittels der photoakustischen Messung am Daumenballen durchgeführt. Mit diesen Daten kann die Korrelation zwischen beiden Methoden bestimmt werden. In vielen in vivo Messreihen zeigen sich bereits in direkter Korrelation zu invasiv genommenen Blutzuckerwerten Korrelationskoeffizienten bis zu R=0,8 und eine damit deutliche Evidenz für einen glukoserelevanten Effekt. Trotz der versprechenden Ergebnisse wird deutlich, dass weitere Entwicklungen notwendig sind, damit das System zu einer direkten Konkurrenz zu der vorhandenen invasiven Meßsystemen werden kann.
Die vorliegende Arbeit befasst sich mit der übergeordneten Frage nach dem Einfluss der Multikollinearität bei der Spezifikation und Schätzung von latenten nichtlinearen Effekten in Strukturgleichungsmodellen. Da das Multikollinearitätsproblem in latenten nicht-linearen Strukturgleichungsmodellen bisher in der Literatur kaum Beachtung gefunden hat, wird als erstes die Frage beantwortet, welche Relevanz das Vorliegen von Multikollinearität in nichtlinearen Strukturgleichungsmodellen hat. Dabei wird aufgezeigt, dass Multikollinearität von Prädiktoren nicht nur bei linearen Strukturgleichungsmodellen ein Problem darstellt, sondern vor allem bei nicht-linearen Strukturgleichungsmodellen aufgrund des Vorhandenseins nicht-linearer Terme. Da nicht-lineare Terme untereinander in einem höheren Zusammenhang stehen können als lineare Terme eines Strukturmodells, kann es zu Scheineffekten und zu verzerrten Schätzungen der nichtlinearen Effekte kommen. Ein Teststärkeverlust tritt immer ein. Als zweites wird gezeigt, dass die am stärksten vertretene Ansatzklasse zur simultanen Schätzung von Interaktionseffekten und quadratischen Effekten, nämlich die Klasse der Produkt-Indikator-Ansätze, seit ihrer Erstpublikation durch Kenny und Judd (1984) Spezifikationsfehler aufweist, welche in ähnlicher Form auch in jüngeren Publikationen enthalten sind (z.B. bei Lee, Song & Poon, 2004). Spezifikationsfehler machen die ganze Ansatzklasse für Multikollinearität „anfällig“, so dass es theoretisch zu verzerrten Schätzungen oder Scheineffekten kommen muss. Es wird gezeigt, wie man die Spezifikationsfehler korrigieren kann, d.h. wie man die bestehenden Ansätze erweitern muss. Da die latente Prädiktorkorrelation Bestandteil der Spezifikationsfehler ist, stellt sich die Frage, wie groß die Verzerrungen sind, die sich bei der Anwendung der (unkorrigierten) Produkt-Indikator-Ansätze ergeben, wenn die Multikollinearität steigt. Um diese Frage zu beantworten, wird eine Simulationsstudie durchgeführt. Sie zeigt, dass der Zwei-Stufen-Ansatz von Ping (1996) verzerrte Schätzungen der nicht-linearen Effekte produziert. Dieser Ansatz ist ein Vertreter der Produkt-Indikator-Ansätze und enthält die besagten Spezifikationsfehler. In der Simulationsstudie wird außerdem gezeigt, dass die korrekte Erweiterung des Ansatzes von Jöreskog und Yang (1996) zu erwartungstreuen Schätzungen führt. Als drittes wird der Frage nachgegangen werden, welche theoretischen und empirischen Unterschiede zwischen den neuen verteilungsanalytischen Ansätzen LMS (Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007), einerseits, und den klassischen Produkt-Indikator-Ansätzen, andererseits, zu erwarten sind. Dazu werden die theoretischen Eigenschaften der verteilungsanalytischen Verfahren, LMS und QML, untereinander und mit der Klasse der Produkt-Indikator-Ansätze verglichen. Ihre theoretischen Eigenschaften werden beim Vorliegen von Multikollinearität betrachtet. Illustriert werden die theoretischen Unterschiede anhand einer Simulationsstudie, die die Ansätze hinsichtlich ihrer Schätzeigenschaften bei steigender Multikollinearität miteinander vergleicht. In der Simulationsstudie werden die theoretisch herausgearbeiteten Vorteile der verteilungsanalytischen Verfahren, LMS und QML, bestätigt. In der Zusammenschau der theoretischen Überlegungen und der Ergebnisse aus den Simulationsstudien zeigt sich, dass Multikollinearität für alle Ansätze zur simultanen Schätzung multipler nicht-linearer Effekte eine Herausforderung ist. Die forschungspraktische und inhaltliche Relevanz des Multikollinearitätsproblems wird anhand eines Beispiels veranschaulicht. Für in jüngster Zeit diskutierte komplexere Modelle (z.B. moderierte Mediatormodelle) wird Multikollinearität ein Kernproblem sein, dem sich alle Ansätze werden stellen müssen oder für das neue Ansätze entwickelt werden müssen.
Die vorliegende Arbeit befasst sich mit der übergeordneten Frage nach dem Einfluss der Multikollinearität bei der Spezifikation und Schätzung von latenten nichtlinearen Effekten in Strukturgleichungsmodellen. Da das Multikollinearitätsproblem in latenten nicht-linearen Strukturgleichungsmodellen bisher in der Literatur kaum Beachtung gefunden hat, wird als erstes die Frage beantwortet, welche Relevanz das Vorliegen von Multikollinearität in nichtlinearen Strukturgleichungsmodellen hat. Dabei wird aufgezeigt, dass Multikollinearität von Prädiktoren nicht nur bei linearen Strukturgleichungsmodellen ein Problem darstellt, sondern vor allem bei nicht-linearen Strukturgleichungsmodellen aufgrund des Vorhandenseins nicht-linearer Terme. Da nicht-lineare Terme untereinander in einem höheren Zusammenhang stehen können als lineare Terme eines Strukturmodells, kann es zu Scheineffekten und zu verzerrten Schätzungen der nichtlinearen Effekte kommen. Ein Teststärkeverlust tritt immer ein. Als zweites wird gezeigt, dass die am stärksten vertretene Ansatzklasse zur simultanen Schätzung von Interaktionseffekten und quadratischen Effekten, nämlich die Klasse der Produkt-Indikator-Ansätze, seit ihrer Erstpublikation durch Kenny und Judd (1984) Spezifikationsfehler aufweist, welche in ähnlicher Form auch in jüngeren Publikationen enthalten sind (z.B. bei Lee, Song & Poon, 2004). Spezifikationsfehler machen die ganze Ansatzklasse für Multikollinearität „anfällig“, so dass es theoretisch zu verzerrten Schätzungen oder Scheineffekten kommen muss. Es wird gezeigt, wie man die Spezifikationsfehler korrigieren kann, d.h. wie man die bestehenden Ansätze erweitern muss. Da die latente Prädiktorkorrelation Bestandteil der Spezifikationsfehler ist, stellt sich die Frage, wie groß die Verzerrungen sind, die sich bei der Anwendung der (unkorrigierten) Produkt-Indikator-Ansätze ergeben, wenn die Multikollinearität steigt. Um diese Frage zu beantworten, wird eine Simulationsstudie durchgeführt. Sie zeigt, dass der Zwei-Stufen-Ansatz von Ping (1996) verzerrte Schätzungen der nicht-linearen Effekte produziert. Dieser Ansatz ist ein Vertreter der Produkt-Indikator-Ansätze und enthält die besagten Spezifikationsfehler. In der Simulationsstudie wird außerdem gezeigt, dass die korrekte Erweiterung des Ansatzes von Jöreskog und Yang (1996) zu erwartungstreuen Schätzungen führt. Als drittes wird der Frage nachgegangen werden, welche theoretischen und empirischen Unterschiede zwischen den neuen verteilungsanalytischen Ansätzen LMS (Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007), einerseits, und den klassischen Produkt-Indikator-Ansätzen, andererseits, zu erwarten sind. Dazu werden die theoretischen Eigenschaften der verteilungsanalytischen Verfahren, LMS und QML, untereinander und mit der Klasse der Produkt-Indikator-Ansätze verglichen. Ihre theoretischen Eigenschaften werden beim Vorliegen von Multikollinearität betrachtet. Illustriert werden die theoretischen Unterschiede anhand einer Simulationsstudie, die die Ansätze hinsichtlich ihrer Schätzeigenschaften bei steigender Multikollinearität miteinander vergleicht. In der Simulationsstudie werden die theoretisch herausgearbeiteten Vorteile der verteilungsanalytischen Verfahren, LMS und QML, bestätigt. In der Zusammenschau der theoretischen Überlegungen und der Ergebnisse aus den Simulationsstudien zeigt sich, dass Multikollinearität für alle Ansätze zur simultanen Schätzung multipler nicht-linearer Effekte eine Herausforderung ist. Die forschungspraktische und inhaltliche Relevanz des Multikollinearitätsproblems wird anhand eines Beispiels veranschaulicht. Für in jüngster Zeit diskutierte komplexere Modelle (z.B. moderierte Mediatormodelle) wird Multikollinearität ein Kernproblem sein, dem sich alle Ansätze werden stellen müssen oder für das neue Ansätze entwickelt werden müssen.
Untersuchung möglicher Wege zur Präparation von Nioboxynitriden mittels thermischer Kurzzeitprozesse
(2008)
In dieser Arbeit wurden mögliche Wege zur Präparation von Nioboxynitriden mittels thermischer Kurzzeitprozesse (Rapid Thermal Processing (RTP)) in dünnen Metallfilmen untersucht. Die dafür verwendeten Nb-Filme wurden mittels Magnetronsputtern auf ein thermisch oxidiertes Siliziumsubstrat (SiO2/Si-Substrat) aufgebracht. Die SiO2-Schicht hatte eine Dicke von 100 nm und soll die unerwünschte Reaktion zwischen Si und Nb vermeiden, welche zur Bildung von Niobsiliziden bei der RTP-Temperung führen kann. Um Nioboxynitride zu präparieren wurden Nb-Filme in mehreren Schritten mittels RTP behandelt. Durch die Variation der Ansatzreihenfolge (Oxidation und Nitridierung), der Reaktionsgase (O2, N2, NH3), der Reaktionstemperatur und der Reaktionszeit sowie der Schichtdicke der Proben wurde die Möglichkeit der Bildung von Nioboxynitriden untersucht. Es stellte sich heraus, dass die Bildung von Nioboxynitriden bei der Nitridierung der Nb2O5-Filme in Ammoniak erfolgt. Die Nb2O5-Filme wurden durch die Oxidation der as-deposited Nb-Filme im molekularem Sauerstoff bei 450 °C (nach 5 min Oxidation) bzw. bei 500 °C (nach 1 min Oxidation) hergestellt. Die gebildete Nb2O5-Phase wurde dem orthorhombischen beta-Nb2O5 zugeordnet. Die Oberfläche der Nb2O5-Filme zeigte Rissbildung sowie sichtbare Delamination bzw. Ablösung der Nb-Filme vom Substrat. Dies wird durch das Stressaufkommen im Film bei der direkten Oxidation des as-deposited Films im O2-Strom erklärt. Das Stressaufkommen wird durch eine starke Ausdehnung des Kristallgitters von Niob bei der Bildung des Nb2O5 sowie durch eine hohe Oxidationsrate des as-deposited Nb-Films in O2 hervorgerufen. Das Herabsetzen der Oxidationsgeschwindigkeit verringerte den Stress zwischen dem Metall und Niobpentoxid und verbesserte die Oberflächenqualität des Films nach der Temperung. Eine Herabsetzung der Reaktionsgeschwindigkeit wurde durch die Änderung der Ansatzreihenfolge erreicht. Die Oxidation der vorher nitridierten Nb-Filme führte zu einer langsameren Bildung des Nb2O5 im Vergleich zu den Filmen, die einer direkten Oxidation im O2-Strom ausgesetzt wurden. Dies wurde durch die Barrierefunktion der bei der Nitridierung gebildeten Niobnitride gegen den eindiffundierenden Sauerstoff hervorgerufen. Bei der Oxidation wurde die Diffusion des Sauerstoffes im nitridierten Film durch den Stickstoff gehemmt, was zu einer Abnahme der Oxidationsgeschwindigkeit und somit zu einer langsameren Bildung des Nb2O5 führte. Die Oxidation der zuvor nitridierten Filme führte zu wesentlich niedrigerem Stress zwischen dem Niob und den gebildeten Oxidphasen als zwischen dem Niob und dem Niobpentoxid bei der direkten Oxidation des Niobs in molekularem Sauerstoff. Die weitere Nitridierung der Filme, bei denen bei der Oxidation der bereits nitridierten Filme die Bildung nur einer Nb2O5-Phase erfolgte, führte zur Bildung von zwei Phasen: Nb4N3 und NbxNyOz. Die Zusammensetzung des gebildeten Nioboxynitrides entspricht am wahrscheinlichsten einer Zusammensetzung von NbN0.6O0.2. Sowohl die 200 als auch 500 nm-Filme zeigten nach der dreifachen Temperung eine hohe Porosität. Die hohe Porosität der Probe wurde durch Gasbildung und -diffusion (H2, H2O) im Innern des Films bei der Temperung des Nb2O5-Films in NH3 verursacht. Die EFTEM/EELS-Untersuchungen zeigten, dass sich beim dünnen 200 nm-Film zwei ausgeprägte Zonen (an der Oberfläche – Nb4N3, im Bulk bzw. am Interface – NbxNyOz) gebildet haben. Beim 500 nm-Film zeigte sich, dass die stickstoffhaltigen sowie stickstoff- und sauerstoffhaltigen Zonen, welche entsprechend Nb4N3 und NbxNyOz zugeordnet wurden, im ganzen Film ziemlich gleichmäßig verteilt sind. Ein Hinweis auf die Bildung eines Nioboxynitrides durch die Nitridierung der unvollständig oxidierten Nb-Filme im molekularen Stickstoff wurde nicht gefunden. Bei diesen Temperungen erfolgte die Bildung von unterschiedlichen Oxid- und Nitridphasen. Es wurde festgestellt, dass die Oxidation sowie die Nitridierung der Nb-Filme zu einem texturierten Wachstum der gebildeten Phasen führten. Die SiO2-Schicht auf dem (100)-orientierten Silizium wirkte sich auf das Schichtwachstum des auf das Silizium aufgebrachten Niobs aus und beeinflusste die Kristallstruktur der entstandenen Nb-Schicht und der bei den RTP-Temperungen gebildeten Phasen. Bei dünnen Schichten, wirkt sich dieser Effekt stärker aus, da der Einfluss des Substrates mit wachsender Schichtdicke abnimmt. Die bei der Oxidation gebildeten Nioboxide stellten eine starke Diffusionsbarriere für den bei der Nitridierung eindiffundierenden Stickstoff dar, was zur Aufstauung von Stickstoff in den an der Oberfläche liegenden Filmschichten führte. Die Analyse der erhaltenen SIMS-Daten zeigte, dass bei der Nitridierung der bereits oxidierten Filme die Diffusion des Stickstoffes zwei gleichzeitig ablaufende Prozesse verursacht. Von einer Seite verdrängt der eindiffundierende Stickstoff den Sauerstoff aus dem Film. Andererseits führt die Diffusion des Stickstoffes aufgrund des Schneepflug-Effekts zur Aufstauung des Sauerstoffes in den tiefliegenden Bereichen des Films. Gleichartige Diffusionsprozesse wurden bei der Oxidation der bereits nitridierten Filme beobachtet. Die Nioboxide, welche am Interfacebereich detektiert wurden, bildeten sich durch die Reaktion zwischen Niob und dem aus der SiO2-Schicht ausdiffundierenden Sauerstoff. Die Gegenwart der schon vorhandenen Nioboxide hemmte allerdings die Ausdiffusion des Sauerstoffes aus der SiO2-Schicht des Substrates im Vergleich zu den unoxidierten Filmen.
Diese Arbeit hat sich der Aufgabe verschrieben, die Bearbeitung des Phänomens 'Scham' in den zwei jüngsten Romanen von Wilhelm Genazino zu untersuchen. Dass 'Scham' ein zentrales Thema bei Genazino ist, zeigt sich allein am quantitativen Vorkommen von Schamsituationen in seinen Texten. Ziel dieser Arbeit ist zum Einen eine interdisziplinäre Analyse unter Einbeziehung psychologischer, soziologischer und philosophischer Fachliteratur zum Schamaffekt. Zum Anderen wird eine literaturwissenschaftlich fundierte Interpretation der Scham-Thematik als zentrales Motiv der Genazino'schen Texte angestrebt. Genazinos Werk, zumal das jüngere, gilt noch nahezu als Tabula rasa, was den Stand der Sekundärliteratur betrifft. So wird mit dieser Arbeit selbstverständlich auch bezweckt, ein kleines Stück zur literaturwissenschaftlichen Erforschung des Autors Genazino beizutragen.
In 1912 and 1913, the Neohellenic theatre festivals of the experimental stage in Hellerau become a meeting point of the Europeen avant-gardes. The musical stage reform of Appia and Jaques-Dalcroze was a decisive for the evolution of modern drama and dance. It is, however, hardly compatible with conservative concepts of poetry, which is shown by Claudels production of his mystery play Verkündigung (L' Annonce faite à Marie) in Hellerau and by Rilke's criticism.
1.) Die A1AO-ATP-Synthase wurde aus Membranen von P. furiosus unter Erhalt der Struktur isoliert. Das Enzym wurde durch PEG-Fällung, Dichtegradientenzentrifugation, Anionenaustausch-Chromatographie und Gelfiltration zur Homogenität gereinigt. 2.) Die neun aus dem Gencluster vorhergesagten Untereinheiten konnten durch Maldi-TOF-Analysen oder MS/MS identifiziert werden. Die molekulare Masse der A1AO-ATP-Synthase wurde durch LILBID-Analysen zu 730+/-10 kDa bestimmt. 3.) Die funktionelle Kopplung der A1- und AO-Domäne wurde durch Studien mit dem Inhibitor DCCD und TBT nachgewiesen. Weitere ATP-Synthase spezifische Inhibitoren wie DES, Dienestrol und Hexestrol waren in der Lage, das Enzym zu inhibieren. Die I50-Werte betrugen für DES 0,36 mM, für Dienestrol 0,52 mM und für Hexestrol 0,59 mM. 4.) Die ATPase-Aktivität war bei 100°C und pH 6 optimal. Das Enzym hydrolysierte Mg-ATP als bevorzugtes Substrat mit einer maximalen Geschwindigkeit von 1,7 U/mg und einem KM von 0,63 mM. 5.) Die ATPase-Aktivität war Na+-abhängig. Der KM-Wert betrug 0,6 mM. Li+ konnte Na+ substituieren, K+ war dazu nicht in der Lage. Die Wirkung des Inhibitors DCCD (I50 100 μM) konnte durch Zugabe von 5 mM NaCl bis zu einer Konzentration von 0,25 mM aufgehoben werden. Dies war der erste Nachweis einer Na+-abhängigen A1AO-ATP-Synthase. 6.) Das für die c-Untereinheit kodierende Gen wurde aus chromosomaler DNA amplifiziert und sequenziert. Die Genverdopplung konnte bestätigt werden, ebenso die Vorhersage nur einer Ionenbindestelle (Helix 4). Durch LILBIDAnalysen wurde eine Verdopplung der c-Untereinheit aufgrund der molekularen Masse (15,8 kDa) im gereinigten Komplex nachgewiesen. 7.) Die Bildrekonstruktion aus 7400 Einzelbildern zeigte einen Komplex aus zwei Domänen, die durch einen zentralen und zwei periphere Stiele miteinander verbunden sind. Ausgehend von den Summenbildern wurde erstmals eine D-Rekonstruktonsmappe einer A1AO-ATP-Synthase generiert, mit einer Auflösung von 23 Å. In diese 3D-Rekonstruktionsmappe wurden Untereinheiten gelöster Struktur modelliert. Mit Hilfe dieser Daten konnte die voraussichtliche Stöchiometrie der A1AO-ATP-Synthase von P. furiosus zu A3B3CDFE2H2ac10 bestimmt werden. 8.) Durch LILBID-Analysen mit erhöhter Laserintensität wurde ein Subkomplex mit einer molekularen Masse von 233-236 kDa detektiert. Biochemische Daten weisen auf einen Komplex aus einer Kopie der Untereinheit a und 10 Kopien der Untereinheit c hin. Zusammen mit der 3D-Rekonstruktion wurden unabhängige Evidenzien für einen c-Ring bestehend aus 10 Kopien des Monomers mit je 4 transmembranenen Helices und nur einer Ionenbindestelle erhalten. Dies würde eine Na+/ATP-Stöchiometrie von 3,3 ergeben und erklären, warum die A1AO-ATP-Synthase von P. furiosus trotz der V-Typ artigen c-Untereinheit ATP synthetisiert. 9.) Mit dem gereinigten Enyzm wurde eine 3D-Kristallisation durchgeführt. Die resultierenden Kristalle hatten tetraedrische Gestalt, waren 10 x 5 nm groß und wuchsen über einen Zeitraum von 30 Tagen. Die Kristalle beugten Röntgenstrahlen bis zu einer Auflösung von 15 Å. 10.) Zum Nachweis einer möglichen Na+-Abhängigkeit der ATP-Synthase von M. jannaschii wurde ein Na+-armer Puffer mit Sulfit hergestellt, da bereits eine Sulfitabhängigkeit der ATPase-Aktivität nachgewiesen wurde. Es konnte für die A1AO-ATP-Synthase keine Na+-Abhängigkeit der ATPase- Aktivität zwischen 0,07-400 mM nachgewiesen werden. 11.) Ein Subkomplex konnte durch mehrmaliges Auftauen und Einfrieren der A1AO-ATP-Synthase-haltigen Proteinlösung erhalten werden. Der Komplex enthielt die Untereinheiten ABFDacx. Die Untereinheiten C, E und H fehlten dem Komplex, was zu einem Zerfall in hydrophile und hydrophobe Domäne während der Präparation führte. Es konnten in der elektronenmikroskopischen Untersuchung nur Kopfteile detektiert werden. 12.) Die heterolog produzierte A1AO-ATP-Synthase aus M. mazei Gö1 wurde durch das Detergenz Dodecylmaltosid am besten aus der Cytoplasmamembran von E. coli solubilisiert. 13.) TBT ist ein potenter Inhibitor der heterolog produzierten A1AO-ATP-Synthase (I50=60 μM). Der Wirkort konnte durch Vergleichsmessung mit der heterolog produzierten A1-Domäne identifiziert werden. TBT interagiert mit der AODomäne archäeller ATP-Synthasen und ist daher geeignet, die Kopplung der heterolog produzierten A1AO-ATP-Synthase nachzuweisen.
Die folgende Arbeit thematisiert die Übungsstätten – Palaistren und Gymnasien – der archaischen und frühklassischen Zeit in Griechenland. Dabei soll untersucht werden, auf welche Weise und vor allem in welchem örtlichen und architektonischen Rahmen das sportliche Training in der Antike vor sich gegangen sein könnte. An dieser Stelle steht der Versuch, einen Beitrag zu der Diskussion über den Beginn von Palaistra und Gymnasion als architektonisch definierte Bereiche zu erbringen. Die Frage nach den Anfängen der griechischen Sportanlagen als baulich fassbare Einrichtungen ist in der Forschung umstritten und noch nicht eindeutig geklärt. Allgemein wird angenommen, dass zumindest noch zur Zeit Homers keine Gebäude für sportliche Betätigungen existierten. Es wird vermutet, dass in archaischer und auch noch in frühklassischer Zeit ein freies Areal ausreichte, um sich im sportlichen Wettkampf miteinander zu messen. Wann nun das Bedürfnis nach fest begrenzten und somit architektonisch definierten Bereichen für Sport und vor allem das Training aufkamen bzw. wann diese entstanden sind, konnte aufgrund einer Diskrepanz in der Quellenlage bisher nicht eindeutig geklärt werden. So stammen die frühesten Baubefunde der Sportplätze einerseits und deren früheste Erwähnungen in den Schriftquellen andererseits nicht aus der gleichen Zeit. Während die älteste, im archäologischen Befund greifbare und mit großer Zuverlässigkeit datierbare Palaistra durch die Anlage in Delphi in das 3. Viertel des 4. Jhs. v. Chr. eingeordnet werden kann, gehen die frühesten schriftlichen Überlieferungen solcher Einrichtungen bis ins 6. Jh. v. Chr. zurück.
Basierend auf dem kognitiv-motivationalen Prozessmodell von Vollmeyer und Rheinberg (1998) werden zwei Studien vorgestellt, die sich mit dem selbst regulierten Lernen mit Multimedia im Physikunterricht beschäftigen. Das kognitiv-motivationale Prozessmodell beschreibt, wie die Eingangsmotivation über Mediatorvariablen auf die Leistung, in diesem Fall den Wissenserwerb, wirkt. Wie in früheren Studien gezeigt werden konnte, besteht die Eingangsmotivation aus vier voneinander unabhängigen Faktoren: Herausforderung, Interesse, Erfolgswahrscheinlichkeit und Misserfolgsbefürchtung. Als Mediatorvariablen wurden in beiden Studien die von Schülern verwendeten Strategien, der motivationale Zustand während des Lernens und der funktionale Zustand während des Lernens angenommen. Bei den Strategien handelt es sich genauer gesagt um das beobachtbare Verhalten der Schülers während des Lernens. Mit Motivationalem Zustand sind die gleichen Faktoren wie bei der Eingangsmotivation gemeint, nur dass jetzt die Lerner schon Erfahrung mit der Aufgabe haben. Der funktionale Zustand gibt an, wie sehr ein Lerner auf die Aufgabe konzentriert ist. Ein Konstrukt, das diesen Zustand gut beschreibt, ist Csikszentmihalyis Flow. Ziel der Pilotstudie war es, das Lernen im Schulalltag mit einem Physikprogramm am Computer zu untersuchen. Dazu wurden folgende Hypothesen aufgestellt: 1) Die Eingangsmotivation wirkt auf die Mediatoren. 2) Die Mediatoren wirken auf die Leistung. 3) Die Eingangsmotivation wirkt auf die Mediatoren und diese wiederum auf die Leistung (Prüfung des Prozessmodells). 4) Es gibt Geschlechtsunterschiede bei den Variablen: Eingangsmotivation, hier insbesonders beim Interesse, den Mediatoren und der Leistung. Schüler sollten bei allen Variablen besser abschneiden. In der Pilotstudie hatten 32 SchülerInnen einer 11. Klasse 30 Minuten Zeit, sich ein Physiklernprogramm zum Thema Drehmomente (Wünscher & Ehmke, IPN Kiel, 2002) selbständig zu erarbeiten. Neben der Eingangsmotivation vor Beginn des Lernens (FAM, Rheinberg, Vollmeyer & Burns, 2001) wurde die Motivation und Flow während des Lernens gemessen (FKS; Rheinberg, Vollmeyer & Engeser, 2003; 8 Items aus dem FAM). Die Vorgehensweise am PC wurde mit Hilfe eines Videoüberwachungsprogramms (ScreenVirtuoso) und eines Monitoringprogramms (StatWin) aufgezeichnet. Indikatoren für das Lernen waren die im Anschluss an die Bearbeitung des Lernprogramms in einem Lernfragebogen zu der Lerneinheit erzielte Punktzahl. Als Kontrollvariable wurde zu Beginn das Vorwissen erfasst. Indikatoren für die Strategien waren a) die Schnelligkeit der Bearbeitung (Anzahl der bearbeiteten Abschnitte und Bearbeitungszeit der einzelnen Abschnitte), b) die Aktivität (Mausklicks) und c) die Verwendung der Animationen (Schnelligkeit des Auffindens, Anzahl, Länge und Art und Weise der Nutzung). Die Hypothesen konnten bestätigt werden. Das kognitiv-motivationale Prozessmodell konnte in den meisten Teilen bestätigt werden: Die Eingangsmotivation, vor allem das Interesse, wirkt über Mediatoren, hier besonders über die verwendeten Strategien, auf die Leistung. Die Geschlechtsunterschiede beim Lernen mit einem Physikprogramm am PC (in der Eingangsmotivation, den Vorgehensweisen, und der gezeigten Leistung) waren stärker als erwartet zu Gunsten der Schüler. Die Geschlechtsunterschiede waren bei allen Variablen signifikant. Damit Schülerinnen in dem untersuchten Bereich zukünftig bessere Ergebnisse erzielen, könnte es hilfreich sein, ihr situationales Interesse und die Erfolgszuversicht zu erhöhen. In der Hauptstudie wurde daher der Versuch gemacht, durch eine Veränderung der Instruktion die Motivation, besonders die der Schülerinnen, beim Arbeiten mit einem Physiklernprogramm zu steigern. Hier sollten besonders zwei Faktoren der Eingangsmotivation wichtig sein. Wenn es eine Rolle spielt, für wie fähig sich ein Schüler hält, dann müsste es möglich sein, durch entsprechende Instruktionen die Erfolgswahrscheinlichkeit zu stärken und damit das Lernergebnis zu verbessern. Dies erschien im Hinblick auf die schlechte Erfolgswahrscheinlichkeit der Schülerinnen in der Pilotstudie geboten. Weiterhin wurde der Einfluss, den das Interesse auf die Leistung hat, diskutiert und entsprechend in der Hauptstudie versucht, das Interesse der Schüler zu steigern. Die Hypothesen lauteten: 1) Bei den Experimentalgruppen wird durch die Instruktion die Eingangsmotivation verändert. 2) Da der Einfluss von Vorwissen nicht auszuschließen ist, wird es kontrolliert. Es wird erwartet, dass das Vorwissen mit der Leistung signifikant korreliert. Bei den Experimentalgruppen wird mehr Vorwissen aktiviert als bei der Kontrollgruppe. 3) Durch die Manipulation sollen sich auch die Mediatoren des Lernprozesses verändern. 4) Die Leistung soll sich in Abhängigkeit von der Instruktion in den Experimentalgruppen verbessern. Der Versuchsablauf blieb im Wesentlichen unverändert. In einem 3 x 2 Design wurden 60 Schüler (30 weiblich, 30 männlich) aus der Klassenstufe 11 getestet. Es gab eine Instruktion, worin die Schülerinnen über die Bedrohung durch Geschlechtsrollenstereotype informiert wurden und gebeten wurden, dagegen an zu arbeiten. In einer zweiten Experimentalgruppe sollte das Interesse aller Probanden erhöht werden. Die Ergebnisse waren weitgehend hypothesenkonform. Es konnte gezeigt werden, dass sich mittels der Instruktion die Eingangsmotivation verbesserte und sich dadurch auch Flow-Erleben und Motivation während des Lernens erhöhten, wodurch eine bessere Leistung zustande kommen konnte. Dies ist ein Ergebnis, das für den Schulalltag von Schülern und Lehrern berücksichtigt und umgesetzt werden sollte. Lehrer sollten Schülerinnen in mathematisch-naturwissenschaftlichen Fächern auf das Geschlechtsrollenstereotyp aufmerksam machen, da dies zu besseren Strategien und Leistungen bei deren Lernen führt. Sie sollten überdies das Interesse der Schülerinnen wecken, durch Betonung der persönlichen Relevanz des Themas ebenso wie durch noch zu untersuchende andere, Interesse besser weckende Instruktionen. Allerdings war in der Hauptstudie das Interesse in der Interessegruppe nicht wie erwartet gestiegen, dagegen veränderten sich andere Faktoren der Eingangsmotivation. Die Schüler hielten einen Erfolg für wahrscheinlicher, die Schülerinnen waren ängstlicher. Dennoch verhielten sich die Schülerinnen dieser Gruppe strategisch besser und erzielten auch bessere Leistungen. Die Schüler hatten ein höheres Flow-Erleben, erzielten aber keine besseren Leistungen. In der Stereotypgruppe gab es ebenfalls signifikante Verbesserungen bei allen Prozessvariablen bei den Schülerinnen. Sie hatten erwartungsgemäß eine höhere Erfolgswahrscheinlichkeit, zeigten bessere Lernstrategien und erzielten bessere Leistungen als die Schülerinnen der Kontrollgruppe. Während in der Kontrollgruppe fast alle Geschlechtsunterschiede der Pilotstudie repliziert wurden, gab es in den Experimentalgruppen keine Geschlechtsunterschiede mehr. Insbesondere die Schülerinnen hatten von der Manipulation profitiert. Die Gründe für die Veränderungen in den Experimentalgruppen wurden diskutiert und weitere Forschungsansätze aufgeführt. Erfreulich ist, dass im Schulalltag beim Lernen mit einem Computerprogramm Flow-Erleben erzeugt werden konnte. Ebenfalls erfreulich ist, dass der Benachteiligung von Schülerinnen beim Lernen mit Physikprogrammen wirksam begegnet werden konnte. Der Lernprozess konnte ein weiteres Stück im Schulalltag erforscht werden und mit Hilfe von Monitoringprogrammen konnten objektive Indikatoren für das Vorgehen bzw. die Strategien von Schülern beim Lernen am Computer bestimmt werden. Als günstiger Strategieindikator erwies sich vor allem die Länge und Güte der Nutzung von Animationen. Das kognitiv-motivationale Prozessmodell konnte erneut bestätigt werden und sollte in weiteren Forschungen als theoretischer Hintergrund herangezogen werden.
Die genaueste Darstellung der anatomischen Verhältnisse und pathologischer Veränderungen der Prostata gelingt durch den Einsatz einer Kombination von einer Endorektal und Phased-Array-Oberflächenspule, wie sie auch für die Untersuchungen im Rahmen der vorliegenden Studie verwandt wurde (95; 96). In 70 – 80 % aller Fälle entsteht das Prostatakarzinom in der peripheren Zone (24; 33; 51; 93) und führt in der MRT zu einer charakteristischen Signalabsenkung (24). Prostatakarzinomherde von weniger als 4 mm Größe können in der MRT nicht zuverlässig erkannt werden (83), und andere Krankheitsprozesse können prostatakarzinom-ähnliche Veränderungen in der peripheren Zone hervorrufen, da sie ebenfalls zu Signalabsenkungen führen (42). In diesem Zusammenhang ist die chronische granulomatöse Prostatitis ebenso zu nennen wie BPH-Knoten in der periphere Zone oder eingeblutete bzw. narbig veränderte Bezirke bei Zustand nach Prostatabiopsie (24; 33; 42; 93). Außer in Fällen mit eindeutiger makroskopischer Kapselüberschreitung, die in der MRT relativ sicher identifiziert werden kann, bleibt die Interpretation einer signalabgesenkten Läsion in der peripheren Zone in gewissem Maße subjektiv. Ein exaktes Staging des Prostatakarzinoms ist für eine Therapieentscheidung unerlässlich, da davon abhängt, ob eine kurative radikale Prostatektomie durchgeführt werden kann oder nicht. Die Diagnose eines Prostatakarzinoms wird nach wie vor am einfachsten und kosteneffektivsten durch die Kombination von Messung des Serumwertes des Prostata-spezifischen Antigens (PSA), digitaler rektaler Untersuchung (DRE) und durch transrektalen Ultraschall (TRUS) gesteuerter Biopsie gestellt (69). Mithilfe der histologischen Untersuchung von Biopsiematerial kann sowohl die Ausdehnung des neoplastischen Prozesses als auch der Malignitätsgrad des Karzinoms durch Ermittlung des so genannten Gleason-Scores abgeschätzt werden. Im Gegensatz zu diesen klaren diagnostischen Richtlinien wird die Auswahl des Therapieverfahrens nach wie vor kontrovers diskutiert, da die Erkrankung einen langsamen, subklinischen Verlauf nehmen kann und weil keine eindeutigen Richtlinien über das dem jeweiligen Karzinomstadium angemessene Therapieverfahren existieren. Zusammenfassend lässt sich sagen, dass die TRUS mit Biopsieentnahme eine Hauptrolle in der Diagnostik des Prostatakarzinoms spielt, beim lokalen Staging jedoch die MRT einen entscheidenden Beitrag zur Beantwortung der Frage leisten kann, ob ein Karzinom auf die Prostata beschränkt ist oder die Organgrenzen bereits überschritten hat. Das weitere Schicksal von Patienten mit unklarem klinischen Befund kann also wesentlich vom korrekten und rechtzeitigen Einsatz der Magnetresonanztomografie abhängen, die beim Staging des Prostatakarzinoms die höchste Genauigkeit aller Untersuchungsmodalitäten bietet, wenn sie mit hoher Bildqualität durchgeführt wird und die Befundung der Bilder durch einen erfahrenen Radiologen erfolgt. In der vorliegenden Doktorarbeit wurden die MRT-Bilder von 81 Patienten mit histologisch gesichertem Prostatakarzinom vor einer radikalen Prostatektomie retrospektiv analysiert. Bei den MRT-Bildern, die in dieser Arbeit analysiert wurden, handelte sich um die T2-gewichtete MRT-Bilder. Auf T2-gewichteten Bildern zeigt die periphere Zone ein homogen helles Signal, das mit der dünnen außen liegenden signalarmen Prostatakapsel kontrastiert. Nach innen ist eine Abgrenzung zur in gemischter Signalintensität dargestellten Pseudokapsel, der zentralen Zone und der Übergangszone möglich (33; 36; 56). Diese T2-gewichteten MRT-Bilder wurden anhand folgender MRT-Kriterien analysiert: * Obliteration des rektoprostatischen Winkels * Irregulär konturierte Kapsel * Großflächiger Kontakt des Tumors zur Prostatakapsel * Asymmetrische Darstellung des neurovaskulären Bündels Bereits in vorhergehenden Studien wurden diese MRT-Kriterien von verschiedenen Autoren untersucht, wie z. B. von Yu et al (95). In dieser Studie wurden die Obliteration des rektoprostatischen Winkels und die Asymmetrie des neurovaskulären Bündels als diejenigen Parameter identifiziert, die die größte Aussagekraft für ein extrakapsuläres Wachstum besitzen. Bei allen Patienten wurden zusätzlich die klinischen Parameter „ präoperativer PSAWert “ und „bioptischer Gleason-Score“ telefonisch von den überweisenden Urologen ermittelt und in die Gesamtanalyse mit einbezogen. Mittels ROC-Analysen wurden optimale Grenzwerte des bioptischen Gleason-Scores und des präoperativen PSA-Wertes zur Unterscheidung eines T3 von einem T2-Tumor ermittelt. Durch Berechnung einer vorwärts gerichteten logistischen Regression wurden dann diejenigen Parameter ermittelt, die einen signifikant unabhängigen Beitrag zur Vorhersage des Tumorstadiums leisten. Als Resultat unserer Arbeit konnte gezeigt werden, dass die "Obliteration des rektoprostatischen Winkels" als radiologischer Parameter und "ein bioptischer Gleason-Score" von größer oder gleich 7 signifikant unabhängige Prädiktoren eines kapsel-überschreitenden Wachstums vom Prostatakarzinom darstellen. Die übrigen von uns analysierten Parameter leisteten darüber hinaus keinen weiteren Beitrag zum präoperativen Staging. Aufgrund des Ergebnisses der vorliegenden Arbeit ist es in Zukunft möglich, das MRT-basierte Staging des Prostatakarzinoms zu standardisieren und somit robuster zu gestalten. Aufgrund der reduzierten Parameter ergibt sich zudem eine erhebliche Vereinfachung der Bildanalyse.
S1P ist ein bioaktives Lipid, welches die Migration und Proliferation von Endothelzellen durch die Aktivierung des S1P-Rezeptors (EDG-Rezeptor) mit beeinflusst. Auch bei der SDF-1 induzierten Migration und beim Knochenmarkshoming von CD34+ Zellen spielt S1P eine Rolle. FTY720 ist ein synthetisches Analogon von S1P. In dieser Arbeit wurde gezeigt, dass endotheliale Progenitor Zellen (EPCs), gewonnen aus Patienten mit einer vorbestehenden KHK, durch Inkubation von S1P oder FTY720, verbesserte Neovaskularisation in der hinterlaufischämischen, athymischen Nacktmaus zeigen. Demgegenüber war die endogene Neovaskularisationkapazität, bei induzierter Hinterlaufischämie, von Mäusen mit S1P3 -/- stark eingeschränkt im Vergleich zu den Wildtyp-Varianten. Auch vermindert war der Blutfluß von Knochenmarkszellen, gewonnen aus S1P3 -/- Mäusen, transplantiert in hinterlaufischämische, athymische Nacktmäuse. Die Behandlung der KMZs mit S1P-Rezeptor- Agonisten führte zu keiner gesteigerten Erholung des Blutflusses. Des Weiteren konnte gezeigt werden, dass S1P und FTY720 den CXCR4-Rezeptor und JAK2 phosphorylieren. Ebenfalls aktiviert wird die Src-Kinase. Bei Verwendung von Zellen, gewonnen aus CXCR4 +/- Mäusen, zeigt die Inkubation von S1P oder FTY720 keine Verbesserung in der Invasions- und Neovaskularisationskapaziät. Durch Vorinkubation des Src-Kinase-Familien-Inhibitors PP2 konnte aufgezeigt werden, dass die Phosphorylierung von CXCR4 von der Src-Familie abhängig ist. Auch funktionell betrachtet, führt die Vorinkubation von PP2 zu einer ausgeprägten Erniedrigung der Invasionskapazität bei Inkubation mit S1PRezeptoragonisten. In Knochenmarkszellen, gewonnen aus S1P3 -/- Mäusen, kommt es zu keiner Src-Kinase-Phosphorylierung. Auch kommt es in den embryonalen Mausfibroblasten (MEF-Zellen) zu keiner JAK2-Kinase-Phosphorylierung, nach Inkubation von einem S1P-Rezeptoragonisten. Auf diesen Zellen wird kein S1P3-Rezeptor exprimiert, wie FACS-Analysen zeigten. Dies spricht für eine Aktivierung des CXCR4-Rezeptors über den S1P3-Rezeptor. Diese Doktorarbeit zeigt, dass S1P und FTY720 den CXCR4-Signalweg beeinflussen. So könnten sie bei Zelltherapiestudien als pharmakologisches Mittel benutzt werden, um die in ihrer Funktion eingeschränkten EPCs oder KMZs von Patienten mit einer bestehenden KHK zu verbessern.
In dieser retrospektiven Studie wurden 99 Patienten untersucht, die von 1986-1995 an einem periampullären oder Pankreas-Karzinom erkrankt und palliativ und curativ operiert worden waren, mit einem Nachbeobachtungszeitraum von mehr als 5 Jahren. Es handelte sich um 59 Männer mit mittlerem Alter von 64 Jahren (39-85 Jahre) und 40 Frauen mit mittlerem Alter von 66 Jahren (40-88 Jahre) in einemVerhältnis von 1,5:1, die in 22 Fällen an einem periampullären Karzinom und in 77 Fällen an einem Pankreas-Karzinom erkrankt waren. 47 Resektionen konnten durchgeführt werden, davon waren 35 (35,3%) als potentiell curativ zu werten. Eine einzige Kausch-Whipple-Operation erfolgte als R2-Resektion bei gleichzeitig vorhandenem Nierenzell-Karzinom. Die mediane Überlebenszeit bei der proximalen Duodenopankreatektomie betrug 22 Monate, die 1-Jahres-Überlebensrate 73 % und die 5- Jahres-Überlebensrate 21,5%. Die Mehrzahl (75%) der Links-Resektionen (9 von 12 Patienten) hatten palliativen Charakter und erreichten eine mediane Überlebenszeit von vier Monaten, die der einer Nicht-Resektion entsprach. Es konnte lediglich eine 1-JahresÜberlebensrate erreicht werden für 19% der Patienten. Für den biliodigestiven Bypass war die 1-Jahres-Überlebensrate 9,5% mit einer maximalen 4- Jahres-Überlebensrate von 3%. Andere palliative Eingriffe wie eine Gastroenterostomie, Jejuno- und Colostomie und Cholecystektomie wiesen eine 1-Jahres-Überlebensrate von 13% auf mit einer mittleren Überlebenszeit von 4 Monaten. Die Morbidität bei Resektionen lag allgemein bei 53,2%, für die Kausch-Whipple-Operationen bei 57,1%, für die Links-Resektion 41,7%, den biliodigestiven Bypass 29,7% und 13,3% für andere palliative Eingriffe. Die Krankenhaus-Mortalität lag für Resektionen insgesamt bei 14,9%, für die Kausch-Whipple-Operation bei 11,4%; die 30-Tage-Letalität lag ebenfalls bei 14,9%. Wenige (n=5) Frühkarzinome, T1N0M0, traten im Stadium I auf und erreichten in unserem Kollektiv nur die 3-Jahres-Überlebensrate und nicht die 5-Jahres-Überlebensrate. Eine gute Überlebensprognose zeigten dagegen curativ operierte Patienten im Stadium II und III. Im Stadium II und III befanden sich die heute noch nach über 10 und 15 Jahren lebenden Patienten mit periampullärem Karzinom. Hier zeigte sich die gute Prognose der periampullären Duodenum-Karzinome vor den Papilla Vateri-, Kopf- und Choledochus-Karzinomen in absteigender Reihenfolge. Diese gute Prognose spiegelte sich in unserer kleinen Fallzahl wieder und wird durch große internationale Studien in ihrer Signifikanz bestätigt. Die 5-Jahres-Überlebensrate bei curativer Resektion des periampullären Karzinoms betrug 30%, beim Pankreas-Karzinom 18% mit einer Überlebenszeit von 30 versus 16 Monaten. Untersucht wurde darüber hinaus die Gefäß-Resektion und –Rekonstruktion bei vermeintlicher Infiltration unter anderem der Vena portae. Dieser Eingriff wird in manchen Kliniken prophylaktisch unternommen, wobei in den meisten Fällen keine Infiltration vorlag, so auch bei uns. Außerdem wurden bei tumorfreier Resektion Perineuralscheiden-Infiltrationen beschrieben. Diese Patientengruppe wurde auf ihren weiteren Rezidivverlauf und die Überlebenrate hin untersucht. Die Infiltration schien durch erfahrene Chirurgen soweit ausgeräumt worden zu sein, dass sich dies in unserer Studie nicht lebensmindernd auswirkte.
Das Zusammenspiel von Glottis und Vokaltrakt während des passaggio in der männlichen Gesangsstimme
(2008)
Der Registerwechsel vom Brust- ins Kopfvollregister ist für den männlichen Opernsänger entscheidend für das Erreichen der hohen Lage. Die korrekte Ausführung des passaggio, also die Passage der Töne im sensiblen Wechselbereich, in dem der Registerwechsel stattfindet, ist eine der großen Herausforderungen in der Gesangsausbildung. Bei der Lehre zur Ausführung des passaggio sind individuelle Herangehensweisen vorherrschend, meist auf intuitiver Grundlage. Während diese Lehrmethoden für einen großen Teil der Berufssänger erfolgreich sind, zeigt ein anderer Teil der Sänger Stimmermüdung und erhebliche Schwierigkeiten bei der Ausführung dieses Registerwechsels, für deren Therapie ein genaueres Wissen über die physikalischen Grundlagen unbedingt erforderlich ist. Bislang gibt es über die Parameter dieses Registerwechsels nur Studien mit sehr geringer Probandenzahl, es fehlen objektive Kriterien auf einer breiteren Basis. Ziel der vorliegenden Arbeit ist es, hierzu einen Beitrag zu leisten. Es wurden Tonsignale, Elektroglottogramme und ein Äquivalent des subglottischen Drucks bei 11 Opernsängern (4 Tenöre, 4 Baritone und 3 Bässe, im Alter von 28 – 55 Jahren, Median 46 Jahre) aufgezeichnet, die in Tonleitern auf offenen Hinterzungenvokalen den Registerwechsel passierten. Die Tonsignale wurden in Echtzeit Spektralanalyse verarbeitet, der Schlussquotient wurde bestimmt. Die Analyse des Tonsignals zeigt für das Brustregister die Dominanz des zweiten Harmonischen (H2), der durch den ersten Formanten (F1) resoniert wird und des vierten Harmonischen (H4), der durch den zweiten Formanten (F2) resoniert wird. Im passaggio sinkt der Schalldruckpegel von H2, der die Resonanz von F1 verliert, während der dritte Harmonische (H3) die Resonanz durch F2 hinzugewinnt. An diesem Punkt fällt der Schalldruckpegel von H4, der nicht länger von F2 resoniert wird. Bei allen Sängern wird der Registerwechsel vom Brust- ins Kopfvollregister durch charakteristische spektrale Muster gekennzeichnet, die durch bestimmte Veränderungen der Formanten des Vokaltraktes die Schalldruckpegel der Harmonischen beeinflussen. Die Bestimmung des Schlussquotienten zeigt Anstieg, Abfall und eine Mischung von beiden während des Registerwechsels. Es gibt hier keine vergleichbare Ordnungsmäßigkeit was auf eine grundsätzlich gleich bleibende Einstellung des Larynx hinweist. Der Registerwechsel vom Brust- ins Kopfvollregister ist durch charakteristische Veränderungen der Schalldruckpegel der Harmonischen H2, H3 und H4 und dem Verlauf der Frequenz der ersten beiden Formanten gekennzeichnet, die eine objektive Unterscheidung zwischen den beiden Registern für alle drei männliche Stimmgattungen definieren.
Diese Abschlussarbeit zur dialektalen Gliederung des Zazaki besteht aus 2 Hauptteilen. Teil 1 beschreibt nach kurzer Darlegung und Auswertung der bisherigen Forschung die dialektale Struktur der Sprache und die Einteilung in Hauptdialekte. Teil 2 besteht aus Übersetzungen eines Beispieltextes in verschiedene Dialekte und Mundarten sowie aus Sprachkarten mit Isoglossen.
Es ist bekannt, dass Curcumin in einer Vielzahl verschiedener Zellarten die Proliferation hemmt und Apoptose induziert. In der Literatur werden Konzentrationen von 10 bis 150 µM (3.7-55 µg/ml) als dafür notwendig beschrieben. Da Curcumin nach oraler Aufnahme, aufgrund seiner schlechten Resorption aus dem Magen-Darm-Trakt, eine geringe Bioverfügbarkeit im Organismus aufweist, sind therapeutische Lösungen erforderlich um Curcumin besser nutzen zu können. Aus diesem Grund wurde im Rahmen der vorliegenden Arbeit die Wirkung von geringen Mengen Curcumin, die allein keine Effekte zur Folge haben, in Zusammenwirkung mit Licht untersucht. Es wurde gezeigt, dass bereits Konzentrationen von 0,2-1 µg/ml in Keratinozyten die Proliferation hemmen, wenn sie mit UVA- oder sichtbarer Licht-Bestrahlung kombiniert werden. Desweiteren wurde belegt, dass diese Behandlung Apoptose in HaCaT-Zellen induziert, wobei der mitochondriale Apoptoseapparat aktiviert wird. Dies belegen die Freisetzung von Cytochrom c und die frühe Spaltung der Caspase-9 wohingegen Caspase-8 zeitverzögert aktiviert wurde. Weiterhin wurde dargelegt, dass Erk1/2, PKB/Akt und PKC durch Curcumin/Licht gehemmt werden, wohingegen p38 durch diese Behandlung eine Aktivierung erfährt. Zusätzlich ergab sich ein inhibierender Einfluss auf den EGF-Rezeptor, einem “upstream”-Regulator all dieser Kinasen, und den Transkriptionsfaktor NF-kappaB. Bei in vivo-Studien an immundefizienten Mäusen mit A431-Xenografts hatte eine Behandlung mit i.p. verabreichtem Curcumin und anschließender Bestrahlung mit sichtbarem Licht einen signifikanten inhibitorischen Effekt auf das Tumorwachstum zur Folge. In diesen Tumoren fand eine Reduktion der Ki-67-Expression sowie eine Induktion von „apoptotic bodies“ statt. Western Blot-Analysen bestätigten die Apoptoseinduktion durch eine verstärkte Aktivierung der Caspase-9. Zusätzlich zeigte sich auch eine Hemmung von Erk1/2 sowie EGF-R nach beschriebener Behandlung in den Tumoren. Die Wirkungsweise des Curcumins in Kombination mit Licht in vitro wie auch in vivo weisen auf einen neuen therapeutischen Ansatz einer photodynamischen Therapie hin. Dabei kann durch die Verwendung von sichtbarem Licht auf den Einsatz der karzinogenen UV-Bestrahlung, wie sie in üblichen Phototherapien angewandt wird, verzichtet werden.
Gegenstand dieser Arbeit ist die Entwicklung, der Aufbau und die Charakterisierung sowie Messung einer anwendungsspezifischen integrierten Schaltung (engl.: Application Specific Integrated Circuit, ASIC). Sie dient der Auslese der im elektromagnetischen Kalorimeter des PANDA-Experiments eingesetzten Lawinenfotodioden. Jeder Auslesekanal beinhaltet in der Eingangsstufe einen ladungsempfindlichen Vorverstärker, gefolgt von einem Pulsformer sowie zwei Ausgangstreibern. Am Beginn der Entwicklung steht die Machbarkeitsstudie einer integrierten Ausleseelektronik, welche die anspruchsvollen Anforderungen des PANDA-Experiments erfüllt. Aus rauschtheoretischen Untersuchungen resultieren erste Entwurfsparameter für die Schaltung, die mit Hilfe umfangreicher Simulationen verbessert und ergänzt werden. Die technische Umsetzung der Schaltung erfolgt in einem 0,35 Micrometer-CMOS-Prozess der Firma Austria Mikrosysteme. Die Charakterisierung der integrierten Ausleseelektronik ergibt bei einer Umgebungstemperatur von T = - 20° C eine Shapingzeit des Signalpulses von tr = (124 ± 2) ns. Mit dem äquivalenten Rauschwert von ENC = (4456 ± 35) e- und einer maximal möglichen Eingangsladung von 7,84 pC folgt ein dynamischer Bereich von über 10 000. Der ratenunabhängige Leistungsbedarf eines einzelnen Auslesekanals beträgt P = (52, 4 ± 0, 2)mW. Damit erfüllt der in dieser Arbeit beschriebene ASIC Prototyp alle Anforderungen, die vom Experiment an die Ausleseelektronik gestellt werden.
Mit Unterstützung der Schopenhauer-Gesellschaft konnte das Archivzentrum der Frankfurter Universitätsbibliothek Johann Christian Senckenberg ein wichtiges Dokument zur Geschichte der Familie Schopenhauer aus dem Jahr 1820 erwerben. Die Urkunde wurde auf der 10. Auktion des Historischen Wertpapierhauses vom 2. bis 4. Mai 2008 in Würzburg zur Versteigerung angeboten. Sie belegt, dass der 1766 in Danzig geborenen Johanna Schopenhauer, Mutter des berühmten Frankfurter Philosophen Arthur Schopenhauer (1788 bis 1860), sowie deren Tochter Adele vom wirtschaftlich angeschlagenen Handelshaus Abraham Ludwig Muhl & Co. eine Leibrente von 300 Reichstalern zugesprochen wurde. Johanna und Adele waren in der Folge des Bankrotts des Handelshauses Muhl von 1819 in wirtschaftliche Nöte geraten. Johanna hatte 70 Prozent ihrer gesamten dortigen Einlagen verloren. Der ebenfalls betroffene Arthur Schopenhauer ließ sich nicht auf einen Vergleich des Handelshauses ein und konnte somit – im Gegensatz zu Mutter und Schwester – seine eigenen Finanzanlagen nach dreijähriger intensiver Verhandlung retten. Aufgrund seiner jahrelangen Meinungsverschiedenheiten mit der mütterlichen Hofrätin und Schriftstellerin Johanna verweigerte Arthur in der Folgezeit die finanzielle Unterstützung, so dass Johanna ihren aufwendigen Lebensstil in Jena nicht mehr weiter fi nanzieren konnte. Die Schriftstellerei wurde bis zu ihrem Tod im Jahre 1838 zu ihrer vorrangigen Einnahmequelle. Die Urkunde mit der Signatur Schop, XXVI, 40 ist sehr gut erhalten. Drei der acht Johanna Schopenhauers Rente Wertvolle Urkunde für Schopenhauer-Archiv ersteigert auf Blütenpapier geschriebenen, doppelseitigen Folioseiten wurden handschriftlich verfasst. Sämtliche Seiten sind rechts bestoßen und haben eine Knickfalte. Im Absender wird das Handelshaus Abraham Ludwig Muhl & Co. genannt. Das Archivzentrum freut sich, ein solch zentrales Dokument zur wissenschaftlichen Untersuchung des schwierigen Verhältnisses von Arthur Schopenhauer zu seiner Mutter Johanna Schopenhauer in seinen Beständen zu wissen. Die Vermögens- und Familienverhältnisse der Familie Schopenhauer können anhand der umfangreichen Unterlagen aus dem Nachlass von Arthur Schopenhauer von Montag bis Freitag jeweils von 9.30 bis 16.30 Uhr nach Voranmeldung und im Rahmen der Benutzungsordnung eingehend untersucht werden.
Vorwort: Klima ist vor allem deswegen nicht nur von wissenschaftlichem, sondern auch von öffentlichem Interesse, weil es veränderlich ist und weil solche Änderungen gravierende ökologische sowie sozioökonomische Folgen haben können. Im Detail weisen Klimaänderungen allerdings komplizierte zeitliche und räumliche Strukturen auf, deren Erfassung und Interpretation alles andere als einfach ist. Bei den zeitlichen Strukturen stehen mit Recht vor allem relativ langfristige Trends sowie Extremereignisse im Blickpunkt, erstere, weil sie den systematischen Klimawandel zum Ausdruck bringen und letztere wegen ihrer besonders brisanten Auswirkungen. Mit beiden Aspekten hat sich unsere Arbeitsgruppe immer wieder eingehend befasst. Hinsichtlich der Extremereignisse bzw. Extremwertstatistik sei beispielsweise auf die Institutsberichte Nr. 1, 2 und 5 sowie die dort angegebene Literatur hingewiesen. Hier geht es wieder einmal um Klimatrends und dabei ganz besonders um die räumlichen Trendstrukturen. Der relativ langfristige und somit systematische Klimawandel läuft nämlich regional sehr unterschiedlich ab, was am besten in Trendkarten zum Ausdruck kommt. Solche regionalen, zum Teil sehr kleinräumigen Besonderheiten sind insbesondere beim Niederschlag sehr ausgeprägt. Zudem sind die räumlichen Trendstrukturen auch jahreszeitlich/monatlich sehr unterschiedlich. In unserer Arbeitsgruppe hat sich Herr Dr. Jörg Rapp im Rahmen seiner Diplom- und insbesondere Doktorarbeit intensiv mit diesem Problem beschäftigt, was zur Publikation des „Atlas der Niederschlags- und Temperaturtrends in Deutschland 1891-1990“ (Rapp und Schönwiese, 2. Aufl. 1996) sowie des „Climate Trend Atlas of Europe – Based on Observations 1891-1990“ (Schönwiese und Rapp, 1997) geführt hat. Die große Beachtung dieser Arbeiten ließ es schon lange als notwendig erscheinen, eine Aktualisierung vorzunehmen. Dies ist zunächst für den Klima-Trendatlas Deutschland geschehen, der nun für das Zeitintervall 1901-2000 vorliegt (Institutsbericht Nr. 4, 2005). Hier wird nun auch eine entsprechende Aktualisierung für Europa vorgelegt, und zwar auf der Grundlage der Berechnungen, die Reinhard Janoschitz in seiner Diplomarbeit durchgeführt hat. Dabei besteht eine enge Querverbindung zum Projekt VASClimO (Variability Analysis of Surface Climate Observations), das dankenswerterweise vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen von DEKLIM (Deutsches Klimaforschungsprogramm) gefördert worden ist (siehe Institutsbericht Nr. 6, in den vorab schon einige wenige Europa-Klima-Trendkarten einbezogen worden sind). Mit der Publikation des hier vorliegenden „Klima-Trendatlas Europa 1901-2000“ werden in insgesamt 261 Karten (davon 17 Karten in Farbdarstellung in den Text integriert) wieder umfangreiche Informationen zum Klimawandel in Europa vorgelegt. Sie beruhen vorwiegend auf linearen Trendanalysen hinsichtlich der bodennahen Lufttemperatur und des Niederschlags für die Zeit 1901-2000 sowie für die Subintervalle 1951-2000, 1961-1990 und 1971-2000, jeweils aufgrund der jährlichen, jahreszeitlichen und monatlichen Beobachtungsdaten. Die Signifikanz der Trends ist im (schwarz/weiß wiedergegebenen) Kartenteil durch Rasterung markiert. Da sich die Analyse eng an die oben zitierte Arbeit von Schönwiese und Rapp (1997) anlehnt, wo ausführliche textliche Erläuterungen zu finden sind (ebenso in Rapp, 2000) wurde hier der Textteil sehr knapp gehalten.
"Von der Freizeit in die Delinquenz" - Der Titel der vorliegenden Arbeit impliziert die Unterstellung, dass Freizeit als ein Bereich des menschlichen Lebens zu verstehen sei, welcher stets mit abweichendem und insbesondere strafbarem Verhalten einhergehe. Es ist hier zu betonen, dass bestimmte Verhaltensweisen, die in der Freizeit gezeigt werden, nicht zwangsläufig mit Delinquenz in Beziehung stehen müssen. Dieser Arbeitstitel wurde vielmehr gewählt, um zu provozieren. Er ist zugleich eine Anspielung auf die derzeit aktuellen öffentlichen Diskussionen über das Freizeitverhalten von Jugendlichen und dessen mögliche Auswirkungen auf delinquente Handlungen. Ziel dieser Arbeit ist eine Bestandsaufnahme der Zusammenhänge von Freizeitverhalten und Delinquenz im Jugendalter. Zur Beschreibung des theoretischen Rahmens werden vornehmlich soziologische Begriffsdefinitionen und Erklärungsansätze herangezogen. Die aufgestellten Hypothesen sowie die Ergebnisse verschiedener Untersuchungen zum Thema werden anhand eines Datensatzes von 3661 Jugendlichen überprüft. Es handelt sich dabei um eine im Rahmen der "Schülerbefragung 2006" des Kriminologischen Forschungsinstitut Niedersachsen getätigte Vollerhebung aller Schüler der neunten Jahrgangsstufe in Hannover, d. h. die zum Zweck dieser Arbeit durchgeführte Auswertung ist sekundäranalytisch. Die Betrachtung dieser Schülergruppe ist dazu geeignet, als Beispiel der Datenlage einer deutschen Großstadt zu dienen, in der sich viele Zusammenhänge (auch die in der Literatur beschriebenen) widerspiegeln könnten. Bei Neuntklässlern, die im Mittel 15 Jahre alt sind, ist der "eigentliche Kern des Jugendalters" zu finden, da in diesem Altersabschnitt die Ausformung jugendtypischen Verhaltens beginnt und gleichzeitig persönliche Grundausrichtungen verfestigt werden. Da männliche Jugendliche weitaus häufiger zu delinquenten Handlungen neigen als weibliche Jugendliche, wird sich diese Arbeit insbesondere mit dem Verhalten von Jungen befassen.
Ziel des Projekts „Fischfreundliche Renaturierung am Bodensee“ (FIREBO) war es, den Einfluss unterschiedlicher Substrate und Substratmischungen, die bei Renaturierungen Anwendung finden können, auf Fische und bodenlebende wirbellose Tiere zu ermitteln. Diese limnologischen Ergebnisse sollen in die Optimierung künftiger Renaturierungsmaßnahmen münden. So wurden zum Niedrigwasserstand im März 2006 in Friedrichshafen-Fischbach (Baden-Württemberg) und Hard (Vorarlberg) jeweils fünf Probeflächen angelegt, die aus Substraten unterschiedlicher Korngrößen bestanden. Diese Flächen wurden zwischen April und Oktober zweiwöchentlich beprobt. Nach Auswertung der Daten konnten an den zwei Probestellen am Nord- und Südufer des Bodensees zum einen unterschiedliche Artenzusammensetzungen trotz gleicher Eigenschaften der verbauten Substrate nachgewiesen werden. Zum anderen bestanden Unterschiede zwischen den einzelnen Flächen in Bezug auf ihre Artenvielfalt. Die im Gewässerboden lebenden Organismen (Makrozoobenthos) die maßgeblich zur Unterscheidung der Orte beitrugen, waren Dreikantmuschel (Dreissena polymorpha), Wasserassel (Asellus aquaticus) und die Zuckmückengruppe der Orthocladiinae. Mit höheren Häufigkeiten kamen diese in Hard vor, während die Eintagsfliege Centroptilum luteolum und die Zuckmücken häufiger in Fischbach auftraten. Die Arten in Hard waren vornehmlich Besiedler von gröberen Steinen und Blocksteinen, wohingegen in Fischbach die Feinsubstratbewohner dominierten. Generell wurde eine Tendenz der meisten Arten zu den Grobkiesflächen festgestellt, wobei durchaus Ausnahmen zu verzeichnen waren. So wurden etwa von Asellus aquaticus die höchsten Häufigkeiten und Biomassen auf den Mittelkiesflächen mit Blöcken nachgewiesen. Flohkrebse waren ebenfalls häufig auf diesen Flächen zu finden, wobei der große Höckerflohkrebs Dikerogammarus villosus zudem auch andere verschieden zusammengesetzte Substrate, wie Grobkies mit Blöcken als Lebensraum nutzte. Im Allgemeinen waren die reinen Mittelkiesflächen eher schlechter besiedelt. Blöcke auf den Flächen steigerten die Häufigkeiten und Biomassen. Eine Datenanalyse der acht häufigsten Fischarten lies eine Aussage über die Vorlieben verschiedener Fischgruppen zu. So bevorzugten die bodennah lebenden Arten grobes, heterogenes Material wie Grobkies, Gerölle oder Blöcke. Über der Sedimentoberfläche schwimmende Arten zeigten unterschiedliche Präferenzen und die vier Freiwasserarten, zu denen ausschließlich Karpfenartige gehörten, zeigten einen Trend in Richtung der feineren, homogenen Substrate wie Mittelkies aber auch Mittelkies mit darauf liegenden Blöcken. Für künftige Renaturierungen können aufgrund unserer Ergebnisse Mischungen grober Substrate empfohlen werden. Allerdings darf diese Aussage nicht zu pauschalisierten Verfahren führen. Vielmehr spielen die lokalen Substratverhältnisse, der natürliche oder der Referenzzustand eine sehr wichtige Rolle für die Auswahl der jeweils optimalen Substratklasse. Darüber hinaus sollten neben der Substratwahl auch die Schaffung geeigneter Uferstrukturen (beispielsweise Seehaag, Buchten) berücksichtigt werden. Dies kann durch die Auswahl von Substraten, die durch die Kräfte des Sees selbst organisiert werden können, zumindest teilweise unterstützt werden.
Ein Spaziergang im Wald: Die Baumkronen wiegen sich im Sommerwind, unser Weg ist in ein animierendes Wechselspiel von Licht und Schatten getaucht, dazu zwitschern die Vögel. Hier und dort treffen wir auf andere Spaziergänger, die ebenfalls der Stadt entflohen sind – zum Familien-Picknick in Waldlichtungen, zum verliebten Zwiegespräch, zum einsamen Grübeln. Auf unseren Gruß reagieren manche freundlich und offen, andere unwirsch. Hier werden wir zum Wein geladen und zum Versteckspiel mit den Kindern, dort fühlt man sich gestört, ja einmal werden wir sogar bedroht, weil man unsere Kontaktaufnahme als Einmischung in fremde Angelegenheiten mißversteht. ...
Im Jahr 1781 initiierte die Herzogin-Mutter Anna Amalia von Sachsen-Weimar-Eisenach das „Journal von Tiefurth“, eine nur handschriftlich vervielfältigte Zeitschrift, die es bis 1784 auf insgesamt 49 Stück brachte. Der Vortrag von Katharina Mommsen zeigt, daß das Journal keineswegs nur dem musisch-literarischen Zeitvertreib der Weimarer Hofgesellschaft diente, sondern gleichzeitig ein raffiniert konzipiertes Instrument der Kulturpolitik war, mit dem sich Anna Amalia gegen das Pamphlet „De la Littérature Allemande“ ihres Onkels, König Friedrich II. von Preußen, wandte. Beide Erscheinungen, die man gewöhnlich nur als beiläufige Fußnoten zur Literaturgeschichte zur Kenntnis genommen hat, werden durch Detektiv-Philologie in einen schlüssigen politischen Zusammenhang gesetzt, der beiden erst ihre rechte Bedeutung gibt.
Das Neuroblastom ist der häufigste extrakranielle solide Tumor des Kindesalters. Bei der Diagnosestellung befinden sich die meisten Patienten bereits in fortgeschrittenen Tumorstadien mit Langzeitüberlebensraten unter 40%, trotz intensiver multimodaler Therapie. Darüber hinaus ist die erforderliche aggressive Therapie mit gravierenden akuten Nebenwirkungen und Spätschäden verbunden. Die Entwicklung effektiverer und weniger toxischer Therapieansätze ist daher dringend notwendig. Der epidermal growth factor receptor ist ein möglicher Angriffspunkt selektiver Tumortherapie. Bei einer Vielzahl von Tumoren wurde eine verstärkte EGF-Rezeptorexpression beobachtet, die mit schlechtem Therapieansprechen, Resistenz gegen zytotoxische Substanzen, rascher Krankheitsprogression und verkürztem Gesamtüberleben korreliert. Auch bei mehreren Neuroblastomzelllinien ist die Expression von EGF-Rezeptoren beschrieben. In der vorliegenden Arbeit wurde die Expression und Funktionalität von EGF-Rezeptoren in den parentalen chemosensiblen Neuroblastomzelllinien IMR 32, NLF, SH-SY5Y und UKF-NB-3, sowie einigen chemoresistenten Sublinien untersucht. Dabei zeigte sich in allen Zellinien eine deutliche EGF-Rezeptorexpression. Die EGF-Rezeptorexpression der cisplatinresistenten Neuroblastomzelllinien IMR 32r CDDP1000, NLFr CDDP1000, SH-SY5Yr CDDP500 und UKF-NB-3r CDDP1000 war signifikant höher als die der parentalen Zelllinien. Durch Inkubation der chemosensiblen Zelllinien mit geringen Konzentrationen Cisplatin ließ sich eine reversible Erhöhung der EGF-Rezeptorexpression induzieren, während die cisplatinresistenten Zellen unabhängig von der weiteren Zugabe des Zytostatikums eine erhöhte EGF-Rezeptorexpression zeigten. Die Adaptation an Cisplatin führt also zu stabilen Veränderungen in der Zelle, die eine verstärkte Expression von EGF-Rezeptoren zur Folge haben. Darüber hinaus wurde die Wirkung verschiedener, am EGF-Rezeptor angreifender Substanzen auf die Zellviabilität untersucht. Hierbei zeigten der EGF-Rezeptor-spezifische monoklonale Antikörper Cetuximab und die Tyrosinkinaseinhibitoren AG99 (Tyrphostin A46) und AG555 (Tyrphostin B46) in den meisten Zelllinien keine signifikante Reduktion des Zellwachstums. Das EGF-Rezeptor-spezifische Immuntoxin ScFv-14E1-ETA und das Wachstumsfaktortoxin TGF-α-ETA hingegen hatten deutlich wachstumshemmende Effekte auf alle untersuchten Neuroblastomzellen, unahbängig von der Funktionalität der Rezeptoren. Die Kombinationsbehandlung mit Cisplatin und jeweils einem der beiden rekombinanten Toxine erwies sich dabei sowohl bei den parentalen, als auch bei den cisplatinresistenten Neuroblastomzelllinien als deutlich überlegen gegenüber der Monotherapie. Diese Daten machen deutlichen, dass der EGF-Rezeptor einen vielversprechenden Angriffspunkt in der gezielten Therapie von Neuroblastompatienten darstellt. Insbesondere in Kombination mit bisher gängigen Therapieschemata ließen sich der Erfolg und die Verträglichkeit der Behandlung möglicherweise deutlich verbessern. Die Toxizität der unterschiedlichen EGF-Rezeptor-spezifischen Substanzen und damit den tatsächlichen Stellenwert dieses Therapieansatzes wird man jedoch zunächst in in vivo Versuchen noch weiter untersuchen müssen.
Motiviert durch aktuelle atomphysikalische Fragestellungen zur Struktur und Dynamik der Materie im Bereich hochgeladener Schwerionen entstand der Bedarf zur Weiterentwicklung bestehender und zur Entwicklung neuartiger ortsauflösender Detektorsysteme. Die Untersuchung der Struktur ist hauptsächlich durch die hochauflösende spektroskopische Vermessung einzelner Energieniveaus der atomaren Hülle bestimmt und liefert grundlegende Einblicke in den atomaren Aufbau. Dabei stellen diese Resultate gerade bei schweren hochgeladenen Ionen eine exzellente Testmöglichkeit der QED in extrem starken Feldern dar. Die Dynamik der Materie zeigt sich in der Teilchendynamik (hier der Atomhülle) in extrem starken und extrem kurzen elektromagnetischen Feldern, wie sie bei Ion-Atom-Stößen auftreten. Beobachtet werden können hier vor allem Teilchen und Photonen-Polarisationsphänomene. Solche Polarisationseffekte sind jedoch nicht auf das Gebiet der atomaren Hülle beschränkt. Als ein Beispiel sei die Untersuchung laserbeschleunigter Teilchen genannt. Hier kann die Polarimetrie von Röntgenstrahlung, die durch Thomson-Streuung optischer Photonen an den zuvor auf relativistische Geschwindigkeiten beschleunigten Teilchen erzeugt wird, Aufschluß über die Natur des Beschleunigungsprozesses geben. Einblick in die lineare Polarisation der Röntgenphotonen im für unsere Arbeit interessanten Energiebereich von einigen 10 keV bis einigen 100 keV können mit Compton-Polarimetern gewonnen werden. Kommerziell sind Detektorsysteme, die eine ausreichende Granularität in Kombination mit hinreichender Detektordicke besitzen, um hohe Nachweiseffizienzen zu erreichen, jedoch nicht verfügbar. Im Rahmen der vorgelegten Arbeit, die sich mit Techniken der hochaufgelösten Röntgenspektroskopie und der Röntgenpolarimetrie an hochgeladenen Schwerionen befasst, wurden vielfältige Arbeiten an und mit orts-, zeit- und energieauflösenden planaren Ge(i)-Detektorsystemen durchgeführt. Wesentliches Ziel der Arbeit war es, ein zweidimensional ortsauflösendes planares Halbleiterdetektorsystem, das für den Einsatz im Kristallspektrometer FOCAL und als Compton-Polarimeter angepasst ist, bereitzustellen. Hierzu wurde ein 2D-µ-Streifendetektorsystem aufgebaut, das eine Ortsauflösung von 250µm, bzw. 1167µm in orthogonaler Richtung, bei einer Detektordicke von 11mm und eine Energieauflösung von etwa 2 keV für jeden einzelnen Streifen bei 60 keV Photonenenergie gewährleistet. Durch Messungen an der Synchrotronquelle ESRF, Grenoble (Frankreich), wurde die Eignung des Systems als bildgebendes Element im FOCAL Kristallspektrometer bei einer Photonenenergie von 60 keV und als Compton-Polarimeter bei einer Photonenenergie von 210 keV untersucht. Der große Vorteil in FOCAL ein ortsauflösendes Detektorsystem einzusetzen, liegt darin, dass alle interessanten Beugungswinkel simultan beobachtet werden können. Im herkömmlichen Ansatz würde man mit einer einfachen Diode und einem Kollimator den Bereich abfahren. Wegen der geringen Ereignisrate und dem hohen Untergrund ist dies jedoch nicht praktikabel. Herkömmliche Systeme wie CCD oder Gasdetektoren haben nicht die nötige Effizienz oder eine zu hohe Dunkelrate. Zur Untersuchung der für FOCAL wichtigen Eigenschaften wurden mehrere Positionen auf dem Detektor bei niedriger Energie mit einem fein kollimierten Photonenstrahl (50 x 50 µm2) gescannt. Neben der guten Energieauflösung des Detektorsystems von durchschnittlich 2.2 keV bei 60 keV, zeigen die Ergebnisse das homogene Verhalten der Detektoreffizienz, welche essentiell für den spektographischen Einsatz in FOCAL ist. Es konnten keine Hinweise auf messbare Ladungsverluste im Bereich des aktiven Detektorvolumens festgestellt werden. Ebenso konnte die Multiplizität (Anzahl der Streifen einer Detektorseite, die auf ein Ereignis reagieren), mit der ein Photon nachgewiesen wird, eindeutig mit der Strukturierung der Kontakte auf der Kristalloberfläche in Verbindung gebracht werden. Es stellte sich heraus, dass die Ereignisse der Multiplizität zwei dazu verwendet werden können um Ortsauflösungen deutlich unterhalb einer Streifenbreite zu erreichen. Diese Methode kann jedoch nur auf eine größere Anzahl von Ereignissen angewendet werden, nicht jedoch auf einzelne Ereignisse. Um das 2D-Ge(i)-µ-Streifendetektorsystem auf seine Eignung als Compton-Polarimeter zu testen, wurden Daten mit einem nahezu vollständig linear polarisierten Photonenstrahl (98% linear polarisiert) bei einer Energie von 210 keV aufgenommen. Die Daten zeigen die erwartete Dipol-ähnliche Asymmetrie im Ortsbild und dienen als Kalibrationsgrundlage zur Interpretation zukünftiger Experimente zur Polarimetrie in diesem Energiebereich. Parallel hierzu wurde an Simulationsprogrammen auf Basis der etablierten Monte Carlo Software EGS4 gearbeitet. Hiermit wurden Vorhersagen bezüglich des Nachweisverhaltens des Detektors auf linear polarisierte Röntgenstahlung gemacht. Ferner wurde für ein 4x4-Pixel-Polarimeter, das bei der ersten Bestimmung der linearen Polarisation der K-REC Strahlung von U92+ am Speichering ESR der GSI eingesetzt wurde, im Rahmen der Datenanalyse mit den auf EGS4-basierenden Programmen die Detektoreffizienz für linear polarisierte Strahlung einer bestimmten Energie simuliert. Mit diesen Simulationsergebnissen konnten die selbstentwickelten Methoden zur Korrektur der Nachweiswahrscheinlichkeit eines Compton-Ereignisses als Funktion des Wechselwirkungspunkts innerhalb des Detektorkristalls und der Energie erfolgreich verifiziert werden. Die detektorbezogenen Resultate dieser Arbeit fanden ihre erste Anwendung in der FOCAL-Spektrometer Strahlzeit 2006, deren genaue Beschreibung jedoch über den Umfang dieser Arbeit hinausgeht. Ebenso flossen die Erfahrungen, die mit den Detektorsystemen, im speziellen dem 2D-Ge(i)-µ-Streifendetektor, gemacht wurden in die Realisierung eines Si(Li)-Detektors mit 32+32 Streifen zur Compton-Polarimetrie bei niedrigeren Energien (ab 60 keV) ein, der gegenwärtig in ersten Experimenten am ESR eingesetzt wird.
Im Rahmen dieser Arbeit sind Experimente zur Bestimmung der 1s Lamb-Verschiebung in wasserstoffartigen Schwerionen und zur Bestimmung des Innerschalenübergangs 2 3P2 --> 2 3S1 in heliumartigen Schwerionen durchgeführt worden. Diese Untersuchungen sind interessant, da es sich hierbei um die Überprüfung der Quantenelektrodynamik im Bereich sehr starker Coulombfelder handelt. Neben den reinen QED-Effekten spielen in diesen schweren Systemen auch relativistische Effekte eine immer bedeutendere Rolle. Es ist erstmals gelungen, eine direkte Messung des Innerschalenübergangs 2 3P2 --> 2 3S1 in einem schweren Z-System durchzuführen. Während in bisherigen Experimenten lediglich leichtere Ionen bis zu einer Kernladungszahl Z = 54 untersucht wurden, sind wir mit unserem Experiment an U90+-Ionen in den Bereich schwerer Systeme vorgedrungen. Zur Energiebestimmung sind am Gastarget des Experimentier-speicherrings (ESR) ein Kristallspektrometer unter einem Beobachtungswinkel von 90° und ein einfacher planarer Germaniumdetektor unter einem Winkel von 35° aufgebaut worden. Das Kristallspektrometer ermöglicht eine hohe Energieauflösung, während der Germaniumdetektor einen breiten Energiebereich abdeckt und somit eine eindeutige Identifizierung der Übergänge ermöglicht. Ein Fit des aufgenommenen Energiespektrums mit einer Simulation zeigt, wie gut die theoretischen Vorhersagen die Übergangsdynamik in diesem Zwei-Elektronen-System beschreiben. Der Innerschalenübergang kann eindeutig von benachbarten Übergängen unterschieden werden. Mit dem Kristallspektro-meter ergibt sich eine Übergangsenergie von 4510,31 ± 0,51 eV, mit dem Germanium-detektor 4509,6 ± 1,5 eV. Beide stimmen gut mit den theoretischen Vorhersagen überein. Durch den geringen Fehler von 0,51 eV stellt diese Messung auch im Vergleich mit den vorhergehenden Experimenten in leichten Systemen eine der genauesten Messungen des Innerschalenübergangs in He-artigen Ionen dar. Zusätzlich dazu kann die Differenz der Innerschalenübergangsenergie von Li-artigem und He-artigem Uran ermittelt werden: 50,94 ± 0,45 eV. Mit dieser Genauigkeit ist unser Experiment empfindlich auf die Zwei-Elektronen-QED und ermöglicht erstmal eine experimentelle Überprüfung dieses Beitrags, der von Kozhedub et al. mit 1,18 eV angegeben wird. Zur Untersuchung der 1s Lamb-Verschiebung von wasserstoffartigen Schwerionen sind bereits eine Vielzahl an Experimenten durchgeführt worden, mit einer maximalen Genauigkeit von 4,6 eV. Die theoretische Auswertung von Korrekturtermen höherer Ordnung erfordert jedoch neue experimentelle Methoden, mit denen sich Genauigkeiten auf dem Niveau von 1 eV und besser erzielen lassen. Dazu hat es ein Nachfolge-experiment zur bisher genauesten Messung der 1s Lamb-Verschiebung in U91+ und des Zwei-Elektronen-Beitrags zum Grundzustand in U90+ am Elektronenkühler gegeben. Hierzu ist das Experiment bei einer niedrigeren Strahlenergie durchgeführt worden. Dabei hat sich allerdings gezeigt, Ionenstrahlen mit einer Energie unterhalb von 20MeV/u besitzen zu kurze Lebensdauern, da bei den niedrigeren Energien die Rekombinationsverluste mit dem Restgas sehr hoch werden und der Ionenstrahl aus technischen Gründen noch einmal umgebuncht werden muss, wobei zusätzlich Zeit und Intensität verloren gehen. Als weiterer Schritt auf dem Weg zu höherer Präzision ist eine Kombination aus einem hochauflösenden Kristallspektrometer (FOCAL) und einem neuartigen orts- und energieauflösenden 2dimensionalen Germaniumdetektor getestet worden. Mit diesem Detektor ist es möglich, mehrere Reflexe gleichzeitig zu messen und somit die Effizienz des Experimentes deutlich zu steigern. Allerdings ist die maximale Energieauflösung bisher über die 250 µm Streifenbreite des Detektors definiert, das entspricht etwas weniger als 200 eV. Tests mit Kalibrationsquellen und das Verfahren des Detektors entlang der Dispersionsachse haben jedoch gezeigt, dass eine Auflösung kleiner als ein Streifen erreichbar ist. Dadurch soll eine Genauigkeit von 1 eV erreicht werden. Die Bewegung der Detektoren, die bei der letzten Strahlzeit einen erheblichen systematischen Fehler verursacht hat, kann mit neuen Detektorplattformen und kontinuierlicher Stickstofffüllung deutlich reduziert werden. Bei den alternativen Methoden Mikrokalorimeter und Absorptionskantenspektroskopie scheinen Mikrokalorimeter eine vielversprechend Entwicklung zu sein, da sie sowohl eine hohe Energieauflösung bieten als auch einen breiten Energiebereich abdecken. Dagegen beinhaltet die Absorptionskantenspektroskopie im Vergleich zu den anderen Methoden zu große systematische Fehler. Aus den Ergebnissen des Experimentes zum Innerschalenübergang und des FOCAL-Commissioning-Experimentes zeigt sich, wie erfolgsversprechend der Einsatz von Kristallspektrometern auf dem Weg zu neuen hochpräzisen Experimenten ist.
In diesem Verzeichnis werden Biotoptypen gemäß §32 Naturschutzgesetzes Abs. 1 in Baden-Würtemberg wiedergegeben. Die Unterteilung erfolgt in Gewässer, Terrestrisch-morphologische Biotoptypen, Gehölzarme terrestrische und semiterrestrische Biotoptypen, Gehölzbestände und Gebüsche, Wälder und Biotoptypen der Siedlungs- und Infrastrukturflächen mit Angaben der jeweiligen Flächen und Naturschutzstatus.