Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2842)
- Article (2192)
- Contribution to a Periodical (2102)
- Book (1973)
- Doctoral Thesis (1681)
- Review (914)
- Report (608)
- Working Paper (440)
- Part of a Book (195)
- Conference Proceeding (160)
Language
- German (13635) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (36)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (4938)
- Medizin (1347)
- Gesellschaftswissenschaften (1061)
- Rechtswissenschaft (738)
- Neuere Philologien (637)
- Wirtschaftswissenschaften (632)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (540)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (522)
- Kulturwissenschaften (465)
In der vorliegenden prospektiven randomisierten Studie mit 80 Patienten zur aortokoronaren Venenbypass-Operation hatten wir das Ziel, die traumatischen Effekte durch das partielle Ausklemmen als auch durch den Aortenkonnektor und die dadurch entstehenden partikulären Embolien zu identifizieren. Des Weiteren sollten diese partikulären Embolien von solchen nach dem Öffnen der Aortenklemme unterschieden werden.
Es ist dabei wichtig festzuhalten, dass der erste Filter, welcher das Trauma an der Aorta beim Fertigen der proximalen Anastomose repräsentiert, bei schlagendem Herzen eingesetzt wurde. Der zweite Filter wurde während der extrakorporalen Zirkulation mit HLM eingebracht und nach dem Öffnen der totalen Querklemmung der Aorta entfernt.
Wir konnten die Fertigung der proximalen Anastomose als eine wichtige Quelle für ein solches embolisches Geschehen und die damit verbundenen neurologischen Komplikationen identifizieren.
Dabei spielt die Art der Fertigung der proximalen Anastomose keine Rolle. Wir konnten somit zeigen, dass es keinen Unterschied hinsichtlich der Entstehung partikulärer Embolien zwischen einer konventionellen proximalen Anastomose oder einer mit Hilfe des Symmetry Aorten- Konnektor- Systems gefertigten Anastomose gibt.
Die Anzahl der geborgenen Partikel ist unabhängig von der gewählten Fertigungsart nicht signifikant verschieden. Ebenso konnten wir hinsichtlich der Oberflächengröße der im ersten Filter geborgenen Partikel keinen Unterschied zwischen der automatisierten und konventionellen Fertigung erkennen.
Es konnte somit gezeigt werden, dass eine proximale Anastomose unabhängig von der Fertigungsart ein nicht zu unterschätzendes Risiko für partikuläre Embolien darstellt und somit eine Ursache für neurologische Komplikationen im Rahmen einer Bypassoperation sein kann.
Wir konnten weiterhin zeigen, dass die Anzahl der geborgenen Partikel nach dem Öffnen der Querklemme der Aorta signifikant geringer ist im Vergleich zu der Anzahl der geborgenen Partikel nach dem Fertigen der proximalen Anastomose. Hierbei ist es völlig unerheblich, ob diese Anastomose konventionell oder mit dem Konnektor gefertigt wird.
Wir konnten somit die Behauptung widerlegen, dass die Manipulation an der Aorta durch das Querklemmen im totalen Bypass der entscheidende Faktor für die partikulären Embolien und die konsekutiven neurologischen Komplikationen ist. Mit der Auswertung der Filter konnten wir zeigen, dass durch das Klemmen der Aorta weniger partikuläre Embolien verursacht werden als durch das Fertigen einer proximalen Anastomose am schlagenden Herzen.
In der vorliegenden Untersuchung konnten wir nicht zeigen, dass durch die Verwendung eines mechanischen Konnektors die traumatischen Auswirkungen auf die Aortenwand sowie die entstehenden partikulären Embolien durch das fehlende partielle Ausklemmen der Aortenwand verringert werden kann. Wir konnten zeigen, dass es keinen Unterschied macht, einen mechanischen Konnektor zu verwenden oder aber die proximale Anastomose konventionell mit partieller Ausklemmung der Aortenwand zu fertigen. Neben der Untersuchung der Filter bezüglich der Qualität sowie Quantität der geborgenen Partikel ließen sich in den neurokognitiven Testreihen keine Unterschiede zwischen den zwei Gruppen zeigen. Wir konnten keinen klinischen Vorteil bezüglich des neurokognitiven Outcomes in einer der beiden Gruppen erkennen.
Abschließend kann man sagen, dass es hinsichtlich der Entstehung von partikulären Embolien sowie deren konsekutiven neurologischen Komplikationen keinen Unterschied gibt zwischen der Verwendung des Symmetry™ Aortic Konnektors oder einer konventionell gefertigten Anastomose.
Diversity kompakt : Angebote für Studierende in unterschiedlichen Lebens- und Studiensituationen
(2012)
Die anaerobe Fermentation beschreibt den Abbau organischen Materials unter Ausschluss von Sauerstoff und setzt sich aus vier Prozessphasen (Hydrolyse, Acidogenese, Acetogenese und Methanogenese) zusammen. Im Rahmen dieser Arbeit konnte die Aufteilung dieser vier Prozessphasen auf die beiden Stufen eines zweistufigen zweiphasigen Biogas-Reaktors genau bestimmt werden. Die Aufteilung ist von entscheidender Bedeutung für zukünftige Arbeiten, da dadurch genau festgelegt werden kann, welche Stoffe bei den Messungen und bei der Modellierung berücksichtigt werden müssen.
Im Jahre 2002 wurde von der IWA Taskgroup das ADM1-Modell, welches alle vier Prozessphasen der anaeroben Fermentation berücksichtigt, veröffentlicht. In der vorliegenden Arbeit wird ein räumlich aufgelöstes Modell für die anaerobe Fermentation erarbeitet, in dem das ADM1-Modell mit einem Strömungsmodell gekoppelt wird. Anschließend wird ein reduziertes Simulationsmodell für acetoklastische Methanogenese in einem zweistufigen zweiphasigen Biogasreaktor erstellt. Anhand von Messdaten wird gezeigt, dass der Abbau von Essigsäure zu Methan innerhalb des Reaktors durch das Simulationsmodell gut wiedergegeben werden kann.
Anschließend wird das validierte Modell verwendet um Regeln für eine optimale Steuerung des Reaktors herzuleiten und weiterhin wird mit Hilfe der lokalen Methanproduktion die Effektivität des Reaktors bestimmt. Die erlangten Informationen können verwendet werden, um den Biogas-Reaktor zu optimieren.
„Fragt man hierzulande oder auch im Ausland, wer unter den jüngeren politischen Philosophen in Deutschland der bedeutendste und einflussreichste sei, bekommt man übereinstimmend und ohne Zögern die Antwort: Rainer Forst“, so eröffnete der Präsident der Deutschen Forschungsgemeinschaft, Prof. Dr. Matthias Kleiner, seine Laudatio für den Frankfurter Leibniz-Preisträger. Mit 2,5 Millionen Euro kann Forst in den kommenden sieben Jahren Fragen der Gerechtigkeit jenseits der Nationalstaaten erforschen.
Zeit seines Lebens beschäftigte sich Goethe mit ökonomischen Theorien; in seinem dichterischen Werk entwarf er wirtschaftliche Visionen, die das späte 19. und das frühe 20. Jahrhundert übersahen. Seine positive Vision des Kapitalismus ist von einer Sittlichkeit durchdrungen, die extreme Formen des Erwerbsstrebens und der Ausbeutung hemmt. Dagegen steht Goethes Schreckensbild eines uns modern erscheinenden Kapitalismus, wie es im »Faust« beschworen wird.
My contribution focuses on the relationship between theory and praxis, since the task of a “critical archaeology” is to mediate between these two spheres. Its target audience is the public, not other scholars. Critical archaeology is not part of scientific practice, but rather is part of intellectual reasoning that is both value-laden and that exercises practical critique. Respect for the specific logics of theory and praxis is crucial for its success. A “critical archaeology” that merits its name must steer its way between the Scylla of a technocratic paternalism that limits praxis and the Charybdis of submission to theory under the presumption of the “relevance of praxis.”
Die Vielfalt der Pilze zu verstehen und nutzbringend anzuwenden, ist das Ziel des LOEWE-Schwerpunkts »Integrative Pilzforschung«. Pilze gehören zu den größtenteils unbekannten Lebewesen unseres Planeten. Schätzungen zufolge sind 90 Prozent ihrer Arten noch unentdeckt. Bedenkt man die große wirtschaftliche Bedeutung einiger Pilzarten, etwa bei der Herstellung von Brot, Käse und Wein, aber auch von Antibiotika, erscheint eine gründliche Erforschung der Pilze überaus lohnend.
Gleich drei Wissenschaftler der Goethe-Universität waren bei der Einwerbung des begehrten »Starting Independant Researcher Grant« des European Research Council (ERC) erfolgreich: der Mikrobiologe Prof. Helge Bode, der Kardiologe Dr. Michael Potente und der Biochemiker Dr. Martin Vabulas. Mit dem 2007 erstmals ausgeschriebenen Programm will die Europäische Union europaweit kreative Wissenschaftler und zukunftsweisende Projekte fördern.
Der im Jahr 2004 am IWR Heidelberg entwickelte Neuronen Rekonstruktions-Algorithmus NeuRA extrahiert die Oberflächenmorphologie oder ein Merkmalskelett von Neuronenzellen, die mittels konfokaler oder Zwei-Photon-Mikroskopie als Bildstapel aufgenommen wurden. Hierbei wird zunächst das Signal-zu-Rausch-Verhältnis der Rohdaten durch Anwendung des speziell entwickelten trägheitsbasierten anisotropen Diffusionsfilters verbessert, dann das Bild nach der statistischen Methode von Otsu segmentiert und anschließend das Oberflächengitter der Neuronenzellen durch den Regularisierten Marching-Tetrahedra-Algorithmus rekonstruiert oder das Merkmalskelett mit einer speziellen Thinning-Methode extrahiert. In einschlägigen Vorarbeiten wurde mit Hilfe solcher Rekonstruktionen von Neuronenzellkernen gezeigt, dass diese, entgegen der vorher üblichen Meinung, nicht notwendigerweise rund sind, sondern Einstülpungen, sogenannte Invaginationen, aufweisen können. Der Einfluss der Invaginationen auf die Ausbreitung von Calciumionen innerhalb solcher Zellkerne konnte durch entsprechende numerische Simulationen systematisch untersucht werden.
Um diese Rekonstruktionsmethode auf hochaufgelöste Mikroskopaufnahmen anwenden zu können, wurden im Rahmen der vorliegenden Arbeit, die in NeuRA verwendeten Verfahren auf Basis von Nvidia CUDA auf moderner Grafikhardware parallelisiert und unter dem Namen NeuRA2 optimiert und neu implementiert. Erzielte Beschleunigungen von bis zu einem Faktor 100, bei Verwendung einer Hochleistungsgrafikkarte, zeigen, dass sich die moderne Grafikarchitektur besonders für die Parallelisierung von Bildverarbeitungsoperatoren eignet. Insbesondere das Herzstück des Rekonstruktions-Algorithmus - der sehr rechenintensive trägheitsbasierte anisotrope Diffusionsfilter - wurde durch eine clusterbasierte Implementierung, welche die parallele Verwendung beliebig vieler Grafikkarten ermöglicht, immens beschleunigt.
Darüber hinaus wurde in dieser Arbeit das Konzept von NeuRA verallgemeinert, um nicht nur Neuronenzellen aus konfokalen oder Zwei-Photon-Bildstapeln rekonstruieren zu können, sondern vielmehr die Oberflächenmorphologie oder Merkmalskelette von allgemeinen Objekten aus beliebigen Bildstapeln zu extrahieren. Dabei wird das ursprüngliche Konzept von Rauschreduktion, Bildsegmentierung und Rekonstruktion beibehalten. Für die einzelnen Schritte stehen aber nun eine Vielfalt von Bildverarbeitungs- und Rekonstruktionsmethoden zur Verfügung, die abhängig von der Beschaffenheit der Daten und den Anforderungen an die Rekonstruktion, ausgewählt werden können. Die meisten dieser Verfahren wurden ebenfalls auf Basis moderner Grafikhardware parallelisiert.
Die weiterentwickelten Rekonstruktionsverfahren wurden in mehreren Anwendungen eingesetzt: Einerseits wurden Oberflächen- und Volumengitter aus konfokalen Bildstapeln und Computertomographie-Aufnahmen generiert, die für verschiedene numerische Simulationen eingesetzt wurden oder eingesetzt werden sollen. Des Weiteren wurden über zwanzig antike Keramikgefäße und Fragmente anderer antiker Keramiken rekonstruiert. Hierbei wurde jeweils die Rohdichte und bei den komplett erhaltenen Gefäßen das Füllvolumen berechnet. Es konnte gezeigt werden, dass dieses Verfahren exakter ist als die in der Archäologie üblichen Methoden zur Volumenbestimmung von Gefäßen. Außerdem zeigt sich eine Abhängigkeit der Rohdichte der rekonstruierten Objekte vom jeweils verwendeten Keramiktyp. Eine Analyse, wie genau die Krümmung von Objekten durch die Approximation von Dreiecksgittern dargestellt werden kann, wurde ebenfalls durchgeführt.
Zusätzlich wurde ein Verfahren zur Rekonstruktion der Merkmalskelette lebender Neuronenzellen oder Teilen von Neuronenzellen entwickelt. Bei den damit rekonstruierten Daten wurden einzelne dendritische Dornfortsätze, auch Spines genannt, hochaufgelöst mikroskopiert. Auf Basis dieser Rekonstruktionen kann die Länge von Dendriten oder einzelner Spines, der Winkel zwischen Dendritenverzweigungen, sowie das Volumen einzelner Spines automatisch berechnet werden. Mit Hilfe dieser Daten kann der Einfluss pharmakologischer Präparate und mechanischer Eingriffe in das Nervensystem von lebenden Versuchstieren systematisch untersucht werden.
Eine Adaption der beschriebenen Rekonstruktionsverfahren ist aufgrund deren einfacher Erweiterbarkeit und flexibler Verwendbarkeit für zukünftige Anwendungen leicht möglich.
Fragestellung: Beurteilung der Korrektur des Astigmatismus mit der multifokalen torischen Intraokularlinsen (IOL) ReSTOR Toric (Alcon, Ft. Worth, USA) bei Kataraktoperation.
Methodik: Die Multicenterstudie umfasste Kataraktepatienten mit präoperativem Astigmatismus von ≥0,75 bis ≤2,5 dpt. die Patienten wurden einer bilateralen Implantation einer torischen multifokalen IOL zur Korrektur der Hornhautverkrümmung unterzogen. Die OP erfolgte ohne relaxierende limbale Inzisionen durch eine clear-cornea Inzision <3,0 mm. Prä- und postoperativ wurden für diese Subanalyse Autokeratometrie sowie subjektiver Astigmatismus von 39 Augen von 40 Patienten im Alter von 59,8±7,0 Jahren analysiert.
Ergebnisse: Präoperativ betrug der mittlere keratometrische Astigmatismus 1,43±0,57 dpt. Die mittlere Inzisionsgröße betrug 2,59±0,41 mm. 1 Monat postoperativ betrug der mittlere keratometrische Astigmatismus 1,51±0,95 dpt (25 Augen). Der Unterschied im keratometrischen Astigmatismus zwischen präoperativ und 1-Monat-postop betrug 0,57±0,96 dpt. Der präoperative subjektive Astigmatismus wurde signifikant von 0,32±0,33 dpt (25 Augen) auf 0,99±0,70 dpt reduziert. (39 Augen, p <0,0001).
Schlussfolgerung: Die Implantation der multifokale torischen IOL zeigt vorhersehbare postoperative Ergebnisse bei der Korrektur des Astigmatismus nach kataraktoperation.
Das Freie Deutsche Hochstift und die Goethe-Universität rücken in der Geburtsstadt des großen Dichters näher zusammen. Im Oktober wurde gefeiert, was schon seit einiger Zeit erfolgreich praktiziert wird: die Vernetzung der beiden Institutionen, die mit der Berufung der Direktorin des Hochstifts, Prof. Anne Bohnenkamp-Renken, an den Fachbereich Neuere Philologien weiter intensiviert wird.
Tuberkulose-Bakterien können über viele Jahre im Körper überleben, weil sie von den Fresszellen des Immunsystems nicht immer abgetötet werden können. Eine wichtige Rolle spielt dabei ein spezifisches Protein, das von den Bakterien freigesetzt wird, um deren Überleben zu sichern. Ein Forscherteam um Prof. Harald Schwalbe hat die Struktur und Dynamik des Proteins aufgeklärt und herausgefunden, warum es bisher nicht durch spezifische Wirkstoffe ausgeschaltet werden konnte.
Ein internationales Forscherteam unter der Leitung des Frankfurter Virologen Prof. Oliver T. Keppler hat ein Schlüsselprotein des menschlichen Immunsystems identifiziert, das den Vermehrungsprozess des HI-Virus in bestimmten T-Helferzellen aufhalten kann. Das schafft die Grundlage für ein besseres Verständnis der Immunschwächekrankheit AIDS und eröffnet neue Therapieansätze.
Arbeitslosigkeit und gesundheitlicher Status sind eng miteinander verbunden. Verlust sozialer Bindungen, Verschlechterung mentaler und physiologischer Gesundheit und damit einhergehend der Verlust an Lebensqualität lassen Morbidität und Mortalität in der Gruppe der Arbeitslosen im Vergleich zur erwerbstätigen Bevölkerung deutlich ansteigen [13, 15 – 21]. Körperliche Aktivität entsprechend internationaler Bewegungsempfehlungen [157] ist nachweislich dazu in der Lage positive gesundheitliche Effekte auf der individuellen Ebene zu erzielen [52, 55]. Dennoch zeigen arbeitslose im Vergleich zum Durchschnitt der bundesdeutschen Bevölkerung ein noch höheres Maß an körperlicher Inaktivität [24, 176] und nehmen Sport- und Bewegungsangebote sowie Präventionsangebote der Krankenkassen deutlich seltener wahr [10]. Programme zur Gesundheitsförderung bei Langzeitarbeitslosen sind generell noch selten und wenn solche Programme durchgeführt wurden mangelt es bisher meist an entsprechenden Evaluationskonzepten zur Wirksamkeit dieser Angebote [13]. Werden Angebote für die Zielgruppe initiiert, beinhaltet dies überwiegend die Einrichtung separater, zeitlich beschränkter Gruppenkurse ohne Folgeangebot. Die Durchführung solcher Angebote obliegt größtenteils zusätzlich qualifizierten Mitarbeitern der Jobcenter und nicht Fachkräften aus der Gesundheitsförderung [116, 117]. Bewegungsbezogene Programme zur Gesundheitsförderung bei Arbeitslosen sind insgesamt noch selten und objektive Daten zum Bewegungsverhalten der Teilnehmer bislang noch nicht verfügbar. Mögliche, aber bisher nur vereinzelt praktizierte Ansätze stellen Konzepte zur Bewegungsberatung (physical activity counseling) bzw. Vermittlung in Bewegungsangebote (exercise referral) dar. Vor diesem Hintergrund besitzen Erkenntnisbeiträge zur Qualitätssicherung und zur Entwicklung spezifischer Beratungs- und Vermittlungskonzepte zur bewegungsbezogenen Gesundheitsförderung bei speziellen Zielgruppen eine hohe Relevanz für das Forschungsfeld. In der vorliegenden Dissertationsschrift wurde aufbauend auf dem dargelegten Forschungsdefizit ein theoriegeleitetes Beratungs- und Vermittlungskonzept (AGILer) zur Steigerung körperlicher Aktivität entsprechend internationalen Standards und Empfehlungen [14, 122, 123] entwickelt und in Kooperation mit regionalen Jobcentern der Rhein-Main Region auf die Zielgruppe älterer Langzeitarbeitsloser übertragen. Ziel des Beratungs- und Vermittlungsansatzes ist es Langzeitarbeitslose für das Thema gesundheitsförderliche körperliche Aktivität (HEPA) im Alltag zu sensibilisieren und so den Umfang körperlicher Aktivität entsprechend den Leitlinien [157] auf ein gesundheitsförderliches Maß zu erhöhen sowie diese bisher schwer zu erreichende Personengruppe an bestehende Bewegungsangebote örtlicher Anbieter (Sportvereine, Volkshochschulen, etc.) anzubinden. Die Intervention wurde anhand zweier separater Studien hinsichtlich der Erreichbarkeit der Zielgruppe sowie deren Wirksamkeit auf das Bewegungsverhalten der Teilnehmer evaluiert. Primärzielparameter der ersten Querschnittsstudie zur Erreichbarkeit war die Teilnahmerate an Angeboten des Gesundheitssports in Abhängigkeit gesundheitlicher Parameter und des Geschlechts. Insgesamt 741 Langzeitarbeitslose (54,3 ± 3,6 Jahre, 4,5 ± 4,4 Jahre arbeitslos) hatten nach einem ersten Gruppeninformationsangebot die Möglichkeit sich weiterführend individuell durch ein Expertenteam gesundheitlich beraten und in bestehende Bewegungsangebote vermitteln zu lassen. Erfasst wurden der BMI, das Bewegungsverhalten (IPAQ – 7-Tage-Kurzversion) [130] und die selbsteingeschätzte Gesundheit (VAS 1-100) [132, 133] der Teilnehmer. Es konnte auf Grundlage berechneter Häufigkeitsverteilungen (Chi²-Test) eine signifikant höhere Teilnahmerate an gesundheitssportlicher Aktivität in der Gruppe der Frauen gegenüber der Gruppe der Männer detektiert werden (p=.038). Insgesamt 28,2% der Frauen und 21,7% der Männer begannen im Anschluss an die Beratung eine gesundheitssportliche Aktivität. Unterschiede zwischen aktiven und nichtaktiven Teilnehmern hinsichtlich bewegungs- und gesundheitsbezogener Kennwerte bestanden gemäß berechneter Mittelwertsunterschiede nur für die Gruppe der Männer. Männer mit einem erhöhten gesundheitlichen Risiko aufgrund von Bewegungsmangel (<150 Min. körperliche Aktivität/Woche), erhöhtem BMI(>30 kg/m²) und unterdurchschnittlichem Gesundheitsempfinden (VAS <50) begannen signifikant häufiger mit Gesundheitssport (p< .001) als die übrigen Männer der Stichprobe. Ihre Vermittlungschance in ein gesundheitssportliches Angebot war gemäß beobachteter Häufigkeitsverteilung um das 2,8 fache erhöht (95% CI 1,8 – 4,3). Die zweite Längsschnittstudie zur Wirksamkeit des Beratungsansatzes evaluiert erstmalig anhand objektiver Messgrößen die Effekte einer strukturierten Bewegungsberatung hinsichtlich der Veränderbarkeit des Bewegungsverhaltens in der Zielgruppe. Hierzu wurde eine Stichprobe 51 älterer Langzeitarbeitsloser (54,3 ± 3,6 Jahre, 4,8 ± 3,2 Jahre arbeitslos) ohne manifeste gesundheitliche Einschränkungen (attestiert durch den Hausarzt) mit dem Ziel einer Erhöhung körperlicher Aktivität im Alltag und der Möglichkeit zur Aufnahme eines strukturierten Bewegungsprogramms sportmedizinisch beraten. Weitere 21 langzeitarbeitslose (56,1 ± 2,8 Jahre, 4,8 ± 3,0 Jahre arbeitslos) und 17 erwerbstätige Personen (56,4 ± 3,4 Jahre) ohne Beratungs- oder Vermittlungsangebot bildeten die Kontrollgruppen. Die Umfänge körperlicher Aktivität aller 89 Probanden wurden vor und 12 Wochen nach der Beratung jeweils für 7 Tage mittels zweiachsiger Akzelerometrie (ActiGraph GT1M) gemessen. Im Ergebnis absolvierten insgesamt 58 Personen die Eingangs- und Ausgangsmessung. Zur Eingangsmessung zeigte die erwerbstätige Kontrollgruppe signifikant höhere Umfänge körperlicher Aktivität als die erwerbslosen Studienteilnehmer. Für Personen, die nach der Beratung in eine strukturierte Bewegungsaktivität vermittelt wurden, zeigte die mehrfaktorielle ANOVA eine signifikante Steigerung sowohl des Umfangs moderater bis intensiver körperlicher Aktivität (MVPA) von 26 ± 14 auf 35 ± 25 Min./Tag als auch des Gesamtumfanges körperlicher Aktivität von 207 ± 86 auf 288 ± 126 cpm. Personen die nur das Beratungsangebot wahrnahmen sowie die Kontrollgruppen zeigten keine Steigerungsraten körperlicher Aktivität. Schlussfolgernd zeigen die Untersuchungsergebnisse, dass bereits bei anderen Zielgruppen etablierte und evaluierte Beratungskonzepte entsprechend internationaler Empfehlungen zur Bewegungsförderung ebenso auf bisher weniger beachtete Zielgruppen wie beispielsweise Arbeitslose übertragen werden können. Die im Rahmen der vorliegenden Untersuchung erhöhte Erreichbarkeit gesundheitlich besonders gefährdeter Studienteilnehmer erscheint vor dem Hintergrund steigender Gesundheitskosten und der Zunahme vor allem chronischer Erkrankungen [177, 178] von besonderer Bedeutung und ist höher als in vergleichbaren Untersuchungen [11]. Es konnte gezeigt werden, dass der Beratungs- und Vermittlungsansatz geeignet ist, das Bewegungsverhalten Langzeitarbeitsloser nachweislich zu verbessern und den Umfang körperlicher Aktivitäten entsprechend den Leitlinien [157] zu erhöhen. Allerdings scheint, anders als bei anderen Zielgruppen [147, 149, 150], ein alleiniges Beratungsangebot nicht auszureichen um das Bewegungsverhalten in der Zielgruppe positiv zu beeinflussen. Dieses Ergebnis könnte allerdings auch auf dem nichtrandomisierten Studiendesign und daraus resultierenden Selektionseffekten beruhen. Insgesamt kann die vorliegende Arbeit einen wichtigen Beitrag zum Erkenntnisgewinn zur Effektivität spezifischer Beratungskonzepte bei bisher schwer zu erreichenden Zielgruppen beitragen. Weiterer Forschungsbedarf wird hinsichtlich der Nachhaltigkeit der Interventionseffekte gesehen.
Die Erziehung und Bildung im Bahá’í-Sinne geht von der Einheit und Harmonie zwischen dem Menschen und dem ganzen Sein aus. Damit diese Einheit und Harmonie und dadurch das Glück im Leben des Individuums Realität wird und eine tief humanistische Weltgemeinschaft entsteht, muss der Mensch ganzheitlich von einem wohldurchdachten pädagogischen System erzogen und gebildet werden. Die ganzheitliche Erziehung und Bildung umfassen die körperlichen, menschlichen und geistigen Dimensionen jedes Individuums. Die Vernachlässigung einer dieser Dimensionen wird die o. g. Harmonie und Entfaltung stören und zur entsprechenden Entfremdung führen.
Um diese Anspruch näher zu prüfen, befasst sich diese Arbeit mit den folgenden Hauptthemen: Die allgemeine Beschreibung der Bahá’í-Religion, die Sicht auf den Menschen und die Welt, die politische Bildung aus der Sicht der Bahá’í und die erzieherischen sowie Bildungsmaßnahmen der Bahá’í in der Praxis.
Durch die politische Bildung soll nach dem Bahá’í-Verständnis eine tief demokratische und lebensfreundliche Politik realisiert werden. Die Bahá’í auf der ganzen Welt praktizieren ein System, das diesen Idealen entspricht bzw. sehr nahe kommt.
Die praktischen Maßnahmen der Erziehung und der Bildung im Bahá’í-Sinne werden anhand des Bahá’í-Curriculums im Iran vor der islamischen Revolution analysiert und versucht, daraus pädagogische Maxime zu entnehmen. Anschließend wird der eigene Bahá’í-Unterricht in Deutschland sowie die weltweit eingesetzten Ruhi-Kurse dargestellt.
Diese Arbeit soll den Leser dazu anregen, sich mit der Realisierbarkeit einer friedlichen, humanen und dynamischen Weltgemeinschaft auseinander zu setzen und die Möglichkeit des Glücks sowie der Entfaltung des Individuums zu prüfen.
Diese Arbeit beschäftigt sich mit dem Aufbau und der Kalibrierung eines Neutronendetektorarrays für niedrige Energien (Low Energy Neutron detector Array, kurz „LENA“) am kommenden R³B-Aufbau (Reactions with Relativistic Radioactive Beams) am FAIR (Facility for Antiproton and Ion Research) an der GSI in Darmstadt. Die Detektion niederenergetischer Neutronen im Bereich von 100 keV bis 1 MeV ist nötig, um Ladungsaustauschreaktionen, speziell (p,n)-Reaktionen in inverser Kinematik zu untersuchen. In diesem Energiebereich ist die Detektion äußerst schwierig, da Methoden für thermische als auch hochenergetische (100 MeV bis 1 GeV) Neutronen versagen. Neben dem Aufbau des Detektors wird die Bedeutung des Experiments für die nukleare Astrophysik verdeutlicht. Der theoretische Teil dieser Arbeit legt Grundlagen zum Verständnis für den Nachweis von Neutronen, die Funktionsweise des LENA-Detektors und den damit nachweisbaren Kernreaktionen. Des Weiteren wurde eine Simulation des Detektors mit GEANT4 (GEometry And Tracking), einer C++ orientierten Plattform für Simulationen von Wechselwirkungen von Detektormaterial mit Teilchen, durchgeführt. Die Ergebnisse wurden zur Auswertung von Messungen, die im Rahmen einer Strahlzeit im März 2011 an der Physikalisch Technischen Bundesanstalt (PTB) in Braunschweig durchgeführt wurden, herangezogen. Ziel der Arbeit ist es, die Effizienz des Detektors zu bestimmen.
Der für diese Arbeit entwickelte Prototyp zur Neutronenproduktion hat sich bereits während der ersten Tests bewährt, womit schnell festgestellt wurde, dass sich das Grunddesign des Prototypen für die späteren Experimente am FRANZ eignet. Wie man gesehen hat, entstand die verwendete Revision in mehreren Schritten, da immer wieder aus gemachten Planungsfehlern gelernt werden musste. Zusätzlich gab es bei der Planung mehrere Beschränkungen, die beachtet werden mussten, dazu zählt unter anderem die Form des Prototypen, um ohne Probleme den Bedampfungstand des FZK verwenden zu können.
Das neue Kühlsystem verlangte während der Planung besonderer Aufmerksamkeit. Bei Experimenten wie am IRMM oder FZK kann aufgrund der geringen Leistung des Beschleunigers mit einer Luftkühlung oder einfachen Wasserkühlung gearbeitet werden. Diese Arten der Kühlung beeinflussen den Neutronenfluss nicht. Bei FRANZ muss aufgrund der im Vergleich zu den vorher genannten Experimenten viel höheren Leistung von 4 kW, ein gänzlich neuer Kühlungsansatz verwendet werden. Um die Leistung vom Target abzuführen, muss nun ein viel größerer Bereich gekühlt werden, um die entstehenden Temperaturen unter Kontrolle zu halten. Auch das Vorhersagen der entstehenden Temperaturen war nur unter Annahme mehrerer Parameter möglich. Durch die komplexe Struktur des Prototypen stieß die Berechnung des Temperaturprofis mit einfachen analytischen Mitteln schnell an ihre Grenzen. Aus diesem Grund wurden für diese Arbeit jeweils nach der Einführung der Wärmeleitung vereinfachte Annahmen gemacht, um dennoch Berechnungen durchführen zu können. Dass dies nicht immer zu exakten Ergebnissen führt, wurde während des Prozesses mehrfach festgestellt. Dennoch konnten so die Größenordnungen der Temperaturen bestimmt werden, was letztlich zur Auslegung des Kühlsystems beitrug.
Die Lösung, für die sich entschieden wurde, war die Kühlung der Rückseite des Target mit Wasser. Der große Nachteil dieser neuen, aber notwendigen Kühllösung, sind die Materialien, die nun den Neutronenfluss aus der Li(p,n) Reaktion beeinflussen. Wichtig war es eine Balance zwischen Schichtdicken von Kupfer und Wasser, die für die mechanische und thermische Stabilität notwendig waren, und der Qualität des erhaltenen Spektrums zu finden. Hierfür wurden zahlreiche Simulationen mit GEANT 3 angefertigt, um die Einflüsse beider Stoffe abschätzen zu können, wobei sich schließlich herausstellte, dass die Schichtdicke von Wasser die Neutronen am meisten beeinflusst. Da Wasser stark moderierend auf Neutronen wirkt, stellte man fest, dass man bei Experimenten vor allem hochenergetische Neutronen verliert. Konsequenz war die strikte Kontrolle der Wasserdicke.
Im September 2005 wurden von der HADES-Kollaboration an der GSI in Darmstadt Daten der Schwerionen-Reaktion Ar+KCl bei 1,76A GeV aufgenommen. Neben den Pionen und Dileptonen wurden bereits fast alle Teilchen mit Seltsamkeitsinhalt rekonstruiert. In dieser Arbeit wird zum ersten Mal eine Analyse der leichten Fragmente Deuteronen, Tritonen und 3Helium mit HADES durchgeführt.
Die gemessenen Multiplizitäten wurden mit einem statistischen Hadronisationsmodell verglichen und zeigen gute Übereinstimmung mit diesem. Dies legt die Vermutung nahe, dass das System Ar+KCl bei 1,76A GeV einen hohen Grad an Thermalisierung erreicht. Zu einer weiteren Untersuchung dieser Hypothese wurden die sogenannten effektiven Temperaturen Teff der Teilchen der chemischen Ausfriertemperatur aus dem statistischen Modellfit gegenübergestellt. Bei der effektiven Temperatur handelt es sich um die inversen Steigungsparameter von Boltzmann-Fits an die transversalen Massenspektren mt-m0 bei Schwerpunktsrapidität. Diese Temperatur entspricht bei einer isotropen, statischen Quelle der kinetischen Ausfriertemperatur und sollte somit unterhalb oder gleich der chemischen Ausfriertemperatur sein. Im Falle der effektiven Temperaturen der Ar+KCl-Daten liegen diese jedoch systematisch höher und die Teilchen ohne Seltsamkeitsinhalt zeigen einen massenabhängigen Anstieg, welcher eine radiale kollektive Anregung des Systems vermuten lässt.
Die transversalen Massenspektren der leichten Fragmente werden unter der Annahme eines thermalisierten Systems mit Boltzmann-Funktionen angepasst. Daraus werden die effektiven Temperaturen von Teff,Deuteronen = (139,5 ± 34,9) MeV und Teff,T ritonen = (247,9 ± 62,0) MeV extrahiert, was die Annahme von kollektivem Fluss der Teilchen zu unterstützen scheint. Vergleicht man diese Werte mit den effektiven Temperaturen der leichteren Teilchen, kann mithilfe einer linearen Funktion die kinetische Ausfriertemperatur Tkin = (74,7 ± 5,8) MeV und radiale Flussgeschwindigkeit βr = 0,37 ± 0,13 bestimmt werden. In einem zweiten Ansatz werden daher die Spektren mit Siemens-Rasmussen-Funktionen, die eine radiale Ausdehnung mit einbeziehen, angepasst und daraus die globalen Parameter T = (74 ± 7) MeV und βr = 0,36 ± 0,02 bestimmt. Diese Werte liegen an der oberen Grenze in dem für diesen Energiebereich erwarteten Bereich.
Die Siemens-Rasmussen-Funktionen liefern eine bessere Beschreibung der transversalen Massenspektren und werden zur Extrapolation der nicht abgedeckten transversalen Massenbereiche genutzt. Die Integration liefert die Verteilung der Zählrate als Funktion der Rapidität. Diese Verteilung zeigt zwei Maxima nahe Strahl- und Target-Rapidität, was im Widerspruch zu einer statischen, thermischen Quelle der Teilchen steht.
Verteidigungsminister Thomas de Maizière hat jüngst wieder eine verstärkte Sicherheitspolitische Debatte in Deutschland gefordert. Im Anschluss an die jüngste informelle Debatte der UN Generalsversammlung zur Responsibility to Protect (RtoP) am 5. September bietet es sich an Deutschlands Beitrag zur internationalen Schutzverantwortung zu diskutieren. Die Verhinderung von und Reaktion auf Massenverbrechen ist angesichts zweier Maxime deutscher Außenpolitik – nie wieder Krieg und nie wieder Auschwitz – ein notwendiges Thema, dass sich auch in der sicherheitspolitischen Debatte wiederfinden muss, in Deutschland aber bislang wenig thematisiert wird. Will die Bundesrepublik ihrer internationalen Verantwortung gerecht werden, muss hierzulande eine ernsthafte Auseinandersetzung mit der Schutzverantwortung stattfinden.
UN-Konferenz zum Waffenhandelsabkommen gescheitert“ – so waren Ende Juli diesen Jahres von der SZ über die Welt bishin zum Spiegel viele Artikel betitelt, die über das Ende der Konferenz über ein Waffenhandelskontrollabkommen (ArmsTrade Treaty – ATT) berichteten. Es schien, also ob alle Hoffnungen auf ein internationales Abkommen, welches den Handelmit allen konventionellen Waffen – von der Handfeuerwaffe bis hin zum Flugzeugträger – regulieren würde, erstickt wären.Doch kaum beachtet von der Öffentlichkeit konnten sich die Diplomaten im Rahmen des Ersten Komitees derGeneralversammlung der Vereinten Nationen Anfang November auf eine Fortsetzung der Verhandlungen über einen ATTeinigen. Die beeindruckende Zahl von 157 Staaten – bei 18 Enthaltungen und keiner Gegenstimme – stimmten für eine finaleKonferenz über einen ATT im März 2013...
Die mediale Darstellung von Leaks lässt leicht darauf schließen, dass Leaks ein zwar interessantes, da neues, aber zumindest einheitliches Phänomen im internationalen System darstellen. Christoph Bieber von der Universität Duisburg-Essen bricht mit dieser Vor- und Darstellung, indem er anhand bestimmter vergangener Veröffentlichungen unterschiedliche Arten des Leaking differenziert, und dabei sowohl „Policy-“ wie auch „Politics-“ Leaks identifiziert...
Im Bachelorstudiengang Psychologie an der Goethe-Universität Frankfurt wurde im Rahmen des Programms „Starker Start ins Studium“ ein Modul zur Verbesserung der Studieneingangsphase implementiert (Höhler et al., 2012). Im vorliegenden Beitrag wird beschrieben, inwiefern die Umsetzung des Lehrkonzepts zur fachlichen und sozialen Integration von Studienanfängern beiträgt und erste Evaluationsergebnisse werden vorgestellt.
Diese Arbeit beschäftigt sich mit den Strukturen supramolekularer Komplexe, die aus einem Wirkstoff und einem Modellrezeptor bestehen. Um die spezifische Bindung durch H-Brückenbildung nachzuahmen, wurden Co-Kristallkomponenten ausgesucht, die komplementäre Bindungsstellen besitzen. Die Strukturen der erhaltenen Komplexe sowie einiger (pseudo)polymorpher Formen wurden mit Hilfe der Einkristallstrukturanalyse bestimmt. Ein Vergleich mit Kristallstrukturen ähnlicher Verbindungen ergab Hinweise auf die bevorzugten Konformationen sowie die am häufigsten gebildeten H-Brückenmotive. Theoretische Berechnungen mit den Programmen MOMO und GAUSSIAN wurden bei der Einstufung der Stabilität der Konformere und Tautomere sowie bei der Abschätzung der Komplexbildungsenergien eingesetzt.
Zunächst wurden Co-Kristalle synthetisiert, deren Komponenten ausschließlich fixierte H-Brücken-bindungsstellen besitzen. Die Co-Kristallisationsversuche des Antimalariamittels Pyrimethamin mit Orotsäure führten zur Bildung einer neuen polymorphen Form, zwei Solvaten sowie dem gewünschten Co-Kristall.
In dem ADA/DAD-Komplex zwischen dem Antibiotikum Nitrofurantoin und 2,6-Diacetamidopyridin werden die Co-Kristallkomponenten durch drei H-Brücken verbunden. In den Kristallstrukturen wird die energetisch ungünstigere sp-Konformation von Nitrofurantoin bevorzugt. In dieser Konfomation besitzt das Molekül eine positive und eine negative Seite; dies ermöglicht eine dichtere Kristallpackung.
Aufgrund der Elektronegativitäten der O- und S-Atome sollte das Watson-Crick-Basenpaar zwischen den Nucleosiden 2-Thiouridin und Adenin, das durch eine N-H•••O-Brücke verbunden ist, stabiler sein als das entsprechende Wobble-Basenpaar mit einer N-H•••S-Brücke. Um die Stabilitäten der beiden H-Brücken zu untersuchen, wurden Co-Kristallisationsversuche mit dem Thyreostatikum 6-Propyl-2-thiouracil durchgeführt. Im Co-Kristall mit 2-Aminopyrimidin wird das R_2^2(8)-Heterodimer durch eine N-H•••N- und eine N-H•••S-Brücke verbunden, während N-H•••O-Brücken die 6-Propyl-2-thiouracilmoleküle zu Ketten verknüpfen. Aufgrund der ungünstigen intramolekularen Donor/Akzeptor-Abstände wird im Co-Kristall mit 2,6-Diacetamidopyridin der gewünschte ADA/DAD-Komplex nicht beobachtet. Stattdessen bildet 6-Propyl-2-thiouracil mit Hilfe zweier N-H•••S-Brücken R_2^2(8)-Homodimere, mit denen 2,6-Diacetamidopyridin nur durch eine N-H•••O-Brücke verbunden ist. Die Mitwirkung der N-H•••S-Brücke bei der „Basenpaarung“ kann dadurch erklärt werden, dass bei der Beteiligung der N-H•••O-Brücken an dem R_2^2(8)-Motiv N-H•••S-Brücken für die Kettenbildung zuständig wären; dieses Strukturmotiv wird jedoch in Kristallstrukturen selten beobachtet. Insgesamt zeigen diese Untersuchungen, dass C-O- und C-S-Gruppen konkurrenzfähige H-Brückenakzeptoren sind.
Anschließend wurden mehrere Co-Kristalle des Antimykotikums 5-Fluorcytosin synthetisiert. Im Co-Kristall mit 2-Aminopyrimidin wird das gewünschte AD/DA-Heterodimer beobachtet. Ein ähnliches R_2^2(8)-Heterodimer könnte zwischen 5-Fluorcytosin und N-Acetylkreatinin gebildet werden, jedoch werden die Komponenten lediglich durch eine H-Brücke miteinander verknüpft. Energieberechnungen machen dies plausibel. Trotz der komplementären AAD/DDA-Bindungsstellen wird im Co-Kristall mit 6-Aminouracil das Heterodimer nur durch zwei H-Brücken verbunden. Die dadurch gewonnene Energie reicht offenbar aus, um den Energieunterschied zum AAD/DDA-Heterodimer zu kompensieren. Die Co-Kristalle des 5-Fluorcytosins mit 6-Aminoisocytosin sowie der Co-Kristall mit dem antiviralen Wirkstoff Aciclovir bestätigen die Stabilität des AAD/DDA-H-Brückenmusters, welches dem Watson-Crick-Basenpaar C-G ähnelt.
Es gelang auch, das Konformations- und das Tautomerengleichgewicht durch eine spezifische Bindung zu beeinflussen. In den Co-Kristallen von 5-Fluorcytosin mit den beiden konformationell flexiblen Molekülen Biuret und 6-Acetamidouracil wird nur diejenige Konformation gefunden, die zur Bildung des gewünschten AAD/DDA-Heterodimers führt. Dabei liegt Biuret in der energetisch günstigeren trans-Form, 6-Acetamidouracil jedoch in der ungünstigeren cis-Form vor. Die drei AAD/DDA-Komplexe von 6-Methylisocytosin zeigen, dass durch die Bildung komplementärer H-Brückeninteraktionen Tautomere getrennt kristallisiert werden können: in den Co-Kristallen mit 5-Fluorcytosin findet man ausschließlich die 3H-Form, während in dem Komplex mit 6-Aminoisocytosin lediglich die 1H-Form vorliegt.
In dieser Studie werden somit neue Einblicke in die Anwendung von Co-Kristallen als Modellsysteme für die Untersuchung von Wirkstoff/Rezeptor-Wechselwirkungen gewonnen. Um Wirkstoff/Rezeptor-Komplexe noch besser nachzuahmen, sollten zukünftig Co-Kristallisationsversuche mit größeren und flexibleren Modellrezeptoren vorgenommen werden. Weiterhin wäre die Berücksichtigung schwacher Wechselwirkungen bei der Synthese von Co-Kristallen von Interesse.
Rezension zu: Maria R.-Alföldi, Edilberto Formigli und Johannes Fried : Die römische Wölfin. Ein antikes Monument stürzt von seinem Sockel Sitzungsberichte der Wissenschaftlichen Gesellschaft an der Johann Wolfgang Goethe-Universität Frankfurt am Main, Band XLIX, Nr. 1, Franz Steiner Verlag, Stuttgart 2011, ISBN 978-3-515-09876-2, 161 Seiten, 48 Euro.
Untersuchung von Korrelationseffekten in der Doppelphotoemission von normal- und supraleitendem Blei
(2012)
Im Rahmen dieser Arbeit wurde für die erstmalige Untersuchung der Doppelphotoemission von supraleitenden Materialien eine neue Messapparatur aufgebaut. Mit ihr lassen sich auf eine neue Weise Korrelationseffekte zwischen zwei Elektronen untersuchen, denn beide werden für jedes Reaktionsereignis mit ihrem vollständigen Impulsvektor aufgezeichnet. Die Apparatur kann daher für einen direkten Nachweis der Cooperpaarung in Supraleitern verwendet werden. Dazu wurden ein speziell für diesen Zweck angepasstes Spektrometer, Vakuumsystem und Probenhalter konstruiert. Ein mehrfach verbessertes Vakuumsystem sorgte dafür, dass eine Bleioberfläche über einen Zeitraum von mindestens 15 Stunden nach einer Reinigung gemessen werden konnte. Das Spektrometer erlaubte die koinzidente Messung von Elektronen über einen großen Raumwinkelbereich mit ausschließlich elektrischen Feldern. Dadurch war es auch im supraleitenden Zustand möglich, die Trajektorien der Elektronen zu berechnen. Die Energieauflösung für jedes Elektron lag zwischen 1/30 und 1/50, je nach untersuchtem Emissionswinkel. Ein eigens entwickelter Probenhalter erlaubte es, eine nur von einer Seite thermisch abgeschirmte Probe auf eine Temperatur von 4,5 K zu kühlen. Die Experimente wurden an einer Beamline des Berliner Synchrotrons BESSY durchgeführt.
Von entscheidender Bedeutung für die Auswertung der Daten ist die Qualität der Pulserkennungsroutine. Sie bestimmt die Totzeit der Messapparatur, das heisst wie nahe zwei Elektronen zeitlich und räumlich beieinander liegen dürfen, um noch detektiert zu werden. Sie beeinflusst somit die Beobachtung erheblich. In den als digitalisierte Pulse aufgenommen Rohdaten besteht die Schwierigkeit darin, zwei übereinander liegende Signale als solche zu erkennen und die richtige Zeit beider Signale zu bestimmten. Dies wurde erheblich verbessert, indem ein in Vorabeiten simulierter Doppelpulsalgorithmus modifiziert und erstmalig verwendet wurde. In der Folge konnte die Totzeit deutlich verringert und daher bis zu 20% mehr Doppelereignisse gefunden werden. Darüber hinaus ließen sich Fehler bei der Zeiterkennung nahe aufeinander folgender Pulse korrigieren. Ein in diesem Zusammenhang entwickeltes Programm erzeugte durch die Addition von gemessenen Einzelpulsen künstliche Doppelereignisse mit beliebiger Abstandsverteilung und erlaubte so erstmals eine exakte Simulation der Detektortotzeit mit verschiedenen Pulserkennungsalgorithmen.
Neben den Koinzidenzereignissen wurden auch die Ergebnisse der gewöhnlichen Photoemission untersucht und mit Bandstrukturrechnungen verglichen. Aufgrund der Messmethode wurde keine Vorauswahl bezüglich des Emissionswinkels oder der kinetischen Energie getroffen. Die Ergebnisse der Fermiflächen stimmen innerhalb der erreichten Auflösung mit den theoretischen Vorhersagen überein. Ebenso konnten die Strukturen in den Parallelimpulsspektren der Elektronen, die aus lokalisierten Energieniveaus emittiert wurden, mit der Interferenz der ausgehenden Wellenfunktionen erklärt werden. Eine Simulation dieses Effekts lieferte trotz der vergleichsweise sehr niedrigen Elektronenenergien eine gute Übereinstimmung der wesentlichen Merkmale.
Es wurden Doppelphotoemissionspektren von Blei bei verschiedenen Photonenenergien im Bereich von 21,22 eV bis 40 aufgenommen. Dabei konnten verschiedene Emissionskanäle identifiziert werden. Das Korrelationsloch ist ein sehr grundlegender Effekt, der aufgrund der Coulombabstoßung und des Pauli-Prinzips auftritt und daher bei allen Metallen vorkommt. Betrachtet man das Korrelationsloch im Impulsraum, so führt es dazu, dass zwei gleichzeitig emittierte Elektronen keine ähnlichen Impulsvektoren besitzen dürfen. Durch die verbesserten Pulserkennungsalgorithmen war es möglich, das Korrelationsloch zu untersuchen und über einen weiten Energiebereich zu vermessen. Es zeigte sich wie erwartet als Verarmungszone in der Impulsverteilung eines Elektrons um den Impuls eines zweiten. Ein solcher Effekt ist mit einem einzelnen Detektor sehr schwer zu messen, da die Totzeit die gleiche Auswirkung auf die Spektren hat. Durch eine Simulation konnte ihr Einfluss in jedem Spektrum herausgefunden und so beide Effekte voneinander getrennt werden. Sie stehen damit für einen Vergleich mit einer noch zu entwickelnden theoretischen Vorhersage zur Verfügung.
Aufgrund der bei Blei sehr nahe an der Fermikante liegenden, lokalisierten Energieniveaus konnte der Augerzerfall aus dem Valenzband identifiziert und untersucht werden. Korrelationseffekte zwischen den beiden Elektronen spielten aufgrund des sehr breiten Valenzbandes wie erwartet eine untergeordnete Rolle. Dies ließ sich nachweisen, indem die Energieverteilung durch eine Selbstfaltung der Valenzbandzustandsdichte beschrieben wurde und die Winkelverteilung der Augerelektronen keine Beeinflussung durch die Emissionsrichtung der Photoelektronen zeigte. Beide Beobachtungen deuten auf einen vollständig unabhängigen Emissionsprozess der beiden Elektronen hin. Überraschenderweise zeigte sich aber eine Energieverschiebung des Photoelektrons, abhängig von der kinetischen Energie des Augerelektrons. Dieser in der Gasphase als Post-Collision-Interaction bekannte Effekt sollte aufgrund der schnellen Abschirmung der im Festkörper zurückbleibenden Löcher nicht auftauchen. Die Ursache für die Energieverschiebung ist noch unbekannt.
Für die Identifizierung der Emission von Cooperpaaren wurden Messungen oberhalb und unterhalb der Sprungtemperatur bei verschiedenen Photonenenergien zwischen 20 eV und 40 eV durchgeführt. Verschiedene Spektren wurde nach der Signatur des Prozesses untersucht. Aufgrund der geringen Statistik konnte er nicht identifiziert werden. Demnach konnte auch die theoretische Vorhersage nicht widerlegt werden. Da dieses Experiment aus technischer Sicht äußerst herausfordernd ist, war die Untersuchung von Blei, als einfach zu präparierendes Material mit hoher Sprungtemperatur, naheliegend. Es stellte sich jedoch durch die Auswertung heraus, dass es im Hinblick auf die untersuchte Fragestellung einen wesentlichen Nachteil besitzt. Die Hauptintensität befindet sich im Gegensatz zu Kupfer für alle hier verwendeten Photonenenergien bei niedrigen Elektronenenergien, so dass nur wenige Ereignisse in dem für die Cooperpaaremission interessanten Energiefenster liegen.
Wie sieht eigentlich die eigene didaktische Praxis der Politikdidaktik an Hochschulen
aus? Im vorliegenden Text wird diese Frage am Beispiel eines Einführungsmoduls
diskutiert.
Zentraler Anspruch Frankfurter Politikdidaktik ist eine kritische Subjektorientierung,
die sich vor allem auf einen emphatischen, aber auch auf einen kritischen
Subjektbegriff gründet. Dieser findet sich in verschiedenen, an der Praxis orientierten
Formen wieder: in Form der Reflexion subjektiver Theorien der Studierenden,
in Form einer grundsätzlichen und konkreten Begründungspflicht politischer Bildung
und damit auch einhergehend einer Metakommunikation, im Verständnis der
Kritik politischer Bildung in jeweils konkreten Verhältnissen (Seminar wie Unterricht),
in der Betrachtung von Macht und Herrschaft in Form des pädagogischen
Widerspruchs von Autonomie und Leitung und auch in Form der Gegenstandsanalyse
einer kritischen Problemorientierung und kategorialen Bildung.
Methodisch sind reflexive und praktische Zugänge zu den genannten Bereichen
politischer Bildung prägend. Wirksame Bildungsprozesse müssen sich auf
subjektive Theorien beziehen und müssen ihre eigene, konkrete Bildungspraxis
einbeziehen. Subjektive Theorien werden in einem theoretischen Teil des Moduls
eruiert und reflektiert. Eine Projektphase im zweiten Teil stellt die Bedingungen
zur Verfügung, diese subjektiven Theorie durch (hoffentlich alternatives) praktisches
Handeln und seine Reflexion zu verändern. Ziel ist, die biografisch von Praxis
geprägten und stets handlungsleitenden subjektiven Theorien durch intellektuelle,
aber auch durch praktisch-körperliche Bildungserfahrungen so zu bearbeiten,
sodass sich ein professioneller Habitus entwickeln kann.
Rezension zu: Maritza Le Breton: Sexarbeit als transnationale Zone der Prekarität. Migrierende Sexarbeiterinnen im Spannungsfeld von Gewalterfahrungen und Handlungsoptionen.Wiesbaden: VS Verlag für Sozialwissenschaften 2011. 241 Seiten, ISBN 978-3-531-18330-5, € 39,95
Sexarbeiterinnen selbst kommen in empirischen Studien zu Migration und Sexarbeit selten zu Wort. In ihrer Dissertation gelingt Maritza Le Breton jedoch genau das, sie schafft einen Raum für ansonsten (epistemologisch) marginalisierte Akteurinnen. Ihr Ziel ist es, deren tatsächliche (Gewalt-)Erfahrungen sowie Lebens- und Arbeitssituationen in den Blick zu nehmen und auszuarbeiten, um so wichtiges Adressatinnen-Wissen für die Soziale Arbeit zugänglich zu machen. Auf der Basis von 21 problemzentrierten Interviews mit migrierten Sexarbeiterinnen, die in Basel/Schweiz in Kontaktbars oder Salons arbeiten, stellt sie Gewaltverhältnisse und Machtkonstellationen in der Sexökonomie sowie Handlungsoptionen der Sexarbeiterinnen dar.
Vierhundert Nachwuchswissenschaftler, einhundert Panels, alle Teilbereiche der Politikwissenschaft sind vertreten – eigentlich die idealen Voraussetzungen, um sich auszutauschen und selbst etwas für die eigene Arbeit zu lernen, oder nicht? Von 4. bis 6. Juli hat in Bremen die vierte ECPR Graduate Konferenz stattgefunden. Ziel der hauptsächlich von Promovierenden unter dem Banner des European Consortium for Political Research vorbereiteten Konferenz ist es Nachwuchswissenschaftler aus ganz Europa zusammenzuführen...
Zwei Faktoren führten in der Vergangenheit zu einer erhöhten Nachfrage nach qualifizierten Arbeitskräften: Die strukturelle Zunahme qualifizierter Arbeit auf Kosten einfacher Tätigkeiten und die zumeist konjunkturbedingte zusätzliche Nachfrage nach Arbeitskräften. Auch wenn der Trend zur Höherqualifizierung bei den Neueinstellungen in Hessen in den letzten Jahren gestoppt scheint, nahm der Fachkräftebedarf 2011 absolut gesehen weiter zu. Noch deutlicher ist der Anstieg der Fachkraftstellen, die im letzten halben Jahr nicht besetzt wurden, wobei insbesondere kleinere Betriebe und wirtschaftsnahe Dienstleister aktuell viele unbesetzte Fachkräftestellen aufweisen. Eine hohe oder sogar weiter ansteigende Fachkräftenachfrage ist allein noch kein Problem. Erst ein gleichzeitiger Rückgang des (im IAB-Betriebspanel nicht erfassten) Arbeitskräfteangebots könnte zum vielfach befürchteten Fachkräftemangel führen. Aufgrund der demografischen Entwicklung ist mit einem solchen Rückgang mittelfristig zu rechnen, aber auch innerhalb der nächsten zwei Jahre erwartet eine nennenswerte von hessischen Betrieben bereits Schwierigkeiten bei der Besetzung von offenen Fachkraftstellen. Dies trifft erneut insbesondere auf die kleineren Betriebe zu; zudem werden im Bereich der Sonstigen Dienstleistungen von vielen Betrieben Probleme erwartet. Maßgeblich hierfür ist aus Sicht der Betriebe ein ganzes Bündel an Faktoren, wie z.B. unattraktive Arbeitsbedingungen oder fehlende Spezialkenntnisse der Arbeitskräfte, aber ein Hauptgrund lässt sich sektorübergreifend festmachen: das Fehlen an Bewerbern. Etwa drei Viertel der Betriebe, die Neueinstellungen planen, rechnen damit, dass sich bei ihnen zu wenige geeignete Personen bewerben. Diese Erwartung führt mehrheitlich zu der Reaktion, stärker in das eigene betriebliche Humankapital zu investieren, insbesondere durch Qualifizierungsmaßnahmen, aber auch durch betriebliche Ausbildung. Flankierende Strategien wie attraktivere Arbeitsbedingungen oder die Verbesserung der Vereinbarkeit von Beruf und Familie stehen ebenfalls auf der Agenda, gemeinsam mit dem Ziel, ältere Fachkräfte länger im Betrieb zu halten. Letzteres ist auch dem Umstand geschuldet, dass aufgrund der Altersstruktur der hessischen Betriebe zukünftig in höherem Maße Fachkräfte altersbedingt ausscheiden werden. Diese Erkenntnis schlägt sich bislang jedoch noch nicht in einer Zunahme spezifischer Maßnahmen für ältere Beschäftigte nieder. Im Gegenteil: Die Zahl der Betriebe, die keine derartigen Maßnahmen fördert, ist in den letzten zehn Jahren deutlich gestiegen. Zusammenfassend lässt sich festhalten, dass bereits heute punktuell Schwierigkeiten bei der Besetzung von Fachkraftstellen zu bestehen scheinen. Dies wird aus Sicht der hessischen Betriebe tendenziell zunehmen; das betriebliche Instrumentarium an Strategien könnte sich in naher Zukunft vielfach nicht als ausreichend differenziert und zielgerichtet erweisen, insbesondere hinsichtlich der unterschiedlichen Ausgangssituationen in einzelnen Branchen. Es ist derzeit schwer einzuschätzen, inwieweit sich Betriebe mit ihren Strategien den sich verändernden Bedingungen anpassen bzw. anpassen können und wo Impulse und Unterstützungen durch Dritte notwendig sein werden.
Der Zellbiologe und Biochemiker Prof. Dr. Peter Walter, Professor in der Abteilung für Biochemie und Biophysik an der University of California in San Francisco, USA, erhielt den mit 100 000 Euro dotierten Paul Ehrlich- und Ludwig Darmstaedter-Preis 2012 für seine herausragenden
Forschungsleistungen auf dem Gebiet der Zellbiologie. Der mit insgesamt 60 000 Euro dotierte Paul Ehrlich- und Ludwig Darmstaedter-Nachwuchspreis ging an die Bremer Pharmazeutin Prof. Dr. Kathrin Mädler für ihre innovativen Ansätze zum Verständnis von apoptotischen Prozessen bei der Entstehung von Typ-II-Diabetes. Die Preisverleihung fand am 14. März 2012, dem Geburtstag Paul Ehrlichs, in der Frankfurter Paulskirche statt.
In den Tiefen der Ozeane gewinnen Methan-bildende Archaeen Energie aus Kohlendioxid und Wasser. Wie die Methanbildung mit der Synthese von ATP, der zellulären Energiewährung, einhergeht, haben Mikrobiologen der Goethe-Universität zusammen mit Kollegen vom Frankfurter Max-Planck-Institut für Biophysik geklärt.
Viele Chemotherapeutika zerstören nicht nur Krebszellen, sondern beschädigen auch Eizellen, die dann durch ein körpereigenes Qualitätskontrollsystem aussortiert werden. Die Arbeitsgruppe von Prof. Dr. Volker Dötsch am Institut für Biophysikalische Chemie will diesen Mechanismus nun im Rahmen eines Koselleck-Projekts der Deutschen Forschungsgemeinschaft
genauer untersuchen.
Hinsichtlich der Politischen Romane erscheint das allgemein schwer zu bestimmende Verhältnis von Gattungstheorie und Gattungsgeschichte als geradezu widersprüchlich: In unmittelbarer zeitlicher Nähe zu einer Anweisungspoetik entsteht eine ganze Reihe von Texten, die sich ostentativ auf diese Poetik beziehen, aber nur selten deren Anweisungen folgen. Die vorliegende gattungsgeschichtliche Untersuchung „Die Politischen Romane, eine populäre Gattung des 17. Jahrhunderts“ von Andrea Wicke legt deshalb eine rekursive Bestimmung der Gattung zugrunde: Erstmals werden grundsätzlich alle Texte herangezogen, die durch ihre paratextuelle Präsentation einen Gattungszusammenhang evozieren. Ebenfalls zum ersten Mal werden die Paratexte in umfassender Weise für eine dichte Beschreibung des historischen Gattungsdiskurses ausgewertet. Folgende Forschungsergebnisse lassen sich resümieren:
Das Phänomen der Politischen Romane ist besser zu verstehen, wenn man den literarischen Gattungsbegriff konsequent historisiert und die Politischen Romane wie Moden und Bewegungen als Ausdruck eines kulturellen Wandels begreift. Der wie eine epidemische Kurve zunächst langsam, nach 1680 stark ansteigende, nach 1684 wieder abfallende Publikationsverlauf der Politischen Romane indiziert eine besonders geartete Kommunikationssituation, als deren Produkt die populäre literarische Gattung erscheint.
Die allgemeine Frage, wie unbekannte Bücher zu Bestsellern werden, lässt sich hinsichtlich der Politischen Romane wie folgt beantworten: Mit der Adaption der satirischen Romane Christian Weises durch Johannes Riemer erreicht dessen satirische Erzählung "Der Politische Maul-Affe" Anfang des Jahres 1680 eine außergewöhnlich große Öffentlichkeit. Dafür sind außerliterarische Umstände maßgeblich, insofern die im Schüler- und Studentenmilieu angesiedelte Erzählung einen Skandal verursacht. Riemer referiert als Erster im Rahmen gattungsgenerierender imitatio auf zwei Romane Weises. Sein Verfahren, Weises Werke gegen dessen Intentionen als legitimierte Praetexte für eine satirische Schlüsselerzählung mit politischen Implikationen zu nutzen, etabliert sich und Weises Versuch, mit dem "Bericht" das Schreiben lustiger Bücher unter rhetorischen Prämissen als propädeutische Gattung für zukünftige Politici zu normieren, befördert gegen dessen Intentionen die spezifische Dynamik der Politischen Romane: Von 1680 bis 1684 erlangen die Politischen Romane durch ihr dauerndes Changieren zwischen anspielungsreicher, angriffiger Satire, kurzweiligem Schwank und prudentistischem Ratgeber eine große Wirkung. Die erstmalige Synopse aller Politischen Romane lässt erkennen, wie extensiv populäres wie elitäres Material in die Erzählungen integriert wird: Viele Episoden und Geschichten der Politischen Romane leben vom Kontrast zwischen der Vermittlung politischen Wissens mit gesellschaftsethischem Anspruch und grobianischen Sequenzen, anstößigen Motiven und vulgärem Sprachgebrauch. Die satirische Perspektive gilt meist dem traditionalen Verhalten bildungsferner Schichten; die Erzählungen thematisieren insbesondere die spezifische Zukunftserwartung junger Akademiker. Mit größerer zeitlicher Distanz zum Weißenfelser Skandal werden die Texte tendenziell stärker folklorisiert. Es scheint eine Öffentlichkeit für milieuspezifische Unterhaltungsliteratur zu entstehen, in der Autoren und Leser zur gleichen –studentischen – Ingroup gehören. Die außerliterarischen Bezüge der Texte bilden indes auch einen destabilisierenden Faktor des Gattungszusammenhangs: Skandale sind kurzlebig und 1684 hat die Popularität der Gattung ihren Scheitelpunkt erreicht. Christian Weises Stellungnahme in der Vorrede zum "Neu=erleuterten Politischen Redner" wider die Politischen Romane verstärkt den Niedergang der Gattung maßgeblich und Johannes Riemer sieht sich gezwungen, Weise in seiner abweisenden Haltung zu folgen. Mit diesen beiden Widerrufen verlieren das schillernde Epitheton politisch, der satirische Impetus und die versteckten Anspielungen auf eine gelehrte Autorschaft quasi ihren Resonanzboden. Zwar entsteht nun auch der nötige Spielraum, um den gattungsspezifischen Rahmen der Politischen Romane zu verändern und – wie Kuhnau und Ettner es tun – positiv an Weises Vorgaben anzuknüpfen. Doch bleibt es bei einzelnen Versuchen, Alternativen zu der provozierenden Performanz zu entwickeln, die den Erfolg der Gattung zu Beginn der 80er Jahre des 17. Jahrhunderts geprägt hat.
Das Hessische Ried war nur dünn besiedelt, als die Römer kurz vor der Zeitenwende die Garnisonsstadt Mogontiacum/Mainz gründeten. Gelegen im rechtsrheinischen Vorfeld der neuen Metropole, profitierte das Ried von der Wirtschaftskraft der dort stationierten Legionen, denen es als Nutzland und Manövergebiet diente. Vollständig erschlossen wurde das Gebiet aber erst durch die zivile Besiedlungsphase im frühen zweiten Jahrhundert n. Chr. mit der Gründung von Dörfern und zahlreichen Gutshöfen. Nach zwischenzeitlichem Rückgang der Besiedlung erlebte das Ried im vierten Jahrhundert eine neue Blütezeit. Das Institut für Archäologische Wissenschaften hat die Entwicklung dieser Region bis um 500 n. Chr. in einem mehrjährigen Projekt rekonstruiert. Nach dem rheinischen Kohleabbaugebiet ist das Hessische Ried die am intensivsten
erforschte Landschaft im römischen Deutschland.
Seit einigen Jahren wird in den IB über die künftige Rolle Chinas in der Weltpolitik diskutiert. Insbesondere seit die Turbulenzen im Weltfinanzsystem Amerika und Europa in die Krise gestürzt haben, zeigen sich große Teile der Öffentlichkeit besorgt über den wachsenden Einfluss der Volksrepublik. Aber wie wird sich China entwickeln? Eine Sammelrezension mehrerer 2011 zu diesem Thema erschienener Bücher.
Forschung, die einen unmittelbaren Beitrag zur Lösung drängender gesellschaftlicher Probleme leisten will, muss sich besonderen Qualitätsanforderungen stellen: Sie soll nicht nur gesichertes, sondern auch anwendbares Wissen bereithalten. Dies gilt besonders für Forschung, die darauf zielt, Politik in Fragen nachhaltiger Entwicklung mit spezifischem Wissen zu unterstützen. Für diesen Typ einer „politik-relevanten Nachhaltigkeitsforschung“ präsentiert der vorliegende Wegweiser ein detailliertes Anforderungsprofil.
Der Wegweiser richtet sich an Förderer oder Auftraggeber einer solchen Forschung, an die Forschenden selbst und an Akteure aus der Politik, die sich direkt an Forschungsprozessen beteiligen. Er kann dabei sowohl für den Fall genutzt werden, dass Forschungsförderer oder Auftraggeber und politische Praxispartner verschiedene Institutionen sind, als auch für den Fall, dass sie identisch sind. Politische Beratung durch spezialisierte Agenturen, die keine eigene Forschung leisten, wird dagegen nicht adressiert.
Die im Detail ausgearbeiteten Anforderungen haben zwei Funktionen. Sie sollen zum einen den drei genannten Akteursgruppen als Orientierung dienen, wie sie dazu beitragen können, die Qualität von Forschungsprozessen und Forschungsergebnissen zu erhöhen und zu sichern. Zum anderen sollen sie die reflexive Kommunikation zwischen den Akteuren über Mittel und Zwecke der Forschung verbessern. ...
Die Lösung globaler Probleme wie Klimawandel, Umweltzerstörung oder Ernährungssicherung erfordert grundlegende Transformationen unserer Gesellschaft. Um diese neuartigen und existenziellen Herausforderungen bewältigen zu können, brauchen wir neues Wissen – über die Entstehung der Probleme, über anzustrebende Lösungsansätze und über Wege zu deren Umsetzung.
Mit dem Ziel, dieses Wissen zu schaffen, hat sich die transdisziplinäre sozial-ökologische Forschung entwickelt – eine innovative, praxisnahe Forschung entlang der zentralen Motive Verstehen – Bewerten – Gestalten: Komplexe Probleme zu verstehen, die erarbeitete Wissensbasis zu bewerten und Handlungsoptionen zu gestalten greifen bei diesem Forschungstypus ineinander. Die sozialökologische Forschung hat eine Pionierfunktion für die Umwelt- und Nachhaltigkeitsforschung in Deutschland übernommen und wegweisende Arbeiten etwa zur Energie-, Mobilitäts- oder Ernährungswende vorgelegt.
Im Förderschwerpunkt Sozial-ökologische Forschung (SÖF) hat das Bundesministerium für Bildung und Forschung (BMBF) im Jahr 2000 erstmals ein Programm zur Förderung dieses spezifischen Forschungszugangs aufgelegt. Bis zum Jahr 2012 wurden darin Verbünde und Einzelvorhaben unterstützt, etwa zu Themen wie Umwelt - Ernährung - Gesundheit: Langfriststrategien für einen nachhaltigen Konsum oder Soziale Dimensionen von Klimaschutz und Klimawandel. Mit Erfolg: Forschungsvorhaben zur Transformation stehen inzwischen prominent auf der Tagesordnung von Politik und Gesellschaft. Und auch die Wissenschaft selbst öffnet sich immer mehr für die Fragen und Methoden der sozial-ökologischen Forschung.
Dieses Memorandum setzt sich dafür ein, die Basis der sozial-ökologischen Forschung in den kommenden Jahren konsequent zu vertiefen und zu verbreitern – inhaltlich, organisatorisch und institutionell. Dazu gibt das Memorandum Empfehlungen zur Förderung von Themenfeldern und von Maßnahmen der Strukturentwicklung.
Phänomenologie der Pseudovektormesonen und Mischung mit Axialvektormesonen im kaonischen Sektor
(2012)
Ziel dieser Bachelorarbeit war die Vorstellung und die Untersuchung eines effektiven, mesonischen Drei-Flavor-Modells der Quantenchromodynamik und dessen Phänomenologie. Dazu wurden zunächst die Kopplungskonstanten a und b des Modells durch die Berechnung dominanter Zerfallsbreiten der im Modell enthaltenen Axialvektor- und Pseudovektor-Mesonen festgelegt. Dabei wurde für die Festlegung der Kopplungskonstanten a der Zerfall von f1 (1420) in KK*(892) verwendet. Die so berechnete Kopplungskonstante wurde anschließend unter Verwendung des ρπ-Zerfalls von a1 (1260) auf Konsistenz geprüft. Das dadurch erhaltene Resultat von Γa1--> ρπ= (443:962 ± 13:456) MeV liegt sehr gut in dem von der particle data group angegebenen Wertebereich der Gesamtbreite von a1 (1260). Die Festlegung und Berechnung der Kopplungskonstante b des Pseudovektor-Sektors war Gegenstand der Bachelorarbeit von Lisa Olbrich, so dass in dieser Arbeit nur die Resultate dieser Rechnung präsentiert wurden. Jedoch passen die dort erzielten Resultate auch mit guter Genauigkeit zu den experimentell bestimmten Werten der particle data group.
Das zweite Ziel dieser Bachelorarbeit war die Untersuchung der im Modell enthaltenen Mischungseffekte der Kaonen-Felder von K1 (1270) und K1 (1400). Zunächst waren im Axialvektor- und Pseudovektor-Nonet dieses Modells nur unphysikalische Kaonen-Felder K1;A und K1;B enthalten. Durch den Mischungsterm Lmix der Lagrange-Dichte des Modells existieren allerdings Mischterme beider Felder. Diese Mischterme wurden durch die Einführung der physikalischen Felder K1 (1270) und K1 (1400), welche durch eine SU(2)-Drehung aus den unphysikalischen Feldern hervorgehen, zum Verschwinden gebracht. Dies hat allerdings zur Folge, dass die Wechselwirkungsterme der physikalischen Felder K1 (1270) und K1 (1400) nun über eine gedrehte Kopplungskonstante koppeln. Diese gedrehte Kopplungskonstante ist eine Funktion der ursprünglich bestimmten Kopplungskonstanten a; b und eines Mischwinkels Φ. Dieser Mischungswinkel wurde von uns über den K? (892) π-Zerfall von K1 (1270) festgelegt. Anschließend konnten wir unter Verwendung des so berechneten Mischungswinkels Φ die Zerfallsbreite von K1 (1400) berechnen und mit den experimentell festgelegten Daten der particle data group vergleichen. Auch hier konnten wir eine gute Übereinstimmung unserer durch das Modell vorhergesagten Daten mit den experimentell bestimmten Werten erzielen.
Die Arbeit ist in zwei Teile gegliedert. Der erste Teil behandelt einige naturphilosophische und mathematische Probleme. Es wird außerdem das Pfeil-Paradoxon von Zeno vorgestellt, auf dem die moderne Variante des Quanten-Zeno-Paradoxons basiert. Im zweiten Teil wird zunächst eine allgemeine Analyse des Zerfallsgesetzes instabiler Quantensysteme gegeben. Es ist eine Mischung aus Zusammenfassungen von Reviews und neuen Ideen. Eine wichtige Rolle spielt dabei die Wellenfunktion in Energiedarstellung bzw. deren Betragsquadrat, genannt Energiedichte. Es wird auch auf den Fall eingegangen, wenn ein Quantensystem wiederholten (frequenten) Messungen ausgesetzt ist. Anschließend wird der Quanten-Zeno-Effekt und das Quanten-Zeno-Paradoxon als Folge des Verhaltens der Überlebenswahrscheinlichkeit für Zeiten kurz nach der Zustandspräparation beschrieben. Danach wird das Lee-Modell zur Beschreibung eines Teilchenzerfalls vorgestellt. Das Modell beschreibt den Zerfall eines instabilen Teilchens in zwei mögliche Kanäle, d.h. entweder in (genannt) a-Teilchen oder b-Teilchen. Es werden alle wichtigen Funktionen (Zerfallsgesetz, Energiedichte, etc.) analytisch hergeleitet. Es folgen darauf die Ergebnisse der numerischen Auswertung.
Indonesien, der Bevölkerung nach viertgrößtes Land der Erde, ist ein Land, dass in ewiger Wiederkehr als kommende wirtschaftliche Großmacht gefeiert wird. In der Tat scheint Indonesien alle Voraussetzungen für eine positive wirtschaftliche Entwicklung zu erfüllen: Jahrzehntelange politische Stabilität, eine junge, vergleichsweise gut ausgebildete Bevölkerung, eine vorteilhafte geopolitische Lage zwischen der boomenden ASEAN-Region und Australien und ein Überfluss an Arbeitskräften, Land sowie Ressourcen. Kein anderes Land der Region wies bereits in den 1970er Jahren konstante BIP-Wachstumsraten von jährlich um die acht Prozent auf. Während China durch Maßnahmen wie den „Großen Sprung nach vorn“ und der „Großen Proletarischen Kulturrevolution“ im wirtschaftlichen Chaos zu versinken drohte, wurde Indonesien zu Investors Liebling. Indonesien wurde als das nächste Japan gefeiert, dass selbst externe wirtschaftliche Krisen wie den Ölpreisschock wegstecken konnte. Es dauerte beispielsweise bis in die Mitte der 1990er Jahre, bis Chinas BIP das indonesische wieder überflügelte. Bis klar wurde, dass Indonesien mittelfristig nicht den Weg einer wirtschaftlichen Großmacht wie China gehen konnte.
Die Ausgangsfrage diese Magisterarbeit ist nun, warum Indonesien keine vergleichbare wirtschaftliche Entwicklung zu China nehmen konnte? Es scheint paradox, dass ein Land, dessen Modernisierung jahrzehntelang von einer radikalen Interpretation des Sozialismus geprägt wurde, langfristig mehr wirtschaftlichen Erfolg hat als ein Land, dessen Wirtschaftspolitik der wirtschaftlichen Entwicklung alles andere unterordnete. Aber ist dies tatsächlich ein Paradox, oder steckt eine eigentümliche Rationalität im indonesischen Kapitalismus, die das Auseinanderdriften der bevölkerungsmäßig größten Wirtschaften Ost- und Südostasiens erklären kann?
Wirtschaftskrisen sind nichts Neues. Sie zählen im Laufe der Jahrhunderte zu wiederkehrenden Ereignissen. Seit dem 19. Jahrhundert strahlen sie allerdings meist weit über das ökonomische Geschehen hinaus. Ihre Ursachen sind vielfältig und lassen sich nicht allein auf das Verhalten einzelner Personen oder "der Märkte" reduzieren. Die als so beunruhigend wahrgenommenen Spekulationenmüssen als ein notwendiges Moment allen wirtschaftlichen Handelns betrachtet werden und gehören zu den Rhythmen, die – so zeigen auch die jüngsten Entwicklungen – durch staatliche Interventionen nicht ohne Weiteres umzukehren sind.
Die ersten »Banknoten« waren Schuldscheine oder Quittungen für hinterlegte Edelmetalle. Erst mit der Abkopplung von Papier und Einlage eröffneten sich neue Möglichkeiten der Finanzierung für Banken und Staatslenker – mit den entsprechenden Risiken. Der historische Blick auf die unterschiedlichen geldpolitischen Interessen von Regierungen, Privat- und Zentralbanken wirft auch ein neues Licht auf die Hintergründe der gegenwärtigen Krise.
Die Geld-Welt in Zahlen
(2012)
Münzen waren nicht das erste Geld. In der griechischen Frühgeschichte (17. bis 6. Jahrhundert v. Chr.) dienten Rinder, Frauen, Dreifüße, Gold- und Silberschrott, Bratspieße, Kessel und kostbare Gewänder als Zahlungsmittel. Charakteristisch für frühe Geldformen ist ihre funktionale Vielfalt: Mit Kesseln und Dreifüßen konnte man bezahlen, sie dienten aber auch als Preise für Wettkämpfe und Weihegeschenke oder eben als Weinmischgefäß oder Kochtopf für Badewasser. Wie die Wirtschaft unter solchen Bedingungen funktionierte, hing stark von der Gesellschaftsform und ihren Handelsbeziehungen ab.
Wie uns die Finanzkrise lehrt, leben wir in einem Wirtschaftssystem, in dem das Geldkapital Vorrang hat vor allen anderen Werten wie vor Natur, Mensch, Arbeit und Gemeinwohl. Die dadurch hervorgerufenen Schäden regen die Menschen in unserer Gesellschaft dazu an, Ideen im Interesse
einer zukunftsfähigen Marktwirtschaft zu testen. Die ethisch-ökologische Geldanlage wird dafür als eine Möglichkeit angesehen.