Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2867)
- Article (2263)
- Contribution to a Periodical (2161)
- Book (1979)
- Doctoral Thesis (1725)
- Review (926)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (176)
Language
- German (13875) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5008)
- Medizin (1479)
- Gesellschaftswissenschaften (1062)
- Rechtswissenschaft (742)
- Neuere Philologien (650)
- Wirtschaftswissenschaften (639)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Der viersemestrige Master-Studiengang Biochemie leitet sich aus der langjährigen Tradition in biomolekularer Forschung und Lehre in der Frankfurter Forschungslandschaft her und ist stark forschungsorientiert.
Ziel des Studienganges ist es, fachliche Kenntnisse, Fähigkeiten und Methodenkompetenzen zu vermitteln, mit denen die Absolventen in die Lage versetzt werden, in einem forschungsbezogenem Kontext selbstständig zu arbeiten.
Inhaltlich erstreckt sich der Studiengang von zellulärer Biochemie über Strukturbiologie bis hin zur Biophysik/Biophysikalischen Chemie und ermöglicht den Studierenden die Setzung individueller Schwerpunkte. Für eine forschungsnahe Ausbildung auf hohem Niveau ist der Studiengang integral mit dem lokalen Forschungsumfeld verknüpft, was neben dem Heimatfachbereich Biochemie / Chemie / Pharmazie auch die Fachbereiche Physik, Biowissenschaften, Medizin als auch außeruniversitäre Institutionen wie das Max-Planck-Institut für Biophysik und das Paul-Ehrlich-Institut involviert. Den besonderen Frankfurter Schwerpunkten Strukturbiologie und Membranproteinforschung wird im Studiengang Rechnung getragen.
Das Masterstudium am hochmodernen Life-Science Campus der Goethe-Universität bietet in einer einzigartigen Mischung aus Theorie und Praxis in Biochemie und Biophysikalischer Chemie das Rüstzeug für eine Karriere in der universitären sowie industriellen Umgebung. Die Beteiligung diverser Forschungsinstitute am Masterprogramm ermöglicht eine Spezialisierung in Immunologie, Tumorbiologie oder in Membranbiochemie. Die starke Vernetzung der Universität in nationale sowie internationale Forschungsverbünde gewährleistet den Studierenden einen engen Kontakt mit international führenden Wissenschaftlern und die Möglichkeit zu weltweiten Forschungsaufenthalten. ...
Studentische Lehrevaluationsergebnisse sind ein weit verbreitetes Maß, um die Qualität universitärer Lehre zu erfassen. Diese Ergebnisse werden unter anderem dafür genutzt, Entscheidungen für die Modifikation des Lehrangebots zu treffen oder die Vergabe der Leistungsorientieren Mittelvergabe mitzubestimmen. Aufgrund dieser relevanten Folgen wird in dieser Arbeit der Frage nachgegangen, wie ein angemessener Validierungsprozess bezüglich studentischer Lehrevaluationsergebnisse gestaltet werden könnte.
Bisherige Validierungsstudien zu studentischen Lehrevaluationsinventaren fokussierten sich meist auf die Überprüfung verschiedener Validitätsarten (inhaltsbezogene, kriteriumsbezogene oder faktorielle) und die Erfassung der Messfehlerfreiheit.
Allerdings ist zum einen zu hinterfragen, ob diese Ansätze grundsätzlich für alle Inventare geeignet sind. Weiterhin hat sich das Verständnis von dem verändert, was unter Validität verstanden wird: Von der Annahme von Validität als Testeigenschaft, verschiedener Validitätsarten und binärer Aussagen auf Basis von Einzelbefunden hin zu dem Verständnis von Validität bezogen auf die Testwert-Interpretation und Verwendung, zu einem einheitlichen Validitätskonzept und zu einer Validitäts-Argumentation. Diese Veränderungen werden in den neueren argumentationsbasierten Validitätsansätzen berücksichtigt und bieten einen Rahmen, der auf die jeweilige Intention ausgerichtet ist, einen Test oder Fragebogen einzusetzen.
Auf Grundlage dieser argumentationsbasierten Ansätze wird in dieser Arbeit die Interpretation studentischer Lehrevaluationsergebnisse überprüft, die als das Ausmaß an qualitätsbezogener Zufriedenheit der Teilnehmer mit der Durchführung einer Lehrveranstaltung und der Vermittlung von Lehrinhalten angesehen werden. Der Validierungsprozess wird anhand der Lehrevaluationsdaten des Frankfurter Promotionskollegs am Fachbereich Medizin dargestellt. Dieser Prozess bestätigte weitgehend die beabsichtigte Interpretation, zeigte aber auch eine zumindest teilweise Revision des Inventars und eine weitere Überprüfung an. Eine Validierung bezüglich der Verwendung der Lehrevaluationsergebnisse sowie der auf diesen basierenden beabsichtigten Konsequenzen wird in einer Folgestudie überprüft.
Anhand dieser Arbeit wird Anwendern und Entwicklern von Lehrevaluationsinventaren eine Her- und Anleitung für den Validierungsprozess gegeben und die Vorteile argumentationsbasierter Ansätze aufgezeigt.
Einleitung: Die Intention dieser Arbeit war es zu evaluieren, ob das Prüfungsformat eines OSPE (Objective Structured Practical Examination), durchgeführt im Fach Zahnerhaltungskunde (6. Fachsemester), Aussagen über den Studienerfolg im praktischen Teil des Staatsexamens (11. Fachsemester) im selben Fach zu treffen erlaubt. Ferner sollte unter Berücksichtigung allgemeiner Angaben der StudienteilnehmerInnen (Abitursnote, Physikumsnote, Studiendauer, Kohorte und Geschlecht) analysiert werden, ob bezüglich der Gesamt- sowie Teilnoten des OSPE und der Staatsexamensprüfung im Fach Zahnerhaltungskunde Zusammenhänge oder Unterschiede bestehen.
Methoden: Im Rahmen dieser longitudinalen, retrospektiven Studie wurden über einen Zeitraum von 11 Semestern prüfungsbezogene Daten von Studierenden (N = 223) des Fachbereichs Zahnmedizin in Frankfurt am Main erhoben und untersucht. Ferner wurden persönliche Angaben der Studienteilnehmer zu Alter, Geschlecht, Abitursnote, Physikumsnote und Studiendauer evaluiert sowie eine Zuordnung zu Kohorten vorgenommen. Für die statistische Auswertung der Daten wurden Spearman Rangkorrelationen, Partialkorrelationen, Korrelationskoeffizienten nach Pearson, und Multiple Regressionen (SPSS Statistics 21, IBM Corporation, New York) berechnet.
Ergebnisse: Die Ergebnisse zeigen, dass die Durchführung einer OSPE (Cronbachs α = .87) mit dem Erfolg im praktischen Teil des Staatsexamens im Fach Zahnerhaltungskunde korreliert (p = .01, r = .17). Als eine weitere signifikante Korrelation mit der Examensleistung erwies sich die Dauer des Studiums (p = .001, r = .23). Gemeinsam vermögen diese beiden Variablen einen signifikanten Beitrag zur Vorhersage der Examensnote (p = .001, R2 = .076) zu leisten. Das zeigte sich im größeren Umfang bei weiblichen Studierenden. Zudem wurde festgestellt, dass diese bessere Abitursnoten als männliche Studierende aufweisen (F = 6.09, p = .01, η² = .027) und dass es nur bei männlichen Studierenden eine signifikante Korrelation zwischen der Physikumsnote (Zahnärztliche Vorprüfung) und der OSPE-Benotung gab (r = .17, p = .01).
Schlussfolgerung: In der vorliegenden Untersuchung konnte der prädiktive Effekt eines durchgeführten klinischen OSPE auf die Prüfungsleistung im Staatsexamen nachgewiesen werden. Unter Berücksichtigung der Limitation der Studie empfiehlt sich aus unserer Sicht die Durchführung eines solchen Prüfungsformats im Rahmen des klinischen Studienabschnitts im 6. Semester im Fach Zahnmedizin.
Nach der Revolution 1917 schlossen sich mehrere russische Avantgardekünstler den kollektiven geistigen Anstrengungen ein, um ein revolutionäres Gesamtkunstwerk der neuen Menschheit zu gestalten. Sie nutzten alle Medien der Kunst, um ihre innovativen Ideen in diesem Experimentierfeld zu verwirklichen. Die Keramik wurde von ihnen als eines der bedeutenden Experimentierfelder und eine zukunftsweisende Kunstgattung gesehen, die durch den alltäglichen Gebrauch das Bewusstsein und die Wahrnehmung der Menschen entscheidend revolutionieren sollte.
Die vorliegende Dissertation untersucht erstmals die Keramik der russischen Avantgarde als eigenständiges künstlerisches Phänomen. Alle dokumentarisch belegten Entwürfe und Keramiken der russischen Avantgardisten werden zusammengefasst sowie alle bekannten Marken der Keramik aufgeführt. Die Autorin systematisiert die Formensprache und Dekormotive der avantgardistischen Keramikwerke und hebt Hintergrunde sowie theoretische Grundlagen der jeweiligen avantgardistischen Gruppen im Bereich Keramik hervor.
Die vorliegende vergleichende Analyse der russischen und westeuropäischen Keramikkunst des ersten Drittels des 20. Jahrhunderts deckt zum ersten Mal in der kunsthistorischen Forschung ihre Gemeinsamkeiten sowie die gegenseitigen Einflüsse auf, dabei werden die Unterschiede der russischen und europäischen avantgardistischen Keramikkunst deutlich reflektiert.
Ziel dieser Dissertation war es, die biologische Rolle der Autophagie für die Entwicklung, Alterung und mitochondriale Qualitätskontrolle in dem Ascomyceten Podospora anserina zu untersuchen. Folgende Ergebnisse wurden dabei erzielt:
1. Der Verlust einer funktionalen Autophagie-Maschinerie ist in P. anserina mit einem Defekt der Sporen-Entwicklung bzw. -Keimung charakterisiert.
2. Es konnten drei Methoden zur Untersuchung der Autophagie in P. anserina etabliert werden: 1) Die Verwendung eines Gfp::PaAtg8-Stamms ermöglicht die Fluoreszenzmikroskopische Bestimmung der Autophagosomen-Anzahl; 2) Die phänotypische Charakterisierung des PaAtg1-Deletionsstamms unter verschiedenen Stressbedingungen (z. B. Stickstoffmangel, Rapamycin) liefert Hinweise auf eine mögliche Autophagie-abhängige Stressadaption; 3) Die Verwendung des „GFPcleavage assays“ ermöglicht einen quantitativen Nachweis genereller und selektiver Autophagie (hier: Mitophagie).
3. In zwei voneinander unabhängigen Experimenten wurde ein altersabhängiger Anstieg der Autophagie für P. anserina demonstriert: Das Autophagie-Niveau nimmt in gealterten P. anserina-Kulturen zu. Gleichzeitig resultiert der Verlust der Autophagie in ∆PaAtg1 in eine reduzierte Lebensspanne. Unter Stressbedingungen (hier: Stickstoffmangel) wird dieser positive Einfluss der Autophagie auf die Lebensspanne im Wildtyp sogar noch verstärkt.
4. Der unerwartet „gesunde“ Phänotyp der PaSod3-Deletionsmutante ist abhängig von einer funktionalen Autophagie-Maschinerie. Der Mitophagie wurde eine besondere Rolle als Kompensationsmechanismus für den Verlust von PaSOD3 zugeteilt, da das Mitophagie-Niveau in dieser Mutante erhöht ist. Am Beispiel dieser Mutante, für die ein erhöhter Superoxid-Ausstoß nachgewiesen wurde, konnte eine Dosis-abhängige Wirkung von ROS in P. anserina identifiziert werden. Eine geringe zelluläre ROSMenge verursacht eine mitohormetische Reaktion, die eine Induktion der Mitophagie zur Folge hat und sich positiv auf den Organismus auswirkt. Übersteigt die zelluläre ROS-Dosis einen kritischen Punkt, kommt es zur Induktion des autophagischen Zelltods und damit zum vorzeitigen Tod des Individuums.
5. Der Verlust der PaCLPXP-Protease führt zu Beeinträchtigungen in der Funktion und Zusammensetzung der mitochondrialen Atmungskette. Dieses Defizit im Energiemetabolismus wird über eine Induktion der AOX, vor allem aber über eine ZUSAMMENFASSUNG 127 gesteigerte Autophagie kompensiert. Die deutlich verlängerte Lebensspanne der verschiedenen PaClpXP-Deletionsmutanten (∆PaClpX, ∆PaClpP und ∆PaClpXP) ist abhängig von einer funktionalen Autophagie-Maschinerie. Interessanterweise konnte keine kompensatorische Funktion der Autophagie oder Mitophagie für den Verlust der mitochondrialen i-AAA-Protease PaIAP in P. anserina nachgewiesen werden.
Autophagie/Mitophagie stellt einen übergeordneten Qualitätskontrollmechanismus in P. anserina dar, der den Organismus sehr effektiv vor zellulären Schäden und Dysfunktionen bewahrt und einen positiven Einfluss auf die Alterung, Entwicklung und Energieversorgung einnimmt.
Die vorliegende Arbeit hat das Ziel, Plasmen koaxialer Beschleuniger in Hinblick auf die Erzeugung hoher Elektronendichten sowie als intensive UV/VUV-Backlighterquelle zu untersuchen. Hierzu wurde zunächst die Geometrie eines einzelnen Beschleunigers charakterisiert und optimiert, um die bestmöglichen Voraussetzungen für die anschließend durchgeführten Untersuchungen zur Kollision und Kompression der erzeugten Plasmen zu schaffen.
Das Funktionsprinzip des verwendeten Plasmabeschleunigers basiert auf einer Lorentzkraft, die aus dem Stromfluss zwischen zwei koaxial angeordneten Elektroden und dem damit verbundenen Magnetfeld resultiert. Da weder Stromdichte noch Magnetfeld homogen sind, wirkt auch die Lorentzkraft inhomogen auf die Plasmaschicht. Unter Einbeziehung von Simulationen wurde der Abstand zwischen den Elektroden auf 2,5 mm gesetzt, sodass die Ausprägung dieser Inhomogenität möglichst gering gehalten wird. Um ein Pinchen des Plasmas am Ende der Elektroden zu vermeiden haben die Elektroden im Gegensatz zu Plasma Focus Devices die gleiche Länge. Der mit 130 nH niederinduktive elektrische Aufbau ermöglicht die zur Ausbildung einer Plasmaschicht erforderlichen Stromanstiegsraten in der Größenordnung von 10^11 A/s.
Die Messung der Geschwindigkeit der Plasmaschicht erfolgte mit einem Array aus sechs Dioden, die gleichzeitig die Geschwindigkeitsabnahme im Rezipienten dokumentieren. Zusätzlich wurden die Messungen mit Kameraaufnahmen verglichen. Bei einer Elektrodenlänge von 100 mm konnten mit dem verwendeten Heliumgas Schichtgeschwindigkeiten von bis zu (79,49 ± 7,98) km/s erreicht werden. Die Untersuchung von Elektroden mit 200 mm Länge verfolgte das Ziel, durch die größere Beschleunigungszeit höhere Geschwindigkeiten und kinetische Energien der austretenden Plasmaschicht zu erreichen. Es zeigte sich jedoch, dass es hierbei zur Ausbildung einer zweiten Entladung und einer damit verbundenen Abbremsung des Initialplasmas kommt. Die Untersuchungen ergaben, dass die optimale Elektrodenlänge dadurch gegeben ist, dass der Austritt des Plasmas aus dem Beschleuniger zum Zeitpunkt des ersten Stromnulldurchgangs erfolgt. Für die Berechnung der optimalen Elektrodenlänge wurde ein Skalierungsgesetz gefunden, die auf experimentellen Ergebnissen und Simulationen basiert.
Mit spektroskopische Messungen der Stark-Verbreiterung der Hβ-Linie konnte die Elektronendichte des Plasmas zeit- und ortsintegriert bestimmt werden. Die hierbei erzielte Maximaldichte von (6,83 ± 0,83) · 10^15 cm^-3 wurde bei 9 kV und 70 mbar gemessen. Die nach der Boltzmann-Methode zeit- und ortsintegriert bestimmten Elektronentemperaturen bewegt sich bei etwa 1 eV.
Nach ausreichender Charakterisierung des Einzelbeschleunigers wurde das Experiment um einen zweiten, baugleichen Plasmabeschleuniger erweitert, um die planare Kollision zweier Plasmen zu untersuchen. Die maximal gemessene Elektronendichte von n max e = (1,36 ± 0,21) · 10^16 cm^-3 bei 9 kV und 70 mbar stellt im Vergleich zum Einzelplasma eine Steigerung um einen Faktor von 2,48 dar und ist mit einer Temperaturerhöhung einhergehend. Diese Elektronendichteerhöhung lässt sich nicht durch einfaches Durchdringen der Schichten erklären. Vielmehr muss es in der Kollisionszone zu Wechselwirkungsprozesse in Form von Kompression, zur Erzeugung neuer Ladungsträger oder der Kombination aus beidem kommen.
Das Spektrum im UV/VUV-Bereich weist Linien von ab 85 nm auf. Dies stellt eine Verbesserung gegenüber dem Einzelbeschleuniger dar, bei dem die hochenergetischste Spektrallinie erst bei 97 nm gemessen wurde. In der Kollisionskonfiguration mit einem Beschleunigerabstand von 30 mm steigt die integrierte Gesamtintensität des Spektrums bis 300 nm zudem um einen Faktor von etwa 5,2.
Als Alternative zur Plasmakollision wurde die Kompression des Plasmas des Einzelbeschleunigers durch unterschiedliche Trichtergeometrien untersucht. Die untersuchten Trichter der ersten und zweiten Generation unterscheiden sich im Wesentlichen im Durchmesser der kleineren Öffnung. Dieser wurde basierend auf Simulationen von 5 mm auf 0,5 mm reduziert. Die Dichtediagnostik der ersten Trichtergeneration erfolgte hierbei über Hα-Linie, da die Verbreiterung der Hβ-Linie zu stark und daher nicht mehr anwendbar war. Die Auswertung der Halbwertsbreiten der Hα-Linie führt zu Elektronendichten in der Größenordnung von bis zu 1018 cm−3 bei Spannungen von 9 kV. Diese Steigerung um 1,5 bis 2,5 Größenordnungen im Vergleich zum Einzelbeschleuniger ist deutlich höher als das Verhältnis der Flächen des initialen Plasmas bzw. dem Ende des Trichters von etwa acht.
Der Trichter mit verringerter Öffnung wurde bei 5 kV und 5 mbar vermessen, um die mechanische Belastung durch den hohen Druck gering zu halten. Die Bestimmung der Elektronendichte erfolgte durch die Verbreiterung der Kupferlinie bei 479,4 nm nach den quadratischen Stark-Effekt. Trotz der im Vergleich zur ersten Trichtergeneration reduzierten Entladungsenergie und verringertem Druck sind die gemessenen Elektronendichten ebenfalls bei bis zu 10^18 cm^-3.
Durch die Kompression des Plasmas weist das Spektrum im UV/VUV-Bereich bereits Linien ab Wellenlängen etwa 53 nm auf, wobei es unter Berücksichtigung der Transmissionsgrenze von Helium bei 50 nm denkbar ist, dass das Plasma noch niedrigere Wellenlängen emittiert.
Aufgrund der gesammelten Ergebnisse lässt sich festhalten, dass sich die Elektronendichte sowohl durch die Kollision zweier Plasmen als auch durch die Kompression in Trichtergeometrien steigern lässt. Der Verdichtungseffekt der Trichterkompression ist hierbei um ein vielfaches höher, als bei der Plasmakollision. Dies spiegelt sich auch im UV/VUV-Spektrum wider. Beide Versuchsanordnungen eignen sich als Linienstrahler, allerdings weist das Spektrum der Trichterkompression Linien deutlich höherer Anregungszustände auf.
Die Bedeutung der AKM-Entscheidung des EuGH für das Recht der Kabelweitersendung in Deutschland
(2017)
Der Beitrag erörtert die Auswirkungen der »AKM/Zürs.net«-Entscheidung des EuGH für die Praxis der Kabelweitersendung in Deutschland. Aus dem Urteil folgt, dass die integrale Kabelweitersendung der öffentlich-rechtlichen und privaten deutschen Fernsehsender im Inland kein neues Publikum erreicht und daher nicht gesondert erlaubnispflichtig ist. Bei ausländischen Sendern kommt es auf die Umstände des Einzelfalls an.
Die Laufökonomie erfasst den Wirkungsgrad der kardiometabolischen Energiebereitstellung eines Menschen für die bipedale Fortbewegung. Ob diese, im Leistungssport häufig angewandte, Größe auch bei Amateursportlern ein leistungsbeeinflussender Faktor ist, wurde bislang noch nicht systematisch untersucht. Speziell die großen Leistungsunterschiede bei Amateursportlern und die Vielzahl an Erfassungs- und Auswertungsmethoden stellen für die interindividuelle Vergleichbarkeit in diesem Kollektiv bislang noch ungelöste Probleme dar.
Die vorliegende Untersuchung verfolgt drei Ziele: 1) Die Überprüfung der Eignung standardisierter stufenförmiger Belastungsprotokolle zur Laufökonomieermittlung; 2) Die Analyse des Einflusses der relativen Beanspruchungsintensität auf die Laufökonomie; und 3) Den Nachweis der Bedeutung der Laufökonomie für die Laufleistung von Amateursportlern unterschiedlicher Leistungsfähigkeit. Zu diesem Zweck wurden zwei unabhängige Studien im Querschnittdesign entworfen. Das erste Experiment überprüfte die Eignung spiroergometrischer Kenngrößen aus stufenförmigen Belastungstests zur Bestimmung der Laufökonomie und deren Einflüsse auf die Laufleistung bei Amateursportlern. Die zweite dieser Arbeit zugrundeliegende Studie diente zur Identifikation des optimalen Beanspruchungsniveaus zur zuverlässigen Bestimmung von Parametern der Laufökonomie bei Amateursportlern.
Die vorliegenden Ergebnisse deuten darauf hin, dass stufenförmige Belastungsprotokolle zur Laufökonomieermittlung an definierten Beanspruchungspunkten geeignet sind. Sie bestätigen den Einfluss der Laufökonomie auf die Laufleistung bei Amateursportlern unabhängig von der maximalen Sauerstoffaufnahme. Die Auswertung als Sauerstoff- (ml/kg/m) und/oder Kalorienumsetzung (kcal/kg/km) pro zurückgelegte Strecke an standardisierten submaximalen Referenzpunkten erscheint im Amateurbereich empfehlenswert. Speziell für Amateursportler können diese Größen nicht nur als leistungslimitierender Faktor interpretiert sondern auch zur Quantifizierung des bewegungsbezogenen Energieverbrauchs und des damit assoziierten Gesundheitsnutzen körperlicher Aktivität herangezogen werden.
Die Paarverteilungsfunktion (PDF) beschreibt die Wahrscheinlichkeit, zwei Atome eines Materials in einem Abstand r voneinander zu finden. Diese Methode bewährt sich seit längerer Zeit zur Untersuchung von Gläsern, Flüssigkeiten, amorphen, stark fehlgeordneten und nanokristallinen anorganischen Substanzen. Die Anwendung für organische Substanzen ist jedoch relativ neu, mit etwa 20 Veröffentlichungen und Patenten insgesamt.
Im Rahmen dieser Dissertation wurden zwei Methoden zur Strukturverfeinerung und Strukturlösung organischer Substanzen anhand von PDF-Daten erfolgreich entwickelt und an diversen Beispielen validiert. Als erster Schritt hierzu wurde eine Methodenverbesserung vorgenommen. Hierbei handelte es sich um eine Verbesserung der Simulation der PDF-Kurven organischer Verbindungen anhand eines gegebenen Strukturmodells. Mit Hilfe der bisherigen Methoden können die PDF-Kurven anorganischer Substanzen erfolgreich simuliert werden. Für organische Substanzen werden bei Anwendung der bisherigen Methode die Signalbreiten der intramolekularen und intermolekularen Beiträge zu der PDF-Kurve falsch wiedergegeben, dies führt zu einer schlechten Anpassung der simulierten PDF-Daten and die experimentellen PDF-Daten. Deshalb wurde ein neuer Ansatz entwickelt, in welchem für die Berechnung der intramolekularen Beiträge zum PDF-Signal ein anderer isotroper Auslenkungsparameter verwendet wurde, als bei der Berechnung der intermolekularen Beiträge zum PDF-Signal. Mit diesem Ansatz konnte eine sehr gute Simulation der PDF-Kurve für alle Testbeispiele erzielt werden. Zur Strukturverfeinerung organischer Substanzen anhand von PDF-Daten wurden zwei Ansätze entwickelt: der Rigid-Body-Ansatz zur Behandlung starrer organischer Moleküle und der Restraint-Ansatz zur Behandlung flexibler organischer Moleküle.
Neben methodischen Entwicklungen wurden in dieser Arbeit zwei weitere Untersuchungen organischer Verbindungen mittels PDF-Analyse durchgeführt.
Es wurden drei, auf unterschiedliche Weise hergestellte, amorphe Proben des Wirkstoffes Telmisartan untersucht. Des Weiteren wurde mittels PDF-Analyse eine pharmazeutische Nanosuspension untersucht.
Eisnukleierende Partikel (INP) sind ein wichtiger Bestandteil des atmosphärischen Aerosols. Trotz ihrer geringen Konzentrationen in der Atmosphäre haben sie Einfluss auf die Bildung von Eiskristallen und auf den Niederschlag. Durch Änderungen in Anzahlkonzentration oder anderer Eigenschaften der INP können sich Wolkenparameter wie Lebensdauer und Tröpfchendichte ändern, was weiter eine Ursache für Änderungen im globalen Strahlungshaushalt sein kann.
Der Anteil zum globalen Strahlungshaushalt durch „Wolken-Anpassungen aufgrund von Aerosolen“, stellt weiterhin die größte Unsicherheit des Strahlungsantriebes dar. Aus diesem Grund sind Messungen und Studien über atmosphärische Aerosole und INP notwendig. Im Rahmen dieser Arbeit wurde der Eiskeimzähler FINCH („fast ice nucleus chamber“) grundlegend überholt und für Messungen von INP optimiert. FINCH ist ein in-situ Eiskeimzähler der durch Mischung unterschiedlicher Luftströme eine Übersättigung der Probeluft mit Wasserdampf erzeugt, um auf diese Weise die zu untersuchenden Aerosolpartikel zu Eiskristallen wachsen zu lassen. Am Ende einer Wachstumskammer werden die Partikel durch eine Optik, dem FINCH-OPS, anhand von Streueigenschaften klassifiziert und ausgewertet. Um FINCH im erwarteten Umfang benutzen zu können, wurden am F-OPS der Laser und die zur Detektion des Streulichts benutzen Photomultiplier ersetzt. Weiter wurde die Software zur Detektion der Partikel neu entwickelt. Durch diese Änderungen ist es möglich Partikelanzahl, Partikelgröße sowie eine Information über die Form der Partikel abzuleiten. Über einen weiteren Photomultiplier im F-OPS ist es zudem möglich eine Information über Fluoreszenz des Partikels zu gewinnen, um so auf einen biologischen Ursprung des Partikels zu schließen. Vorangegangene Probleme durch elektromagnetische Einstrahlung und dadurch entstandene Inkonsistenzen während Messungen konnten im Rahmen dieser Arbeit identifiziert und ausgeschlossen werden. Ebenfalls konnten die zur Flusskühlung benutzen Wärmetaucher als Ursache für Verunreinigungen und Kontamination ausgemacht werden. Auch dieser, für Messungen ungeeignete Zustand, wurde im Rahmen dieser Arbeit behoben.
Ausführliche Charakterisierungsmessungen konnte die Funktionsfähigkeit des F-OPS, als einzelnes Messgerät ohne FINCH-Kammer, belegen. Durch Messungen mit einer steuerbaren Lichtquelle in der Optik konnte zudem die elektrische Verarbeitung sowie die Zählqualität der Optik verifiziert werden. Weiter kann durch diese Experimente gezeigt werden, dass mit dem F-OPS größenaufgelöst gemessen werden kann.
Auch in den ersten Streulichtexperimenten mit Testaerosol kann die Funktionsfähigkeit der Optik gezeigt werden. Für Partikelgröße von Dp > 400 nm wird eine Zähleffizienz von 25% eines TSI 3025 CPCs erreicht. Die über den F-OPS abgeleitete Partikelgröße kann durch Messungen mit monodispersen Aerosolpartikeln und einer parallelen Messung mit einem TSI 3330 OPS parametrisiert werden. Weiter kann die Fluoreszenz von ausgewählten Referenzstoffen gezeigt werden.
Im Betrieb von F-OPS hinter der FINCH-Kammer, also FINCH als Komplettsystem, wurden weitere Charakterisierungsmessungen durchgeführt. Es wurde festgestellt, dass die Anzahlkonzentration der Partikel nach Schließen eines Ventils exponentiell abfällt. Die Partikel folgen demnach nicht nur einem laminaren Fluss durch die Kammer. 50% der Partikel haben nach ca. 13 s die Kammer verlassen. Auch wurde ermittelt, dass ca. 40% der Partikel in der Kammer verloren gehen.
Erste Aktivierungsexperimente zeigen, dass Eispartikel in der Kammer auf eine Größe von Dp > 6 µm anwachsen. Durch Nullfiltermessungen in Aktivierungsphasen, sowie Ändern des zur Aktivierung notwendigen feuchten Flusses, wird zudem gezeigt, dass die Aktivierung der INP durch Mischung erfolgt und außerdem keine Fremdpartikel aktiviert werden. Die neue Steuerung der Kammer lässt es zu Temperaturen in etwa einer Stunde gezielt anzusteuern. Es wird gezeigt, dass Schwankungen in der Sättigung hauptsächlich durch Temperaturphänomene beeinflusst werden.
Abschließend wurden beispielhaft Laborexperimente mit Snomax© durchgeführt, welche sehr gut mit Werten aus der Literatur verglichen werden konnten. Auch eine erste Außenluftmessung am Jungfraujoch (Schweiz) wird in dieser Arbeit präsentiert. Die gemessenen INP-Konzentrationen im gezeigten Zeitraum liegen zwischen 1,4 ± 4,1 L-1 und 53 ± 30 L-1 und entsprechen somit wiederum bekannten Literaturwerten.
Gute Lehre muss sichtbar werden, und über gute Lehre muss gesprochen werden! Ein Ziel unseres Programms "Starker Start ins Studium" ist eine verbesserte Kommunikationsstruktur über und eine verbesserte Kommunikationskultur in der Lehre. Der "Tag der Lehre" der Goethe-Universität, der den Rahmen für die Starker Start-Tagung abgegeben hat, hat mit mehr als 150 Gästen dazu beigetragen. ...
Der "Beratungs-Wegweiser, Beratungsstellen und Adressverzeichnis" wird vom Studien-Service-Center (SSC) als ergänzendes Angebot zum "Wegweiser für Erstsemester" sowie der Internetseite der Goethe-Universität herausgegeben und enthält studiengangbezogene Informationen und Kontaktdaten. Vertiefende Informationen zu diversitätsunterstützenden Angeboten der zentralen sowie fachübergreifenden Einrichtungen und der Fachbereiche können in der Broschüre "Diversity kompakt. Angebote für Studierende in unterschiedlichen Lebens und Studiensituationen" - herausgegeben von Di3 - nachgeschlagen werden.
Synthetische Cannabinoide sind strukturell variable Substanzen, die an die gleichen CB1- und CB2-Rezeptoren binden wie ∆9-THC und bei Konsumenten vergleichbare Symptome auslösen. Die psychoaktiven Substanzen werden Kräutermischungen beigemengt und gelten unter Konsumenten vermeintlich als ungefährlich. Aufgrund erhöhter Bindungsaffinitäten zu den Cannabinoidrezeptoren sind viele synthetische Cannabinoide potenter als ∆9-THC und lösen daher stärkere Symptome aus als der Konsum von ∆9-THC. Der Konsum von synthetischen Cannabinoiden führt zu zentraler Sedierung und Beeinträchtigungen in der Feinmotorik; dies ist nicht mit dem sicheren Führen eines Fahrzeugs kompatibel. Durch die strukturelle Varianz von synthetischen Cannabinoiden und ein stetig wechselndes Spektrum aktuell auf dem Drogenmarkt erhältlicher Substanzen ist der generelle Nachweis des Konsums von synthetischen Cannabinoiden limitiert. Bislang sind synthetische Cannabinoide in Blut oder Urin nur bei bekannter Struktur und vorhandenen Referenzmaterialien mit Sicherheit nachweisbar. Studien zur Prävalenz von synthetischen Cannabinoiden sind rar und basieren häufig auf Umfragen, da auf Probenanalysen basierende Studien meist nicht alle aktuellen synthetischen Cannabinoiden erfassen. In der vorliegenden Arbeit wurde die Prävalenz von synthetischen Cannabinoiden unter Fällen aus Verkehrs- und Kriminaldelikten des Jahres 2010 in Hessen bestimmt, um zu zeigen wie häufig synthetische Cannabinoide in forensischen Analysen unentdeckt bleiben. Die analytische Methode wurde entwickelt sowie validiert und war für alle 31 synthetischen Cannabinoide, die bis 2011 auf dem Drogenmarkt erhältlich waren, sensitiv. Eine repräsentative Stichprobe bestehen aus 20% aller Blutproben (422 aus 2201) des Jahres 2010 wurde nachuntersucht. Weitere Auswertungen wurden auf Basis von Fallakten durchgeführt. Unter den analysierten Blutproben enthielten 12 Proben synthetische Cannabinoide, woraus für das Jahr 2010 eine Prävalenz von synthetischen Cannabinoiden unter Fällen aus Verkehrs- und Kriminaldelikten von 2,8% ermittelt wurde. Das am häufigsten detektierte synthetische Cannabinoid war JWH-122. Die Konzentrationen lagen überwiegend im niedrigen Bereich (unter 1 ng/ml bis 3 ng/ml). In einem Fall wurde eine vergleichsweise hohe Konzentration des JWH-122 mit circa 73 ng/ml gemessen, wobei neben Apathie keine weiteren Symptome dokumentiert wurden. Alle Konsumenten waren männlich; das Alter lag in 11 Fällen zwischen 18 und 38 Jahren (median 22 Jahre) und die Konsumenten waren Verdächtige von Verkehrsdelikten. Eine weitere positiv getestete Blutprobe stammte aus einem Kriminaldelikt; der Verdächtige war 46 Jahre alt. Die Auswertung der Konsummuster zeigte in 10 von 12 Fällen (83,3%) einen Mischkonsum. Nur in zwei Fällen lag ausschließlicher Konsum von synthetischen Cannabinoiden vor. Die Kombination von synthetischen Cannabinoiden mit ∆9-THC oder Alkohol war mit je vier Fällen häufig. In sechs Fällen wurde eine Vielfalt anderer psychoaktiver Drogen oder Medikamente in den Blutproben nachgewiesen. Die dokumentierten Ausfallserscheinungen waren meist moderat und ließen sich durch die Effekte von Cannabinoiden, Alkohol oder anderen gefundenen Drogen oder Medikamenten erklären. Im Fall eines Konsumenten hat sich nach den Angaben in ärztlichen und polizeilichen Berichten durch den nachgewiesenen Konsum von synthetischen Cannabinoiden eine vorbestehende Psychose verschlimmert. Fazit: Durch die geringe Prävalenz synthetischer Cannabinoide, fehlende routinemäßige Erfassbarkeit sowie Häufigkeit des Mischkonsums müssen Träger von rechtsmedizinischen Instituten in Ausstattung und Personal investieren, um den modernen Ansprüche an die Leistungsfähigkeit gerecht zu werden.
Erkenntnis voraus
(2016)
"Die Handelswissenschaften werden hier zum ersten Mal an einer Universität zu einem ergänzenden Teil der Sozial-, Staats- und Volkswirtschaftslehre", freute sich der Initiator Wilhelm Merton. Als Mitbegründer der Metallgesellschaft machte sich der Unternehmer dafür stark, die moderne Wirtschaftsgesellschaft in puncto Ausbildung und Lehre zu stärken.
Vom bürgerschaftlichen Engagement und der Stiftungskultur in Frankfurt profitiert die GoetheUniversität bis heute: 100 Jahre nach ihrer Gründung durch Frankfurter Bürger gehört sie zu den größten und drittmittelstärksten Hochschulen in Deutschland, ist seit 2008 wieder Stiftungsuniversität und genießt damit eine besondere Autonomie. ...
Der "Beratungs-Wegweiser, Beratungsstellen und Adressverzeichnis" wird vom Studien-Service-Center (SSC) als ergänzendes Angebot zum "Wegweiser für Erstsemester" sowie der Internetseite der Goethe-Universität herausgegeben und enthält studiengangbezogene Informationen und Kontaktdaten. Vertiefende Informationen zu diversitätsunterstützenden Angeboten der zentralen sowie fachübergreifenden Einrichtungen und der Fachbereiche können in der Broschüre "Diversity kompakt. Angebote für Studierende in unterschiedlichen Lebens und Studiensituationen" - herausgegeben von Di3 - nachgeschlagen werden.
kurz und kn@pp news : Nr. 41
(2017)
Der viersemestrige Master-Studiengang Biochemie leitet sich aus der langjährigen Tradition in biomolekularer Forschung und Lehre in der Frankfurter Forschungslandschaft her und ist stark forschungsorientiert.
Ziel des Studienganges ist es, fachliche Kenntnisse, Fähigkeiten und Methodenkompetenzen zu vermitteln, mit denen die Absolventen in die Lage versetzt werden, in einem forschungsbezogenem Kontext selbstständig zu arbeiten. ...
Im Rahmen dieser Arbeit wird darauf eingegangen, welche Anpassungen erforderlich sind, um Protonendichten vergleichbar zu bereits erzeugten Elektronendichten in Gabor-Linsen zu erhalten. Zur Vorbereitung zukünftiger Experimente werden vergleichende Simulationen zum Einschluss der Ladungsträgerdichten durchgeführt und die Strahldynamik bei der Wechselwirkung eines positiven Ionenstrahls mit einem in einer Gabor-Linse eingeschlossenen Protonenplasma untersucht. Die Ergebnisse der Strahldynamiksimulationen werden mit theoretischen Berechnungen vertieft, in dem die Brennweite einer Gabor-Linse, die mit einer beliebigen Teilchensorte gefüllt ist, berechnet und die Drift-Masse eingeführt wird.
Eine weitere analytische Betrachtung ist die Erweiterung der Teilchendynamik in der Gabor-Linse auf beliebige Anfangsbedingungen, in dem die dazugehörige Differentialgleichung entkoppelt und ganz allgemein gelöst wird. Die daraus berechneten Trajektorien der Teilchen führen zu einem besseren Verständnis, das weitere Anwendungen erschließen könnte.
National Model United Nations New York 2016 : Delegation der Goethe-Universität Frankfurt am Main
(2016)
Schon 1946 kamen Studierende aus aller Welt zusammen, um ein Land ihrer Wahl auf internationalem politischem Par kett zu vertreten. Das National Model United Nations, eine langjährig gepflegte Tradition, die es studentischen Delegationen ermöglicht, einen praktischen Einblick in die Arbeitsweise der Vereinten Nationen zu erlangen, ihr erlerntes Wissen anzuwenden, ihre Soft Skills weiter zu entwickeln, sich in englischer Sprache auf Verhandlungsbasis zu ver ständigen, neue Freunde zu finden und Kontakte in der ganzen Welt zu knüpfen. ...
Ein Jahr intensiver Vorbereitungen liegt nun hinter uns. Richtig, ein Jahr Vorbereitung für eine einwöchige Konferenz! Doch auch dieses Jahr hat sich wieder gezeigt wie wichtig diese intensive Vorbereitung ist: Die Studierenden haben sich vertiefte Kenntnisse über die Vereinten Nationen und die zu vertretenden Länder Israel und Frankreich angeeignet und neue Kompetenzen erworben. ...
National Model United Nations New York 2018 : Delegation der Goethe-Universität Frankfurt am Main
(2017)
Seit ihrer Gründung im Jahr 1945 sind die Vereinten Nationen zur bedeutendsten und einflussreichsten internationalen Organisation avanciert. Mittlerweile arbeiten 193 Mitgliedsstaaten gemeinsam an dem ehrgeizigen Ziel, den Weltfrieden und die internationale Sicherheit zu wahren. Der in der Charta der Vereinten Nationen verankerte Grundsatz des Verzichts auf Gewaltanwendung und der friedlichen Beilegung aller Streitigkeiten macht sie zu einer weltweit einzigartigen Institution.
Die Beschäftigung mit den Vereinten Nationen ist für Studierende der Gesellschaftswissenschaften – insbesondere der Politikwissenschaft – essentiell für den späteren Berufsalltag. Da der Fokus im wissenschaftlichen Universitätsbetrieb häufig auf der Diskussion theoretischer Paradigmen und eher selten auf praktischen Fragestellungen liegt, ist die Teilnahme am National Model United Nations (NMUN) in New York eine willkommene Abwechslung mit einzigartigem Charakter. Innerhalb einer Simulation von UN-Verhandlungen versetzen sich Studierende als Mitglieder einer Delegation in die Lage von Diplomaten und vertreten die Interessen, Werte und Positionen des ihnen zugeteilten Landes. Dabei versuchen sie, dessen Standpunkte in Kooperation mit anderen Delegationen durchzusetzen. ...
National Model United Nations New York 2017 : Delegation der Goethe-Universität Frankfurt am Main
(2016)
Seit ihrer Gründung im Jahr 1945 sind die Vereinten Nationen zur bedeutendsten und einflussreichsten internationalen Organisation avanciert. Mittlerweile arbeiten 193 Mitgliedsstaaten gemeinsam an dem ehrgeizigen Ziel, den Weltfrieden und die internationale Sicherheit zu wahren. Der in der Charta der Vereinten Nationen verankerte Grundsatz des Verzichts auf Gewaltanwendung und der friedlichen Beilegung aller Streitigkeiten macht sie zu einer weltweit einzigartigen Institution.
Die Beschäftigung mit den Vereinten Nationen ist für Studierende der Gesellschaftswissenschaften – insbesondere der Politikwissenschaft – essentiell für den späteren Berufsalltag. Da der Fokus im wissenschaftlichen Universitätsbetrieb häufig auf der Diskussion theoretischer Paradigmen und eher selten auf praktischen Fragestellungen liegt, ist die Teilnahme am National Model United Nations (NMUN) in New York eine willkommene Abwechslung mit einzigartigem Charakter. Innerhalb einer Simulation von UN-Verhandlungen versetzen sich Studierende als Mitglieder einer Delegation in die Lage von Diplomaten und vertreten die Interessen, Werte und Positionen des ihnen zugeteilten Landes. Dabei versuchen sie, dessen Standpunkte in Kooperation mit anderen Delegationen durchzusetzen. ...
Ein Jahr lang vorbereiten, um an einer einwöchigen Konferenz teilzunehmen? Das klingt zunächst nach schlechter Zeitplanung. Doch auch dieses Jahr zeigte sich, dass die Zeit sinnvoll investiert war: Die Studierenden haben sich ein sehr breites Portfolio an Kenntnissen und Kompetenzen erarbeitet. Dafür ist ein Jahr fast etwas zu kurz gewesen. ...
Nach langer Vorbereitung war es endlich soweit, die National Model United Nations (NMUN)-Delegation der Goethe-Universität stand im Konferenzhotel und war voller Vorfreude, Aufregung und Tatendrang.
Unter allen Simulationen ist das National Model United Nations in New York dabei die größte und ist in ihrer kulturellen und thematischen Vielfalt kaum zu übertreffen. Innerhalb der Simulation wird die Arbeit der verschiedenen Komitees der Vereinten Nationen mit realen Themen nachgestellt. Die Mitglieder der Delegationen übernehmen dabei die Aufgaben und Positionen der Diplomaten und vertreten die Interessen, Werte und Standpunkte des ihnen zugewiesenen Landes. In diesem Jahr repräsentierten wir die Republik Kuba. ...
Bei winterlich kühler Witterung Ende März kamen wir als Delegation der Goethe-Universität Frankfurt zum National Model United Nations (NMUN) 2014 in New York an. Damit wurde im Bezug auf die Temperaturen, welche in den vorangegangenen Jahren stets frühlingshaft mild gewesen waren, eine Tradition gebrochen; nicht aber im Bezug auf die Motivation der teilnehmenden Frankfurter Studierenden. Wir freuten uns sehr und blickten mit Aufregung den bevorstehenden Tagen entgegen. ...
Die Mathematik ist gleichermaßen eine Kulturwissenschaft mit langer Tradition als auch treibende Kraft hinter vielen modernen Technologien und damit Schlüsseldisziplin des Informationszeitalters. Zum einen zielt die Mathematik darauf ab, abstrakte Strukturen und ihre Zusammenhänge zu verstehen; zum anderen entwickelt sie kraftvolle Methoden, um Frage- und Problemstellungen in zahlreichen Wissenschaftsdisziplinen zu behandeln. Moderne Anwendungen der Mathematik liegen beispielsweise in den Bereichen der Datensicherheit und -kompression, der Verkehrssteuerung, der Bewertung und Optimierung von Finanzinstrumenten oder der medizinischen Operationsplanung.
In dieser Broschüre stellen wir Ihnen das Profil der Frankfurter Mathematik in Forschung und Lehre sowie speziell die Studiengänge
• Bachelor Mathematik
• Master Mathematik
vor. An der Goethe-Universität ist es auch möglich, Mathematik auf Lehramt (L1, L2, L3, L5) zu studieren. ...
Im Rahmen der vorliegenden Arbeit wurden Inhibitoren der bakteriellen Resistenzproteine New Delhi Metallo-β-Lactamase 1 (NDM-1), die beiden Mutanten der Verona-Integron Encoded Metallo-β-Lactamase 1 und 2 (VIM-1, bzw. -2), sowie die Imipenemase 7 (IMP-7) entwickelt.
Auf Grund natürlicher Selektion, aber vor allem auch bedingt durch den unüberlegten und verschwenderischen Einsatz von β-Lactam-Antibiotika, ist eine weltweite Zunahme an multiresistenten Erregern zu beobachten. Einer der Hauptgründe dieser Resistenzen sind die Metallo- β-Lactamsen (MBL), welche vor allem in Gramnegativen Bakterien vertreten sind und für die Hydrolyse und damit der Desaktivierung der β-Lactam-Wirkstoffe verantwortlich sind. Neben der Suche nach anderweitig wirkenden Antibiotika, ist die Entwicklung von Inhibitoren der MBLs von vordringlicher Bedeutung.
Basierend auf der Grundstruktur des ACE-Hemmers Captopril, wurden trotz synthetischer Herausforderungen erfolgreich mehrere Strukturen mit inhibitorischer Aktivität gegenüber den MBLs synthetisiert. Der Prolinring von Captopril wurde in einer neuen Variante der Captopril-Synthese durch verschiedene Ring- und nicht cyclische Teilstrukturen ersetzt. Durch die Entwicklung einer Schutzgruppenstrategie, konnte die Ringstruktur durch einen Piperazin-Rest ersetzt werden. Dies erlaubt es, die Molekülstruktur auf dieser Seite zu erweitern. Des Weiteren wurde eine neue Syntheseroute etabliert, welche es auf elegante Weise ermöglicht, weitere Derivatisierungen an der Methylgruppe des Captoprils durchzuführen.
In einem proteinbasierten Testsystem wurden die synthetisierten Substanzen auf ihr inhibitorisches Potential hin untersucht. Dabei wurden IC50-Werte im niedrig einstelligen mikromolaren, für drei Verbindungen sogar im sub-mikromolaren Bereich ermittelt. Die erhaltenen Ergebnisse wurden für die drei aktivsten Inhibitoren durch eine Erhöhung des Schmelzpunktes in einem TSA-Testsystem erfolgreich verifiziert. Mittels ITC-Untersuchungen konnte die unterschiedlichen Gewichtungen der entropischen und enthalpischen Beiträge zur Bindung der Inhibitoren an die untersuchten MBLs aufgezeigt werden. Hierdurch konnten die scheinbar widersprüchlichen Ergebnisse der ermittelten IC50-Werte und Schmelzpunktverschiebungen für die Verbindung DBDK48 bezüglich der NDM-1 aufgeklärt werden.
Die Strukturen DB320 konnte erfolgreich mit VIM-2 co-kristallisiert werden. Dies ermöglicht eine genauere Untersuchung und qualifizierte Aussagen über die Bindungsverhältnisse zwischen Protein und Ligand.
Für zwei der synthetisierten Inhibitoren sollte untersucht werden, ob deren Aktivität in vitro auch in Bakterien erhalten bleibt. Dazu wurden pathogene klinische Isolate und Laborstämme, welche mit dem Resistenzplasmid transfiziert wurden, und gegen Imipenem resistent sind, herangezogen. Durch die Zugabe der Inhibitoren konnte die Wirksamkeit von Imipenem wiederhergestellt werden.
Es konnte eine HPLC-Methode etabliert werden, welche eine Abschätzung der Polaritäten in Abhängigkeit der Retentionszeiten erlaubt. Dadurch konnte ein direkter Zusammenhang zwischen der Polarität der Verbindungen und dem Grad der Wirksamkeit im MIC-Testsystem aufgezeigt werden.
Durch die Untersuchung der Inhibitoren auf die Proteine ACE und LTA4H, konnten zwei Ziel-Proteine der Captopril-Grundstruktur als unerwünschte Nebenziele ausgeschlossen werden. Des Weiteren führte die Behandlung von U937-Zellen, selbst bei einer hohen Konzentration von 100 µM, weder zu Auffälligkeiten in einem WST-1 Assay, noch zu einer erhöhten Freisetzung von LDH. Daher kann davon ausgegangen werden, dass die Verbindungen über keine zytotoxischen Eigenschaften verfügen.
In dieser klinischen, randomisierten, doppelverblindeten Vergleichsstudie untersuchten wir, welchen Einfluss auf die Passgenauigkeit von Einzelzahnkronen und dreigliedrigen Brücken aus Vollkeramik zum einen die Anwendung einer intraoralen Digitalisierung mithilfe eines Intraoralscanners (Lava C.O.S Scanner, 3M ESPE, D-Seefeld) und zum anderen der Einsatz einer extraoralen Digitalisierung auf Basis einer konventionellen Abformung (Impregum penta soft, 3M ESPE, D-Seefeld) hat. Als weiteres Prüfkriterium wurde die Effizienz der jeweiligen Abformmethoden untersucht. Die Fragestellung sollte eine Aussage dazu treffen können, ob die digitale Abformung im klinischen Alltag des Zahnarztes einen Vorteil gegenüber der konventionellen Abformung erbringen kann.
In der Studie wurden 25 Patienten eingeschlossen und beide Abformmethoden nach der Zahnpräparation in einer randomisierten Abfolge angewandt. Beim Intraoralscanner waren ein Ganzkieferscan für die Brückenrestaurationen und ein Quadrantenscan für Einzelzahnkronen erforderlich. Die klinischen Arbeitsschritte wurden zeitlich erfasst. Die Kronen- und Brückengerüste aus Zirkoniumdioxidkeramik basierten auf den unterschiedlichen Abformmethoden. Die Gerüste wurden vor der Anprobe verblindet und mit Hilfe von Silikonreplikas die Passgenauigkeit am marginalen Randspalt, an der axialen Wand, am axio-okklusalen Übergang, sowie am okklusalen Messpunkt unter 66x Vergrößerung ermittelt.
Der marginale Randspalt der Restaurationen auf der Basis der konventionellen Abformung betrug 68,64 μm (Medianwert), respektive 60,31 μm bei der digitalen Abformung und unterschied sich statistisch signifikant. Die Passung an der axialen Wand ergab bei der digitalen Abformung 88,27 μm, bei konventioneller 92,13 μm, am axio-okklusalen Übergang 144,78 μm vs. 155,60 μm, am okklusalen Messpunkt 155,57 μm vs. 171,51 μm. Letzter wies einen statistisch signifikanten Unterschied auf (Mann-Whitney U Test, p = 0,05). Die Zeitmessung zeigte eine Ersparnis von 5 min 6 sec beim Quadrantenscan und 1 min 34 sec beim Ganzkieferscan zu Gunsten der digitalen Abformung.
Die Studienergebnisse weisen eine effizientere klinische Arbeitsweise der digitalen gegenüber der konventionellen Abformung nach, die mit einer identischen Passungsqualität einhergeht.
Das vierte Jahrhundert war ein Jahrhundert der Bürgerkriege. Diese forderten einen überaus hohen Blutzoll und lähmten teils auch die Verteidigung an den Grenzen. Ein Bürgerkrieg aber war die weitestgehende Form der Desintegration des Reiches, da die Armee auseinanderbrach, in der sich doch das Kaisertum und — wenn man auf Kaisererhebungen blickt — das römische Volk verkörperte. Zudem bedeutete Auseinanderbrechen einen gewaltigen Ressourcenverlust, da einem Kaiser nur ein Teil der ohnehin schwer zu erneuernden römischen Armee zu Gebote stand. ...
Ob nun jeweils sicherheits-, innen- oder finanzpolitische Motive zu Grunde liegen, stets stehen Straffreiheit und Straferlass im Spannungsfeld von zwingender Verantwortung des Einzelnen als Grundlage unseres Rechtssystems und der Forderung nach ausgleichender Gerechtigkeit und sozialem Frieden. Das Rechtsinstitut der Amnestie steht nicht nur begrifflich, sondern auch sachlich in antiker Tradition, vergleichbare Maßnahmen sind aus allen Epochen des Altertums nachzuweisen. Fünfzehn renommierte AutorInnen aus Deutschland, Großbritannien und Österreich, alle ExpertInnen in verschiedenen Fachgebieten und Epochen des Altertums, nämlich der Altorientalistik, des pharaonischen Ägypten, der Griechischen und Römischen Rechtsgeschichte, des archaischen und klassischen Griechenland, des Hellenismus, der altitalischen Geschichte, der Römischen Republik, der frühen und hohen römischen Kaiserzeit und der Spätantike, präsentieren ihre Beiträge in diesem Band. Sie behandeln das Thema jeweils aus der eigenen Perspektive — entweder in Form von Spezialuntersuchungen zu exemplarischen Fällen oder aber in breit angelegten Übersichtsreferaten. Von besonderer Bedeutung ist dabei, dass alle Kategorien von Schriftquellen, also die literarische Überlieferung, juristisches Schrifttum, Inschriften und Papyri, in die Analyse eingeflossen sind. Hierdurch wurden erstmals in der Forschungsgeschichte die Voraussetzungen geschaffen, eine Gesamtschau über Fragen der Amnestie und des Straferlasses vom Alten Orient bis in die Spätantike zu bieten und rote Fäden durch die Jahrhunderte zu ziehen. Auf diese Weise wurde auch eine neue Grundlage für eine Typologisierung von Amnestien gelegt.
Alle lebenden Organismen sind in der Lage, sich an den re-gelmäßigen Wechsel von Licht und Dunkelheit und den zeitli-che Veränderungen im Takt der Jahreszeiten anzupassen. Die-se Synchronisierung der Aktivitäts- und Ruhephasen, sowie von physiologischen Stoffwechselprozessen an die vorgegebe-nen tageszeitlichen und saisonalen Zyklen findet beim Säu-getier in der inneren Uhr im Nucleus Suprachiasmaticus (SCN) statt. Das Licht, als wichtigster Zeitgeber für die Synchronisation der inneren Uhr, findet Eingang zum SCN über die Retina und den retinohypothalamischen Trakt (RTH), der Glutamat als Neurotransmitter nutzt. Ist dieses System fehlerhaft, führt dies zu Störung der oben beschriebenen Anpassungsprozesse. Dies hat eine gestörte Homöostase des Organismus zu Folge, aus denen sich wiederum Veränderungen im Tag/Nacht- Rhythmus, Schlafstörungen und depressive Ver-stimmungen ergeben können. Die genannten Symptome decken sich mit den Frühsymptomen den neurodegenerativen Erkran-kung Morbus Parkinson.
Ziel der vorliegenden Arbeit war es, Störungen im photoneu-roendokrinen System, insbesondere Veränderungen in der Re-tina an den photosensitiven Ganglienzellen mit dem Photo-pigment Melanopsin und dem SCN bei transgene Mäuse mit dem humanen alpha-Synuclein zu untersuchen. Hierbei wurden transgene Mäuse mit dem gesunden humanen alpha-Synuclein (Wildtyp) und transgene Mäuse mit der für Parkinson spezi-fischen Mutation im alpha-Synuclein Ala53Thr (A53T) vergli-chen.
Die immunochemischen Untersuchungen an Retina und SCN zei-gen einen signifikanten Anstieg der alpha-Synuclein Immun-reaktion bei der A53T Maus im Vergleich zum Wildtyp.
Parallel dazu wurden Unterschiede in Bezug auf das Photo-pigment Melanopsin zwischen den beiden Gruppen untersucht. Melanopsin ist lichtsensitiv und trägt, durch Übermittlung der aktuellen Lichtverhältnisse über den retinohypothalami-schen Trakt zum SCN, zur Synchronisation der circadianen Rhythmik bei. Durch den in dieser Arbeit nachgewiesene Me-lanopsindefizit und des deutlich reduzierten Vglut2 im hy-pothalamischen Trakt der A53T Maus lässt sich die Hypothese ableiten, dass möglicherweise die Überexpression des mu-tierten alpha-Synuclein in der Retina einen Untergang von melanopsinhaltigen Ganglienzellen herbeiführt und dadurch die Synchronisation der inneren Uhr durch Licht gestört ist. Diese Hypothese wird durch die Aktivitätsprofile ge-stützt, die durch die Aufzeichnung der lokomotorischen Ak-tivität der Tiere erstellt wurden.
Da in beiden Gruppen unter Dauerdunkel (DD) ein endogener zirkadianer Rhythmus beobachtet werden konnte, lässt dies auf die Funktionstüchtigkeit der inneren Uhr im SCN schlie-ßen. Im anschließenden Versuch die endogene Rhythmik an exogenen Reize anzupassen, zeigte sich bei dem A53T Stamm eine fehlende Synchronisierung an vorgegebene Lichtverhält-nisse mit gesteigerter Tagaktivität und reduzierten Schlaf-phasen. Somit trägt der fehlerhaft verarbeitete Lichtreiz bei A53T Mutanten zur Destabilisierung des zirkadianen Rhythmus der Lokomotion bei. Trotz des gestörten glutama-tergen Signalweges im retinohypothalamischen Trakt konnten keine Unterschiede in der Expression der Homerproteine zwi-schen Wildtyp und A53T unter Standard-Photoperiode und nach Schlafdeprivation nachgewiesen werden.
Die vorliegenden Befunde liefern Erkenntnisse zur Entste-hung der Frühsymptome bei Morbus Parkinson. Dies könnte neue Ansatzpunkte für die Therapie und Linderung von Schlafstörungen sowie Veränderungen im Tag/Nachtrhythmus liefern.
Einführung: Die höchste Offenheitsrate in der arteriellen Bypasschirurgie der unteren Extremitäten wird mit einem Segment der Vena saphena magna (VSM) von ausreichender Länge und Durchmesser erreicht. Dabei ist der Venendurchmesser der einzige signifikant korrelierende Faktor für das Auftreten einer Transplantatsstenose und damit der beste Prädiktor für die primäre und die sekundäre 2-Jahre-Durchgängigkeitsrates. In 20-40% der Patienten fehlt ein bzgl. des Lumens geeignetes Segment der Vena saphena magna zur Herstellung eines Bypasses bei der primären Operation. Daher wurde eine Technik entwickelt, kleinlumige Vena saphena magna Segmente mittels einer Valvulotomie zu erweitern.
Ziel: Eine zu kleinlumige Vena saphena magna soll VSM für eine spätere Verwendung als autologes Bypassmaterial der unteren Extremität konditioniert werden. Die häufigsten Indikationen für eine derartige Konditionierung sind die Bypassverwendung bei der operativen Therapie der peripheren arteriellen Verschlusskrankheit (pAVK) und beim Aneurysma der Arteria poplitea (PA).
Methoden: Diese prospektive Pilotstudie würde zwischen Juni 2007 und November 2011 durchgeführt. 25 Patienten (26 Fälle) mit einem VSM Durchmesser zwischen 2 und 3mm erhielten eine in situ VSM-Valvulotomie. Die Zerstörung der suffizienten Venenklappen ermöglicht einen retrograden Blutstrom in die Vena saphena magna. Der hierdurch erzeugte Wachstumsreiz soll zu einer Durchmesserzunahme der Vene führen. Nach Erreichen eines Durchmessers von > 3mm für infragenuale Rekonstruktionen und von > 3,5 mm für supragenuale Rekonstruktion wurden die konditionierten Venensegmente als Bypass implantiert. Bei 23 Patienten war die Bypassindikation eine nicht kritische pAVK. Bei 2 Patienten war ein Aneurysma der Arteria poplitea die Indikation. Einschlusskriterium für Teilnahme an der Studie war eine nicht variköse VSM mit einem Querdurchmesser zwischen 2 und 3 mm. Die Venenevaluation erfolgte duplexsonografisch im Stehen durch eine Beurteilung der epifaszialen Vena saphena magna von der Leiste bis zum Innenknöchel. Messpunkte waren: 10 cm unterhalb des Hiatus saphenus, 10 cm oberhalb des Knies, 10 cm unterhalb des Knies und 10 cm oberhalb des Innenknöchels. Um das Venenwachstum zu ermitteln, diente als Messpunkt der kleinste ermittelte Durchmesser über einem Messbereich von 10 mm.
Drei Patienten, bei denen ein femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert wurde, hatten bei der Implantation einen Durchmesser der konditionierten VSM > 3.5 mm. Bei 13 Patienten mit Bypassimplantation unterhalb des Kniegelenkes war die konditionierte VSM > 3mm. Eine Wiederholung der Valvulotomie war in keinem der Patienten nötwendig. Die valvulotomierte VSM wurde bei allen Bypassoperationen offen chirurgisch entnommen. Zur postoperativen Kontrolle erfolgten eine Duplexuntersuchung und eine ABI-Messung 1,3,6,12,18 und 24 Monate nach der Implantation.
Ergebnisse: Durchschnittlich vergrößerte sich der VSM-Durchmesser von initial 2,5±0,18 mm vor Valvulotomie auf 2,8±0,2 mm, 3,0±0,3mm und 3,2±0,4 mm jeweils 30, 60 und 90 Tage nach Valvolutomie. Bei der Entnahme betrug der durchschnittliche Bypassdurchmesser 3.7±0.6 mm. Die primäre 1-Jahres-Offenheitsrate mit der valvulotomierten VSM war 81±9,8% im Vergleich zu in der Literatur publizierten 58,0%±8,4% für alloplastische Transplantate, 51% für kleinkalibrige VSM und 81,6%±3,6% für Armvenentransplantate. Die sekundäre 1-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 87%±8,3% verglichen mit 82,6% für in der Literatur angegebene Transplantationen mit kleinkalibriger VSM. Die primäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 69%±11,8%, verglichen mit 50% in der Literatur angegebener Transplantationen von kleinkalibrige VSM benutzt wurden und 72%, falls Armvenentransplantate benutzt wurden. Die sekundäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik lag bei 75%±11%.
Fazit: Die Valvulotomie kann zur Zunahme des Venendurchmessers vor Anlage eines femoro-distalen Bypasses verwendet werden, weil sie regelhaft zum Reflux in der valvulotomierten Vene führt und dadurch ein relevantes Venenwachstum verursacht. Zwischen 60 und 90 Tagen nach Valvulotomie wird ein Venenduchmesser > 3.5 mm erreicht und die valvulotomierte VSM kann als femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert werden. Für eine Anastomose unterhalb des Kniegelenkes genügt ein Wachstum bis > 3 mm. Wenn die valvulotomierte Vene einen entsprechenden Durchmesser erreicht, kann die konditionierte VSM benutzt werden, um einen Bypass mit guter Offenheitsprognose zu konstruieren oder einen nicht funktionierenden Bypass zu ersetzen.
Die Collectio Thessalonicensis ist eine nur fragmentarisch überlieferte Sammlung von Papst- und Kaiserbriefen, angeblich vor dem Jahre 531 zusammengestellt. Sie ist seit langen Jahren nicht mehr (oder doch nur peripher) in der internationalen Forschung beachtet worden. Aber nicht nur dieser Umstand veranlasste uns zur eingehenderen Beschäftigung mit diesem Konvolut interessanter Texte. In den letzten Jahren und Jahrzehnten hat die wissenschaftliche Durchdringung der christlichen Spätantike enorme Fortschritte gemacht. Neue Hilfsmittel – nicht zuletzt die heute zur Verfügung stehenden elektronischen Ressourcen – stehen nunmehr zur Verfügung. Auch neue wissenschaftliche Fragestellungen evozieren eine erneute Beschäftigung mit dieser (angeblich oder tatsächlich) aus dem 6. Jahrhundert stammenden Sammlung wichtiger Dokumente. Die seit einigen Jahren erneut aufgeflammte Diskussion über die Umstände der endgültigen Unterstellung der Bistümer des sog. östlichen Illyricum in den 50er Jahren des 8. Jahrhunderts unter Rom erfordert es, die kirchengeschichtlichen Hintergründe dieser bis dahin lange zwischen Rom und Konstantinopel umstrittenen Region (man denke nur an das sog. Vikariat von Thessaloniki) erneut ins Auge zu fassen. ...
Science Slam zum Thema Nachhaltigkeit +++ Institutsbericht 2017 erschienen +++ Zukunftsstadt: ISOE bei BMBF-Vernetzungskonferenz in Frankfurt am Main +++ Mobiles Baden-Württemberg: Szenarien für eine nachhaltige Mobilität +++ Sustainability Special Issue zur Sozialen Ökologie als Buch erschienen +++ Lebensmittelverpackungen: Alternativen zu Plastik, Alu & Co. +++ Auswirkungen von Mikroplastik auf Umwelt und Gesellschaft +++ UN-Klimagipfel in Bonn: Genderperspektive für eine gerechte Klimaschutzpolitik +++ Ideenwettbewerb Der Blaue Engel: Auszeichnung für Kampagnenkonzepte +++ Aus dem ISOE: Forschungspreis Transformative Wissenschaft für Laura Woltersdorf +++ Termine +++ Publikationen
Verkehrswende braucht neue Mobilitätskultur +++ Urban Farming: Beitrag zur nachhaltigen Entwicklung von Städten? +++ Grundwasser als Quelle der Welternährung in Gefahr +++ Einfamilienhaus: Forschungsergebnisse zur Zukunft eines Wohnideals +++ Wasserbedarf prognostizieren: Planungssicherheit für Wasserversorger +++ Neue Plattform für transdisziplinäre Forschung +++ Ökosystem Savanne bewahren +++ Medikamentenrückstände in der Umwelt: Was Ärzte tun können +++ Energiewende, private Haushalte und nachhaltiger Konsum +++ Umweltgerechtigkeit bei Umwelt- und Naturschutz +++ Aus dem ISOE: Dr. Laura Woltersdorf erhält Forschungspreis "Transformative Wissenschaft" +++ ISOE-Lehrveranstaltungen im Wintersemester +++ Termine +++ Publikationen
Aktuelle Einblicke in die Soziale Ökologie: Special Issue der Zeitschrift Sustainability erschienen +++ Innovative Wohnformen für eine nachhaltige Stadtentwicklung +++ Transportmittel im Trend: Fahrradverkehr in der Zukunftsstadt +++ ISOE Policy Brief zur Biodiversitätsforschung erschienen +++ Zukunftsfähige Wasserinfrastrukturen: Empfehlungen zur Transformation +++ Nachhaltig leben mit Kunststoff? Das Frankfurter Nachhaltigkeitslabor für Schulen geht in die nächste Runde +++ Das ISOE auf der "MS Wissenschaft" +++ Mit dem Rad entlang der Nidda – Exkursion im Forschungsprojekt NiddaMan +++ Termine +++ Publikationen
Nachhaltige Mobilität für alle +++ Welche Rolle spielen die Jüngeren für die Mobilität der Zukunft? +++ Wissenschaftler empfehlen Neuausrichtung der Biodiversitätsforschung +++ A Plastic Ocean – Filmabend und Diskussion mit der Forschungsgruppe PlastX +++ Internationale Konferenz für Meereskunde und Binnengewässer: ISOE-Wissenschaftlerin stellt PlastX vor +++ Wasserressourcen und Klimawandel – Neue Modellierungsmethoden eröffnen Anpassungsstrategien +++ Abwasser als Ressource +++ Wohnraum clever nutzen: Projekt "LebensRäume" gestartet +++ ISOE unterstützt "March for Science" +++ ISOE-Lehrveranstaltungen im Sommersemester +++ Termine +++ Publikationen
Warum in der Schweiz mehr Fairtrade-Produkte als in Deutschland gekauft werden – eine aktuelle Studie gibt Antworten +++ Antibiotika in der Landwirtschaft – Zielkonflikte zwischen Gesundheits- und Umweltschutz +++ Energiearmut in Deutschland: Wie sozialverträglich ist die Energiewende? +++ netWORKS 4 – Was können städtische Versorgungssysteme zur klimagerechten Stadtentwicklung beitragen? +++ Beitrag zu den Sustainable Development Goals – Wasserwiederverwendung in Namibia +++ Energiewende: Wie die Bürgerbeteiligung beim Bau von Windkraft- oder Biogasanlagen verbessert werden kann +++ Wasserressourcen schonen: Aufbereitung von Abwasser für Industrie und Landwirtschaft +++ Aus dem ISOE +++ Termine +++ Publikationen
Institutsbericht 2016 erschienen +++ Neue Mobilitätsangebote: Handlungsempfehlungen für die Region FrankfurtRheinMain +++ Neue Geschäftsmodelle in der Wohnungswirtschaft +++ Klimaschutz im Alltag: Ergebnisbroschüre zu Stromeffizienzklassen für Haushalte online +++ Der Wert der Natur – Vortragsreihe zur gesellschaftlichen Bewertung von Ökosystemen +++ "Keine Gesellschaft ohne Natur" – Egon Becker zum 80. Geburtstag +++ Science Slam "Wissenschaftsgeschichten im Anthropozän" +++ Website PlastX online +++ Aus dem ISOE +++ Termine +++ Publikationen
Das Scheitern der traditionellen, disziplinär verengten Umweltforschung bei der Lösung sehr komplexer Umweltprobleme förderte die Herausbildung eines neuen Forschungstyps: der Nachhaltigkeitsforschung, einer inter- oder transdisziplinären Wissenschaft, die im Spannungsfeld von Gesellschaft(-swissenschaften)und Natur(-wissenschaften) agiert. Bei ihrer Entstehung spielten in Deutschland kleine, gemeinnützige Forschungsinstitute eine zentrale Rolle.
Strategien für eine nachhaltige Energiewende +++ Neuer Ansatz für Wasserwiederverwendung in der Landwirtschaft +++ Wie sieht ein sensibler Umgang mit Wasser aus? Dialogveranstaltungen in Hamburg und Frankfurt +++ Bürger beobachten die Nidda: Auftakt für interaktive Landkarte und App +++ Kinder und Jugendliche für nachhaltigen Konsum begeistern +++ Kommunen und der demografische Wandel: Strategien für lebenswerte Kleinstädte +++ Aus dem ISOE: Bewertung durch den Wissenschaftsrat +++ Termine +++ Publikationen
Neues Forschungsprojekt "PlastX": Wie ist ein nachhaltiger Umgang mit Plastik möglich? +++ Stromberatung für den Mainstream: Einsparpotenziale auch bei Vielverbrauchern nutzen +++ Zukunftsmarkt Wasser – Chancen für die deutsche Wasserwirtschaft +++ Transdisziplinäre Nachhaltigkeitsforschung: Vorlesung von Thomas Jahn in der GRADE Sustain-Reihe der Goethe- Universität +++ Erfolgreicher Klimaschutz jenseits politischer Diplomatie +++ Leseempfehlung: Wirkungsvolle transdisziplinäre Forschung +++ Aus dem ISOE +++ Termine +++ Publikationen
Seit 2006 haben die Bundesländer das Recht, den Steuersatz der Grunderwerbsteuer selbst zu bestimmen. Von diesem Recht wurde in den meisten Bundesländern – mit Ausnahme von Bayern und Sachsen – ausgiebig Gebrauch gemacht. Mit dieser Entwicklung sind verschiedene negative Begleiterscheinungen der Steuer weiter in den Vordergrund gerückt. Ausweichreaktionen und Preiseffekte auf dem Immobilienmarkt führten dazu, dass aus jedem Prozent, um das der Steuersatz erhöht wurde, schätzungsweise nur rund 0,6 Prozent zusätzliche Steuereinahmen resultierten, während ohne Ausweichreaktionen und Preiseffekte eine Einnahmenerhöhung um ein Prozent zu erwarten gewesen wäre. Hinter diesem unterproportionalen Aufkommenseffekt sind verschiedene Mechanismen zu vermuten, wie etwa die Umgehung durch den Kauf des Grundvermögens als Teil einer Kapitalgesellschaft.
In Anbetracht der gestiegenen Steuersätze wurde im letzten Bundestagswahlkampf aus CDU sowie FDP der Ruf laut nach einem Freibetrag für Immobilienkäufer, die erworbenes Wohneigentum selbst nutzen möchten. Die Kinderzahl soll den Freibetrag je nach Vorschlag erhöhen.
Der Beitrag diskutiert kritisch die Forderung nach einer Familienkomponente der Grunderwerbssteuer und zeigt darüber hinaus mögliche Alternativen zur Einschränkung der Steuergestaltungen durch Share Deals auf.
Das Clearing von Euro-OTC-Derivaten post Brexit – eine Analyse der vorliegenden Kostenschätzungen
(2017)
Im Zusammenhang mit dem Brexit wird über die Kosten einer Relokation des Clearing des Euro-OTC-Derivate-Geschäftes auf ein EU-CCP diskutiert. Das vorliegende Papier zeigt, dass die bislang vorliegenden Kostenschätzungen, die von Kosten in Höhe von bis zu USD 100 Mrd. für einen Zeitraum von fünf Jahren ausgehen, viel zu hoch sind. Die erwarteten Kosten einer Relokation liegen vielmehr bei ca. USD 0,6 Mrd. p.a. bzw. ca. USD 3,2 Mrd. für eine Übergangsphase von fünf Jahren. Angesichts der hohen Bedeutung von systemrelevanten CCPs für die Stabilität der Eurozone sollten diese Kosten nicht entscheidungsrelevant für eine Relokation sein.
Auf Grundlage einer interviewbasierten Studie zu heterosexuellen Paaren, in denen die Frau das Haupteinkommen verdient, beschäftigt sich der Beitrag mit milieuspezifischen Bewältigungsmustern prekärer Beschäftigungsverhältnisse. Vor dem Hintergrund der Erosion des Ernährermodells werden dabei Transformationen von Männlichkeit in den Blick genommen. Es wird die These entwickelt, dass sich mit dem Selbstverständnis als "Künstler" im hochqualifizierten individualisierten Milieu des urbanen Raums ein spezifisches Bewältigungsmuster von Prekarität herausgebildet hat.
Zeitzeugen sind nicht immer gute Historiker, und Historiker geben nicht notwendig gute Zeitzeugen ab. Für den zweiten Sachverhalt war seit den 1990er Jahren unter anderem aufschlussreich, wie sehr es erst der Anstöße aus den Reihen einer Enkelgeneration deutscher Historiker bedurfte, bevor die Rolle ihrer akademischen "Großväter" im "Dritten Reich" kritisch und ohne jede Scheu vor persönlichen Bekanntschaften untersucht wurde. Gewiss muss man im Blick darauf sorgfältig zwischen Skandalisierung und wissenschaftlicher Erkenntnis unterscheiden, aber dieses Problem kann hiernach ohnehin nicht weiter vertieft werden. Vielmehr richtet sich die Aufmerksamkeit auf die Frühgeschichte der Deutsch-Tschechoslowakischen Historikerkommission, der der deutsche Osteuropa-Historiker Detlef Brandes seit der Gründung im Jahr 1990 angehörte. ...
Das Fahren ohne (gültigen) Fahrschein im ÖPNV ist bereits seit den 1960er Jahren ein Problem zahlreicher Verkehrsunternehmen. Auch für die ÖPNV-Nutzenden stellt es ein Problem dar, da Personen, die den ÖPNV ohne (gültiges) Ticket nutzen in Deutschland eine Straftat begehen. In der Wissenschaft wurde das Thema aus unterschiedlichen Perspektiven heraus untersucht (v.a. Rechtswissenschaften, Betriebswirtschaften, Kriminologie sowie einige sozialwissenschaftliche Ansätze), jedoch konzentriert sich die Forschung vorrangig auf sozio-demographische Charakteristika, Marktsegmentierungen und die Folgen des Fahrens ohne (gültigen) Fahrschein für Verkehrsunternehmen und -verbünde. Die Motive und Beweggründe des Fahrens ohne (gültigen) Fahrschein werden in den vorhandenen Studien lediglich objektiv betrachtet. Das Arbeitspapier zeigt die Ergebnisse einer Untersuchung der Motive des Fahrens ohne (gültigen) Fahrschein im Bediengebiet des Rhein-Main-Verkehrsverbundes (RMV), die mithilfe von qualitativen Interviews mit Personen, die bei einer Fahrkartenkontrolle kein (gültiges) Ticket vorzeigen konnten, exploriert wurden.
Nicht allzu häufig wird man in den Schriftverzeichnissen deutscher Althistoriker auf Studien zur Zeitrechnung und zum antiken Kalenderwesen stoßen, wie dies bei Jürgen Malitz der Fall ist. Im Jahr 1987 ist sein viel beachteter Aufsatz zur Kalenderreform Caesars erschienen und jüngst hat er sich unter dem Titel "Die Ordnung der Zeit", wiederum ausgehend von Caesars Reform, verschiedensten Aspekten des antiken Kalenderwesens zugewandt und einen Bogen bis in die Gegenwart gespannt. Dieses Interessengebiet des Geehrten aufgreifend, möchte der vorliegende Beitrag einen wenig erforschten Aspekt dessen beleuchten, wie Zeit in der Antike als ökonomische Ressource begriffen und instrumentalisiert wurde. ...
"Ihr sollt euch nicht zu den Götzen wenden, und gegossene Götter sollt ihr euch nicht machen [...](Lev 19,4) [...] sollen wir nicht meinen, daß das Göttliche dem Gold und Silber oder Stein, einem Gebilde der Kunst und der Erfindung des Menschen gleich sei. (Acta 17,29) Pfui über euch und über das, was ihr an Gottes Statt verehrt! [...] (Q 21,67)"
Diese drei Sätze stammen nacheinander aus der hebräischen Bibel, dem Neuen Testament und dem Koran. Man kann sie beinahe wie einen Text lesen, an dem sich die These des Ägyptologen Jan Assmann belegen ließe, dass mit der Herausbildung monotheistischer Religionen wie Judentum, Christentum und Islam im Allgemeinen und dem Bilderverbot im Besonderen die Unterscheidung zwischen wahr und falsch in die Götterwelt gekommen sei (Assmann 1998, S. 17). ...
Es wäre eine bessere Welt, würde es diese Bilder nicht geben: Die Rede ist von Darstellungen, die sexuellen Missbrauch von und sexualisierte Gewalt an Kindern und Jugendlichen zeigen. Die physischen und psychischen Verletzungen, die durch den Missbrauch, aber auch durch dessen Perpetuierung in Bildern verursacht werden, sind unermesslich. Daher greift die Gesellschaft zu einem ihrer schärfsten Schwerter – dem Strafrecht.
Mit flexiblen Video-Endoskopen gelingen heute hochaufgelöste Bilder des Magen-Darm-Traktes. Bösartige Tumoren werden früher erkannt und oft auch entfernt, ohne die Bauchdecke aufzuschneiden. Sogar Verengungen der Gallenwege lassen sich mit hochpräziser Endoskopietechnik darstellen und behandeln. Die Medizinische Klinik 1 der Universitätsklinik unter der Leitung von Prof. Dr. Stefan Zeuzem gehört zu den Pionieren auf diesem Gebiet.
Lieblingsbild
(2017)
In lebende Körper zu sehen, ohne das Messer anzusetzen, das war lange ein Traum von Wissenschaftlern und Ärzten. Was vor mehr als 120 Jahren mit Conrad Röntgens Entdeckung der X-Strahlen begann, hat sich mit Magnetenzephalographie und Magnetresonanztomographie zu gängigen Instrumenten der Hightech-Medizin entwickelt.
Lieblingsbild
(2017)
Dieses Bild ist wichtig, weil wir daran verstanden haben, wie in der Zelle fehlerhaftes Spleißen verhindert wird. Dazu muss man wissen, dass unsere Gene sich aus Exons und dazwischenliegenden Introns zusammensetzen. Während des Spleißens werden die Introns entfernt und die Exons in ein reifes Transkript zusammengefügt, das dann für ein Protein kodiert. Allerdings gibt es innerhalb der Introns viele Bereiche, die einem Exon sehr ähnlich sehen. Werden diese sogenannten "PseudoExons" fälschlicherweise während des Spleißprozesses erkannt und in das reife Transkript eingebaut, kann das fatale Folgen für das kodierte Protein und oft die gesamte Zelle haben. ...
Gleichungen mit mehreren Unbekannten zu lösen, üben Schüler schon in der Mittelstufe. Für die einen ist es eine spannende mathematische Knobelei, für die anderen eher Quälerei. Doch den wenigsten ist bewusst, wie viele Leben dadurch jeden Tag gerettet werden. Die moderne medizinische Bildgebung beruht darauf, sehr viele Gleichungen nach sehr vielen Unbekannten aufzulösen.
Comics sind ein überaus beliebtes Genre, vielleicht mehr denn je. Manga, aber auch Graphic Novels haben heute in jedem Buchladen ihre eigenen Regale. Aber worum handelt es sich eigentlich: um Bilder, die mit Text ergänzt werden, oder vice versa? Lesen wir oder schauen wir Comics, und warum lohnt es sich, dieses Misch-Genre zu erforschen? Darüber hat Dirk Frank mit Bernd Dolle-Weinkauff, Literaturwissenschaftler und Comic-Experte am Institut für Jugendbuchforschung, gesprochen.
Im Frankfurter Städel Museum ist ein Papst-Porträt zu sehen, das viele Geschichten erzählt: von Julius II., der als ebenso kriegerisch wie kunstsinnig galt, von einem Bildmotiv, das bis heute Standards setzt, und von technischen Methoden, die zeigen, dass hier wohl mehr Raffael drinsteckt, als manche wahrhaben wollen – wodurch das Bild rund 500 Jahre nach seiner Entstehung vielleicht selbst Geschichte schreibt.
Lieblingsbild
(2017)
Für Spezialisten historischer Epochen, aus denen kaum schriftliche Zeugnisse vorliegen, spielten Bilder schon immer eine zentrale Rolle. Doch wie steht es um ihre Bedeutung in der Geschichtswissenschaft allgemein? Welche Relevanz hatte bzw. hat für sie der "iconic turn"? Darüber sprach der Philosoph und Publizist Rolf Wiggershaus mit Historikern der Goethe-Universität.
In der Lichtmikroskopie gibt es heute viele fortgeschrittene Techniken, mit denen man beispielsweise das Wachstum lebender Organismen, kleinste Zellstrukturen oder das Eindringen von Bakterien in Zellen untersuchen kann. Die dafür benötigten Mikroskope sind teure Hightech-Geräte, deren Bedienung Übung erfordert. Damit die vorhandenen Geräte möglichst effizient genutzt werden können, hat die Goethe-Universität ihre Mikroskopie-Einrichtungen in verschiedenen Instituten auf dem Campus Riedberg im "Frankfurt Center for Advanced Light Microscopy" (FCAM) zusammengelegt. ...
Durchblicke im Rückblick : Prof. Jürgen Bereiter-Hahn über 40 Jahre Erfahrungen mit Lichtmikroskopie
(2017)
Ich bin Biologe. Das ist eine Wissenschaft, die sich mit Strukturen beschäftigt und diese sind besonders gut in Bildern darstellbar. Ich achte auch auf den ästhetischen Wert von Bildern, er trägt oft wesentlich zur Verständlichkeit der Aussage bei, besonders in Publikationen. Aber ich bin auch Wort-affin. Es ist mir sehr wichtig, gut zu formulieren. Ich habe auch Philosophie studiert und jetzt arbeite ich mehr in dieser Richtung. Derzeit beschäftige ich mich mit dem Verhältnis von Biologie und Normen. ...
Lieblingsbild
(2017)
Das Bild zeigt die Kryo-EM-Elektronendichtekarte des bakteriellen Kalium-Aufnahmesystems KtrAB mit ADP gebunden mit einer Auflösung von 6.6 Å. Das Bild ist mein Lieblingsbild, weil man bereits auf den ersten Blick eine dramatische Konformationsänderung im Vergleich zu einer früheren ATPgebundenen Struktur erkennen konnte, nämlich die Ausbildung langgestreckter α-Helices (hier gelb markiert), die die regulatorischen A-Untereinheiten (blau) mit den Kaliumionen-translozierenden B-Untereinheiten (grau) verbinden. ...
"Ästhetisch ist, was hilft"
(2017)
Lieblingsbild
(2017)
Das rechte Bild stellt die Elektronendichte eines menschlichen Proteins dar, gewonnen durch die Röntgenstrahl-Beugung an Kristallen dieses Proteins. Die Struktur hat Sagar Bhogaraju 2016 aufgeklärt. Das linke Bild stellt ein erstes Strukturmodell auf der Basis der gemessenen Elektronendichte dar. ...
Schönheit liegt auch in der Wissenschaft im Auge des Betrachters. So wie Eltern ihre Sprösslinge schön finden, schwärmen auch Forscher wie Mike Heilemann und Ivan Dikic von ihren Bildern fluoreszierender Bakterien. Doch wenn sie es auf das Cover einer Fachzeitschrift schaffen wollen, nehmen sie die Hilfe wissenschaftlicher Illustratorinnen wie Ella Marushchenko in Anspruch.
Lieblingsbild
(2017)
Was ist ein geographisches Bild? Darauf hat sicher jeder eine Antwort: Beim einen poppen im Kopf zunächst die Urlaubsfotos von der finnischen Schären-Küste oder aus Paris auf, die andere denkt an Satellitenaufnahmen des schwindenden Eisrandes der Arktis im GEO-Magazin oder an Claudia Kleinerts Wetterkarte in den Tagesthemen. Auf den ersten Blick scheint klar: alles Bilder, alles irgendwie geographisch.
Das Recht – abstrakt und bilderfeindlich? Ein Fehlurteil. Denn schon immer hat das Recht zu sinnlichen Hilfsmitteln gegriffen, um sich den Menschen verständlich zu machen, teils auf realer, besonders gern aber auf sprachlicher Ebene. Die heutige Bilderflut ist jedoch auch für die Rechtswissenschaft ein neues Phänomen.
Der Aufbau unserer Umwelt folgt bestimmten Regelmäßigkeiten, die für uns so selbstverständlich sind, dass wir ihrer kaum bewusst sind. Doch würden Sie die Milch unter dem Bett suchen oder das Kissen in der Badewanne? Wohl kaum. Die Psychologin Prof. Melissa Lê-Hoa Võ untersucht das erlernte Regelwerk, die Entwicklung von sogenanntem Szenenwissen, mithilfe psychophysischer Verfahren, Blickbewegungsund Hirnpotenzialmessungen.
Der Mensch besteht aus vielen Körperteilen, und doch ist es fast ausschließlich das Gesicht, an dem wir ein Individuum erkennen. Aber erkennen wir es wirklich? In Zeiten des Selfie-Kults und der biometrischen Verfahren ist diese Frage aktueller denn je. Wir leben in einer »fazialen« Gesellschaft: Das Gesicht ist Medium für alle erdenklichen Arten, sich mitzuteilen.
Die Arbeit untersucht am Fall der Religionspolitik in den Verfassungsgebungsprozessen der deutschen Bundesländer, ob Verfassungen eher das Ergebnis von Konflikt oder Konsens sind. Die Länderverfassungen zeigen eine hohe religionspolitische Vielfalt, die in dieser Arbeit erstmals vollständig erhoben und systematisiert wird. Die religionspolitischen Normen der Verfassungen werden vier Typen von Religionspolitik zugewiesen (Statusverleihung, Redistribution, Religionsfreiheit und Restriktion). Für die Verbreitung der einzelnen Normen werden die historischen Verläufe von 1919 bis 2015 analysiert und Trends beschrieben. Für die Erklärung der Unterschiede entwickelt die Arbeit ein ökonomisches Modell des Parteienwettbewerbs, in dem religiöse Parteien, insbesondere CDU und CSU, die zentrale Rolle spielen. In dem Modell wird angenommen, dass religiöse Parteien (einschließlich der Union) nur dann die Interessen nicht- und andersreligiöser Wähler berücksichtigen – wenn dies für ihren Wahlerfolg notwendig ist. Die zentrale Idee des Modells ist, dass religionspolitische Policies unterschiedliche Kosten und Nutzen für religiöse und nichtreligiöse Wähler implizieren. Diesen Kosten und Nutzen müssten religiöse Parteien Rechnung tragen, wenn sie Politikergebnis und Wahlergebnis gleichzeitig optimieren – d.h. rational abwägend agieren. Aus der Überprüfung dieses Modells lässt sich ableiten, ob die Religionspolitik in Verfassungen das Ergebnis offener Verhandlungen mit dem Ziel der Herstellung bzw. Abbildung eines gesellschaftlichen Konsenses sind – oder ob sie vielmehr das Ergebnis harter politischer Auseinandersetzungen sind und die gesellschaftlichen Machtverhältnisse reproduzieren. Je weniger Ersteres und je mehr Zweiteres gegeben ist, desto weniger können Verfassungen voraussetzungslos als Rahmen oder Bezugspunkt eines fairen politischen Wettstreits dienen. Die Arbeit belegt dieses Modell empirisch mit einem Mixed-Methods-Ansatz aus multiplen Regressionsanalysen und fuzzy set Qualitative Comparative Analysis (fsQCA).
Mimetische Praktiken in der neueren Architektur : Prozesse und Formen der Ähnlichkeitserzeugung
(2017)
Praktiken des Zitierens, Kopierens, der Montage, des Rekonstruierens, der Analogiebildung und der Mimikry sind gängige Verfahren im architektonischen Alltag. Dennoch ist das Paradigma der Originalität bis heute beherrschend und verstellt oft den Blick auf mimetische Phänomene. Der Tagungsband versammelt zwölf im Jahr 2016 auf der Konferenz „Ähnlichkeit: Prozesse und Formen“ in der Bibliothek der Stiftung Werner Oechslin in Einsiedeln gehaltene Vorträge, ergänzt durch zwei Artikel der Herausgeberinnen. Der Fokus der Tagung lag auf aktuellen Forschungen zu Praktiken der Ähnlichkeitserzeugung in der neueren Architektur und wurde von Teilprojekten der DFG-SNF-Forschergruppe „Medien und Mimesis“ organisiert.
Die Studie behandelt archäologische und ethnoarchäologische wie auch ethnohistorische Untersuchungen im südlichen Tschadbecken Nigerias in der Zeit zwischen 1992 und 1998. Die Untersuchungen fanden im Rahmen der Anstellung des Verf. im Sonderforschungsbereich 268 "Kulturentwicklung und Sprachgeschichte im Naturraum Westafrikanische Savanne" sowie eines Habilitationsstipendiums der Deutschen Forschungsgemeinschaft statt.
Zeitrahmen ist das 7./8. Jh. n. Chr. bis 1925, Hauptthema die Entwicklung komplexer eisenzeitlicher Gesellschaften in der Region sowie ihre Transformation bei der Eingliederung des Raumes in das expandierende Reich Kanem-Borno.
Mathematische Basiskompetenzen gelten als wichtiger Prädiktor für die schulische Mathematikleistung. Ebenso offenbaren Studien eine prädiktive Wirkung des selbstregulierten Lernens auf die akademische Leistung. Die Ergebnisse mehrerer Studien zeigen, dass Kinder mit Migrationshintergrund im deutschen Schulsystem schlechter abschneiden. Schon in der Grundschule weisen diese Kinder im Fach Mathematik schlechtere Leistungen auf als ihre Mitschüler[innen] ohne Migrationshintergrund. Vermutlich kann dieser Umstand mit schlechteren Ausgangsbedingungen im mathematischen Vorwissen begründet werden. Darüber hinaus spielen auch mangelnde Sprachfähigkeiten in der Unterrichtssprache eine wichtige Rolle. Daher sollten die fehlenden Kompetenzen im Anfangsunterricht entwicklungsorientiert aufgebaut werden. Zusätzlich sollten auch Methoden zum selbstregulierten Lernen frühzeitig vermittelt werden, da diese Fähigkeit die Übertragung fachlicher Förderungen auf weiterführende Inhalte erleichtert und eine Voraussetzung für die gelingende Umsetzung verschiedener Unterrichtsmethoden darstellt. In der Praxis werden entsprechende Konzepte bislang allerdings nur vereinzelt umgesetzt.
In der vorliegenden Studie sollten daher die Lernvoraussetzungen von Kindern mit Migrationshintergrund in den mathematischen Basiskompetenzen und im selbstregulierten Lernen überprüft werden. Im Anschluss hieran sollte erprobt werden, ob sich die Kombination aus einem Training zur Förderung mathematischer Basiskompetenzen sowie einem Programm zur Förderung selbstregulierten Lernens als Unterrichtskonzept für den Anfangsunterricht mit Kindern mit Migrationshintergrund eignet und hiermit die Disparitäten in den Lernvoraussetzungen der migrierten Kinder ausgeglichen werden können. Hierfür wurde das ursprünglich für den vorschulischen Einsatz konzipierte Trainingsprogramm „Mengen, zählen, Zahlen“ (MZZ, Krajewski, Nieding & Schneider 2007) sowie ein von Otto (2007) ausgearbeitetes Konzept mit selbstregulativen Inhalten (SRL) für den unterrichtsintegrierten Einsatz im Erstunterricht adaptiert. Für die Teilnahme an der Studie konnten 30 Grundschulklassen rekrutiert werden. 517 Schüler[innen] wurden klassenweise einer von drei Versuchsbedingungen zugeordnet: (1) Der ersten Experimentalgruppe, in der die Trainingskombination in der Reihenfolge erst SRL, dann MZZ durchgeführt wurde (EGSRL+MZZ) oder (2) der zweiten Experimentalgruppe, die die Trainingskombination in der umgekehrten Reihenfolge (EGMZZ+SRL) erhielt oder (3) der Kontrollgruppe (KG), in der der reguläre Mathematikunterricht erfolgte. Die Durchführung der Trainingskombination wurde von den jeweiligen Mathematiklehrkräften vorgenommen. Vor der Implementierung der Trainingsprogramme erfolgte eine Erfassung der mathematischen Basiskompetenzen, der Fähigkeiten im selbstregulierten Lernen sowie der Fähigkeiten im Wortverständnis. Zur Überprüfung der Wirksamkeit wurden im Anschluss an die Durchführung der Trainingskombination diese Fähigkeiten erneut erhoben. Zudem wurde die Transferwirkung auf die Fähigkeiten im Basisrechnen untersucht. Ein halbes Jahr später erfolgte eine Follow-up-Untersuchung, bei der abermals die Fähigkeiten im selbstregulierten Lernen sowie der Transfer auf das Basisrechnen und die curriculare Mathematikleitung erfasst wurden.
Die Ergebnisse offenbarten für Kinder mit Migrationshintergrund ein schlechteres Vorwissen in den mathematischen Basiskompetenzen. Hinsichtlich der Fähigkeiten im selbstregulierten Lernen konnten keine Unterschiede gefunden werden. Die Ergebnisse des Posttests konnten einen größeren Kompetenzzuwachs in den mathematischen Basiskompetenzen bei den Kindern mit Migrationshintergrund der ersten Experimentalgruppe (EGSRL+MZZ) im Vergleich zu den Kindern mit Migrationshintergrund der Kontrollgruppe nachweisen. Zudem zeigten sich positive Transfereffekte auf das Basisrechnen. Transfereffekte auf die curriculare Mathematikleistung wurden bei den Kindern mit Migrationshintergrund dagegen nicht ersichtlich. Hinsichtlich der Fähigkeiten im selbstregulierten Lernen ließen sich bei den Kindern mit Migrationshintergrund keine Trainingseffekte aufdecken. In Bezug auf die Kompensation der lückenhaften Lernvoraussetzungen in den mathematischen Basiskompetenzen bei Kindern mit Migrationshintergrund konnte für die erste Experimentalgruppe (EGSRL+MZZ) ein höherer Lernzuwachs bei Kindern nicht deutscher Herkunft festgestellt werden. Bei der zweiten Experimentalgruppe (EGMZZ+SRL) zeigten sich zwar keine Unterschiede zwischen Kindern mit und ohne Migrationshintergrund, doch es offenbarte sich, dass Kinder mit deutscher Muttersprache von der Trainingskombination im Hinblick auf ihre mathematischen Basiskompetenzen mehr profitieren. Die Ergebnisse verweisen auf die Bedeutung der sprachlichen Fähigkeiten bei der entwicklungsorientierten Förderung mathematischer Kompetenzen und werden vor dem Hintergrund einer Ausarbeitung zu einem flächendeckend einsetzbaren Unterrichtskonzept diskutiert.
Dies ist eine Festschrift für Detlef Brandes zum 75. Geburtstag. Ein Vorwort für sie zu verfassen, ist kein leichtes Unterfangen, denn die beeindruckende wissenschaftliche Arbeit und die Tätigkeit von Detlef Brandes sind schon vor zehn Jahren in der Festschrift zum 65. Geburtstag ausführlich gewürdigt worden. Der inzwischen leider verstorbene Hans Lemberg zeichnete damals den wissenschaftlichen Lebensweg des Jubilars in bewegender Weise nach, von den Archivstudien des jungen Doktoranden in der Tschechoslowakei der 1960er Jahre über die Tätigkeit am Collegium Carolinum in München, an der Freien Universität Berlin und die internationalen Wanderjahre, die ihn nach Florenz, New York, Stanford und Sapporo geführt hatten, bis er nach einem kurzen Intermezzo in Oldenburg 1991 auf die Stiftungsprofessur für "Kultur und Geschichte der Deutschen im östlichen Europa" an die Heinrich-Heine-Universität in Düsseldorf berufen wurde. ...
Die Frankfurter Dissertation von Alexander Krey ist für den Themenkomplex "Rechtsräume" von besonderer Bedeutung. Unter den Leitbegriffen "Gerichtslandschaften" und "Rechtslandschaften" wird anhand der Oberhöfe im Rhein-Main-Gebiet des Spätmittelalters eine vergleichende Untersuchung vorgelegt, die zeigen soll, dass diese juristisch-geographischen Raumbildungen zu einer "Umwälzung in den vielschichtigen Gerichtslandschaften führte, in welche die jeweiligen Oberhöfe eingebettet waren", auch wenn der Terminus "Oberhof" selbst aus der Frühneuzeit stammt. Die bestimmende Frage ist, ob eine "Pluralität lokaler Rechtsordnungen anstelle des einen gemeinen deutschen Rechts" angenommen werden kann. Welchen Stellenwert nehmen Wechselwirkungen zwischen den regional beschränkt wirkenden Oberhöfen ein? Als Untersuchungsgegenstand wählt Krey, wie gesagt, das Rhein-Main-Gebiet, im Einzelnen Frankfurt, Gelnhausen und Ingelheim. ...
CGC aktuell 02/2017
(2017)
Der römische Kaiser Claudius, dritter Prinzeps nach Augustus, regierte von 41 – 54 n. Chr. und wurde vermutlich von Agrippina, seiner letzten Ehefrau, mit einem Pilzgericht vergiftet. Obwohl er wegen seiner angeborenen Körperbehinderung als dynastischer Nachfolger nicht vorgesehen war, folgte er C. Caligula unmittelbar nach dessen Ermordung auf den Kaiserthron.
Die dem Amt inhärenten strukturellen Schwierigkeiten wurden verstärkt durch seine imbecillitas, die nicht nur Seneca, seinen Zeitgenossen, sondern auch Tacitus, Sueton und Cassius Dio, die ihn nachfolgend zum Sujet ihrer Werke machen, erheblich verunsicherte.
Besonders die Vertreter der antiken Historiographie und Biographie stehen vor der Herausforderung, glaubhaft erklären zu müssen, warum ein imbecillus, der Gegenentwurf zu Augustus, an die Macht gelangen und sie 13 Jahre behalten konnte, ohne unterschiedlich motivierten Anschlägen zum Opfer zu fallen. Aus dieser Diskrepanz entstehen – abhängig von der persönlichen Vorstellung des jeweiligen Autors und den gesellschaftlich bedingten Vorurteilen über Behinderung – unterschiedliche Bilder, die nicht nur das Dilemma des behinderten Kaisers, sondern auch das seiner Interpreten illustrieren: Claudius tritt, je nach Situation und Interaktionspartnern, als willenlos Re-agierender oder als taktisch Agierender auf: Als Regierenden hingegen zeigen ihn die Berichte gar nicht oder selten. Unberechenbarkeit, Übertreibung und Wiederholung werden für die antiken Schriftsteller zum Herrschafts- und Persönlichkeitsmerkmal des Prinzeps, die Antithese zum Narrativ.
Das essentielle Kommunikationsproblem des behinderten Claudius scheint, folgt man den Berichten, aus einem bewussten oder charakterbedingten Verzicht auf die patria potestas zu resultieren, mit katastrophalen Auswirkungen auf sein Ansehen als Prinzeps. Die von allen Autoren kritisierte Abhängigkeit von den Mitgliedern seines Hofes, zu deren prominentesten Opfern die junge und unerfahrene Messalina und letztlich Claudius selbst zählen, erregt Spott und Unmut der Plebs und verunsichert die Aristokratie durch eine als willkürlich empfundene Rechtsprechung.
Andererseits verweisen die Darstellungen seiner erstaunlichen Amtserhebung, des siegreichen Britannienfeldzugs, des abrupten Sturzes Messalinas, aber auch Agrippinas plötzlicher Angst, die sie zum Gattenmord veranlasst, auf einen Kaiser, der bei Bedarf offenbar recht gezielt das Klischee des imbecillus als Mittel des Machterhalts zu bedienen vermag.
So entsteht aus Claudius, abhängig vom gesellschaftlichen Status Behinderter, in den antiken und modernen Schriften, die sich mit ihm und seiner Amtsführung befassen, die paradoxe Figur eines schuldigen Opfers bzw. unschuldigen Täters: Sowohl Opfer- als auch Täterrolle sind a priori durch die Behinderung gerechtfertigt und relativiert.
Aufbauend auf den Erfahrungen zweier Workshops zu (urbaner) Austerität in Griechenland und Deutschland diskutiert der Beitrag die (unterschiedliche) Geschichte und Geographie der Austerität mit besonderem Blick auf die Regionen Frankfurt/Rhein-Main und Athen. Die Erfahrungen der multiplen Krise seit 2008, die sich in Griechenland vor dem Hintergrund einer austeritätspolitischen "Shock Doctrine" und in der BRD im Kontext eines langfristigen Projekts der "scheibchenweisen" Austerität entwickelten, eröffnen dabei die Möglichkeit, die Debatten um urbane Austerität einem kritischen Blick zu unterziehen. Der Beitrag sieht insbesondere im Bereich der Krisen der (urbanen) sozialen Reproduktion sowie der Krisen der (städtischen) Politik und Repräsentation weiteren Forschungsbedarf.
In der vorliegenden Arbeit wurde die Dynamik zweier grundlegend verschiedener, deaktivierender Mechanismen von Retinalproteinen untersucht. In einem dritten Projekt wurde die Photodynamik einer Dreifachmutante von visuellem Rhodopsin erforscht, von der eine Mutation zu kongenitaler (angeborener) Nachtblindheit führt und zwei andere Mutationen das Protein über eine Disulfidbrücke stabilisieren. Die Ergebnisse dieser drei Projekte sind im Folgenden zusammengefasst.
Die Aktivität des mikrobiellen Proteorhodopsins als lichtgetriebene Protonenpumpe kann photoinduziert unterbunden werden. Dies erfolgt durch die Absorption von blauem Licht durch das Retinal bei deprotonierter Schiff‘schen Base. Vor dieser Arbeit war allerdings nur wenig über den Mechanismus und die Kinetik dieses Effekts bekannt. Das einzige Retinalprotein, an dem diese Deaktivierungsdynamik auf molekularer Ebene zeitaufgelöst untersucht wurde, ist Bakteriorhodopsin. Doch auch an diesem System wurde die ultraschnelle Primärreaktion in der photoinduzierten Deaktivierungsdynamik - die Photoisomerisierung des 13-cis-Retinals - bisher nicht zeitaufgelöst gemessen.
In dieser Arbeit wurde ein Weg gefunden, diesen Prozess auf einer Sub-Pikosekundenzeitskala zu detektieren. Dazu wurde eine Proteorhodopsinmutante genutzt, in der der primäre Protonendonor E108 durch Glutamin ersetzt ist. Diese Mutante weist eine signifikante Erhöhung der Lebensdauer des M-Intermediats auf. Im photostationären Gleichgewicht führt diese veränderte Kinetik zu einer erheblich erhöhten Akkumulation des Proteins im M-Zustand, die ausreicht, um photoinduzierte Absorptionsänderungen der Deaktivierungsdynamik sowohl im sichtbaren als auch im mittleren Infrarotbereich auf ultrakurzer Zeitskala zu detektieren. Dieses Projekt erfolgte in Kooperation mit dem Arbeitskreis Glaubitz (Goethe-Universität Frankfurt am Main).
Es zeigte sich, dass die Anregung des Retinals von Proteorhodopsin im M-Zustand zur Isomerisierung von 13-cis zu all-trans führt, die nach wenigen Pikosekunden abgeschlossen ist. Der zweite und abschließende Schritt ist die Reprotonierung der Schiff'schen Base. Es stellte sich heraus, dass dieser Prozess auf einer Nanosekundenzeitskala abläuft und über einen Protonentransfer vom primären Protonenakzeptor D97 zur Schiff'schen Base ermöglicht ist.
Die in dieser Arbeit vorgestellte Methodik zur Untersuchung der deaktivierenden Photodynamik von Proteorhodopsin auf ultraschneller Zeitskala, könnte in Zukunft auf weitere mikrobielle Rhodopsine angewandt werden. So ist die Studie der Deaktivierungsdynamik von Channelrhodopsinen von großem Interesse für optogenetische Anwendungen. Eine lichtgesteuerte Kontrolle der Ionenkanalöffnung und -schließung sollte die Präzision in der Regulierung ionischer Permeation erheblich verbessern.
Die Proteorhodopsinmutante E108Q wurde außerdem in ihrer primären Photodynamik sowohl bei grünem als auch blauem Anregungslicht untersucht. Es zeigte sich in beiden Fällen eine Dynamik, die der des Wildtyps sehr ähnlich ist. Eine Beobachtung unterscheidet sich jedoch wesentlich vom Wildtyp. Das K-Intermediat der E108Q-Mutante scheint nach einigen hundert Pikosekunden zumindest partiell zu zerfallen, woraufhin sich eine Signatur im blauen Spektralbereich bildet. Blitzlichtphotolysemessungen lassen vermuten, dass diese blau absorbierende Species im zwei- bis dreistelligen Nanosekundenbereich wieder zerfallen sein muss.
Der zweite Teil dieser Arbeit beschäftigt sich mit dem Photozerfall von visuellem Rhodopsin. Es ist bekannt, dass die Signaltransduktion durch Wechselwirkung zwischen aktiviertem Rhodopsin und Arrestin unterbunden wird. Im ersten Abschnitt wurde der Einfluss der Arrestin-1-Variante p44 auf die Photodynamik visuellen, bovinen Rhodopsins untersucht. In einer Kooperation mit dem Arbeitskreis Schwalbe (Goethe-Universität Frankfurt am Main) konnte gezeigt werden, dass Arrestin erheblichen Einfluss auf die Zerfallsdynamik von Meta II und Meta III hat. Es wurde festgestellt, dass die Wechselwirkung von p44 mit photoaktiviertem Rhodopsin eine erhöhte Population des Intermediats Meta III bewirkt, mit der Folge einer zweifach langsameren Freisetzungskinetik des all-trans-Retinals. Diese Beobachtung weist auf eine physiologische Rolle des Zustands Meta III in der Retinalhomöostase hin.
Gegenstand einer zweiten Studie mit dem Arbeitskreis Schwalbe ist zum einen die Rhodopsinmutation G90D, die mit kongenitaler (angeborener) stationärer Nachtblindheit zusammenhängt, und zum anderen die Doppelmutation N2C und D282C, die zur Ausbildung einer stabilisierenden Disulfidbrücke zwischen den im extrazellulären Bereich eingeführten Cysteinen führt. Im Rahmen dieser Arbeit wurde die Photodynamik des Wildtyps, der Doppelmutante und der stabilisierten G90D-Mutante (Mutationen G90D, N2C und D282C) sowohl auf einer ultrakurzen Zeitskala als auch auf einer Minutenskala untersucht.
Die vorliegende Arbeit untersucht die Möglichkeiten Sozialer Arbeit in segregierten städtischen Gebieten unter den Bedingungen der Festivalisierung von Stadtentwicklungspolitik. Der Hamburger Stadtteil Wilhelmsburg, bisher vorrangig als „benachteiligtes“ oder „gefährliches“ Gebiet charakterisiert, stand bis zum Jahr 2013 im Mittelpunkt des Rahmenprogramms Sprung über die Elbe, dessen zentrale Maßnahmen eine „Internationale Bauausstellung 2013 (IBA)“ und eine „internationale gartenschau 2013 (igs)“ waren. Wenn ein solches Gebiet mit dem Repertoire der unternehmerischen Stadtpolitik entwickelt wird, verändert sich das Verhältnis von Sozialer Arbeit und Stadtentwicklungspolitik.
Eine zentrale Fragestellung der Arbeit beschäftigt sich mit der Veränderung der institutionellen Landschaft in Stadtentwicklungsprozessen: Welche Ausgangslage findet Soziale Arbeit in segregierten Gebieten unter den Bedingungen einer neoliberalisierten Stadtpolitik vor? Ein weiterer Schwerpunkt liegt auf der Untersuchung der Zugänglichkeit von Ressourcen, die die Bewohner_innen des Gebiets für ihre räumliche Reproduktion einsetzen können.
Auffällig am Vorgehen der Hamburger Stadtentwicklungspolitik im Sprung über die Elbe ist, dass sie sich zunächst durch eine veränderte Diskursstrategie definiert, die die Entwick-lungspotentiale des Gebiets hervorhebt. Zentrales Ziel ist die Veränderung der Bevölke-rungszusammensetzung, die mit einer Mischung aus Anreizpolitik für die gewünschten Be-völkerungsgruppen und der Ausrichtung anderer kommunaler Handlungsfelder wie der Kul-turförderung und der Bildungspolitik auf dieses stadtentwicklungspolitische Ziel erreicht wer-den soll. Die dabei transportierte Vorstellung von „Aufwertung“ und der Herstellung einer veränderten Sozialen Mischung geht implizit auf nachfrageorientierte Gentrifizierungstheorien zurück. Institutionen der Sozialen Arbeit sind an diesem Vorgehen nicht beteiligt. Zudem wird deutlich, dass auch die Wissenschaft Sozialer Arbeit dort eine Leerstelle aufweist, wo sie mit der Gentrifizierung städtischer Gebieten konfrontiert ist.
Die Analyse von Interviews mit Bewohner_innen des Untersuchungsgebiets ermöglichte Einblicke in die grundlegender Veränderungen, denen Mietverhältnissen als eine zentrale Form räumlicher Reproduktion unterworfen sind. Dabei ließen sich parallele Entwicklungen zu den Auswirkungen nachweisen, die ein Wandel von Produktionsweisen in Bezug auf Ar-beitsverhältnisse hat.
Die Arbeit beruht auf einem induktiven Vorgehen und besteht aus mehreren empirischen Untersuchungen, die sich auf Teilfragestellungen beziehen. Die Analyse des programmati-schen Vorgehens bedient sich einer diskursanalytischen Dokumentenanalyse und der Aus-wertung von Experteninterviews. Für Veränderungen, die auf die Ressourcenzugänge von Bewohner_innen von segregierten städtischen Gebieten abzielen, kamen leitfadengestützte narrative Interviews zum Einsatz, deren Auswertung sich an dem Dokumentierenden Inter-pretieren orientierte. Die vorliegende Fallanalyse steht in einer Tradition der Untersuchung gesellschaftlicher Veränderungen aus der Perspektive „from below“. Das konkrete und situ-ierte Beforschen eines Stadtentwicklungsprozesses, der zu einem nicht unbeträchtlichen Anteil auf der diskursiven Ebene ausgetragen wird, wird als „Eingreifende Sozialforschung“ entwickelt.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
Freundschaft und Liebe haben eines gemeinsam: die innige und wechselseitige Zuneigung zweier Personen zueinander. Das Mittelalter kennt die diskursive Trennung von Freundschaft und Liebe als Codes der Intimität nicht. Mit dem Terminus "minne" wird in der mittelalterlichen Literatur sowohl die Freundschaft zweier Männer als auch die Liebe zwischen Ritter und Dame beschrieben. Die Gesellschaft des Mittelalters um 1200 ist eine patriarchal organisierte und damit männlich homosozial geprägte Kriegergesellschaft. Vor diesem Hintergrund wird die These formuliert, dass Freundschaft im Mittelalter eher nicht der unwahrscheinliche Code der Intimität ist, sondern die Liebe. Mit dieser These wird die moderne Perspektive auf personale Zweierbeziehungen umgekehrt, die intuitiv die heterosoziale Beziehung und damit Liebe als Code der Intimität präferiert.
Im Zentrum des Interesses stehen männlich homosoziale Freundschaften und heterosoziale Liebesbeziehungen. Diese werden auf Basis linearer und triangulärer Figurenkonstellationen und unter Rückgriff auf Niklas Luhmanns Thesen, die er in „Liebe als Passion“ (1982) entwickelt, untersucht. Luhmann unterscheidet drei historische Stufen des Liebesdiskurses und ordnet diese Epochen zu: die höfische Liebe des Mittelalters, die passionierte Liebe der frühen Neuzeit und die romantische Liebe des 19. Jahrhunderts, die bis heute den Liebesdiskurs prägt. Die strikte Epocheneinteilung, die Luhmann vornimmt, wird für die Analyse der mittelhochdeutschen Texte aufgebrochen um zu zeigen, dass in der Literatur des Mittelalters Beispiele für alle drei Formen der Liebe zu finden sind. Die höfische Epik präsentiert Freundschaft und Liebe als Codes der Intimität, die sich einerseits wechselseitig bedingen, andererseits miteinander konkurrieren. Zwar stehen in den untersuchten Texten die heterosozialen Beziehungen im Fokus, doch mündet die Dominanz der Liebe als Code der Intimität nicht in der Verdrängung der Freundschaft. Im Gegenteil: Freundschaft dient der Liebe als Modell.
Am Ende ging es dann doch recht fix. Hatte der Islamische Staat (IS) noch im März 2017 fast die Hälfte des Territoriums in Syrien unter seiner Kontrolle, ist das Möchtegern-Kalifat mittlerweile so gut wie von der Landkarte getilgt. Das heißt zwar nicht, dass er als Terrororganisation keine Rolle in dem Land mehr spielen wird. Doch als maßgeblicher Bürgerkriegsakteur mit territorialer Basis dürfte der IS weitestgehend aus dem Spiel genommen sein. Das macht diesen verworrenen Bürgerkrieg zunächst einmal ein wenig übersichtlicher. Andererseits wird damit aber auch der Vorhang für das nächste Kapitel geöffnet, das neue Wirrungen verspricht. Denn schließlich waren wegen des Kampfes gegen den IS einige Konfliktlinien erkaltet. Diese könnten nun wieder heiß werden. Allerdings lässt sich aufgrund der vielschichtigen Konstellationen nur schwer einschätzen, welche Dynamiken daraus erwachsen dürften. Der folgende Beitrag soll daher einen Überblick über die vergangenen und neuesten Entwicklungen im Syrischen Bürgerkrieg geben, um zumindest den Ist-Stand ermessen zu können. Die Anfertigung eines solchen Panoramas ist jedoch, zugegeben, eine kleine Herausforderung. Denn aufgrund der zahlreichen Konfliktparteien und multiplen Fronten sind die Entwicklungen derart konfus, dass sie sich nicht so einfach chronologisch zusammenfassen lassen. Der Beitrag stellt daher die jeweiligen Akteursgruppen und Allianzen dar und versucht, deren (ambivalenten) Verhältnisse untereinander zu sortieren und aufzuschlüsseln.