Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2832)
- Article (2192)
- Contribution to a Periodical (2073)
- Book (1966)
- Doctoral Thesis (1648)
- Review (913)
- Report (609)
- Working Paper (438)
- Part of a Book (195)
- Conference Proceeding (160)
Language
- German (13550) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (36)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (4900)
- Medizin (1331)
- Gesellschaftswissenschaften (1061)
- Rechtswissenschaft (738)
- Neuere Philologien (633)
- Geschichtswissenschaften (630)
- Wirtschaftswissenschaften (629)
- Biochemie und Chemie (540)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (521)
- Kulturwissenschaften (464)
Katja Kröss hat sich ein Thema gewählt, das seit der bekannten Studie von Zvi Yavetz schon häufig behandelt wurde, aber nach wie vor von hoher Relevanz ist. Vor allem nachdem Egon Flaig das Konzept des Akzeptanzsystems eingeführt hat, demzufolge Heer, Senat und stadtrömische Plebs als sozialen Sektoren herrschaftsstützende Bedeutung zukam, ist die Frage, wie die Rolle gerade der Plebs sich gestaltete, eine interessante. Denn ist es vorstellbar, dass eine riesige und entsprechend in sich heterogene Menschengruppe einmütig und also homogen handelte? Um es an einem Beispiel festzumachen: Wie lässt sich erklären, dass laut Sueton die Plebs nach dem Tode Neros einerseits Filzhüte trug, um ihre Befreiung vom Joch dieses Kaisers zu demonstrieren, andererseits nach demselben Quellenzeugnis lange um den gestürzten Herrscher trauerte? Und wie ist dementsprechend die politische Rolle der Plebs zu beurteilen? Kröss greift damit ein Problem auf, das Martin Zimmermann – einer ihrer akademischen Lehrer – formuliert hat: die Revisionsbedürftigkeit des Akzeptanzsystems. ...
Seit Egon Flaigs bahnbrechender Habilitationsschrift "Den Kaiser herausfordern" wird der Prinzipat in weiten Teilen der (deutschsprachigen) Forschung als Akzeptanzsystem betrachtet. Demnach hing die Macht des Kaisers von der Erfüllung der Erwartungen relevanter Gesellschaftsgruppen ab. Eine dieser Gruppen war der Senat. Mit dem Akzeptanzsystem als methodischem Rüstzeug rückt meist das Verhältnis zwischen Kaiser und Senat, nicht der Senat als solcher in den Fokus. Wo aber der Senat zentraler Untersuchungsgegenstand ist, geht es mitunter sehr zentral um die Angehörigen des ordo senatorius. Beide Tendenzen unterläuft Simone Blochmann in ihrer Dissertation ganz gezielt, indem sie den Senat als Institution in den Blick nimmt. ...
Migrant Mother
(2014)
Als die Photographin Dorothea Lange im März 1936 auf dem Weg zu ihrer Familie in San Francisco den Highway entlang fuhr, hätte sie wohl nicht damit gerechnet, gleich ein Jahrhundertfoto aufzunehmen. (Abb. 1) Sie hatte soeben einen einmonatigen Aufenthalt in Süd Kalifornien hinter sich und ihre Arbeit für die Resettlement Administration waren abgeschlossen. Sie war auf dem Weg nach Hause, als sie am Rande der Straße im Vorbeifahren ein Schild mit der Aufschrift „Pea-Pickers Camp“ sah erschien ihr dies nicht ungewöhnlich. Es war die Zeit der großen Depression, in der viele Menschen arbeitslos waren und auf der Suche nach Arbeit umher zogen. Daher waren solche Camps, in denen die Wanderarbeiter ihre Zelte und Baracken errichteten, nicht selten.
Der vorliegende Beitrag untersucht die Bedeutung von individuellen Merkmalen (Fähigkeitsselbstkonzept und Leistungsängstlichkeit) sowie von konstruktiver Unterstützung durch Lehrkräfte für die soziale Integration von Schülerinnen und Schülern in der Sekundarstufe. Bezüglich des Unterrichtsqualitätsmerkmals der konstruktiven Unterstützung wird zwischen zwei Facetten unterschieden, nämlich einer sozio-emotionalen Unterstützung sowie einer fachlich-inhaltlichen Unterstützung durch die Lehrkraft. Dabei wird erstmals die Bedeutung dieser Facetten für die von Schülerinnen und Schülern erlebte soziale Integration untersucht und ebenso geprüft, welche differenziellen Zusammenhänge sich für Lernende mit individuellen Risikofaktoren schulischer Entwicklung zeigen. Es wurden Befragungsdaten aus zwei Erhebungszeitpunkten (mittlerer Abstand: 8 Wochen) von 1.116 Schülerinnen und Schülern in 49 Mathematikklassen der Sekundarstufe mehrebenen-analytisch ausgewertet. Die Ergebnisse zeigen, dass beide Facetten konstruktiver Unterstützung mit dem Erleben sozialer Integration zusammenhingen. Schülerinnen und Schüler mit niedrigem Mathematik-Fähigkeitsselbstkonzept bzw. hoher Leistungsängstlichkeit fühlten sich weniger gut in die Klassengemeinschaft integriert. Die Facetten konstruktiver Unterstützung spielten für diese Zusammenhänge eine besondere Rolle: Der Zusammenhang zwischen Fähigkeitsselbstkonzept und sozialer Integration wurde durch eine fachlich-inhaltliche Unterstützung moderiert, sodass sich Lernende mit niedrigem Fähigkeitsselbstkonzept in Klassen mit hoher fachlich-inhaltlicher Unterstützung vergleichbar gut sozial integriert fühlten wie die anderen Lernenden. Der Zusammenhang von Leistungsängstlichkeit und sozialer Integration wurde durch beide Facetten konstruktiver Unterstützung moderiert, sodass in Klassen mit hoher konstruktiver Unterstützung Lernende mit hoher Leistungsängstlichkeit sich genauso sozial integriert erlebten wie ihre weniger leistungsängstlichen Mitschülerinnen und Mitschüler. Der Beitrag untermauert somit die hohe Bedeutung von Beziehungsqualität im schulischen Kontext und bringt neue Erkenntnisse zu differenziellen Zusammenhängen von Unterricht und schulischen Outcomes in Abhängigkeit von den Lernvoraussetzungen der Schülerinnen und Schüler.
Der vorliegende Beitrag untersucht die Bedeutung von individuellen Merkmalen (Fähigkeitsselbstkonzept und Leistungsängstlichkeit) sowie von konstruktiver Unterstützung durch Lehrkräfte für die soziale Integration von Schülerinnen und Schülern in der Sekundarstufe. Bezüglich des Unterrichtsqualitätsmerkmals der konstruktiven Unterstützung wird zwischen zwei Facetten unterschieden, nämlich einer sozio-emotionalen Unterstützung sowie einer fachlich-inhaltlichen Unterstützung durch die Lehrkraft. Dabei wird erstmals die Bedeutung dieser Facetten für die von Schülerinnen und Schülern erlebte soziale Integration untersucht und ebenso geprüft, welche differenziellen Zusammenhänge sich für Lernende mit individuellen Risikofaktoren schulischer Entwicklung zeigen. Es wurden Befragungsdaten aus zwei Erhebungszeitpunkten (mittlerer Abstand: 8 Wochen) von 1.116 Schülerinnen und Schülern in 49 Mathematikklassen der Sekundarstufe mehrebenen-analytisch ausgewertet. Die Ergebnisse zeigen, dass beide Facetten konstruktiver Unterstützung mit dem Erleben sozialer Integration zusammenhingen. Schülerinnen und Schüler mit niedrigem Mathematik-Fähigkeitsselbstkonzept bzw. hoher Leistungsängstlichkeit fühlten sich weniger gut in die Klassengemeinschaft integriert. Die Facetten konstruktiver Unterstützung spielten für diese Zusammenhänge eine besondere Rolle: Der Zusammenhang zwischen Fähigkeitsselbstkonzept und sozialer Integration wurde durch eine fachlich-inhaltliche Unterstützung moderiert, sodass sich Lernende mit niedrigem Fähigkeitsselbstkonzept in Klassen mit hoher fachlich-inhaltlicher Unterstützung vergleichbar gut sozial integriert fühlten wie die anderen Lernenden. Der Zusammenhang von Leistungsängstlichkeit und sozialer Integration wurde durch beide Facetten konstruktiver Unterstützung moderiert, sodass in Klassen mit hoher konstruktiver Unterstützung Lernende mit hoher Leistungsängstlichkeit sich genauso sozial integriert erlebten wie ihre weniger leistungsängstlichen Mitschülerinnen und Mitschüler. Der Beitrag untermauert somit die hohe Bedeutung von Beziehungsqualität im schulischen Kontext und bringt neue Erkenntnisse zu differenziellen Zusammenhängen von Unterricht und schulischen Outcomes in Abhängigkeit von den Lernvoraussetzungen der Schülerinnen und Schüler.
Beim Stichwort Wucher reißt manchem Rechtspraktiker die Geduld. Dabei haben interdisziplinäre Forschungen zu diesem Thema im Zuge der Finanzkrise und dank der erfolgreichen Entwicklung des islamischen Bankwesens in den letzten Jahren einen beachtlichen Aufschwung genommen. Die Frage, was vom Wucher übrigbleibt, stand im Februar 2011 im Mittelpunkt eines Workshops des Exzellenzclusters "Religion und Politik in den Kulturen der Vormoderne und der Moderne" an der Westfälischen Wilhelms-Universität Münster, dessen Ergebnisse nunmehr in einem von Matthias Casper, Norbert Oberauer und Fabian Wittreck veröffentlichten Sammelband vorliegen. Auch wenn es den Herausgebern gelungen ist, die Debatte um einige neue Perspektiven zu erweitern, ist die Themenauswahl traditionsgemäß hauptsächlich auf die Zins- und Wucherkontroverse in den christlichen bzw. muslimischen Rechtstraditionen beschränkt. Der Zusammenbruch des christlichen Zinsverbots vor mindestens fünf Jahrhunderten ist allen bekannt. Aufgrund des Beitrags des Ökonomen Volker Nienhaus über die Entwicklung Sharia-konformer Finanztechniken erscheint jedoch am Ende die Frage legitim, ob nicht auch das Islamische riba-Verbot allmählich durch die Logik des Geldes überwuchert wird. ...
Zu der herkömmlichen Vorstellung des Verhältnisses von Kirche und Staat im frühneuzeitlichen Frankreich gehört, dass Fürsten wie Ludwig XIV. die externe Bevormundung der französischen Kirche durch den Bischof von Rom zugunsten der Formierung einer nationalen Sonderkirche endgültig eingedämmt haben. Dementsprechend sind die 1682 unter Leitung von Jacques Bénigne Bossuet verfassten gallikanischen Artikel klassischer Bestandteil des französischen Selbstverständnisses in Sachen Politik und Religion geworden. Sie gelten als das natürliche Ergebnis einer logischen Entwicklung hin zur Verstetigung der Machtansprüche der lokalen weltlichen und geistlichen Machthaber dem Papst gegenüber, die spätestens mit der 1438 durch Karl VII. verabschiedeten Pragmatischen Sanktion von Bourges ihren ersten großen Erfolg feierte. Dass diese Errungenschaft nicht unumkämpft war, belegt nun allerdings die Dissertation von Cyrille Dounot über den äußerst papsttreuen Juristen Antoine Dadine d’Auteserre (1602–1682). Eine reichlich dokumentierte Biographie dieses Zivilrechtlehrers der Universität Toulouse, die teilweise auf bisher unerforschte Archivmaterialien zurückgeht, bietet der Autor im ersten Teil seiner Arbeit an. ...
Fragestellung und Ziele
Die vorliegende Dissertation untersucht, auf welche Weisen der Roman Lodore von Mary Shelley die Erziehung von Mädchen inhaltlich und stilistisch gestaltet. Daran anknüpfend erforscht die Arbeit, welche Implikationen die Art der Darstellung für die Interpretation des gesamten Romans birgt. Die Analyse der Inszenierung der Mädchenerziehung dient somit als Basis und Fokuspunkt, durch welchen sich die weitere Erforschung der Sprache und Mechanismen des Romans sowie von Shelleys schriftstellerischer Handwerkskunst entwickelt.
Die Zielsetzung ist darauf ausgerichtet, zur Wiederentdeckung von Lodore beizutragen und eine holistische Neubewertung der Autorin Mary Shelley sowie ihres Spätwerks anzuregen. In Abgrenzung zum Gros der wissenschaftlichen Abhandlungen zu Mary Shelleys Spätwerk konzentriert sich die vorliegende Arbeit auf den Text als solchen in seiner Gestalt, seinem Inhalt und seinen Aussagen. Shelleys Biographie und ihre weiteren Veröffentlichungen wie etwa Frankenstein werden derweil bewusst ausgeblendet. Untersucht werden somit ausschließlich der Roman Lodore und das darin manifestierte Handwerk der Autorin, nicht jedoch ihr restliches Werk, ihre Person oder ihr Lebensumfeld.
Methodik
Da Lodore das Thema Mädchenerziehung nicht explizit thematisiert, entwickelt und erprobt die vorliegende Abhandlung eine Methodik, die es ermöglicht, einen Text auf Aspekte hin zu erforschen, welche er nur peripher zu tangieren scheint. Um jene für den Untersuchungsschwerpunkt relevanten Details identifizieren zu können, die in den Text beiläufig, untergründig oder selbstverständlich verwoben sind und die Erziehung von Mädchen charakterisieren, stützt sich die Arbeit auf eine diskursanalytische und kulturwissenschaftliche Betrachtung dessen, was der Begriff „Mädchenerziehung“ im Kontext des 18. und 19. Jahrhunderts umfasst.
Fundament dieser Sensibilisierung für die zeitgenössische, historische Perspektive auf die Erziehung von Mädchen sind, erstens, Abhandlungen der historischen Bildungsforschung zu Mädchenerziehung im 18. und 19. Jahrhundert in Europa und speziell in England. Zweitens werden aktuelle, wissenschaftliche Abhandlungen über den historischen Diskurs von Erziehungstheoretikern /-theoretikerinnen über Mädchenerziehung dazu genutzt, ein grundlegendes Verständnis aus moderner Perspektive auf die damaligen Denkmuster und Fragestellungen zu gewinnen. Drittens wird die Sensibilisierung für die zeitgenössischen Überlegungen und Ausdrucksweisen zum Thema Mädchenerziehung abgerundet durch das eigenständige Studium originaler Publikationen von Erziehungstheoretikern /-theoretikerinnen. Feinabgestimmt auf die Problemfelder und die historischen, erziehungsphilosophischen Grundpositionen untersucht die Arbeit in intensivem close reading die Darstellung der Mädchenerziehung und deren resultierenden Einfluss auf das Leben und Verhalten der weiblichen Figuren in Lodore.
Ergebnisse
Die Abhandlung erkennt unter der zunächst konventionell und unanstößig anmutenden Textoberfläche einen systematisch konstruierten, konsistenten Subtext. Die Dissertation charakterisiert die wiederkehrenden Techniken und sprachlichen Muster, mit denen der Subtext implementiert ist. Dadurch macht sie nachvollziehbar, inwiefern die emotionale Reaktion des Lesers auf den Roman im Sinne von Unverständnis, Irritation oder Amüsement nicht zufällig auftritt, sondern durch Mary Shelleys schriftstellerisches Handwerk bewusst provoziert wird.
Im Subtext verborgen identifiziert die Dissertation, erstens, eine Einladung zur kritischen Betrachtung systemkonformer Wertvorstellungen zum Leben von Frauen in der Familie und in der Gesellschaft. Dabei demonstriert die Interpretation, wie der Roman traditionelle und literarische Idealisierungen von „Weiblichkeit“ entzaubert, während er gleichzeitig alternative, geschlechtsneutrale Lebensentwürfe für Frauen anerkennend präsentiert.
Zweitens beobachtet die Arbeit im Subtext vielfältige Hinweise auf Missstände im Lebensalltag von Frauen und weist nach, dass der Roman insbesondere Momente der geschlechtsdiskriminierenden Vorverurteilung durchgängig inszeniert. Diese Problematisierung versteht die Dissertation als eine Aufforderung an den Leser / die Leserin, den eigenen Leseprozess des Romans in Bezug auf Informationsdistribution, Disposition und Verteilung der Sympathien selbstkritisch zu reflektieren.
Drittens entdeckt die Abhandlung im Subtext des Romans, dass Lodore unterschiedliche Ansätze der Mädchenerziehung in Bezug auf die Ausbildung von „Weiblichkeit“ polyperspektivisch erkundet. Die Untersuchung zeigt auf, dass der Roman drei verschiedene Modelle der Mädchenerziehung einander gegenüberstellt, die sich ideologisch mitunter diametral gegenüberstehen. Die Analyse beschreibt, inwiefern sich die drei Modelle mit den gleichen Herausforderungen innerhalb der Mädchenerziehung beschäftigen. Hierbei wird ausgeführt, auf welche Weise der Roman die unterschiedlichen Lösungsansätze auslotet, die von den drei Modellen auf diese konkreten Problemstellungen angeboten werden und sie abwägend, jedoch ohne kategorische Abwertung nebeneinander positioniert. Die Arbeit resümiert, dass der Roman einerseits die Bedeutung, Ausbildung und Konsequenz von „Weiblichkeit“ durch Erziehung, und andererseits das Leben, die Ziele und das Verhalten einer Frau innerhalb der Gesellschaft als Resultat solcher Erziehung kritisch prüft. Im Zuge dessen veranschaulicht die Dissertation, welche Aussagen und Suggestionen der Subtext dabei in Bezug auf die Themenkomplexe „Weiblichkeit“ und „Erziehung“ transportiert.
...
Im Juni 2014 wird im Libanon der 19jährige Araby Ibrahim verhaftet. Er wird verdächtigt, für den Islamischen Staat (IS) in Syrien gekämpft zu haben. Der gebürtige Libanese besitzt einen dänischen Pass und soll von Kopenhagen aus über die Türkei nach Syrien gereist sein.
Angesichts der hohen Anzahl von nach Syrien und in den Irak reisenden Jihadisten aus Europa erscheint seine Geschichte fast trivial, gebe es nicht folgende Informationen:
Ibrahims Cousin, Munzer al-Hassan, der einen schwedischen Pass besitzt, scheint der Drahtzieher des Anschlages auf das Duroy Hotel in Beirut am 14. Juni 2014 zu sein. Zwei andere Cousins sollen einen Angriff auf einen Armeeposten in Syrien durchgeführt haben und dabei ums Leben gekommen sein. Beide besaßen die schwedische Staatsbürgerschaft. Ein Onkel Ibrahims wurde 2006 in Deutschland verhaftet, da er in die gescheiterten Anschläge auf zwei Regionalzüge in Nordrhein-Westfalen involviert war. Ibrahims Vater ist laut libanesischen Behörden ein bekannter Schleuser für Jihadisten von Europa in den Nahen Osten. Ibrahim selbst wurde während seiner Kämpfeinsätze in Syrien von einer gegnerischen Extremistengruppe gefangen genommen, jedoch wieder frei gelassen, da sein Vater bei dieser Gruppe bestens bekannt war. Es heißt, die gesamte Familie stehe auf Seiten des IS.1
Das Beispiel der Familie aus Tripoli verweist auf die transnationalen Verflechtungen des globalen Jihads. Gerade solche Familienbande machen es Libanesen in anderen Ländern leicht, die „Schlachtfelder“ des Nahen und Mittleren Ostens zu erreichen. Es kommen z.B. über 60% der nach Syrien und in den Irak gereisten Jihadisten aus Australien ursprünglich aus dem Libanon.2 Aus dem Libanon selbst sollen derzeit etwa 900 Libanesen in Syrien und im Irak auf Seiten islamistischer Extremisten kämpfen.3
Für seinen Artikel »Beyond radicalism and resignation: the competing logics for public participation in policy decisions«, der 2017 in der Zeitschrift Policy & Politics erschienen ist, hat Dr. Rikki John Dean, wissenschaftlicher Mitarbeiter am Lehrstuhl von Prof. Brigitte Geißel/Institut für Politikwissenschaft, den »Bleddyn Davies prize for the best Early Career paper published in 2017« erhalten. Der UniReport hatte die Gelegenheit, Dean einige Fragen zu seiner Forschung zu stellen.
Wohl kaum wird der amerikanische "Imperator" den gefangenen "Barbaren von Bagdad" im Triumphwagen durch die Straßen von Washington ziehen lassen, auch wenn sich die publizistische Rhetorik seit den Kriegen gegen Afghanistan und den Irak mit Vergleichen zwischen dem antiken Rom und dem neuen Amerika förmlich überschlägt. "Sind die Amerikaner die Römer unserer Zeit?", fragt sich als einer unter vielen der Publizist und Althistoriker Peter Bender. Expansionen der alten wie der neuen Imperatoren werden miteinander verglichen, Parallelen und Unterschiede in der geographischen Lage, in den Interessen und Willen der Akteure ausgemacht. So habe bei den Amerikanern der Sendungsglaube als universale Macht schon am Anfang des Imperiums und nicht erst an dessen Ende wie bei den Römern gestanden. Roms Ostkriege und der kalteOst-West-Krieg hingegen zeitigten dasselbe historische Ergebnis: "Davor waren Rom und Amerika die ersten Weltmächte ihrer Zeit, danach waren sie die einzigen." Von "Aufstiegen" ist die Rede, nicht aber von "Untergängen", wie es die zyklischen Zivilisationsgeschichten der Kulturmorphologen verkünden. Das hat seinen Grund. Hinter der Analyse kommt Normatives zum Vorschein, wenn es um den Schutz der "Zivilisation des Abendlandes" in "einer künftigen Welt" geht, "in der andere Kulturen sich gegen den 'Westen' behaupten, stärken und vordringen …" Bender lässt das imperium romanum nicht untergehen, weil er das amerikanische Imperium als Bollwerk westlicher Kultur braucht. ...
In der vorliegenden randomisiert-kontrollierten Cross-Over-Studie wurde erstmals die Wirksamkeit einer Manuellen Lymphdrainage (MLD) bei 14 männlichen Hämophilie A/B-Patienten (Durchschnittsalter 37,2 Jahre) untersucht.
Die Patienten erhielten im achtwöchigen Behandlungszeitraum zweimal pro Woche eine 30-minütige Lymphdrainagebehandlung (Periode 1). Nach vierwöchiger Wash-Out-Phase folgte ein weiterer achtwöchiger Nicht- Behandlungszeitraum (Periode 2). Je nach Gruppenzuweisung starteten die Patienten mit Periode 1/Wash-Out/Periode 2 oder in umgekehrter Reihenfolge Periode 2/Wash-Out/Periode 1.
Folgende Untersuchungsparameter wurden an vier zeitlichen Messpunkten erhoben: Schmerz (VAS), Gelenkbeweglichkeit (ROM), Hemophilia Joint Health Score 2.1 (HJHS) und Oberflächentemperatur (Infrarotthermografie).
In der Cross-Over-Analyse zeigte der Parameter „Schmerz“ eine signifikante Wirksamkeit der MLD (p=0,003): 66,7% der Patienten gaben eine deutliche Schmerzreduktion an, 33,3% der Patienten gaben eine leichte Schmerzreduktion an. Im HJHS reduzierte sich im Median die Punktzahl um 2,8 Punkte (p= 0,017). Insbesondere im Item „Gelenkschmerzen“ zeigte sich eine Reduktion des Scores um mindestens einen Punktwert bei 58,3 % der Patienten. Der erhobene HJHS- Score weist eine hohe interne Validität auf, da der Test ausschließlich von einem Expertentherapeuten durchgeführt wurde.
Die MLD hatte keinen klinisch relevanten Einfluss auf die Gelenkbeweglichkeit bei Extensions-/Flexionsbewegungen (p=0,3025/p=0,1082).
Die Infrarotthermografie (IRT) zeigte durchschnittliche Änderungen der Oberflächentemperatur eines Zielgelenks um insgesamt + 0,38°C (p=0,639). Zusammenfassend lässt sich sagen, dass die MLD einen signifikanten schmerzlindernden Effekt bei Patienten mit hämophiler Arthropathie besitzt. Dies geht mit einem insgesamt verbesserten HJHS-Score einher. Im Kontext der Gelenkbeweglichkeit zeigte die MLD keine klinisch relevante Verbesserung des artikulären Bewegungsausmaßes. Die veränderte Oberflächentemperatur im
Bereich der behandelten Target Joints lässt am ehesten eine lokale Stoffwechselanregung durch MLD vermuten. Ein Placebo-Effekt kann nicht ausgeschlossen werden, da durch die körperliche Zuwendung im Rahmen der MLD eine positive Auswirkung auf das subjektive Schmerzempfinden eine Rolle spielen könnte.
Für eine weitere Objektivierung und eine Empfehlung für eine klinische Anwendung der MLD bei Patienten mit hämophiler Arthropathie sind multizentrische, randomisierte Kontrollstudien mit höheren Fallzahlen erforderlich.
Colonia Actia Nicopolis : Überlegungen anläßlich der Neuedition von CIL III 7334 in CIPh I 1, 78
(2018)
Der marmorne Inschriftenstein des Decimus Furius Octavius ist (CIL III 7334 = ILS 2080) seit langem bekannt. Bei der editio princeps von 1888 handelt es sich um einen Rekonstruktionsversuch P.-F. Foucarts anhand einer fehlerhaften Abschrift des Textes durch A. Kontoleon, der die Inschrift εν ταις υπωρείαις του Παγγαίου όρους, παρά την Ηδωνίδα της Μακεδονίας (am Fuß des Pangaion-Gebirges, beim makedonischen Idonia) gefunden hat. R. Cagnat hat im Jahr darauf einige Verbesserungen vorgeschlagen. M. Dimitsas hat den Text Foucarts und größtenteils auch dessen Kommentare in sein Corpus der makedonischen Inschriften übernommen. Im CIL von 1902 hat Th. Mommsen, weiterhin ohne Autopsie oder Abklatsch, einige weitere Konjekturen vorgenommen. Die Inschrift wird hier Serres zugewiesen, ein Fehler, der sich in fast allen folgenden wissenschaftlichen Beiträgen zur Inschrift wiederfindet. Ebenso wird im CIL suggeriert, der Text könne nach Z. 16, die in allen bisherigen Publikationen die letzte war, nach unten beliebig erweitert werden. Tatsächlich ist lediglich noch für eine Zeile Platz vorhanden, bevor der etwas erhabene Rand des Inschriftenfeldes und das untere Abschlußprofil anschließen, die auch nach dem Verlust der linken unteren Ecke weiterhin zu sehen waren. A. Salač hatte den Stein im Jahr 1921 noch in situ gesehen, allerdings fehlte zu dieser Zeit schon die linke untere Ecke. Wiederentdeckt wurde er in den späten 1960er Jahren von Ch. Koukouli. ...
Nach dem Reaktorunfall in Fukushima im März 2011 und dem darauf folgendem Beschluss in Deutschland, den Atomausstieg zu vollziehen, wird dort – sowohl auf nationaler, als auch auf regionaler Ebene – über eine alternative Energieversorgung diskutiert. Für die vorliegende Arbeit stellten sich die Fragen, wie die energiepolitische Ausgangssituation in Hessen aussieht und welche Potenziale erneuerbarer Energien in Hessen vorhanden sind. Mit einer Politikfeldanalyse wurde untersucht, welche Akteure am Ausbau erneuerbarer Energien beteiligt sind, wie diese interagieren, welche Instrumente zur Förderung erneuerbarer Energien in Hessen existieren und welche Erfolgsbedingungen und Restriktionen sich daraus ergeben. Ferner wurde anhand der jeweiligen Energiekonzepte die Frage verfolgt, welche Zukunftspotenziale für erneuerbare Energien die relevanten Akteure sehen und welche energiepolitischen Maßnahmen getroffen werden müssen, um den Ausbau zu forcieren. Bei einem Vergleich des Bundeslandes Hessen mit den Ländern Niedersachsen, Nordrhein-Westfalen und Sachsen-Anhalt wurde festgestellt, welche energiepolitischen Maßnahmen in diesen Bundesländern erfolgreich waren und auf Hessen übertragbar sind. Einerseits wurde aufgezeigt, dass Bemühungen den Ausbau erneuerbarer Energien zu forcieren erkennbar sind. Anderseits konnten ebenso die restriktiven Rahmenbedingungen dargestellt werden, die einen durchschlagenden Erfolg des Ausbaus erneuerbarer Energien bisher behindern. Die Untersuchung der Energiekonzepte hat ergeben, dass die Akteure die Zukunftspotenziale erneuerbarer Energien sehr unterschiedlich sehen und gewichten – sowohl was das zeitliche Ausbauziel als auch die Potenziale der jeweiligen erneuerbaren Energieträger betrifft.
Das Auftreten von plötzlichem Herztod, das häufig durch ventrikuläre Tachyarrhythmien ausgelöst wird, stellt bis heute eine Herausforderung bei der Therapie der Patienten mit schwerer Herzinsuffizienz dar. Derartige Arrhythmien werden bei über 85% der Patienten mit schwerer Herzinsuffizienz beschrieben und über 50% der Todesursachen werden dabei auf das Auftreten von plötzlichem Herztod zurückgeführt. Es wird vermutet, dass das elektrische Remodeling als Teil der gesamten kardialen Umbauvorgänge bei der Entstehung einer Herzinsuffizienz die pathophysiologische Grundlage dieser Arrhythmien darstellt. Das Renin-Angiotensin-Aldosteron System spielt eine zentrale Rolle bei der Ausbildung des elektrischen Remodeling und insbesondere erhöhte Aldosteronkonzentrationen korrelieren mit dem Risiko kardiovaskulärer Zwischenfälle. Darüberhinaus konnte in zwei klinischen Studien (RALES und EPHESUS) gezeigt werden, dass die Therapie herzinsuffizienter Patienten mit den Aldosteronantagonisten Spironolacton und Eplerenon die Mortalität und Morbidität und insbesondere auch das Auftreten von plötzlichem Herztod signifikant senken konnte. Weitere Studien zeigen eine Verbindung zwischen dem Auftreten einer Herzinsuffizienz und Veränderungen in der Funktion und Expression kardiospezifischer repolarisierender K+-Kanäle. Neben den klinischen Daten, die einen protektiven Effekt der Aldosteronantagonisten bei plötzlichem Herztod belegen, ist wenig über die Auswirkungen von Aldosteron auf das elektrische Remodeling des Herzens bekannt. In dieser Arbeit sollte daher die Auswirkung einer chronischen Aldosteronexposition in Ratten auf die elektrophysiologischen Eigenschaften des Herzens untersucht werden. Dazu wurde Wistar-Ratten Aldosteron verabreicht und einigen Tieren die Aldosteronantagonisten Spironolacton und Eplerenon, um die Effekte der unspezifischen (Spironolacton) und spezifischen (Eplerenon) MR Blockade auf die elektrischen Eigenschaften der Kardiomyozyten zu untersuchen. Die Aldosteron exponierten Tiere entwickelten eine linksventrikuläre Hypertrophie, die sich unabhängig von Blutdruckveränderungen entwickelte, sowie ein signifikant verlängertes QT-Intervall, vermehrt auftretende ventrikuläre Extrasystolen und ventrikuläre Tachykardien. Die Elektrolytwerte (K+, Na+, Cl-) waren dabei nicht verändert. Die Aldosteronantagonisten Spironolacton und Eplerenon waren in der Lage, die unter Aldosteron auftretenden Veränderungen zu verhindern. Die Transkription der Untereinheiten kardiospezifischer K+-Kanäle (Ito, IKur, IK1) und des L-Typ Ca2+-Kanals war unter Aldosteronstimulation im linken Ventrikel signifikant erniedrigt. Auf Proteinebene konnte dies für die Kanaluntereinheiten Kv1.5 (IKur), Kir2.3 (IK1) und Cav1.2 (L-Typ Ca2+-Kanal) bestätigt werden. Die Untersuchung eventuell zugrunde liegender Signaltransduktionswege lieferte erniedrigte mRNA Expressionslevel der kardiospezifischen Proteinkinase C Isoformen PKC-α und PKC-ε, wohingegen die mRNA-Expression von PKC-δ unter Aldosteronstimulation unverändert war. Diese Veränderungen in der Transkription der PKC Isoformen wurden durch Behandlung der Tiere mit den Aldosteronantagonisten inhibiert, was für einen MR vermittelten Effekt spricht. Weiterhin zeigte eine chronische Aldosteronstimulation eine erniedrigte mRNA Expression von Calcineurin Aß (PPP3CB) sowie Calcineurinaktivität in linksventrikulärem Gewebe der Tiere. Dieser Effekt konnte durch die Aldosteronantagonisten nicht aufgehoben werden, so dass ein Signaltransduktionsweg, der nicht über den MR vermittelt wird, zugrunde liegen könnte. Insgesamt konnte in dieser Arbeit gezeigt werden, dass chronisch erhöhte Aldosteronkonzentrationen im Rattenherz blutdruckunabhängig zu strukturellen und elektrischen Veränderungen führen, die das Auftreten maligner ventrikulärer Arrhythmien begünstigen. Beide Aldosteronantagonisten Spironolacton und Eplerenon sind in der Lage, die durch Aldosteron vermittelten Effekte in gleicher Weise zu inhibieren. Die Ergebnisse zeigen pathophysiologische Zusammenhänge auf, die die Bedeutung von Aldosteron und der Therapie mit Aldosteronantagonisten für die Behandlung der Herzinsuffizienz und in Zukunft möglicherweise der Hypertrophie unterstreichen.
Seit Einführung der Operationen mit HLM vor etwa 50 Jahren haben zahlreiche Veränderungen von Komponenten zu Fortschritten bezüglich einer verbesserten Biokompatibilität der EKZ geführt (Daniel S 1996; Gu Y 1993). Die EKZ ist nach wie vor eine Voraussetzung für die Mehrzahl der Herzoperationen und ist mit einer systemischen inflammatorischen Reaktion verbunden (SIRS), welche für eine postoperative Organdysfunktion verantwortlich sein kann. Herz-, Lungen- und Nierenfunktion als auch Gerinnungssystem sind in verschiedenem Ausmaß betroffen (Kirklin JK (1983); Westaby S 1987). Dieser Ganzkörperschaden ist ein multifaktorieller Prozess, der hauptsächlich durch den Kontakt von Blut mit fremden Oberflächen verursacht wird und sowohl zu einer Aktivierung der Leukozyten als auch der Komplementkaskade führt (Gourlay T 2001; Levy JH 2003). In Zeiten der minimal-invasiven Herzchirurgie besteht nun nicht nur die Absicht, das chirurgische Trauma zu reduzieren, sondern auch die pathologischen Auswirkungen der EKZ zu minimieren. Deshalb führten neuartige Konzepte und Strategien zur Entwicklung minimierter extrakorporaler Zirkulationssysteme, die vor allem durch reduzierte Fremdoberflächen und geringeres Primingvolumen charakterisiert sind (von Segesser LK 2003). Das CorX™ System folgt diesem Konzept und besteht aus einem geschlossenen System mit sehr geringere Oberfläche, einer integrierten Pumpe mit Oxygenator und einem Luftelimierungssystem. Außerdem wird weder ein Kardiotomie-Reservoir noch eine perikardiale Saugung verwendet, um den zusätzlichen Blutluftkontakt zu vermeiden. Das Ziel dieser Untersuchung war, dass CorX™ System in einer prospektiv randomisierten Studie mit einer konventionellen HLM in Bezug auf perioperative klinische und biochemische Parameter bei koronararteriellen Bypassoperationen in einem Niederigrisiko Patientenkollektiv zu vergleichen. 200 Patienten wurden entweder der CorX™ System-Gruppe (n = 100, Gruppe A) oder der Standard-HLM-Gruppe (n = 100, Gruppe B) zugeteilt. Neben der Auswertung von perioperativen Daten und routinemäßigen Blutproben waren vor allem die Lungenfunktion und der Myokardschaden Gegenstand dieser Untersuchung. Die PMNElastase und TCC dienten dazu, die inflammatorische Reaktion zu beurteilen. Demographische und operative Patientendaten unterschieden sich zwischen beiden Gruppen nicht, sie waren daher vergleichbar. Die postoperative Lungenfunktion zeigte postoperativ keinen signifikanten Unterschied in beiden Gruppen. Zwar war der Oxygenierungsindex in der ersten postoperativen Messung in der CorX-Gruppe signifikant niedriger, dies hatte aber keine Auswirkungen auf die Ergebnisse der Lungenfunktionstests am 5. postoperativen Tag. In der CorX™-Gruppe beobachteten wir verminderte CK-MB Werte postoperativ, was auf einen signifikant niedrigeren Herzmuskelzelluntergang hinweist. Auch dieses Ergebnis hatte aber keine klinische Relevanz. Eine Stunde nach HLM waren sowohl PMN-Elastase als auch TCC signifikant niedriger in Gruppe A im Vergleich zu Gruppe B (PMNE:76±44ng/ml vs 438±230ng/ml, p<0,0001; TCC: 16±8IU/ml vs 29±19IU/ml, p<0,0001). Dies zeigt eine deutlich verminderte inflammatorische Reaktion in der CorX-Gruppe auf, welche sich aber klinisch in diesem Niedrigrisikopatientengut nicht ausgewirkt hat. Die klinischen Ergebnisse hinsichtlich Morbidität und Mortalität, Intensiv- und Krankenhausaufenthalt waren nicht signifikant unterschiedlich im Gruppenvergleich. Das CorX™ System ist sicher und erfordert nur eine kurze Trainingsperiode für das chirurgische Team. Es wurde von den Kardiotechnikern gut angenommen und sogar gegenüber der konventionellen HLM favorisiert. Die inflammatorische Reaktion nach EKZ war signifikant reduziert, jedoch gab es bei Niedrigrisikopatienten keinen messbaren Unterschied bei Betrachtung der klinischen Ergebnisse. Die Reduktion der inflammatorischen Reaktion durch den Einsatz einer minimierten HLM könnte bei Hochrisikopatienten aber von großer Bedeutung sein.
In den zahlreichen Beiträgen zum "Jubeljahr der 1968er-Bewegung" kommen oft ehemalige Aktive, Historikerinnen und Experten zu Wort. Doch wie blicken eigentlich Aktivistinnen und Aktivisten des 21. Jahrhunderts auf diese Zeit zurück? Dieser Frage hat sich ein zweijähriges Forschungsprojekt am Institut für Politikwissenschaft der Goethe-Universität gewidmet.
Am 12. Januar 2015 schwärmten 58 ForscherInnen und Studierende, 31 aus Berlin, 27 aus Chemnitz, auf den Skatepark in der Dresdener Lingnerallee. Ziel der Aktion war es, mehr über die Proteste der "Patriotischen Europäer gegen die Islamisierung des Abendlandes" (Pegida) herauszufinden. Seit Oktober 2014 hatten sich in Dresden immer mehr Menschen unter diesem sperrigen Motto versammelt. Mit den Protesten wuchs auch die Kritik an den völkischen und rassistischen Deutungsmustern, die dort Raum griffen. Wer waren die Demonstrierenden? Was trieb sie auf die Straße? Wie verbreitet waren die Ressentiments, die in Reden, Sprechchören und auf Transparenten hör- und sichtbar waren? ...
Erasmus, christlicher Humanismus und Spiritualität in Spanien und Neu-Spanien (16. Jahrhundert)
(2020)
Schriften des Erasmus von Rotterdam (1466/69–1536) entfalteten während des 16. Jahrhunderts eine große Wirkung in Spanien. Auf Grundlage der klassischen wie der jüngeren Historiographie widmet sich der Aufsatz diesem religions- und kulturgeschichtlichen Phänomen – mit Seitenblicken auf Luther – in vier Teilen: Nach einer Skizze zu Leben und Werk des christlichen Humanisten behandelt der zweite Teil den Erasmianismus in Spanien von seiner Erfolgsgeschichte in den 1520er Jahren (etwa bei Hof, an den Universitäten und in Übersetzungen) bis zur Verfolgung seiner Anhänger seit den 1530er Jahren durch die Inquisition. Drittens werden neuere Forschungstendenzen diskutiert, die das klassische, von Marcel Bataillon geprägte Bild korrigieren und weiterentwickeln, auch im Hinblick auf das ambivalente Verhältnis von Scholastik und Humanismus. Der letzte Teil widmet sich dem Einfluss des Erasmus in Neuspanien (Mexiko) am Beispiel von (Erz-) Bischöfen und Mönchen sowie von frühkolonialen Fallstudien.
Während des atlantischen Zeitalters der Revolutionen fanden in weiten Teilen des spanischen Amerika antikoloniale Rebellionen statt, die gemeinhin weniger bekannt sind als die Amerikanische oder die Französische Revolution. In der andinen Geschichte gilt das 18. Jahrhundert als "Zeitalter der Aufstände". Mehr als hundert Revolten seit den 1730er Jahren kulminierten in den Rebellionen von 1780–1783. Auf dem Gebiet der heutigen Staaten Peru und Bolivien (Hochperu) bedrohten diese die spanische Kolonialherrschaft massiv und sollten in vier Jahren etwa 100.000 Todesopfer fordern. Tupac Amaru führte 1780–1781 die größte und berühmteste Rebellion im kolonialen Hispanoamerika an. Ihr widmet Charles Walker, Historiker an der University of California, Davis, seine jüngste Monographie. Nach einem Werk zum Erdbeben von Lima 1746 knüpft das hier besprochene Buch an Gedanken an, die er 1999 im zweiten Kapitel von Smoldering Ashes formuliert hatte. Dort bildete die Rebellion Tupac Amarus den Beginn der Untersuchung, nun steht sie im Mittelpunkt. ...
Im Gefolge der spanischen Kolonisation bildete sich ein für Hispanoamerika geltendes Normengefüge heraus, das später so genannte Derecho Indiano. Aus Europa stammende Institutionen und Normen wurden in der "Neuen Welt" (re-)produziert, doch gingen in seine Entstehung auch gewohnheitsrechtliche lokale Praktiken ein: spanische ebenso wie indigene aus vorkolonialer Zeit. Um die komplexe Genese dieses multinormativen Rechts verstehen zu können, sind neben den klassischen Quellen auch die jeweilige lokale Rechtsproduktion und der juristische Diskurs zu berücksichtigen. Wichtige diesbezügliche Zeugnisse hinterließen im 16. Jahrhundert zahlreiche in Hispanoamerika wirkende Juristen. Im zentralandinen Raum, dem heutigen Peru und Bolivien, war Polo Ondegardo einer der herausragenden juristischen Autoren und Akteure, dessen Schriften in zwei neuen Auswahlbänden vorliegen. ...
Parodontitis ist eine chronisch entzündliche nichtübertragbare Erkrankung, die alle Anteile des Zahnhalteapparates (Parodonts) betrifft und dort weitgehend irreversible Schäden verursacht. Schätzungen legen nahe, dass in Deutschland ca. 10 Mio. Menschen an einer schweren Parodontitis erkrankt sind. Parodontitis zeigt über viele Jahre zumeist wenige oder nur milde Symptome, die von den Patienten oft nicht wahrgenommen oder richtig eingeordnet werden. Fehlendes Bewusstsein kann dazu führen, dass zahnärztliche Behandlung erst in einem fortgeschrittenen Erkrankungsverlauf in Anspruch genommen wird, wenn umfangreiche Therapiemaßnahmen notwendig geworden sind und sich die Prognose für den Erhalt der Zähne verschlechtert hat. Der parodontale Screeningindex (PSI) ist ein einfaches und schnelles Instrument, mit dem die Notwendigkeit weiterführender diagnostischer Maßnahmen beurteilt werden kann. Der Index wird mittlerweile bei vielen Patienten durchgeführt. Trotzdem bleiben die Versorgungszahlen niedrig und hinter dem zurück, was für das Absenken der bestehenden Parodontitislast notwendig wäre. Jede Zahnarztpraxis muss in der Lage sein, Parodontitistherapie umzusetzen. Fachzahnärzte oder Spezialisten können die allgemeinzahnärztlichen Kollegen wesentlich bei der Behandlung von schweren Formen von Parodontitis unterstützen. Dazu ist eine Aufwertung des Faches in der universitären Ausbildung erforderlich, aber auch die zunehmende postgraduale Ausdifferenzierung von Spezialisten oder Fachzahnärzten für Parodontologie. Die neuen Behandlungsrichtlinien für die Parodontaltherapie (PAR-Therapie) erlauben die Versorgung der parodontal erkrankten Patienten auf Basis international anerkannter wissenschaftlicher Standards und verbessern damit die Rahmenbedingungen für die Parodontitistherapie in der zahnärztlichen Praxis.
"Eigentlich ist es nichts Besonderes – und genau das ist gut so!" : Nordic Walking in der Onkologie
(2011)
Folgt der Krise des Finanzmarkts nun eine Krise der Wirtschaftswissenschaften? Die "Frankfurter Allgemeine" titelt im September auf ihrer Seite "Forschung und Lehre": "Offene Revolte in der Volkswirtschaftslehre" – damit scheint der Protest, zu dem die internationalen Studierendeninitiativen für Plurale Ökonomik im Mai aufgerufen hatten, in der Mitte der Gesellschaft angekommen zu sein.
Künstliche Ribonucleasen, die sequenzspezifisch und effizient die Spaltung von RNA-Phosphordiesterbindungen katalysieren, könnten potenziell nicht nur als biochemische Werkzeuge dienen, sondern auch als Wirkstoffe gegen eine Vielzahl von Erkrankungen, bei denen mRNA oder miRNA involviert sind, eine wichtige Rolle spielen. Obwohl in den letzten beiden Jahrzehnten zahlreiche sequenzspezifische RNA-Spalter entwickelt wurden, bleibt die Spaltaktivität dieser Verbindungen nach wie vor deutlich hinter der ihrer natürlichen Äquivalente zurück. Die Optimierung künstlicher Ribonucleasen und grundlegend dafür die Erforschung der Faktoren, die die Spaltaktivität einer Verbindung beeinflussen, sind daher weiterhin von großem Interesse. Zwar enthalten die meisten künstlichen Ribonucleasen Metallionen, doch sind auch metallfreie RNA-Spalter, zum Beispiel auf der Basis heterocyclischer Guanidine, bekannt. Prinzipiell kann die Hydrolyse des RNA-Rückgrates durch Deprotonierung der nucleophil am Phosphoratom angreifenden 2‘-OH-Gruppe, durch Protonierung der als Abgangsgruppe fungierenden 5‘-OH-Gruppe sowie durch Stabilisierung des bei der Spaltung durchlaufenen dianionischen Phosphorans katalysiert werden. Daher sollten potenzielle RNA-Spalter in der Lage sein, sowohl als Base als auch als Säure wirken zu können, was bei einem pKa-Wert im Bereich von 7 am besten gegeben ist. Fungiert ein und dasselbe Molekül als Protonenakzeptor und -donor, so kommt es im Fall von Guanidinanaloga zu einer Tautomerisierung vom Amino- zum Iminoisomer. Eine möglichst kleine Energiedifferenz zwischen beiden Formen sollte sich daher positiv auf die Spaltaktivität auswirken. In der vorliegenden Arbeit wurde eine Reihe heterocyclischer Guanidine synthetisiert, deren pKa-Werte bestimmt und die jeweiligen Energiedifferenzen zwischen Amino- und Iminotautomer grob mittels AM1-Rechnungen abgeschätzt. In Spaltexperimenten wurden Cy5-markierte RNA-Substrate mit den verschiedenen Verbindungen inkubiert (Spalter-Konzentration: 2 bzw. 10 mM). Die Analyse und Quantifizierung der Spaltprodukte erfolgten anschließend mithilfe eines DNA-Sequenziergerätes. Alle untersuchten und ausreichend löslichen Substanzen, die sowohl einen geeigneten pKa-Wert (6 – 8) als auch eine niedrige Energiedifferenz zwischen Amino- und Iminotautomer (≤ 5 kcal/mol) aufwiesen bzw. bei denen nur der pKa-Wert oder nur die Energiedifferenz in geringem Maße vom Idealwert abwich, spalteten RNA, wenn auch teilweise nur mit einer geringen Aktivität. In den Spaltexperimenten erwiesen sich Guanidinanaloga mit einem großen aromatischen System als besonders aktiv, allen voran 2-Aminoperimidin und seine Derivate, die auch bei Konzentrationen unter 50 µM Spaltaktivität zeigten. Gleichzeitig offenbarten diese Verbindungen in Fluoreszenzkorrelationsspektroskopie Experimenten eine große Tendenz zur Aggregation mit RNA, so dass die Spaltung in diesen Fällen möglicherweise nicht durch Einzelmoleküle, sondern durch Aggregate erfolgte. Um RNA-Substrate auch sequenzspezifisch spalten zu können, wurden PNA-Konjugate des bereits bekannten RNA-Spalters Tris(2-aminobenzimidazol) hergestellt, wobei der Spalter über eine neue, quecksilberfreie Route synthetisiert wurde. Es konnte gezeigt werden, dass diese PNA-Konjugate RNA sequenzspezifisch mit einer Halbwertszeit von etwa 11 h spalten, was im Rahmen der Halbwertszeit vergleichbarer DNA-Konjugate liegt. Um zu untersuchen, ob 2-Aminoperimidine auch als Einzelverbindungen aktiv sind, wurden zwei PNA-Konjugate von am Naphthylring substituierten 2-Aminoperimidin-Derivaten synthetisiert. Beide Konjugate zeigten keinerlei Spaltaktivität, was darauf hindeuten könnte, dass die Hydrolyse des RNA-Rückgrates nur durch mehrere Spalter-Einheiten – kovalent verknüpft oder in Form von Aggregaten – effizient katalysiert werden kann.
Ziel dieser Arbeit, die im Rahmen der Ice Nuclei Research Unit (INUIT) Forschergruppe erstellt wurde, war ursprünglich die saisonale und geographische Variabilität von bodennahen Eiskeimen zu untersuchen. Die Konzentrationen, Quellen und Zusammensetzung der Eisnuklei (ice nuclei, IN) sollte als Basis für Parametrisierungen dienen. Das Verständnis von Eiskeimen und deren Einfluss auf Wetter und Klima sind nur zum Teil bekannt und bedürfen daher noch weitgehender Forschung. Auch die Änderung der Eiskeimkonzentration mit der Zeit kann von Bedeutung sein, diese sollte durch die Fortführung einer Langzeitmessreihe untersucht werden. Durch Hinzuziehen von lokalen Parametern und Trajektorien sollten Proxies für die IN Konzentration ermittelt werden.
Im Rahmen dieser Arbeit taten sich jedoch Probleme am Messverfahren auf, weshalb die ursprünglichen Ziele in den Hintergrund gerieten und die Verbesserung und Neuaufnahme des Messverfahrens in den Vordergrund trat. Anhand von zielgerichteten Experimenten wurde ein Messfehler ermittelt, der durch die vorherige Fehlinterpretation von deliqueszierenden Partikeln und von Tröpfchen als vermeintliche Eiskristalle entstand. Dieser Fehler wurde charakterisiert und durch optische Analysen dessen Ursprung ermittelt. Datensätze, die durch diese hygroskopischen Partikel fehlerbehaftet waren, wurden korrigiert und reanalysiert. Ein in früheren Arbeiten am Taunus Observatorium/Kleiner Feldberg ermittelter Jahresgang in der Eiskeimkonzentration mit einem Maximum im Sommer und einem Minimum im Winter konnte bestätigt werden, die Absolutzahlen sind jedoch deutlich geringer als bisher angenommen. Lokale Parameter sowie Trajektorien wurden zur weiteren Analyse hinzugezogen.
Die Reevaluierung der Datensätze vom Taunus Observatorium führte zu keinem abschließenden Ergebnis. Ein allgemein gültiger Zusammenhang zwischen Eiskeimkonzentration und Parametern, welche das Staubvorkommen in der Atmosphäre quantifizieren (PM10 und Aerosol Optische Dicke), konnte nicht festgestellt werden. Da die Messungen bei relativ warmen Bedingungen (≥-18°C) durchgeführt wurden, Staub aber erst bei kälteren Temperaturen als effektiver Eiskeim gilt, ist dieses Ergebnis jedoch zu erwarten gewesen.
Auch die Luftmassenherkunft scheint keinen eindeutigen Einfluss zu haben. Betrachtungen der Bodenfeuchte lieferten signifikante Korrelationen, welche jedoch monatsabhängig positiv oder negativ ausfallen können. Im Frühling ist eine hohe Bodenfeuchte mit einer erhöhten Konzentration von IN in Verbindung zu bringen, im Sommer liegt bei niedriger Bodenfeuchte eine tendenziell höhere Eiskeimkonzentration vor. Die Windrichtung hat für die Eiskeimkonzentration einen Einfluss, wenn der Wind aus Südost zum Taunus Observatorium strömt. Anthropogenes Aerosol aus Frankfurt am Main hemmt hier vermutlich die Eisbildung, was zu einer signifikant niedrigeren mittleren Konzentration aus dieser Richtung führt.
Da das Messverfahren noch nicht in seinem vollen Potential genutzt wurde, wurde es um eine Analysemethode erweitert. Mittels Tröpfchengefrierexperimenten konnte ein weiterer Gefriermodus betrachtet werden. Nun deckt das hier genutzte Messverfahren drei der vier bekannten Gefriermoden ab. Anhand von Testsubstanzen wurde die Zuverlässigkeit der neu eingeführten Methode überprüft und nachgewiesen.
Erste Parallelproben der korrigierten Depositions- und Kondensationsgefriermessmethode und der neu eingeführten Immersionsgefriermessung wurden am Taunus Observatorium/Kleiner Feldberg genommen. Dabei wurde auch ein Staubereignis beprobt und detailliert ausgewertet. Zwischen lokalen Parametern und Eiskeimkonzentration fanden sich Zusammenhänge. Bei Messbedingungen <-20°C konnte ein signifikanter Zusammenhang zwischen PM10 und Eiskeimkonzentration im Immersions- und Kondensationsmodus gefunden werden. Der Depositionsgefriermodus blieb unauffällig. Zwischen Bodenfeuchte und IN-Konzentration konnten ebenfalls wie bei der Reevaluierung der alten Messdaten Signifikanzen festgestellt werden.
Die neu eingeführte Immersionsmessmethode und die korrigierte Methode zur Bestimmung von Depositions- und Kondensationsgefrierkernen liefern Messdaten, welche im Bereich anderer Eiskeimzähler liegen. Vergleiche mit Parametrisierungen zeigen, dass die Messwerte dem aktuellen Stand der Forschung entsprechen und davon ausgegangen werden kann, dass sie vertrauenswürdig und belastbar sind.
Das Capillary-Leak-Syndrom (CLS) präsentiert sich als plötzlicher Verlust von intravasaler Flüssigkeit ins Interstitium und kann als Komplikation nach einer Stammzelltransplantation (SZT) auftreten. Das Ziel der vorliegenden Studie war es, die CLS-Inzidenz, Risikofaktoren für das Auftreten und den Einfluss auf das Überleben nach SZT in einer pädiatrischen Kohorte allogener SZT-Empfänger zu bestimmen. Wir untersuchten die klinischen Berichte aller Patienten unter 18 Jahren, die in der Abteilung für Stammzelltransplantation der Klinik für Kinder- und Jugendmedizin des Universitätsklinikums Frankfurt am Main zwischen Januar 2002 und Mai 2012 allogen stammzelltransplantiert wurden. 234 Patienten erhielten 275 SZT im oben genannten Zeitraum. In 15 Fällen (5,5 %) entwickelten Patienten ein CLS.
Bedingung für die Vergabe der CLS-Diagnose war das Vorhandensein dieser drei Kriterien: Gewichtszunahme von über 3 % des Körpergewichts in 24 Stunden, positive Ein-/Ausfuhrbilanz trotz Diuretikagabe und Ödeme.
Die Wahrscheinlichkeit, ein CLS zu entwickeln war signifikant höher bei Patienten, die auch unter einer Sepsis litten (p < 0,001). Patienten mit CLS hatten zudem ein höheres Risiko innerhalb der ersten 30 Tage nach SZT an einer GvHD zu erkranken (p = 0,005).
10 der 15 CLS-Patienten mussten intensivmedizinisch behandelt werden.
CLS hängt signifikant mit dem Gesamtüberleben an Tag + 100 und Tag + 365 nach SZT zusammen (p < 0,001), indem es einen starken prädiktiven Faktor für die TRM an Tag + 100 und Tag + 365 nach SZT darstellt (p < 0,001).
CLS ist eine schwere Komplikation bei pädiatrischen SZT-Empfängern. Der biologische Zusammenhang zwischen Sepsis, GvHD und CLS-Entwicklung im Hinblick auf Zytokinfreisetzung und Endothelschaden sollte in weiteren Studien untersucht werden, um neue zielgerichtete Therapien zu unterstützen.
CITIES (Chemistry and Industry for Teachers in European Schools) ist ein COMENIUS- Projekt, in dessen Rahmen Materialien für den Chemieunterricht erstellt und erprobt werden. Diese Materialien sollen Lehrkräften helfen, ihren Unterricht attraktiver zu gestalten, indem der Bezug sowohl zum Alltag und der Lebenswelt als auch zur chemischen Industrie aufgezeigt wird. Die Diskussion um eine gute Ernährung sowie empfehlenswerte und weniger empfehlenswerte Lebensmittel ist für Schülerinnen und Schüler ein weiteres interessantes Thema, das deshalb oft im Chemieunterricht im Zusammenhang mit den Themen Kohlenhydrate, Fette und Eiweiße behandelt wird. In dem für CITIES ausgewählten Beispiel wird eine ungewöhnliche Sichtweise eingenomen: Ausgangspunkt ist eine Dose mit Ravioli. Es wird nun der Frage nachgegangen, welche Funktion die Konservendose für die Konservierung der Lebensmittel hat und es werden Inhaltsstoffe der Ravioli und der Soße nachgewiesen. Insgesamt eignen sich die Thematik und die Herangehensweise für die Erarbeitung einer großen Spanne von Themenbereichen, die von der Korrosion als bis zu unterschiedlichen Nachweisen für Zucker bzw. Kohlenhydraten reichen. Aber die Chemie rund um die Raviolidose kann auch zur Wiederholung und Vertiefung von vorab erarbeiteten Inhalten etwa am Ende eines Schuljahres eingesetzt werden. Für diesen Themenbereich wurden unterschiedliche Materialien entwickelt: 1. Eine kurze Einführung gibt eine Übersicht über die gesamte Thematik. Hier werden auch historische Aspekte der Lebensmittelkonservierung angesprochen. s.a. URN: urn:nbn:de:hebis:30-85789 ; URL: http://publikationen.ub.uni-frankfurt.de/volltexte/2010/8578/ 2. Experimente zum Thema finden sich in einer separaten Versuchssammlung. Überwiegend handelt es sich dabei um Schülerversuche, die einfach durchgeführt werden können. Die Theorie zu den einzelnen Experimenten wird jeweils kurz aufgeführt. s.a. URN: urn:nbn:de:hebis:30-85789 ; URL: http://publikationen.ub.uni-frankfurt.de/volltexte/2010/8578/ 3. Die Möglichkeit der Umsetzung im Unterricht wird in einem drittel Teil exemplarisch dargestellt.
The reactive intermediate methyleneaminoacetonitrile H2C = N - C H2 - CN has been generated via thermal retrotrimerization of N ,N',N"-tris(cyanomethyl)hexahydro-s-triazine and characterized by its photoelectron, mass and low-temperature NMR spectra. A fully geometryoptimized MNDO calculation allows to assign the observed ionization energies and yields estimates for other molecular properties, e.g. a rather high dipole moment.
Synästhetische Normativität
(2017)
Im Herzen Frankreichs, südlich von Paris und Orléans, östlich von Blois, in einem ausgedehnten Waldgebiet liegt das Schloss von Chambord, das prächtige, das unvergleichliche Chambord, Prunk- und Jagdresidenz Franz’ I., architektonischer Höhe- und Wendepunkt der französischen Renaissance. Karl V., Kaiser des Heiligen Römischen Reiches und des allerchristlichsten Königs ewiger Rivale, soll das Schloss, als er es 1539 zu Gesicht bekam, gepriesen haben als den "Inbegriff dessen, was menschliche Kunst vermag.". ...
Wer den Ehrgeiz hat, sein Fach zu revolutionieren, der sollte sich zu seiner Liebe bekennen und keine Arbeitsvorhaben formulieren, schon gar nicht sollte er wie ein Kassenwart erst einmal "Bilanz ziehen". Fernand Braudel wusste das. "Ich habe das Mittelmeer leidenschaftlich geliebt", schrieb er 1946 im berühmten Vorwort zur ersten Auflage von "La Méditerranée et le monde méditerranéen à l’époque de Philippe II", "der beste Leser dieses Buches wird vielleicht der sein, der mit eigenen Erinnerungen, eigenen Bildern des Mittelmeeres an meinen Text herangeht, ihm eigene Farbe verleiht und mir dabei hilft, worum ich mich mit aller Kraft bemüht habe: die gewaltige Präsenz dieses Meeres erfahrbar zu machen". Aus dem missionarischen Eifer, anderen die narkotisch-erotische Ausstrahlung des mare nostrum zu vermitteln, der er selbst erlegen war, schöpfte er die Kraft für ein gewaltiges Œuvre, das in der Geschichtsschreibung des 20. Jahrhunderts seinesgleichen sucht. ...
Nietzsche unterscheidet in seiner so unzeitgemäßen wie unvergleichlichen Schrift "Vom Nutzen und Nachtheil der Historie für das Leben" bekanntlich drei Arten von Historie, die, wenn sie sich vereinigen, dem Lebendigen dienen, anstatt es zu Grunde zu richten. Zumindest zwei dieser drei Anforderungen (vielleicht auch alle drei) erfüllt Fleckners wegweisende, von Reinhard Zimmermann betreute Regensburger Dissertation: Sie ist dem Inhalt nach "kritisch", da sie die Kraft hat, "eine Vergangenheit zu zerbrechen und aufzulösen, um leben zu können", und sie ist der Form nach "antiquarisch", da sie durch Pietät gleichsam den Dank für ihr Dasein abträgt. ...
Gelehrte bedürfen einander. Eine soziale Gruppe, die es nicht als ihre vornehmste Aufgabe ansieht, sich die materiellen Grundlagen des Lebens zu erarbeiten, ist auf Solidarität angewiesen. Nicht immer steht ein reicher Gönner, ein Mäzen, ein Patron zur Verfügung, der gewillt ist, antiquarische, philologische oder sonstige "zweckfreie" Interessen zu fördern. Der vom Schicksal Benachteiligte hofft in dem Fall auf die Unterstützung derer, die seine Interessen teilen und die materielle Bedrängnis aus eigenem Erleben nachvollziehen können. Gelehrte bedürfen ferner auch insoweit einander, als in der Regel nicht alle für die Realisierung eines wissenschaftlichen Vorhabens benötigten Informationen, Schriften und Artefakte vor Ort vorhanden sind. Also begibt man sich auf Reisen, zieht in ferne Länder in der Hoffnung, dort Gleichgesinnte zu treffen, die im Besitz der erstrebten ideellen Güter sind und dazu bereit, andere daran teilhaben zu lassen. ...
Über kaum einen Gegenstand wissen wir so wenig wie über die Wirklichkeit des juristischen Denkens. Am besten sind wir noch – dank Richard Posner ("How Judges Think" – Cambridge, MA/London 2008) und anderer (überwiegend) anglo-amerikanischer Autoren – über die Untiefen und Irrläufe richterlicher Entscheidungsfindung informiert. Rechtswissenschaft und Rechtspolitik werden hingegen nach wie vor nur selten in kognitiven Kategorien vermessen. ...
Untergangspädagogik
(2017)
Der Mensch der Moderne befindet sich in einer fundamentalen Unsicherheit. Ihm bleiben zwei Möglichkeiten, mit dieser Unsicherheit umzugehen: er kann sich ablenken oder sich offenen Auges in und trotz der Unsicherheit entfalten. Bildung hat die Aufgabe, Menschen zu einer solchen Entfaltung zu befähigen.
Mit Neuen Digitalen Medien geht das Versprechen einher, Sicherheit durch Selbstkontrolle und Selbstoptimierung in einer unsicheren Welt zu erlangen. Deutlich wird dies am Phänomen Quantified Self, das als Ausdruck einer transhumanistischen Agenda gelesen werden kann. Diese Sicherheit ist eine vermeintliche, denn tatsächlich führt sie zu einer unzweifelhaften, entmenschlichten, sinn- und bedeutungslosen Existenz, kurzum: zum Untergang. Der vorliegende Beitrag zeigt auf, dass insbesondere mit der Medienpädagogik das Potenzial einhergeht, den drohenden Untergang zu einem Übergang werden zu lassen. Dazu ist es allerdings vonnöten, das Phänomen Quantified Self bildungstheoretisch einzuordnen.
Frankfurt, an einem gewöhnlichen Morgen gegen 8:00 Uhr: Von Osten strömen zahlreiche Pendler über die A 66 in Richtung Innenstadt. Spätestens »Am Erlenbruch« kommt es zu Staus und zäh fließendem Verkehr. Frankfurter Informatiker können diese Staus mithilfe eines Simulationssystems vorhersagen. Mehr noch: Sie berechnen den Ausstoß von Schadstoffen und deren Verteilung über das Stadtgebiet. Ziel ist die Optimierung von Verkehrsleitstrategien.
Die vorliegende Dissertation behandelt die Entwicklung eines Verkehrssimulationssystems, welches vollautomatisch aus Landkarten Simulationsgraphen erstellen kann. Der Fokus liegt bei urbanen Simulationsstudien in beliebigen Gemeinden und Städten. Das zweite fundamentale Standbein dieser Arbeit ist daher die Konstruktion von Verkehrsmodellen, die die wichtigsten Verkehrsteilnehmertypen im urbanen Bereich abbilden. Es wurden Modelle für Autos, Fahrräder und Fußgänger entwickelt.
Die Betrachtung des Stands der Forschung in diesem Bereich hat ergeben, dass die Verknüpfung von automatischer Grapherstellung und Modellen, die die Wechselwirkungen der verschiedenen Verkehrsteilnehmertypen abbilden, von keinem vorhandenen System geleistet wird. Es gibt grundlegend zwei Gruppen von Verkehrssimulationssystemen. Zum Einen existieren Systeme, die hohe Genauigkeiten an Simulationsergebnissen erzielen und dafür exakte (teil-)manuelle Modellierung der Gegebenheiten im zu simulierenden Bereich benötigen. Es werden in diesem Bereich meist Verkehrsmodelle simuliert, die die Verhaltensweisen der Verkehrsteilnehmer sehr gut abbilden und hierfür einen hohen Berechnungsaufwand benötigen. Auf der anderen Seiten existieren Simulationssysteme, die Straßengraphen automatisch erstellen können, darauf jedoch sehr vereinfachte Verkehrsmodelle simulieren. Es werden meist nur Autobewegungen simuliert. Der Nutzen dieser Herangehensweise ist die Möglichkeit, sehr große Szenarien simulieren zu können.
Im Rahmen dieser Arbeit wird ein System mit Eigenschaften beider grundlegenden Ansätze entwickelt, um multimodalen innerstädtischen Verkehr auf Basis automatisch erstellter Straßengraphen simulieren zu können. Die Entwicklung eines neuen Verkehrssimulationssystems erschien notwendig, da sich zum Zeitpunkt der Literaturbetrachtung kein anderes vorhandenes System für die Nutzung zur Erfüllung der genannten Zielstellung eignete. Das im Rahmen dieser Arbeit entwickelte System heißt MAINSIM (MultimodAle INnerstädtische VerkehrsSIMulation).
Die Simulationsgraphen werden aus Kartenmaterial von OpenStreetMap extrahiert. Kartenmaterial wird zuerst in verschiedene logische Layer separiert und anschließend zur Bestimmung eines Graphen des Straßennetzes genutzt. Eine Gruppe von Analyseschritten behebt Ungenauigkeiten im Kartenmaterial und ergänzt Informationen, die während der Simulation benötigt werden (z.B. die Verbindungsrichtung zwischen zwei Straßen). Das System verwendet Geoinformationssystemkomponenten zur Verarbeitung der Geodaten. Dies birgt den Vorteil der einfachen Erweiterbarkeit um weitere Datenquellen.
Die Verkehrssimulation verwendet mikroskopische Verhaltensmodelle. Jeder einzelne Verkehrsteilnehmer wird somit simuliert. Das Modell für Autos basiert auf dem in der Verkehrsforschung weit genutzten Nagel-Schreckenberg-Modell. Es verfügt jedoch über zahlreiche Modifikationen und Erweiterungen, um das Modell auch abseits von Autobahnen nutzen zu können und weitere Verhaltensweisen zu modellieren. Das Fahrradmodell entsteht durch geeignete Parametrisierung aus dem Automodell. Zur Entwicklung des Fußgängermodells wurde Literatur über das Verhalten von Fußgängern diskutiert, um daraus geeignete Eigenschaften (z.B. Geschwindigkeiten und Straßenüberquerungsverhaltensmuster) abzuleiten. MAINSIM ermöglicht folglich die Betrachtung des Verkehrsgeschehens auch aus der Sicht der Gruppe der Fußgänger oder Fahrradfahrer und kann deren Auswirkungen auf den Straßenverkehr einer ganzen Stadt bestimmen.
Das Automodell wurde auf Autobahnszenarien und innerstädtischen Straßengraphen evaluiert. Es konnte die gut verstandenen Zusammenhänge zwischen Verkehrsdichte, -fluss und -geschwindigkeit reproduzieren. Zur Evaluierung von Fahrradmodellen liegen nach dem besten Wissen des Autors keine Studien vor. Daher wurden an dieser Stelle der Einfluss der Fahrradfahrer auf den Straßenverkehr und die von Fahrrädern gefahrenen Geschwindigkeiten untersucht. Das Fußgängermodell konnte die aus der Literaturbetrachtung ermittelten Verhaltensweisen abbilden.
Nachdem die wichtigsten Komponenten von MAINSIM untersucht wurden, begannen Fallstudien, die verschiedene Gebiete abdecken. Die wichtigsten Ergebnisse aus diesem Teil der Arbeit sind:
- Es ist möglich, mit Hilfe maschineller Lernverfahren Staus innerhalb Frankfurts vorherzusagen.
- Nonkonformismus bezüglich der Verkehrsregeln kann je nach Verhalten den Verkehrsfluss empfindlich beeinflussen, kann aber auch ohne Effekt bleiben.
- Mit Hilfe von Kommunikationstechniken könnte in der Zukunft die Routenplanung von Autos verbessert werden. Ein Verfahren auf Basis von Pheromonspuren wurde im Rahmen dieser Arbeit untersucht.
- MAINSIM eignet sich zur Simulation großer Szenarien. In der letzten Fallstudie dieser Arbeit wurde der Autoverkehr eines Simulationsgebietes um Frankfurt am Main herum mit ca. 1,6 Mio. Trips pro Tag simuliert. Da MAINSIM über ein Kraftstoffverbrauchs- und CO2-Emissionsmodell verfügt, konnten die CO2-Emissionen innerhalb von Frankfurt ermittelt werden. Eine angekoppelte Simulation des Wetters mit Hilfe einer atmosphärischen Simulation zeigte, wie sich die Gase innerhalb Frankfurts verteilen.
Für den professionellen Einsatz in der Verkehrsforschung muss das entwickelte Simulationssystem um eine Methode zur Kalibrierung auf Sensordaten im Simulationsgebiet erweitert werden. Die vorhandenen Ampelschaltungen bilden nicht reale Ampeln ab. Eine Erweiterung des Systems um die automatische Integrierung maschinell lesbarer Schaltpläne von Ampeln im Bereich des Simulationsgebietes würde die Ergebnisgüte weiter erhöhen.
MAINSIM hat mehrere Anwendungsgebiete. Es können sehr schnell Simulationsgebiete modelliert werden. Daher bietet sich die Nutzung für Vorabstudien an. Wenn große Szenarien simuliert werden müssen, um z.B. die Verteilung der CO2-Emissionen innerhalb einer Stadt zu ermitteln, kann MAINSIM genutzt werden. Es hat sich im Rahmen dieser Arbeit gezeigt, dass Fahrräder und Fußgänger einen Effekt auf die Mengen des Kraftstoffverbrauchs von Autos haben können. Es sollte bei derartigen Szenarien folglich ein Simulationssysytem genutzt werden, welches die relevanten Verkehrsteilnehmertypen abbilden kann. Zur Untersuchung weiterer wissenschaftlicher Fragestellungen kann MAINSIM beliebig erweitert werden.
Sich ein Bild von der Flucht machen(können)? : das Eigene und das Fremde in aktuellen Bilderbüchern
(2017)
Flucht und Migration erzeugen ein die Lebenswelt vieler berührendes, aber zumeist temporäres kulturelles Begegnungsszenario, das im kollektiven Gedächtnis einer Gesellschaft nicht selten literarisch verankert wird. Bedingt durch das aktuelle weltpolitische Geschehen nimmt deshalb insbesondere die "Migrationsliteratur" (Rösch 2001, S.8) einen großen Raum ein. Im Gegensatz zur "Migrantenliteratur" (ebd., S. 5) erweist sich jene zumeist als unabhängig von der Herkunft der Autoren, wenngleich auch sie sich mit Migrationsprozessen und -themen beschäftigt. (Vgl. Rösch 2001, S. 8–9) Mit Rösch lässt sich somit konstatieren, dass lediglich das "Thema" und "die Erzählperspektive", nicht aber die "Autorenbiographie" für die Migrationsliteratur entscheidend seien. (Ebd., S. 9) ...
Die Darstellung der Ergebnisse erfolgt entlang der definierten Handlungsfelder. Dabei werden stets das Ziel des Handlungsfeldes sowie die Teilziele in den Untergliederungen eines jeden Handlungsfel des wiedergegeben. Dem folgt die Darstellung der Datengrundlage, die zur Abbildung der bisherigen Aktivitäten und zur letztlichen Bewertung der Zielerreichung herangezogen wurde. Es schließt sich die detaillierte Darlegung des Umsetzungsstandes im jeweiligen (Teil‐) Handlungsfeld an. Dabei werden jeweils die in Bezug zum definierten Ziel stehenden Entwicklungen und Aktivitäten im Betrachtungszeitraum zwischen dem Jahr 2011 und dem Jahr 2015 nachgezeichnet. In Einzelfällen werden auch Betrachtungsjahre vor oder nach dem genannten Zeitraum mit einbezogen oder es werden nur einzelne Zeitabschnitte innerhalb des Betrachtungszeitraums in die Analyse mit einbezogen. Solche Einschränkungen sind stets explizit sichtbar gemacht und werden begründet, wobei die Gründe zumeist im Bereich der Datenverfügbarkeit liegen oder sich aus der Sachlage heraus keine sinnvolle Alternative ergibt. In zahlreichen Handlungsfeldern erfolgt neben der Bezugnahme auf Primär‐ und Sekundärdaten zudem eine rahmende Einschätzung von Experten/innen, um Entwicklungen in ihrer Detailtiefe richtig einordnen und bewerten zu können. Sofern möglich, wird stets Bezug genommen auf quantitatives wie auch auf qualitatives Datenmaterial. Einzelne Handlungsfelder lassen die Bezugnahme auf quantitative Daten nicht zu, sei es, dass keine entsprechenden Daten vorliegen, sei es, dass aus der Sachlage heraus eine Quantifizierung nicht sinnhaft ist. In diesen Fällen wird auf einer entsprechend breiteren qualitativen Datenlage aufgebaut. Die Darstellung zu jedem (Teil‐)Handlungsfeld wird im Anschluss an die Abbildung der erfolgten Aktivitäten und Prozesse unter einem bewertenden Fokus resümiert. Dabei erfolgt eine Bewertung unter drei Gesichtspunkten: a.) Wurde das Ziel bzw. wurden die Ziele im definierten Umfang erreicht?; b.)Sofern das Ziel / die Ziele nicht erreicht wurden, inwiefern gelang eine Teilumsetzung und welche Gründe standen gegebenenfalls einer vollumfänglichen Zielerreichung im Wege?; c.) Lassen sich Entwicklungen und Trendanzeichen feststellen? In einigen wenigen Fällen sind die Zielsetzungen verschiedener (Teil‐) Handlungsfelder derart ähnlich gelagert und ist im Zuge der Darstellung und Bewertung ein Rückgriff auf die gleichen Datenquellen unumgänglich, so dass diese (Teil‐)Handlungsfelder im vorliegenden Bericht gemeinsam dargestellt werden. An den betreffenden Stellen ist das beschriebene Vorgehen jeweils explizit sichtbar gemacht.
Wer nutzt den Online-Gebrauchtwarenmarkt? : Umweltorientierte, Prosumenten und andere User auf eBay
(2010)
Johannes Hoffmann : 75 Jahre
(2012)
In der durchgeführten Studie erfolgte die Untersuchung des visuellen Arbeits-gedächtnisses von bipolaren Patienten im Vergleich zu gesunden Kontrollen. Es erfolgten bereits viele Untersuchungen an Patienten mit bipolarer Störung. Wird das Hauptaugenmerk auf die kognitiven Funktionen der Patienten gelegt, so konnte bereits in einigen Studien gezeigt werden, dass nicht nur in depressi-ver oder manischer, sondern auch in euthymer Stimmungslage kognitive Defizi-te vorliegen. Zur näheren Untersuchung der Funktionen des visuellen Arbeits-gedächtnisses der Patienten mit bipolarer Störung wurde daher eine fMRT-Untersuchung durchgeführt. Hier wurden Patienten, die an bipolarer Störung erkrankt sind, mit gesunden Kontrollen verglichen. Dabei wurden die bipolaren Patienten in euthymer Stimmungslage untersucht. Weder in Antwortrichtigkeit noch Reaktionsgeschwindigkeit konnte ein signifikanter Gruppenunterschied nachgewiesen werden. Außerdem wurde in der Untersuchung eine Differenzie-rung zwischen den einzelnen Phasen gemacht, die eine Gedächtnisinformation durchläuft. Bei diesen Phasen handelt es sich um Enkodierungs-, Halte- und Abrufphase. Hierbei konnten veränderte Aktivierungsmuster an diversen Hirn-strukturen der bipolaren Patienten dargestellt werden. Diese Veränderungen ziehen sich durch alle drei Phasen der Gedächtniskonsolidierung und können vor allem im präfrontalen Kortex nachgewiesen werden. Es handelt sich dabei vor allem um eine schwächere Aktivierung des präfrontalen Kortex (PFC) der bipolaren Patienten im Vergleich zu gesunden Kontrollen. Unter anderem ist das Arbeitsgedächtnis im PFC lokalisiert. Diese Ergebnisse scheinen ein Hin-weis dafür zu sein, dass bei den bipolaren Patienten neuronale Defizite im visu-ellen Arbeitsgedächtnis vorliegen.
Nach einer kurzen Zusammenstellung von Verfahren, die die Herstellung von Thermoelementen mit geringer Wärmekapazität und -ableitung ermöglichen, werden Konstruktion und thermische Daten der vom Verfasser entwickelten mikroskopisch feinen „Thermonadeln“ wiedergegeben. Um die meßtechnischen Möglichkeiten dieser Thermonadeln beurteilen zu können, wird zunächst eine einfache Theorie des Thermoelementes als Wärmekraftmaschine entwickelt: Der Nutzeffekt wird definiert als der Quotient aus der durch Peltier- und Thomson-Effekt erzeugten elektrischen Energie und den durch die an der Meßstelle des Thermoelementes reversibel und irreversibel aufgenommenen Wärmemengen. Mit Hilfe eines „Arbeitsfaktors A“ (der ein Maß für die Qualität des Thermopaares ist) wird ein theoretischer und praktischer „Gütefaktor G bzw. G“ als das Verhältnis des Nutzeffektes eines Thermoelementes zum Nutzeffekt einer Carnot-Maschine definiert. Dieses Verhältnis gibt an, um welchen Faktor der Nutzeffekt eines Thermoelementes „theoretisch“ und „praktisch“ hinter dem thermodynamisch größtmöglichen Nutzeffekt zurückbleibt. Aus der Tatsache, daß G niemals größer als 1 werden kann, wird eine obere Grenze für die Arbeitsfaktoren A ≦ 1 und damit (in Abhängigkeit.
Der Begleitband zur Ausstellung Fantastische Welten. Albrecht Altdorfer und das Expressive in der Kunst um 1500 gliedert sich, nach einer kurzen Einführung durch Jochen Sander (15–19), in einen knappen Essayteil mit Beiträgen von Guido Messling, Matthias Weniger, Susanne Jaeger und einen Katalogteil der Ausstellungsexponate, die unterteilt in ihre Themengebiete wiederum durch einleitende Texte begleitet werden. ...
ichere Gesellschaften fordern immer mehr Sicherheit. Der Staat, traditionell verantwortlich für die Sicherheitsgewährleistung, gerät dadurch an die Grenzen seiner Steuerungsfähigkeit. In Zeiten globaler Risiken ist er allein schon durch seine territoriale Begrenztheit in seinen Kapazitäten überfordert, die wachsenden Sicherheitsbedürfnisse seiner vielfach verunsicherten Bevölkerung vollständig zu befriedigen. Gleichwohl machen politische Entscheidungsträger immer größere Sicherheitsversprechen, die ihr Verwaltungsapparat in Zeiten begrenzter Haushaltsbudgets kaum mehr einzulösen vermag. Damit befindet sich der Staat in einer paradoxen Situation. Je mehr Sicherheit er bereitstellt, desto weitgehender werden die gesellschaftlichen Sicherheitsanforderungen und desto weniger ist er selber in der Lage, diese zu befriedigen. Der Staat wird zum Opfer seines eigenen Erfolgs. Dies ist einer der Haupteffekte des Wandels der Sicherheitskultur. Dieser Beitrag, der als Einleitung zum zweiten Projektband konzipiert ist, geht auf die Folgen dieses Wandels für die Sicherheitspolitik nach und geht dabei insbesondere auf innenpolitische Faktoren von Sicherheitspolitik ein. In diesem Zusammenhang kommt der Kommunikation von Gefahr und Sicherheit und dem Zusammenwirken von Laien- und Expertenwissen im Rahmen einer demokratischen Sicherheitspolitik eine zentrale Rolle zu.
Danke für die Klarstellung! Es hätte des Kraftausdrucks von Victoria Nuland nicht bedurft, um Klarheit über die transatlantischen Beziehungen zu erhalten. Schon auf der Münchner Sicherheitskonferenz war deutlich geworden, dass die US-Administration die NSA-Affäre so schnell wie möglich vom Tisch haben will und zur Tagesordnung übergehen möchte – ohne ihre Politik zu ändern. Außenminister John Kerry ging mit keinem Wort auf die Bespitzelung deutscher Politiker ein, als er – dem Programm seiner Abteilungsleiterin für Europa und Eurasien Nuland folgend – eine „transatlantische Renaissance“ beschwor. Und der US-Abgeordnete Mike Rogers riet, lieber „nach vorne zu schauen“ und die Gefahren im Cyberspace gemeinsam zu bekämpfen, anstatt in den angeblichen Verfehlungen der amerikanischen Geheimdienste herumzustochern...
Dass es mit der parlamentarischen Kontrolle in Deutschland nicht weit her ist, hat Andreas Voßkuhle, oberster deutscher Verfassungsrichter, erst jüngst in seiner Urteilsbegründung zu Fiskalpakt und Euro-Rettungsschirm der Politik ins Stammbuch geschrieben. Nirgends aber wird das dieser Tage so deutlich wie im Bereich der Sicherheitspolitik. Die Tatsache, dass der Militärische Abschirm-Dienst (MAD) über Monate wichtige Dokumente im Zusammenhang mit den NSU-Morden dem parlamentarischen Untersuchungsausschuss vorenthielt, ist schon an sich bedenklich. Dass dieser Umstand vom verantwortlichen Minister, der die Papiere kannte, als “unsensibel” entschuldigt wird, zeigt zusätzlich, welche Geringschätzung dem Parlament und seiner Kontrollfunktion von Seiten der Sicherheitsbehörden entgegengebracht wird...
Seit einigen Jahren wird in wissenschaftlichen und politischen Kontexten immer häufiger der Begriff der 'Kultur' mit dem der 'Sicherheit' in Zusammenhang gebracht. Diesem Trend liegt offenbar die Vermutung zugrunde, mit dem Kulturbegriff ließen sich ungleichzeitige Veränderungen von objektiver und subjektiver, nationaler und internationaler, sozialer und militärischer Sicherheit beschreiben und das Verhältnis von sicherheitspolitischen Diskursen und sicherheitspolitischer Praxis analysieren. Noch freilich wird der Begriff der 'Sicherheitskultur' so unterschiedlich und unbestimmt verwendet, dass Erkenntnisse aus der einen Disziplin nicht einfach in eine andere übertragen werden können und der politische Sprachgebrauch uneinheitlich bleibt.
Teil V der Artikelserie "Die ethische Dimension der Drohnendebatte".
Zu jedem Krieg, den die USA geführt haben, gibt es mindestens eine Rede, mit der der jeweilige Präsident die Kriegsgründe erläutert, die militärischen Ziele beschreibt und den Gewalteinsatz rechtfertigt. Zum Drohnenkrieg, den US-Präsident Obama drastisch ausgeweitet hat, gibt es so eine Rede nicht. Das mag daran liegen, dass Drohnen in ganz unterschiedlichen Konflikten eingesetzt werden und es sich mehr um eine neue Form der Kriegsführung handelt, als um einen bestimmten Krieg. Es könnte aber auch daran liegen, dass die normative Rechtfertigung des Drohnenkrieges schwerfallen und einer öffentlichen Debatte nicht standhalten würde – oder der Präsident und seine Berater dies glauben – und sie deshalb die Publizität scheuen...
Nach dem umstrittenen Referendum in derOstukraine wird wieder über schärfereWirtschaftssanktionen gegen Russland gestritten. ImZentrum der Auseinandersetzung zwischenBefürwortern und Kritikern von Wirtschaftssanktionen steht die Frage: Wieerfolgversprechend sind Sanktionen, das Verhalten Russlands zu ändern?Aber das ist die falsche Frage! Ihr liegt das Missverständnis zugrunde, dassSanktionen in erster Linie den Zweck haben, einen Übeltäter zu bestrafenund ihn dazu zu zwingen, von seinem Tun abzulassen. Zwei Dinge werdenhier verwechselt: Sanktionen und Zwangsdiplomatie...
Willkommen!
(2010)
Der Einfluss extremistischer Gewaltereignisse auf das Framing von Extremismen auf SPIEGEL Online
(2020)
In diesem Beitrag untersuchen wir die Darstellung von Rechtsextremismus, Linksextremismus und Islamismus im medialen Diskurs am Beispiel von SPIEGEL Online, einem der deutschen Leitmedien. Wir leiten vier zentrale Dimensionen für die Konzeptualisierung von Extremismen ab: Ideologie und Organisation, Herkunft der Akteure, Stellung zur Gesellschaft und Typische Handlungen. Wir beobachten die Entwicklung der Darstellung der drei Extremismen an möglichen Bruchpunkten: Wir untersuchen das assoziative Framing der drei Extremismen vor und nach prominenten extremismusbezogenen Gewaltereignissen, namentlich die Anschläge des 11. September, die Veröffentlichung des NSU-Skandals und linksextremistische Aktivitäten während des G20-Gipfels in Hamburg. Mittels einer Kollokationsanalyse identifizieren wir mit den Extremismen assoziierte Aspekte und ordnen diese den Konzeptualisierungsdimensionen zu. Wir beobachten Veränderungen im Framing, die durch die ausgewählten Ereignisse bedingt sind, und vergleichen das resultierende Framing mit den Kerndefinitionen des Verfassungsschutzes aus dem Bericht des Jahres 2017, um mögliche Unterschiede in der Konzeptualisierung von Extremismen mit möglicherweise unterschiedlichen Handlungslogiken als Resultat divergierender Konzeptualisierungen herauszuarbeiten.
Der Einfluss extremistischer Gewaltereignisse auf das Framing von Extremismen auf SPIEGEL Online
(2020)
In diesem Beitrag untersuchen wir die Darstellung von Rechtsextremismus, Linksextremismus und Islamismus im medialen Diskurs am Beispiel von SPIEGEL Online, einem der deutschen Leitmedien. Wir leiten vier zentrale Dimensionen für die Konzeptualisierung von Extremismen ab: Ideologie und Organisation, Herkunft der Akteure, Stellung zur Gesellschaft und Typische Handlungen. Wir beobachten die Entwicklung der Darstellung der drei Extremismen an möglichen Bruchpunkten: Wir untersuchen das assoziative Framing der drei Extremismen vor und nach prominenten extremismusbezogenen Gewaltereignissen, namentlich die Anschläge des 11. September, die Veröffentlichung des NSU-Skandals und linksextremistische Aktivitäten während des G20-Gipfels in Hamburg. Mittels einer Kollokationsanalyse identifizieren wir mit den Extremismen assoziierte Aspekte und ordnen diese den Konzeptualisierungsdimensionen zu. Wir beobachten Veränderungen im Framing, die durch die ausgewählten Ereignisse bedingt sind, und vergleichen das resultierende Framing mit den Kerndefinitionen des Verfassungsschutzes aus dem Bericht des Jahres 2017, um mögliche Unterschiede in der Konzeptualisierung von Extremismen mit möglicherweise unterschiedlichen Handlungslogiken als Resultat divergierender Konzeptualisierungen herauszuarbeiten.
Die Verknüpfung des Fahrrades mit dem Öffentlichen Verkehr (ÖV) kann den Umweltverbund stärken, den Übergang von einem Verkehrssystem auf das andere erleichtern und eine attraktive Alternative zum motorisierten Individualverkehr schaffen. Die vorliegende Arbeit repräsentiert den ersten umfassenden Projektbericht innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“. Ziel dieser Publikation ist eine aktuelle Aufarbeitung des Standes der Forschung und der Praxis zu diesem Thema.
Nach einer systematischen Darstellung wichtiger Forschungsstränge, werden zunächst Ergebnisse aus dem „Mobilität in Deutschland“-Datensatz hinsichtlich intermodaler Rad‐ÖV‐Nutzungsmuster präsentiert. Aufbauend darauf werden Datengrundlagen und generelle Erfordernisse an Erhebungsmethoden diskutiert, um die inter- und multimodale Verkehrsmittelnutzung tatsächlich beurteilen zu können. Die Darstellung des aktuellen Standes in der Praxis wird anhand von drei Schwerpunkt-Feldern vorgenommen: Bike and Ride Abstellanlagen an Haltestellen des ÖV, Radmitnahme in den Fahrzeugen des ÖV und Fahrradverleihsysteme. Dabei werden sowohl infrastrukturelle Maßnahmen als auch Betreiberkonzepte und Marketingaspekte behandelt. Ein weiteres Kapitel beschäftigt sich mit den Chancen und Herausforderungen im Zuge der fortschreitenden Digitalisierung und der Verbreitung von mobilen Endgeräten.
Die Verknüpfung des Fahrrades mit dem Öffentlichen Verkehr (ÖV) kann den Umweltverbund stärken, den Übergang von einem Verkehrssystem auf das andere erleichtern und eine attraktive Alternative zum motorisierten Individualverkehr schaffen. Die vorliegende Arbeit repräsentiert den zweiten umfassenden Projektbericht innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“. Im ersten Projektbericht (ebenfalls in dieser Arbeitspapierreihe erschienen – Nr. 15) wurden die Entwicklungen der letzten Jahre in den infrastrukturellen Themenfeldern Fahrradmitnahme, Fahrradverleihsysteme und Fahrradabstellanlagen aufgearbeitet und Fragen zu Kommunikation und Marketing der Angebote sowie zu Möglichkeiten der fortschreitenden Digitalisierung zur verbesserten Integration von Fahrrad und Öffentlichem Verkehr diskutiert. Darauf aufbauend werden im vorliegenden Bericht die Ergebnisse vertiefender Fallstudien dargestellt, mit dem Ziel, Erfolgsfaktoren und Hemmnisse für die Integration von Fahrrad mit Öffentlichem Verkehr aufzuzeigen und in einem späteren Schritt daraus Handlungsempfehlungen zur Stärkung dieser Integration für Kommunen und Verkehrsanbieter geben zu können. Für die Fallstudien wurden solche Beispiele ausgewählt, die einen Vorbildcharakter haben und als nachahmenswert für andere Städte und Regionen gelten können bzw. aus denen sich Erkenntnisse für die Stärkung der Integration von Fahrradverkehr mit dem ÖV ziehen lassen. Zudem sollten die verschiedenen infrastrukturellen Themenfelder abgedeckt sein. Neben einer Darstellung der jeweils fallspezifischen Besonderheiten wird zu jedem Fallbeispiel das Betreiber- und Geschäftsmodell dargestellt und es erfolgt eine Bewertung, die sowohl die Sicht der Betreiber als auch die der Nutzenden beachtet.
Folgende Fallbeispiele werden behandelt:
Die hessischen Verkehrsverbünde Rhein-Main-Verkehrsverbund (RMV) und Nordhessischer Verkehrsverbund (NVV) bieten eine kosten- und sperrzeitfreie Mitnahmeregelung für Fahrräder an.
Das MVGmeinRad Mainz ist als Fahrradverleihsystem ein Teil des kommunalen ÖPNV-Unternehmens.
Zu den Fahrradabstellanlagen an Bahnhöfen wurden in der Fallstudie drei unterschiedlich große Anlagen einbezogen: Dein Radschloss des Verkehrsverbundes Rhein-Ruhr (VRR) für kleine, das Radhaus Offenburg für mittelgroße und die Radstation Düsseldorf für große Standorte.
München wurde schließlich für eine kommunale Strategie zur verbesserten Verknüpfung von Fahrrad und Öffentlichem Verkehr ausgewählt, da dort eine Vielzahl von Maßnahmen zur Stärkung der Fahrradmobilität sichtbar sind.
Zusammenfassung und Ausblick
Wissenschaftliche Untersuchungen der quantitativen und qualitativen Erfassung von Mikroperfusion, sowie der peripheren Durchblutung, erfolgen seit dem 19. Jahrhundert. Anfangs registrierte man die Blutströmungsgeschwindigkeit mit mechanischen Stromuhren und durch direkte Beobachtung durchtrennter Muskelvenen (Hürthle 1939). Erst Ende der dreißiger Jahre bestand anhand der Entwicklung elektromagnetischer Strömungsmessung die Möglichkeit, die Durchblutung quantitativ zu erfassen (Leyk 1999). Mit Verfahren wie Ultraschall und Laser Doppler Methoden stehen heutzutage wichtige diagnostische Messverfahren zur Verfügung. Dazu dienen kontinuierliche und nicht-invasive Erfassungsmöglichkeiten der Durchblutungsdynamik, d.h. ohne die biologischen Funktionen traumatisch oder thermisch zu beeinflussen. Die Laser Doppler Fluxmetrie wurde erstmalig von Riva et al.1972 verwendet. Damit konnte erstmalig der Bluttfluss in kleinen Gefäßen aufgezeichnet werden. Ähnlich wie bei der herkömmlichen Dopplermessung mit Hilfe von Schallwellen, basiert die Technik auf dem von Christian Doppler (1803-1853) beschriebenem Prinzip der Frequenzverschiebung von reflektierten Schallwellen durch sich bewegende Teile und ermöglicht in Echtzeit-Analyse, Blutflussdaten der Hautdurchblutung zu erheben. Als Weiterentwicklung ermöglicht die Methodik der Laser Doppler Spektroskopie, die Durchblutung tieferer Gewebeschichten darzustellen. Die Beurteilung des Blutflusses und der Strömungsgeschwindigkeit des Blutes - als die elementaren Größen zur Beschreibung der Kreislaufsituation und Gewebsdurchblutung - ist von hoher klinischer Relevanz. In dieser Studie dienten dazu (n=19) gesunde Proband(-innen), welche auf einem Fahrrad-Spiroergometer mit ansteigender, erschöpfungslimitierter Belastung nach BAL und kontinuierlicher Steadystate-Belastung (100W; 70W), untersucht worden sind. Die Durchblutungsmessung mit der Methode der Laser Doppler Spektrokopie (LDS) erfolgte jeweils vor und nach Intervention über fünf Minuten an der rechten Wade als Vertreter der arbeitenden, peripheren Muskulatur und am absteigenden Teil des Trapezmuskels der rechten Schulter als repräsentativer Charakter einer zentralen nicht-arbeitenden, ruhenden Muskulatur. Die Messungen wurden unter standardisierten Bedingungen durchgeführt. Das wesentliche Ziel dieser Studie war, Informationen über die Unterschiede in der Durchblutung der peripheren, arbeitenden Muskulatur und der ruhenden, nicht-arbeitenden Muskulatur darzustellen, sowie die thermoregulatorischen Vorgänge anhand unterschiedlicher Belastungsformen nicht-invasiv und atraumatisch mit Hilfe der Laser Doppler Spektroskopie darzustellen. Des Weiteren bestand die Intention eine Korrelationen zwischen der Durchblutung und der Vitalparamter, wie Herzfrequenz und Hauttemperatur, zu zeigen. Die geschlechtsunspezifischen Ergebnisse der nahezu identischen Ruhedurchblutungswerte innerhalb der wöchentlichen Messabständen der beiden unterschiedlichen Belastungsprotokolle (kontinuierlich vs. ansteigend-erschöpfend) für die Mikrogefäßdurchblutung der Muskulatur sowie der kutanen Durchblutung, sind beweisend für die Validität der Methode der Laser Doppler Spektroskopie. Gleichzeitig fanden sich signifikante Unterschiede in der Durchblutung der peripheren Arbeitsmuskulatur in Abhängigkeit von der Belastungsform, während die Hautdurchblutung keine signifikanten Unterschiede aufwies. Dies lässt die Schlussfolgerung zu, dass bereits aerobe Belastungsintensitäten die thermoregulatorischen Vorgänge im Gefäßbett aktivieren. Weiterhin kann man aus den Ergebnissen erkennen, dass über zentral gesteuerte Mechanismen die gesamte kutane Mikrozirkulation des Organismus aktiviert wird, um die bei der körperlichen Aktivität im gesteigerten Zellstoffwechsel und im Rahmen der Energieerzeugung anfallende Abfallwärme optimal an die Umgebung abzuleiten. Obwohl es zu einer signifikanten Steigerung der Durchblutung der ruhenden Muskulatur - sowohl nach der kontinuierlichen als auch nach der ansteigend-erschöpfenden Belastungsmethode - kommt, finden sich keine signifikanten Unterschiede zwischen beiden Belastungsformen. Zusammenfassend und in Übereinstimmung mit der aktuellen Literatur scheint die LDS in der Lage zu sein, bei einer Standardisierung der Untersuchungsmethodik, Veränderungen im mikrozirkulatorischen Blutfluss valide in verschiedenen Gewebetiefen, eindrucksvoll darzustellen. Neben den durch die beschriebenen Aktivitäten bedingten Durchblutungserhöhungen, zeigen die Ergebnisse, dass es durch die LDS ermöglicht wird, rasche Veränderungen im Blutfluss, in unterschiedlichen Gewebetiefen, in Echtzeit - noch bevor klinische Warnzeichen eintreten –darzustellen. Dies ist am Beispiel der ausgeschlossenen Probanden dieser Arbeit zu beobachten. Thermoregulatorische Vorgänge mit Blutflussumverteilung und kutanen Mehrperfusion waren eindrücklich, insbesonders über der beanspruchten und stoffwechselaktivierten Muskulatur (M.gastrocnemius) darstellbar. Die hohe Korrelationen zu anderen Kreislaufparameter, wie die Herzfrequenz lassen den weiteren Einsatz in Diagnostik und Therapie diverser Krankheitsbilder wünschenswert erscheinen. In der Leistungsdiagnostik liegt die Vermutung nahe, dass aufgrund der Artefaktanfälligkeit der Laser Doppler Methode, sowie dem erhöhten Mehraufwand, der Gebrauch eine eher untergeordnete Rolle spielen wird. Trotzdem veranschaulichen die in dieser Studie zusammengetragenen und ermittelten Resultate, dass die Technik der Laser Doppler Spektroskopie auch im Bereich der Sportmedizin zur nicht-invasiven Messung der Durchblutungsdynamik und der terminalen Mikrozirkulation als kleinster und wichtigster Vertreter des Kreislaufes, anwendbar ist.
Nach neueren Messungen besitzt das Auge eine definierte Empfindlichkeit noch bis etwa 1.0 μ. Es wird hier eine Formel mitgeteilt, die die Messungsresultate befriedigend darstellt. Ihre Auslegung deutet darauf hin, daß der Abfall der Augenempfindlichkeit in diesem "ultraroten" Bereich gerade hinreichend rasch erfolgt, daß keine Dunkelreaktion im Auge den Sehakt stört.
Schulbegleitung ist ein zunehmend relevantes Tätigkeitsfeld bei der Realisierung inklusiver Bildungsangebote. Kritisch diskutiert wird die Einschlägigkeit der Qualifikation der eingesetzten Personen. Aktuell sind etwa 50% der als Schulbegleiter/innen Beschäftigten pädagogisch, therapeutisch oder medizinisch-pflegerisch qualifiziert. Bislang ist wenig darüber bekannt, welchen Tätigkeiten Schulbegleiter/innen genau nachgehen und wie die Zusammenarbeit mit Lehrkräften eingeschätzt wird. In der vorliegenden Untersuchung werden deshalb Tätigkeitsprofile und Selbsteinschätzungen zur Qualität der Zusammenarbeit mit Lehrkräften bei Fachkräften und Nicht-Fachkräften vergleichend in den Blick genommen. Es wurden in einer Fragebogenbefragung n = 61 Schulbegleiter/innen befragt. Die Ergebnisse zeigen, dass wider Erwarten die Fachkräfte mit pädagogischer Qualifikation eher im Bereich der lebenspraktischen Unterstützung als im Bereich der Emotions- und Verhaltensregulation tätig sind. Die Zusammenarbeit mit Lehrkräften wird von Fachkräften und Nicht-Fachkräften gleichermaßen positiv bewertet. Es gibt Hinweise darauf, dass die Bewertung der Zusammenarbeit mit Lehrkräften von spezifischen Tätigkeitsprofilen abhängt.
Die chemischen und physikalischen Eigenschaften eines Festkörpers sind vom inneren Aufbau des Festkörpers abhängig. Die Methode der Wahl zur Bestimmung von Kristallstrukturen sind Beugungsexperimente. Fehlordnungen in den Kristallstrukturen werden mit Beugungsexperimenten häufig nur unzureichend ausgewertet oder ignoriert. In dieser Arbeit wurden die (möglichen) Stapelfehlordnungen der Aminosäuren DL-Norleucin und DL-Methionin, sowie von Chloro (phthalocyaninato)aluminium(III) untersucht. Dazu wurden Gitterenergieminimierungen mit Kraftfeld- und quantenchemischen Methoden an einem Satz geordneter Modellstrukturen durchgeführt.
In den Kristallstrukturen der α- und β-Phasen von DL-Norleucin ordnen sich die Moleküle in Doppelschichten an und bilden jeweils eine Schichtstruktur mit unterschiedlicher Stapelsequenz. Röntgenbeugungsexperimente an Kristallen dieser Verbindung zeigen charakteristische diffuse Streuung. Die durchgeführten Gitterenergieminimierungen reproduzieren die experimentelle Stabilitätenreihenfolge der beiden Polymorphe von DL-Norleucin. Die berechneten Gitterenergien zeigen, dass es für DL-Norleucin bevorzugte Stapelsequenzen gibt. Die Gitterenergien und Molekülstrukturen einer einzelnen Doppelschicht sind dabei von der Anordnung benachbarter Doppelschichten abhängig. Zudem wurden Strukturmodelle mit Stapelsequenzen aufgebaut, die aus kristallographischer Sicht möglich sind, jedoch experimentell nicht beobachtet wurden, und deren Gitterenergie berechnet. Diese Stapelsequenzen liefern im Vergleich zu den energetisch günstigsten Stapelsequenzen einen signifikanten Energieverlust und treten daher selten auf. Ausgehend von den Ergebnissen der Gitterenergieminimierungen mit DFT-D-Methoden wurden Stapelwahrscheinlichkeiten mit Hilfe der Boltzmann-Statistik berechnet. Es wurde ein großes geordnetes Modell mit einer Stapelsequenz gemäß der Stapelwahrscheinlichkeiten aufgebaut. Dieses Modell wurde verwendet, um Beugungsexperimente zu simulieren und mit experimentellen Daten zu vergleichen. Die theoretischen und experimentellen Beugungsdaten waren in guter Übereinstimmung.
Die Moleküle in den Kristallstrukturen der α- und β-Phasen von DL-Methionin bilden Doppelschichten. Die beiden Phasen unterscheiden sich in der Stapelung der Doppelschichten und der Molekülkonformation. Es wurden Gitterenergieminimierungen sowohl mit Kraftfeld-Methoden als auch mit DFT-DMethoden an geordneten Modellen mit unterschiedlichen Stapelsequenzendurchgeführt. Die experimentell bestimmte Stabilitätenreihenfolge der Polymorphe von DL-Methionin bei tiefen Temperaturen wurde durch die Ergebnisse der kraftfeldbasierten Rechnungen reproduziert. Die Modellstrukturen wurden während den Rechnungen moderat verzerrt. Die Bandbreite der relativen Energien aller Modelle ist relativ gering, sodass eine Stapelfehlordnung aus thermodynamischer Sicht nicht ausgeschlossen werden kann. In der Regel liefern Gitterenergieminimierungen mit DFT-D Methoden genauere Ergebnisse. Die Modellstrukturen wurden während den Rechnungen nur leicht verzerrt. Allerdings unterscheidet sich das Energieranking zwischen den Kraftfeld- und DFT-D-Methoden deutlich. Die experimentell bestimmte Stabilitätenreihenfolge der Polymorphe von DL-Methionin wurde mit DFT-D-Methoden nicht reproduziert. Die Energieunterschiede zwischen den beiden Polymorphen (ΔE = 1,60 kJ∙mol−1 (DFT-D2) bzw. ΔE = 0,83 kJ∙mol−1 (DFT-D3)) sind relativ gering und liegen im Fehlerbereich der Methode. Die Bandbreite der relativen Energien aller Strukturmodelle beträgt nur etwa 1,8 kJ∙mol−1. Auf dieser Grundlage ist eine Stapelfehlordnung in den Kristallstrukturen von DL-Methionin möglich, jedoch nicht experimentell beobachtet. Nicht nur die Kraftfeld-,sondern auch die DFT-D-Methoden scheinen für die Berechnung der Gitterenergien für das System DL-Methionin nicht genügend genau zu sein. Die erhaltenen relativen Energien sollten daher mit Vorsicht betrachtet werden.
Chloro(phthalocyaninato)aluminium(III) (AlPcCl) bildet eine Schichtstruktur, in der sich die Moleküle zu Doppelschichten zusammenlagern. Die 1984 durchgeführte Kristallstrukturbestimmung [98] lieferte auf Grund der schlechten Datenqualität nur eine ungenaue Kristallstruktur. Die asymmetrische Einheit enthält zwei Moleküle, von denen das eine Molekül geordnet, das andere fehlgeordnet ist. Die Kristallstruktur von AlPcCl ist fehlgeordnet, weil eine einzelne Doppelschicht von Molekülen eine tetragonale P4/n-Symmetrie aufweist, die vier symmetrieäquivalente Möglichkeiten bietet, eine zweite Doppelschicht auf einer ersten Doppelschicht zu platzieren. Mit Hilfe der OD-Theorie wurde ein Satz geordneter Modelle mit verschiedenen Stapelsequenzen aufgestellt und die Gitterenergie zunächst mit Kraftfeld-Methoden und anschließend mit DFT-DMethoden berechnet. Auf Grund unzureichender Parametrisierung, musste das Kraftfeld an das System AlPcCl angepasst werden. Die Modellstrukturen werden während den Kraftfeld-Rechnungen nur leicht verzerrt. Die berechneten Gitterenergien hängen allerdings stark von der verwendeten Parametrisierung und den Atomladungen ab und sollten daher mit Vorsicht betrachtet werden. Genauere Ergebnisse erzielten Gitterenergieminimierungen mit DFT-D-Methoden. Die verschiedenen Stapelsequenzen haben eine ähnliche Energie, was die Stapelfehlordnung in der Kristallstruktur von AlPcCl erklärt. Die Überlagerung der vier energetisch günstigsten geordneten Stapelsequenzen führt zu einer gemittelten Struktur, die sehr gut die fehlgeordnete experimentelle Kristallstruktur von AlPcCl erklärt.
Hintergrund: Depressionen sind häufige, schwere und oft lebensbedrohliche Erkrankungen, bei denen es – trotz sehr guter Behandlungsmethoden – Versorgungslücken gibt. Hierzu tragen Vorbehalte gegen eine leitlinienkonforme pharmako- und/oder psychotherapeutische Behandlung bei. Ziel der Arbeit ist es zu ermitteln, in welchen soziodemographischen Bevölkerungssegmenten diese Vorbehalte besonders ausgeprägt sind.
Methodik: Die Untersuchung basiert auf Online-Befragungen der deutschen Bevölkerung aus den Jahren 2021, 2020 und 2019, darunter 1656 Personen (2021), 1775 Personen (2020) und 1729 Personen (2019) ohne Depressionserfahrungen. Mit einer CHAID-Analyse wurde geprüft, in welchen Bevölkerungssegmenten die Vorbehalte gegen eine leitliniengerechte Behandlung besonders groß sind.
Ergebnisse: Vorbehalte gegen Pharmakotherapie hatten insgesamt 69,8 % der Befragten ohne Depressionserfahrungen. Am größten waren die Vorbehalte unter jüngeren Personen (< 40 Jahre); hier lag der Anteil bei 74,2 %. Vorbehalte gegen Psychotherapie äußerten 31,4 % ohne Depressionserfahrungen; unter Frauen mit geringerer Schulbildung hatten 40,5 % Vorbehalte gegen eine Psychotherapie; unter Männern mit geringerer Schulbildung waren es 39,1 %. Vorbehalte gegen beide Behandlungsformen zeigten 27,7 %. Am größten waren die Vorbehalte unter Männern mit Schulbildung unterhalb der Hochschulreife (34,1 %). Die Ergebnisse sind signifikant (χ2-Test, p < 0,05).
Diskussion: Eine allgemeine Informationsstrategie wäre geeignet, Vorbehalten gegen Pharmakotherapie und Psychotherapie gleichermaßen zu verringern. Für eine spezifische Informationsstrategie müssen die Botschaften hinsichtlich Inhalt und Kommunikationskanälen so gestaltet werden, dass die jüngere Zielgruppe zuverlässig erreicht wird.
Nachdem Padua dem Proto-Signore Ezzelino III. da Romano entrissen worden war und derselbe wenige Jahre später den Schlachtentod gefunden hatte, verfasste der Paduaner Rolandino eine Chronik, in der er die Ereignisse in der Trevisaner Mark vom späten 12. Jahrhundert bis ins Jahr 1260 schildert. Der vorliegende Aufsatz veranschaulicht, bei weiter Auslegung des Kommunikationsbegriffs, vier Kommunikationsebenen in der und über die Chronik. Anhand ausgewählter Beispiele werden einige Kommunikationskontexte im spätmittelalterlichen Ostoberitalien sowie Darstellungsabsicht, Vorgehensweise und Gegenwartsinteresse des Chronisten und auch die frühe Rezeption des Werkes seitens der paduanischen Bürgerschaft aufgezeigt.
Zu Beginn der Dagmar-Westberg-Vorlesungen in diesem Wintersemester stand auch die Namensgeberin selbst im Mittelpunkt. Dagmar Westberg wurde von Prof. Matthias Lutz-Bachmann herzlich im Hörsaal begrüßt – und der Vizepräsident der Goethe-Universität gratulierte ihr gleichzeitig zum 99. Geburtstag. Als Stifterin ermöglicht Dagmar Westberg die Gastprofessur, bei der jährlich international ausgewiesene Vertreter der Geistes- und Kulturwissenschaften dreiteilige Vorlesungen auf dem Campus Westend halten. Der Auftakt hatte im Dezember 2012 bereits Maßstäbe gesetzt. Es sprach der Münchner Mediävist und aktuelle Präsident der DFG, Prof. Peter Strohschneider, zum Thema „Möglichkeitssinn – Geisteswissenschaften und Gesellschaft“. Nach dieser offensiv vorgetragenen Standortbestimmung der Geisteswissenschaften ging es jetzt, im Dezember 2013, um nichts Geringeres als die Bedeutung der Liebe für eine gerechte Gesellschaft. Prominente Rednerin war die politische Philosophin Prof. Martha C. Nussbaum, eine der wohl vielseitigsten und einflussreichsten Denkerinnen der Gegenwart.
Einleitung: Der Typ 1 Diabetes (T1D) ist eine Autoimmunendokrinopathie, die mit zahlreichen Langzeitkomplikationen assoziiert ist. Kardiovaskuläre Erkrankungen (CVD) stellen hierbei den zentralen Grund für Morbidität und Mortalität dar. Ihre Pathogenese wird zunehmend im Kontext autoimmunologischer Prozesse diskutiert. Wir konnten bereits zeigen, dass Vitamin D (VD) sowohl immunmodulatorische als auch gefäßprotektive Effekte vermittelt. Daher untersuchten wir, ob durch VD die inflammatorische Aktivität CD8+ zytotoxischer T-Zellen (CTL) von Patienten mit T1D ohne und mit kardiovaskulärer Komplikation beeinflusst werden kann.
Methoden: Primär isolierte CTLs von sowohl Patienten mit T1D ohne (T1D Ø CVD, n = 20) und mit CVD (T1D + CVD, n = 20) als auch von gesunden Kontrollprobanden (HCs , n = 20) wurden über 72 h in An- bzw. Abwesenheit (+/-VD) von VD (1,25(OH)2D3) kultiviert. Die relative mRNA-Transkriptmenge der Zytokine IL-2, TNF-α, IFN-γ, IL-4, IL-6 und IL-10 sowie der Zelloberflächen- und Seneszenzmarker CD28, CD57 und CD95 wurde mittels RTqPCR analysiert. Zudem wurde die Proteinkonzentration der sezernierten Zytokine mittels CBA quantifiziert.
Ergebnisse: Die VD-Behandlung in vitro reduzierte die relative mRNA-Transkriptmenge von IL-2 (p = 0.01 und p = 0.02 resp.) und IFN-γ (p = 2x10-6 resp.) in CTLs von Patienten und HCs während die Genexpression von IL-4 (p = 2x10-6 und p = 2x10-3 resp.) und IL-6 (p = 2x10-6 und p = 4x10-6 resp.) erhöht wurde. Überdies war der VD-Effekt (ΔVDbehandelt-unbehandelt) auf die IL-4 Genexpression bei T1D + CVD stärker ausgeprägt als in der Kontrollgruppe (1.7 vs. 1.1; p = 0.03). Subgruppenanalysen zeigten zudem eine reduzierte IL-2 Genexpression durch die Behandlung mit VD in vitro bei T1D + CVD bei manifester diabetischer Nephropathie (142 vs. 97; p = 0.04) wohingegen dies bei erhaltener Nierenfunktion nicht beobachtet werden konnte (62 vs. 56; p = 0.31).
Schlussfolgerung: Die breite Modifikation der Genexpressionslevel untersuchter Zytokine bestätigt den immunmodulatorischen Effekt von VD bei Patienten mit T1D und kardiovaskulärer Komplikation. Die stark reduzierte Genexpression des pro-inflammatorischen IFN-γ legt hierbei einen potenziellen Effekt von VD in der Prävention chronisch-inflammatorischer Prozesse nahe. Die gruppenübergreifend unterschiedlich ausgeprägten VD-Effekte auf die Genexpression von IL-4 sowie die Subgruppenanalysen deuten jedoch auf eine relevante Heterogenität der immunmodulatorischen VD-Effekte hin: sowohl der individuelle klinische Zustand unter Einbeziehung assoziierter Komorbiditäten wie der diabetischen Nephropathie als auch die genetischen Variationen des VD-Systems müssen in groß angelegten Follow-up-Studien weiter untersucht werden, um optimale VD-Dosis-Effekte für klinisch relevante Subgruppen zu identifizieren.
Internationale Fachkonferenz im Hybrid-Format : Nachbericht zur Frankfurt Cancer Conference 2021
(2021)
Hidradenitis suppurativa/Acne inversa (HS/AI) ist eine chronisch-entzündliche Hauterkrankung, deren Behandlung sowohl konservative als auch chirurgische Behandlungsmöglichkeiten umfasst. In den Hurley-Stadien II und III ist die chirurgische Resektion irreversibel zerstörten Gewebes anzustreben. Hierzu existieren verschiedene Resektionstechniken, die sich vor allem in ihrer Invasivität und Rezidivneigung unterscheiden. Bis heute gibt es keinen allgemein akzeptierten Konsens hinsichtlich verschiedener Resektions- und Rekonstruktionstechniken sowie der Einbeziehung medikamentöser Therapien in das therapeutische Gesamtkonzept.
With Empire of the Black Sea: the Rise and Fall of the Mithridatic World (2020), Duane Roller has published the first English monograph meant to cover the Pontic Kingdom of the Mithradatid dynasty. Although he falls short of presenting an up-to-date bibliography, the book is likely to become an influential reference work. The present chapter aims at closing several of the bibliographical gaps, by surveying recent (and forthcoming) scholarship especially on the kingdom’s history prior to Mithradates VI Eupator. Topics include the Achaemenid ancestry of Mithradates of Kios, the flight of Mithradates I Ktistes to Kimiata, the role of the Galatians in the rise of the kingdom, the historicity of Mithradates III, the wars and diplomacy of Pharnakes I, the putative sibling marriage of Mithradates IV, chronological aspects of the rule of Mithradates V, and the continuity of Mithradatid foreign policies.
Einfluss des Transkriptionsfaktors Tal1 auf die Osteoklastogenese durch Regulation von DC-STAMP
(2012)
Das menschliche Knochengewebe unterliegt einem ständigen Auf- und Abbau. Der Knochenumbau, die so genannte Knochenremodellierung, findet stetig statt und etwa 10 % des gesamten Knochengewebes werden innerhalb eines Jahres erneuert (Lerner UH, 2006). Während der Knochenremodellierung befindet sich die Zellaktivität der Knochenaufbauenden Osteoblasten und der Knochen-abbauenden Osteoklasten in einem empfindlichen Gleichgewicht (Karsenty G und Wagner EF, 2002; Teitelbaum SL, 2000).
Durch Störung des Gleichgewichts zwischen Osteoblasten und Osteoklasten kann es zu Knochen-assoziierten Krankheiten wie Osteoporose oder Osteopetrose kommen (Helfrich MH, 2003; Sambrook P und Cooper C, 2006). Osteoklasten sind multinukleäre Zellen, die in der Lage sind die Knochenmatrix zu resorbieren (Teitelbaum SL, 2000). Sie entstehen aus pluripotenten, hämatopoetischen Stammzellen durch Differenzierung und Zellfusion von Monozyten/Makrophagen-Vorläuferzellen (Menaa C et al., 2000, Yavropoulou MP und Yovos JG, 2008). Die Osteoklasten-Differenzierung wird hauptsächlich durch die Zytokine M-CSF (macrophage colony stimulating factor) und RANKL (receptor activator of nuclear factor k b ligand) induziert. Sie initiieren ein spezifisches Expressionsmuster Osteoklasten-spezifischer Gene und aktivieren die Zellfusion in Osteoklasten-Vorläuferzellen zur Bildung reifer Osteoklasten (Boyle WJ et al., 2003; Asagiri M und Takayanagi H, 2007). Die RANKL-vermittelte Induktion der Osteoklastogenese beruht auf der Initiierung eines streng regulierten Netzwerks aus Transkriptionsfaktoren (Yang X und Karsenty G, 2002). Einige Transkriptionsfaktoren, die während der Osteoklasten-Differenzierung induziert und exprimiert werden, sind nicht auf Osteoklasten beschränkt. Sie erfüllen auch Aufgaben in anderen hämatopoetischen Differenzierungsprozessen (Engel I und Murre C et al., 1999), so dass vermutlich die Kombination der Transkriptionsfaktoren entscheidend für die Osteoklastogenese ist.
Der basic helix-loop-helix-Transkriptionsfaktor Tal1 (T-cell acute lymphocytic leukemia 1, auch Scl1, stem cell leukemia 1) ist ein entscheidender Faktor in der primitiven und der definitiven Hämatopoese (Bloor AJ et al., 2002; Shivdasani RA et al., 1996). Die Expression von Tal1 konnte bisher in verschiedenen hämatopoetischen Zelllinien gezeigt werden, u.a. in monozytischen Zellen (Elefanty AG et al., 1998; Green AR et al., 1992; Pulford K et al., 1995; Dey S et al., 2010).
In der vorliegenden Arbeit wurde der Einfluss des Transkriptionsfaktors Tal1 in Monozyten und reifen Osteoklasten, vor allem in Bezug auf genregulatorische Prozesse während der Osteoklasten-Differenzierung, untersucht. Der Transkriptionsfaktor Tal1 wird in vitro und in vivo in Osteoklasten-Vorläuferzellen und reifen Osteoklasten exprimiert. Die Proteinexpression von Tal1 wird durch die Inkubation der Zellen mit RANKL induziert, jedoch wurde dies in Bezug auf die mRNA-Expression von Tal1 nicht beobachtet, so dass vermutlich eine posttranskriptionelle Regulation von Tal1 vorliegt.
Die Überexpression von Tal1 sorgte für eine Blockade der Differenzierung von Osteoklasten-Vorläuferzellen in reife Osteoklasten. Der Verlust von Tal1 in primären Monozyten/Makrophagen-Zellen führte zur veränderten Expression von über 1200 Genen, wobei jeweils etwa 600 Gene herauf- bzw. herabreguliert waren. Dies verdeutlicht, dass Tal1 sowohl an der Aktivierung als auch an der Reprimierung der Genexpression in Osteoklasten-Vorläuferzellen beteiligt ist. Die Liste der herabregulierten Gene beinhaltete u.a. das Osteoklasten-spezifische Enzym Acp5 (auch TRAP, tartrate resistant acid phosphatase), die Liste der herauf regulierten Gene beinhaltete u.a. DC-STAMP (dendritic cell specific transmembrane protein) und ATP6V0D2 (d2 isoform of vascuolar ATPase V0 domain), beide werden im Zusammenhang mit der Zellfusion während der Osteoklasten-Differenzierung beschrieben (Kim K et al., 2008; Kim T et al., 2010; Yagi M et al., 2005). Der Promotor von DC-STAMP beinhaltet mehrere potentielle Bindestellen für Tal1 und Osteoklastenspezifische Transkriptionsfaktoren. Es konnte gezeigt werden, dass Tal1, PU.1 und MITF im Bereich um 343 bp vor dem Transkriptionsstartpunkt des DC-STAMP-Promotors binden und dass Tal1 mit den Osteoklasten-spezifischen Transkriptionsfaktoren PU.1 und MITF interagiert. Der inhibitorische Effekt von Tal1 auf die Osteoklasten-Differenzierung kommt durch die Reprimierung der Aktivität der Osteoklasten-spezifischen Transkriptionsfaktoren PU.1 und MITF auf dem DC-STAMP-Promotor in Osteoklasten-Vorläuferzellen zustande. Während der Osteoklastogenese kommt es zu einer verringerten Tal1-Bindung auf dem DCSTAMP-Promotor, wodurch die Tal1-vermittelte Inhibierung der Expression aufgehoben wird.
Die Bindung von PU.1 und MITF auf dem Promotor von DC-STAMP nimmt während der Osteoklasten-Differenzierung zu. Die Expression von DC-STAMP wird im Verlauf der Osteoklastogenese induziert, wodurch es zur Zell-Zell-Fusion kommt.
Die Analyse des transkriptionellen Netzwerks, das die Fusion mononukleärer Zellen in reife Osteoklasten reguliert, vertieft das molekulare Verständnis der Osteoklasten-Differenzierung und kann zur Entwicklung neuer therapeutischer Ansätze beitragen, die in der Behandlung von Osteoporose, Riesenzelltumoren und anderen Osteoklastenassoziierten Krankheiten verwendet werden können.
Einleitung: Im Jahr 2016 wurde eine neue, individuelle Lehrform, das „Lernzentrum für ein individualisiertes medizinisches Tätigkeitstraining und Entwicklung“ („Limette“), an der Westfälischen Wilhelms-Universität Münster entwickelt. Das Ziel dieser Lernform ist und war es, nicht nur die theoretische Lehre, sondern vor allem die praktische Lehre und praktische Szenarien in einem geschütztem Lernumfeld in der medizinischen Lehrdidaktik in den Vordergrund zu stellen.
Die Studierenden nehmen an verschiedenen Fächern der Limette teil. In dieser Promotionsarbeit liegt der Fokus auf der Limette Patient Blood Management (PBM) und Transfusionsmedizin.
Vor Kursbeginn wird den Studierenden Zugang zu verschiedenen Vorbereitungsvideos sowie weiteren theoretischen Materialien über PBM und Transfusionsmedizin zur Verfügung gestellt. Bei der Limette durchläuft jeder Studierende sechs verschiedene Stationen. Hierbei beobachten Dozenten die Fertigkeiten und die Umsetzung der Aufgabenlösung durch halbverspiegelte Scheiben, im Umgang mit echten Blutprodukten oder die Kommunikation mit Patienten, die von Schauspielern dargestellt werden. Die Beobachtungen werden den Dozenten des Seminars, welches im Anschluss zur Nachbesprechung stattfindet, mitgeteilt. Hier teilen die Studierenden untereinander ihr Wissen, können den Dozenten Fragen stellen und werden ihnen weitere theoretisch-praktische Kenntnisse vermittelt.
Ziel der Arbeit: Die Promotionsarbeit hat die Auswertung der Selbsteinschätzungsbögen vor und nach der Limette mit anschließender Interpretation der Ergebnisse zum Ziel. Es soll eruiert werden, ob diese neue Lehrmethodik effektiv in der Umsetzung des Lehrerfolgs ist.
Methodik: Die Selbsteinschätzungsbögen hinsichtlich medizinischer Fertigkeiten und Tätigkeiten werden vor und nach der Limette von den Studierenden ausgefüllt. Die Aufgabenstellungen fokussieren sich jeweils auf medizinische Tätigkeiten, bei denen aus 13 verschiedenen Entrustable Professional Activities (EPAs) diejenigen hinterlegt werden, die bei dieser Aufgabe gelehrt werden. Die Differenz von post- zu prä- Selbsteinschätzung zeigt den Lehrerfolg. Die EPAs werden alle analysiert und mit Hilfe der sogenannten Cohen-Zahl interpretiert. Die Cohen Zahl ist definiert als die Differenz zwischen den Mittelwerten zweier Gruppen dividiert durch die gemeinsame Standardabweichung der beiden Populationen. Nach dem Autor Hattie wurde die Skalierung von Cohen für die Lehre angepasst und dabei folgende Einteilung definiert: d = 0,2 (klein), d = 0,4 (mittel) und d = 0,6 (groß). Alle Methoden mit d > 0,4 wurden als „Zone der gewünschten Effekte“ eingestuft.
Ergebnisse: Im Wintersemester 2021/2022 nahmen n=122 Studierende teil, von welchen n=50 beide Fragebögen komplettierten. Eine signifikante Zahl der dargestellten EPAs (50%) hat gute Ergebnisse erzielt, weist mithin einen Cohen´s Wert von d > 0,40 auf. Im Sommersemester 2022 nahmen n=99 Studierende teil, wobei nur n=29 beide Selbsterhebungsbögen komplettierten. Aufgrund des niedrigen Rücklaufs war die Zahl der ausgefüllten Selbsteinschätzungsbögen deutlich geringer und zugleich die Ergebnisse geringer ausgeprägt. In jenem Semester weist die Mehrheit der Ergebnisse einen Cohen´s d-Wert zwischen 0,15 und 0,4 auf, was als durchschnittlicher Lehrerfolg beurteilt wird.
Schlussfolgerung: Die Lehrform der Limette ist eine neue Form der praktischen Lehrvermittlung, die kontinuierlichen Anpassungen unterliegt. Eine hohe Zahl an ausgefüllten Selbsteinschätzungsbögen ist erstrebenswert, um den Lehrerfolg positiv und statistisch signifikant interpretieren zu können. Hierbei ist es nötig, die Lehre in der Limette auszuwerten und gegebenenfalls weitere Anpassungen durchzuführen.
Die Limette ist eine neue Lehrmethode mit einem guten Lehrerfolg hinsichtlich der Vermittlung praktischer Fähigkeiten und sozialer Kompetenz, welche auch an anderen Institutionen angewandt und umgesetzt werden könnte.
Zeitzeugen sind nicht immer gute Historiker, und Historiker geben nicht notwendig gute Zeitzeugen ab. Für den zweiten Sachverhalt war seit den 1990er Jahren unter anderem aufschlussreich, wie sehr es erst der Anstöße aus den Reihen einer Enkelgeneration deutscher Historiker bedurfte, bevor die Rolle ihrer akademischen "Großväter" im "Dritten Reich" kritisch und ohne jede Scheu vor persönlichen Bekanntschaften untersucht wurde. Gewiss muss man im Blick darauf sorgfältig zwischen Skandalisierung und wissenschaftlicher Erkenntnis unterscheiden, aber dieses Problem kann hiernach ohnehin nicht weiter vertieft werden. Vielmehr richtet sich die Aufmerksamkeit auf die Frühgeschichte der Deutsch-Tschechoslowakischen Historikerkommission, der der deutsche Osteuropa-Historiker Detlef Brandes seit der Gründung im Jahr 1990 angehörte. ...
Dass es "Generationen" gibt, glauben viele zu wissen. Aber was genau sie darunter verstehen, fällt ihnen schwer zu beschreiben. Trotzdem erfreut sich der Generationenbegriff heute einer geradezu ubiquitären Verwendung. Er wird genutzt als Identitäts- und Kollektivbezeichnung, aber auch als Erfahrungs- und Handlungsbegriff. Selbst die Werbesprache hat sich mittlerweile seiner bemächtigt. Und in den Feuilletons deutscher Zeitungen avancierte er zuletzt zu einer Passepartout-Formel, um sozialpolitische "Generationenkonflikte" auszudeuten. ...
Kollektives und kulturelles Erinnern : Erinnerungskulturen leben von der Dynamik der Gegenwart
(2014)
Keine Gemeinschaft kommt ohne kollektive Erinnerungen aus, dazu gehören Gedenkfeiern und Denkmäler ebenso wie Mythen und Rituale oder die Identifikation mit großen Ereignissen oder Persönlichkeiten. Erinnern ist nicht nur identitätsstiftend, es bedeutet auch, sich vergangene Erlebnisse zu vergegenwärtigen – oder wie Marcel Proust es ausdrückt: "Erst im Gedächtnis formt sich die Wirklichkeit." Wenn die Erinnerungskultur ihre Dynamik aus der Aktualität verliert, ist sie tot.
Lernplattformen sind E-Learning-Systeme, deren Kernfunktionalität die Verwaltung und Verteilung von Lernmaterialien über das World Wide Web ist. In dieser Arbeit wurde untersucht, wie durch Aufzeichnung (Tracking), Auswertung und Visualisierung von Lernaktivitäten in Lernplattformen eine Verbesserung der Lernqualität erreicht werden kann. Der Ansatzpunkt dafür war, Informationen zu Lernaktivitäten in geeigneter Weise Lehrenden und Lernenden zu präsentieren, so dass diese Rückschlüsse ziehen können, um Lernprozesse eigenständig zu optimieren. Viele Lernplattformen verfolgen bereits diesen Ansatz und verfügen deshalb über entsprechende Funktionalität.
Es mussten zwei wesentliche Fragen beantwortet werden:
1. Was müssen Lernende und Lehrende über erfolgte Lernaktivitäten wissen?
2. Wie werden Lernaktivitäten in geeigneter Weise präsentiert?
Diese Fragen wurden durch Betrachtung existierender Lernplattformen (State of the Art) sowie Befragung von Experten in Form von Interviews beantwortet. Zur Beantwortung der 2. Frage wurden außerdem allgemeine Grundlagen der Auswertung und Visualisierung von Daten verwendet sowie (zu einem geringen Teil) Auswertungs- und Visualisierungsverfahren von Systemen, die keine Lernplattformen sind. Besondere Aufmerksamkeit wurde auch dem
Datenschutz gewidmet.
Beruhend auf den gewonnenen Erkenntnissen wurde dann ein Konzept für ein Auswertungs-/Visualisierungssystem entwickelt das in verschiedenen Punkten eine Verbesserung des State of the Art darstellt.
Teile des Konzepts wurden schließlich für das webbasierte Softwaresystem LernBar, das über einen Großteil der Funktionalität einer Lernplattform verfügt, prototypisch implementiert. Durch die Implementierung soll es ermöglicht werden, das Konzept im praktischen Einsatz zu evaluieren, was im Rahmen dieser Arbeit nicht möglich war.
Die Tuberkulose ist eine der bedeutendsten Infektionskrankheiten weltweit. In Deutschland spielt sie eine untergeordnete Rolle und betrifft hauptsächlich Risikogruppen. Bisher wurde noch keine mehrere Jahre umfassende Arbeit zur Epidemiologie der Tuberkulose anhand molekularbiologischer Faktoren in einer deutschen Stadt veröffentlicht. In dieser Arbeit wurden mittels 24-loci MIRU-VNTR und Spoligotypisierung die Mykobakterienstämme von Patienten in Frankfurt am Main aus dem Zeitraum von 2008 bis 2016 genetisch typisiert und aus Fällen mit übereinstimmendem DNA-Fingerabdruck bestehende molekulare Cluster identifiziert, um in Zusammenschau mit epidemiologischen Patientendaten die Übertragungswege in Frankfurt am Main besser zu verstehen. Dabei wurden mittels logistischer Regression Risikofaktoren für Clusterzugehörigkeit identifiziert, einzelne Cluster auf epidemiologische Plausibilität hin untersucht und die Bedeutung der Tuberkulose vor dem Hintergrund zunehmender Migration beschrieben.
Insgesamt wurden im Studienzeitraum 61 molekulare Cluster identifiziert. Der Clusteranteil (28,6%) und der Anteil rezenter Übertragung (18,7%) lagen in der Größenordnung anderer Niedriginzidenzländer. Es dominierten kleine Cluster, nur vereinzelt kam es zu Infektionsketten mit mehr als 3 Fällen. Obwohl 81% der Patienten aus dem Ausland stammten und nur 19% aus Deutschland, hatten Migranten ein signifikant niedrigeres Risiko, einem Cluster anzugehören als Deutsche. Unter den Clustern bestanden 42,6% sowohl aus Patienten deutscher als auch Patienten nichtdeutscher Herkunft. Im Ausland geborene Patienten in gemischten Clustern lebten zum Diagnosezeitpunkt durchschnittlich bereits 10 Jahre in Deutschland und stammten mehrheitlich aus europäischen Ländern. Eine TB-Übertragung von kürzlich eingewanderten Patienten auf einheimische Bürger fand in begrenztem Umfang statt, begründet aber keine Ängste vor einer erhöhten Gefährdung der in Deutschland geborenen Bevölkerung im Hinblick auf die Tuberkulose in Frankfurt am Main.
Nur 9,8% der molekularen Cluster konnten epidemiologisch bestätigt werden. Infektionswege, die über das familiäre Umfeld oder bestimmte Risikomilieus (Drogen, Obdachlosigkeit) hinausgehen, ließen sich anamnestisch nur schwer erfassen. Männer, in Deutschland geborene Personen und iv-drogenabhängige Personen wiesen ein erhöhtes Risiko auf, sich vor Ort mit Tuberkulose zu infizieren oder die Erkrankung auf andere zu übertragen. Dies trifft vermutlich auch auf andere deutsche Großstädte zu und betont die Notwendigkeit einer Integration von iv-Drogenabhängigen in die medizinische Regelversorgung und die Bedeutung einer Zusammenarbeit von öffentlichem Gesundheitsdienst und entsprechenden Hilfseinrichtungen.
Es ist von einer Überschätzung des Clusteranteils mittels 24-loci MIRU-VNTR auszugehen, weshalb für zukünftige Arbeiten die feinere Typisierung und somit eine zuverlässigere Identifikation von Clustern mittels Whole Genome Sequencing wünschenswert ist. Für die bundesweite Verbesserung der TB-Kontrolle ist weiterhin eine enge Zusammenarbeit zwischen den Gesundheitsämtern erforderlich. Um zu untersuchen, wie sich die TB-Epidemiologie von Frankfurt am Main im bundesweiten Vergleich darstellt, sind ähnlich angelegte Arbeiten aus anderen deutschen Großstädten notwendig.
Joint Venture : International Max Planck Research School for comparative european legal history
(2002)
Gegenwärtigen Fusionspraktiken folgend, haben auch Rechtshistoriker sich verbündet, um international Synergien zu erzeugen. Das Max-Planck-Institut für europäische Rechtsgeschichte und das Institut für Rechtsgeschichte an der Johann Wolfgang Goethe-Universität haben – mit dem Segen und dem Geld ihrer "Mütter" – ein gemeinsames Forschungskolleg gegründet. ...