Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2877)
- Article (2282)
- Contribution to a Periodical (2161)
- Book (2027)
- Doctoral Thesis (1741)
- Review (927)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (182)
Language
- German (14018) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (44)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5057)
- Medizin (1514)
- Gesellschaftswissenschaften (1066)
- Rechtswissenschaft (742)
- Neuere Philologien (653)
- Wirtschaftswissenschaften (644)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
kurz und kn@pp news : Nr. 38
(2016)
kurz und kn@pp news : Nr. 36
(2016)
Kosmopolitismus ist kein Konzept, das für jedermann positiv besetzt ist, auch wenn dies die wohlklingende Bezeichnung "Weltbürger" zunächst vermuten lässt. Für George Cogniot, Chefredakteur der kommunistischen Tageszeitung "L’Humanité" repräsentierte der Kosmopolit vielmehr "die letzte Stufe kapitalistischer Unmenschlichkeit"; letztlich handele es sich um eine "weltweite zynische Ausbeutung entwurzelter Sklaven". Wer in den Koordinaten einer proletarischen Internationalen dachte, sah im Kosmopolitismus eher ein Konkurrenzprojekt des gehobenen Bürgertums. Schließlich war die Grundidee des Weltbürgertums eng mit der Aufklärung und dem Reisenden des 18. Jahrhunderts verbunden, mit den Vertretern der Oberschicht, die während einer Grand Tour die benachbarten Kulturen kennenlernten und dort weltgewandtes Auftreten erwarben. Der Großteil der historischen Studien, die sich mit der Geschichte des Kosmopolitismus beschäftigen, konzentriert sich auf diese Epoche. Dass dadurch ein wichtiger Umbruchpunkt in der Entwicklung des Kosmopolitismus ausgeklammert wird, verdeutlicht der vorliegende Sammelband von Ute Lemke, Massimo Lucarelli und Emmanuel Mattiato, in dem der Fokus auf die zwanziger und dreißiger Jahre des 20. Jahrhunderts gelegt wird. ...
Der vorliegende Text ist das Ergebnis einer sondierenden Vorstudie zur Vorbereitung einer qualitativen empirischen Befragung zum Umgang mit Wasser in chinesischen Haushalten, die im November 2015 im Rahmen des Projekts SEMIZENTRAL in Qingdao, China, durchgeführt wurde (Publikation in Vorbereitung). Das vom BMBF geförderte Projekt SEMIZENTRAL wird vom Institut IWAR der Technischen Universität Darmstadt geleitet (siehe http://www.semizentral.de/home/). Das ISOE ist Partner im Forschungsverbund und führt eine Stoffstrom- und eine damit verbundene Vulnerabilitätsanalyse für das Gebiet der Implementierung durch. In diesem Zusammenhang ist es wichtig, Einflussfaktoren des Umgangs mit Wasser durch die Bevölkerung kennenzulernen.
Gestützt auf das integrative Konzept der Wasserkultur werden im nachfolgenden Text die Ergebnisse einer diesbezüglichen Recherche vorgestellt. Dabei werden natürliche, infrastrukturelle, soziale, kulturelle, ökonomische und verhaltensbezogene Aspekte der Wasserverfügbarkeit, der Ansprüche an Wasserqualität und des Umgangs mit Wasser in China thematisiert.
Prognostische Faktoren und das Outcome von Patienten mit einem primären Glioblastom sind in der Fachliteratur gut beschrieben. Im Gegensatz dazu gibt es wenige vergleichbare Informationen zu Patienten mit einem sekundären Glioblastom. Das Ziel dieser Arbeit war es, das Outcome von Patienten mit einem sekundären Glioblastom zu beurteilen und prognostische Faktoren in Be-zug auf das Gesamtüberleben zu identifizieren.
Dazu wurde die interne Datenbank des Universitätsklinikums Frankfurt/Main von Patienten mit Hirntumoren retrospektiv nach klinischen Daten durchsucht. Alle Patienten hatten ein histologisch gesichertes WHO Grad II oder III Gliom und anschließend ein WHO Grad IV sekundäres Glioblastom. Paraffiniertes Hirntumorgewebe wurde auf Mutationen der Isocitrat Dehydrogenase-1 (IDH1) mittels einer immunhistochemischen Färbung mit einem R132H (clone H09) spezifischen Antikörper untersucht. Eine uni- und multivariate statistische Analyse wurde durchgeführt, um Faktoren zu ermitteln, die potentiell das Gesamt-überleben beeinflussen könnten.
Es wurden 45 Patienten mit einem histologisch gesicherten sekundären Glioblastom untersucht. Das mediane Alter betrug 41 Jahre. 14 Patienten unterzogen sich einer radiologisch kompletten Resektion des sekundären Glioblastoms, 31 Patienten wurden subtotal reseziert oder biopsiert. Initial ist bei 37 Patienten ein astrozytärer Tumor nachgewiesen worden und die restlichen Patienten litten an Oligodendrogliomen oder gemischten Gliomen; bei der initialen Diagnose wurden 17 WHO Grad II und 28 WHO Grad III Tumoren fest-gestellt. Die mediane Zeit zwischen Ursprungstumor und dem Auftreten des sekundären Glioblastoms betrug 158,9 Wochen. Das mediane Gesamtüberleben betrug 445 Tage nach der Diagnose eines sekundären Glioblastoms. Mutationen des IDH1 (R132H) Proteins wurden bei 24 Patienten festgestellt und fehlten bei 17 Patienten; bei 4 Patienten konnte keine IDH1 immunhistochemische Färbung durchgeführt werden.
In der univariaten Analyse konnte der Zeitraum zwischen initialer Läsion und dem Progress zu einem sekundären Glioblastom als statistisch signifikanter Einflussfaktor identifiziert werden- Patienten mit einem Zeitraum von mehr als 2 Jahren hatten ein besseres Gesamtüberleben (460 vs. 327 Tage, p = 0,011). Außerdem konnte bei Patienten, die eine kombinierte Radiochemotherapie bekamen, ein besseres Gesamtüberleben nachgewiesen werden als bei Patienten, welche ausschließlich eine Therapieform erhielten (611 vs. 380 Tage, p < 0,001). Weiterhin konnten ein WHO Grad II Ursprungstumor (472 vs. 421 Tage, p = 0,05) und eine Frontalllappenlokalisation des Glioblastoms (472 vs. 425 Ta-ge, p = 0,031) das Überleben steigern.
In der multivariaten Analyse konnte gezeigt werden, dass die Mutation des IDH1 (R132H) Proteins in statistisch signifikanter Weise mit einem längeren Gesamtüberleben assoziiert war (p = 0,012); statistische Signifikanz für ein län-geres Gesamtüberleben bei Patienten mit initial einem WHO Grad II (p = 0,047) und einer Frontallappenlokalisation des Glioblastoms (p = 0,042) stellte sich auch ein. In Bezug auf die Patienten spezifischen Daten wurden zwei Prognosegruppen erstellt; Patienten in der guten Prognosegruppe scheinen einen Benefit von einer totalen Tumorresektion zu haben (p = 0,02), während eine Resektion für die andere Prognosegruppe keine große Rolle spielte (p = 0,926).
Trotz des relativ geringen Erkrankungsalters haben sekundäre Glioblastom Patienten eine schlechte Prognose. Die Ergebnisse dieser Arbeit unterstreichen die Wichtigkeit und den prognostischen Wert der IDH1 Diagnostik, die Notwendigkeit einer kombinierten Radiochemotherapie und eine Risikostratifizierung für eine Prognoseabschätzung anhand der Patienten spezifischen Einflussfaktoren.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
„Keine Gesellschaft ohne Natur“ – Beiträge zur Entwicklung der Sozialen Ökologie erschienen +++ ISOE beim Symposium deutscher Mobilitäts- und Verkehrsforscher in Berlin +++ Arzneimittelrückstände im Wasserkreislauf: Technische Lösungen stoßen an ihre Grenzen +++ Stakeholder im Forschungsprozess – für den naturnahen Umbau der Nidda +++ Neuer Stromspiegel für Deutschland: Ergebnisse aus Forschungsprojekt von ISOE und Öko-Institut +++ Best Paper Award der Zeitschrift GAIA: ISOE-Beitrag unter den drei Erstplatzierten +++ Aus dem ISOE: Girls'Day 2016: Zukunftstag für Mädchen am ISOE +++ Termine +++ Publikationen
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Der Beitrag untersucht das in jüngerer Zeit verstärkt diskutierte Phänomen einer – tatsächlichen oder vermeintlichen – „anglo-amerikanischen Rechts-hegemonie“. Es geht dabei um die Frage, ob die Rechtsordnungen Deutschlands und der Europäischen Union unter eine Vormachtstellung des amerikanischen Rechtsdenkens und amerikanischer Regelungsmuster geraten sind oder eine solche vielleicht sogar selbst aktiv befördert haben. In dem Beitrag wird diese Diskussion aus zivilrechtlicher Perspektive aufgegriffen. Nach einer Konkretisierung des Topos der Rechtshegemonie werden dabei zunächst einige Grundcharakteristika des amerikanischen Rechtssystems und des deutschen Rechtssystems gegenübergestellt und zusammengefasst, in welchen Bereichen das deutsche und das europäische Recht in den vergangenen Jahrzehnten durch amerikanische Denk- und Regelungsmuster überformt worden sind. Im Anschluss erfolgt eine Bewertung der zuvor skizzierten Entwicklung, wobei die Unterscheidung zwischen einem intrinsisch orientierten und einem funktional orientierten Verständnis von Rechtskultur als ein Kernproblem der jüngeren rechtsvergleichenden Diskussion im Zentrum steht. Im Ergebnis wird eine tendenziell skeptische Perspektive gegenüber dem suggestiven Bild eines Wettbewerbs der Rechtsordnungen eingenommen und die in jüngerer Zeit häufig geäußerte These der globalfunktionalen Überlegenheit eines wettbewerbsorientierten Rechtsmodells in Zweifel gezogen.
Dieser Artikel beschreibt die Inverted-Classroom-Methode(ICM) im Sinne einer Einführung in die Thematik und soll als Praxisleitleitfaden für diejenigen dienen, die diese Methode in der medizinischen Aus-, Fort- und Weiterbildung einsetzen möchten. Es handelt sich bei der ICM um einen Blended-Learning-Methode, bei dem eine Selbstlernphase (individuelle Phase) vor die Präsenzunterrichtsphase gesetzt wird. In der Online-Phase wird Faktenwissen vermittelt, das als Grundlage für die Präsenzphase dient. Die Präsenzphase soll anschließend dafür genutzt werden, das erlernte Wissen zu vertiefen und anzuwenden. Dem gegenüber stehen die traditionellen Kurskonzepte, in denen das Faktenwissen beispielsweise in Vorlesungen oder in anderen Präsenzunterricht-Formaten vermittelt wird und die Vertiefung dieses Wissens durch die Studierenden im Anschluss daran im Selbststudium stattfinden soll. Das Ziel der ICM ist die Verschiebung des passiven Lernens hin zum aktivierenden Lernen, um das Lernen auf kognitiv anspruchvollen Ebenen wie Analyse, Synthese und Evaluation zu unterstützen. Dabei haben die gestiegene Produktion und Nutzung von Screencasts und Lernvideos, die „Bewegung“ der „Open Educational Resources“ und die verbreitete Nutzung von „Massive Open Online Courses“ (MOOCs) zu einer gestiegenen Verbreitung der Inverted-Classroom-Methode beigetragen. Der Artikel soll als Einführung in die Thematik dienen und dabei eine kurze Übersicht über wichtige Projekte und Forschungsergebnisse in der medizinischen Ausbildung und in weiteren Gesundheitsberufen geben. Außerdem werden die Vor- und Nachteile der Methode und ihr potentieller Nutzen für die zukünftige medizinische Aus- und Weiterbildung dargestellt.
In der folgenden Anleitung werden diverse Methoden für den Zugriff auf das Ressourcen-Management, entwickelt von der AG Texttechnologie, erläutert. Das Ressourcen-Management ist für alle Anwendungen identisch. Erklärt wird das Auslesen des Ressourcen-Managements der Projects „PHI Picturing Atlas“. Alle Anweisungen erfolgen per RESTful-Aufrufen. Die API-Dokumentation findet sich unter http://phi.resources.hucompute.org.
Seitdem im Juli die Schiedsentscheidung über die Territorialkonflikte im südchinesischen Meer gefällt wurde, wird in Zeitungen und Blogs intensiv darüber diskutiert, wie diese Entscheidung einzuordnen ist und welche Folgen sich daraus ergeben. Das Schiedsgericht hat nicht über Fragen der Souveränität selbst entschieden, sondern über die rechtlichen Grundlagen, aus denen Souveränitätsansprüche abgeleitet werden können. In diesem Zusammenhang hatte das Gericht die interessante Frage zu klären, inwieweit die durch China angeführten „historischen Rechte“ geeignet sind, einen Gebietsanspruch zu begründen. Klar ist, dass der Schiedsspruch nicht geeignet ist, den Konflikt zu beenden. China hat von Beginn an deutlich gemacht, dass es das Verfahren weder anerkennen noch sich daran beteiligen würde und hat daher schließlich auch die Entscheidung als rechtwidrig abgelehnt. Die Funktion des Verfahrens ist daher auch weniger die Konfliktlösung, die es nicht leisten kann, als vielmehr das Herausarbeiten einer rechtlich gerechtfertigten Position....
Dies ist der 21. Artikel unseres Blogfokus „Salafismus in Deutschland“. Im vergangenen Jahr verloren in den westlichen Ländern so viele Menschen durch Terroranschläge islamistischer Extremisten ihr Leben wie seit dem Jahr 2001 mit dem schicksalsschweren 11. September nicht mehr. Und die Anschläge sind erneut nah an Deutschland herangerückt: Gleich zweimal wurden tödliche Anschläge in Paris verübt, Brüssel ist zu einem Hotspot des islamistischen Extremismus geworden und der vereitelte mutmaßliche Anschlag auf ein Radrennen im Raum Frankfurt hat einmal mehr die Terrorgefahr auch hierzulande verdeutlicht. Nach dieser Lesart ist der islamistische Extremismus also eine reale Bedrohung und stellt das friedliche Zusammenleben in einer offenen Gesellschaft in Frage – aber nicht nur aufgrund von Anschlagsgefahren, sondern vor allem weil sich islamistischer Extremismus und Islamfeindlichkeit gegenseitig zu gefährlichen, illiberalen Dynamiken hochschaukeln. Dieser Beitrag führt kurz in dieses Wechselspiel ein, das die offene Gesellschaft in die Zange nimmt und benennt Handlungsempfehlungen für verschiedene Akteursgruppen in Deutschland mit dem Ziel, das Fundament unserer offenen, pluralen Gesellschaftsordnung zu bewahren und zu stärken...
Seit der Antike wird über das Thema der Ästhetik, über das Schöne, diskutiert. Diese Diskussion, die mit der Frage „Was ist schön?“ anfängt und was „schön“ als Wert ausdrückt, was die Quelle des Schönheitsgefühls bei dem Menschen ist, und auch die Frage nach dem Prozess der Entstehung eines ästhetischen Urteils, wird bis zur heutigen Zeit geführt. Heutzutage ist das ästhetische Verständnis des Propheten Muhammed nicht nur Untersuchungsthema, die Muslime haben im 21. Jahrhundert die von ihm erhaltenen ästhetischen Werte durch direkte Übertragung in ihr Leben und in ihre Lebensweise integriert. Die Koranforschung hat ergeben, dass der Sinn für Schönheit eine Fähigkeit bezeichnet, die dem im Koran erwähnten Menschen mit der Geburt gegeben worden ist. Im Propheten Muhammed hat das in ihm vorhandene Potenzial in der vorislamischen Zeit durch Aufrechterhaltung und durch göttliche Erziehung, die ihm nach dem Erhalt der prophetische Mission zuteil wurde, den Höhepunkt erreicht. In diesem Sinne ist sein Auftreten schön und die Schönheit beim letzten Propheten kein Zufall. Die Schönheit, die dem Koran folgend mit dem ersten Menschen, Adam, begann, fand ihre Vollendung im Propheten Muhammed Denn für den Propheten Muhammed war die Schönheit nicht lediglich ein philosophischer Wert, sondern im Gegenteil eine Lebensweise. Zu Beginn der Behandlung des ästhetischen Themas Am Anfang der Beschäftigung des Korans mit der Frage der Ästhetik liegt vor allem in den Worten der glaubenden Menschen, in ihrem Verhalten, den Zielen, die sie erreichen wollen, und in ihrem Glauben und ihren Gottesdiensten. Nach dem Koran ist es Allah, der die Geschöpfe verschönert, diese Schönheit wurde den Geschöpfen während ihrer Erschaffung gegeben. Mit anderen Worten hat Allah die Geschöpfe schön erschaffen. In der islamischen Welt gibt es Philosophen und Islamwissenschaftler, die über die Vorstellung der Schönheit Überlegungen anstellen...
Vielerorts machen sich Sorgen breit: Was bedeutet die Flüchtlingskrise für Europa? Wie geht es weiter im syrischen Bürgerkrieg? Wie lässt sich der Hunger in Afrika - derzeit verstärkt durch El Niño - bekämpfen? Und welche Rolle kann Deutschland spielen? Antworten gibt der erfahrene schwedische Spitzendiplomat und frühere Vizepräsident der Weltbank, Mats Karlsson, im Bretterblog-Interview.
100 Jahre Fachbereich Rechtswissenschaft ist auch ein Grund, derer zu gedenken, die über eine lange Strecke dieser Zeitspanne das Bild des Fachbereichs entscheidend mitgeprägt haben, aber nicht mehr mitfeiern können. Darunter verdient ein Strafrechtsprofessor und Rechtsphilosoph besondere Hervorhebung und Würdigung. Prof. Dr. Dr. h.c. mult. Winfried Hassemer. Das Verständnis von der gegenseitigen Befruchtung in Theorie-Praxis-Projekten brachte Hassemer aus der akademischen Welt mit in seine hohen Staatsämter: Hessischer Datenschutzbeauftragter, Richter und Vizepräsident des Bundesverfassungsgerichts. Schließlich konnte er in der Rolle des Anwalts gleichsam als „Gegenprobe“ auch noch seine schon lange gezeigte Zuneigung zum Beruf des Strafverteidigers erleben. Der fruchtbare Dialog zwischen Theorie und Praxis setzte sich 12 Jahre lang im „Frankfurter Arbeits-Kreis Strafrecht“ („FAKS“) fort, zu dessen Gründern Hassemer gehörte. Dabei haben Strafverteidiger, Richter, Staatsanwälte, Ministerialbürokratie, Strafvollzugs und Polizeibeamte mit auch Rechtswissenschaftlern im konstruktiven Diskurs die Abstände zwischen unseren „Berufswelten“ verringert. Im Zentrum stand sein Bekenntnis, dass das staatliche Strafen ein „blutiges Geschäft“ ist, das nur als ultima ratio und auch nur dann zu rechtfertigen ist, wenn „schützende Formen“ des Verfahrensrechts strafbegrenzend wirken. Der Fachbereich Rechtswissenschaft wird auch in dem jetzt beginnenden zweiten Jahrhundert seines Bestehens das Andenken an Winfried Hassemer hoch halten.
Die vorliegende Arbeit lässt sich in den Bereich Data Science einordnen. Data Science verwendet Verfahren aus dem Bereich Computer Science, Algorithmen aus der Mathematik und Statistik sowie Domänenwissen, um große Datenmengen zu analysieren und neue Erkenntnisse zu gewinnen. In dieser Arbeit werden verschiedene Forschungsbereiche aus diesen verwendet. Diese umfassen die Datenanalyse im Bereich von Big Data (soziale Netzwerke, Kurznachrichten von Twitter), Opinion Mining (Analyse von Meinungen auf Basis eines Lexikons mit meinungstragenden Phrasen) sowie Topic Detection (Themenerkennung)....
Ergebnis 1: Sentiment Phrase List (SePL)
Im Forschungsbereich Opinion Mining spielen Listen meinungstragender Wörter eine wesentliche Rolle bei der Analyse von Meinungsäußerungen. Das im Rahmen dieser Arbeit entwickelte Vorgehen zur automatisierten Generierung einer solchen Liste leistet einen wichtigen Forschungsbeitrag in diesem Gebiet. Der neuartige Ansatz ermöglicht es einerseits, dass auch Phrasen aus mehreren Wörtern (inkl. Negationen, Verstärkungs- und Abschwächungspartikeln) sowie Redewendungen enthalten sind, andererseits werden die Meinungswerte aller Phrasen auf Basis eines entsprechenden Korpus automatisiert berechnet. Die Sentiment Phrase List sowie das Vorgehen wurden veröffentlicht und können von der Forschungsgemeinde genutzt werden [121, 123]. Die Erstellung basiert auf einer textuellen sowie zusätzlich numerischen Bewertung, welche typischerweise in Kundenrezensionen verwendet werden (beispielsweise der Titel und die Sternebewertung bei Amazon Kundenrezensionen). Es können weitere Datenquellen verwendet werden, die eine derartige Bewertung aufweisen. Auf Basis von ca. 1,5 Millionen deutschen Kundenrezensionen wurden verschiedene Versionen der SePL erstellt und veröffentlicht [120].
Ergebnis 2: Algorithmus auf Basis der SePL
Mit Hilfe der SePL und den darin enthaltenen meinungstragenden Phrasen ergeben sich Verbesserungen für lexikonbasierte Verfahren bei der Analyse von Meinungsäußerungen. Phrasen werden im Text häufig durch andere Wörter getrennt, wodurch eine Identifizierung der Phrasen erforderlich ist. Der Algorithmus für eine lexikonbasierte Meinungsanalyse wurde veröffentlicht [176]. Er basiert auf meinungstragenden Phrasen bestehend aus einem oder mehreren Wörtern. Da für einzelne Phrasen unterschiedliche Meinungswerte vorliegen, ist eine genauere Bewertung als mit bisherigen Ansätzen möglich. Dies ermöglicht, dass meinungstragende Phrasen aus dem Text extrahiert und anhand der in der SePL enthaltenen Einträge differenziert bewertet werden können. Bisherige Ansätze nutzen häufig einzelne meinungstragende Wörter. Der Meinungswert für beispielsweise eine Verneinung muss nicht anhand eines generellen Vorgehens erfolgen. In aktuellen Verfahren wird der Wert eines meinungstragenden Wortes bei Vorhandensein einer Verneinung bisher meist invertiert, was häufig falsche Ergebnisse liefert. Die Liste enthält im besten Fall sowohl einen Meinungswert für das einzelne Wort und seine Verneinung (z.B. „schön“ und „nicht schön“).
1.3 übersicht der hauptergebnisse 5
Ergebnis 3: Evaluierung der Anwendung der SePL
Der Algorithmus aus Ergebnis 2 wurde mit Rezensionen der Bewertungsplattform CiaoausdemBereichderAutomobilversicherunge valuiert.Dabei wurden wesentliche Fehlerquellen aufgezeigt [176], die entsprechende Verbesserungen ermöglichen. Weiterhin wurde mit der SePL eine Evaluation anhand eines Maschinenlernverfahrens auf Basis einer Support Vector Machine durchgeführt. Hierbei wurden verschiedene bestehende lexikalische Ressourcen mit der SePL verglichen sowie deren Einsatz in verschiedenen Domänen untersucht. Die Ergebnisse wurden in [115] veröffentlicht.
Ergebnis 4: Forschungsprojekt PoliTwi - Themenerkennung politischer Top-Themen
Mit dem Forschungsprojekt PoliTwi wurden einerseits die erforderlichen Daten von Twitter gesammelt. Andererseits werden der breiten Öffentlichkeit fortlaufend aktuelle politische Top-Themen über verschiedene Kanäle zur Verfügung gestellt. Für die Evaluation der angestrebten Verbesserungen im Bereich der Themenerkennung in Verbindung mit einer Meinungsanalyse liegen die erforderlichen Daten über einen Zeitraum von bisher drei Jahren aus der Domäne Politik vor. Auf Basis dieser Daten konnte die Themenerkennung durchgeführt werden. Die berechneten Themen wurden mit anderen Systemen wie Google Trends oder Tagesschau Meta verglichen (siehe Kapitel 5.3). Es konnte gezeigt werden, dass die Meinungsanalyse die Themenerkennung verbessern kann. Die Ergebnisse des Projekts wurden in [124] veröffentlicht. Der Öffentlichkeit und insbesondere Journalisten und Politikern wird zudem ein Service (u.a. anhand des Twitter-Kanals unter https://twitter.com/politwi) zur Verfügung gestellt, anhand dessen sie über aktuelle Top-Themen informiert werden. Nachrichtenportale wie FOCUS Online nutzten diesen Service bei ihrer Berichterstattung (siehe Kapitel 4.3.6.1). Die Top-Themen werden seit Mitte 2013 ermittelt und können zudem auf der Projektwebseite [119] abgerufen werden.
Ergebnis 5: Erweiterung lexikalischer Ressourcen auf Konzeptebene
Das noch junge Forschungsgebiet des Concept-level Sentiment Analysis versucht bisherige Ansätze der Meinungsanalyse dadurch zu verbessern, dass Meinungsäußerungen auf Konzeptebene analysiert werden. Eine Voraussetzung sind Listen meinungstragender Wörter, welche differenzierte Betrachtungen anhand unterschiedlicher Kontexte ermöglichen. Anhand der Top-Themen und deren Kontext wurde ein Vorgehen entwickelt, welches die Erstellung bzw. Ergänzung dieser Listen ermöglicht. Es wurde gezeigt, wie Meinungen in unterschiedlichen Kontexten differenziert bewertet werden und diese Information in lexikalischen Ressourcen aufgenommen werden können, was im Bereich der Concept-level Sentiment Analysis genutzt werden kann. Das Vorgehen wurde in [124] veröffentlicht.
Die Begegnung mit dem Nachbarn bleibt nahezu kommunikationsfrei, wenn man nur darauf achtet, dass die Zweige der Birke nicht über die Grenze zu ihm hinüberwachsen. Ist der Nachbar nicht mehr nur der Andere von nebenan und gegenüber, sondern tendenziell längst ein Fremder geworden? Haben Nachbarschaften wirklich ihren sozialen Verpflichtungscharakter weitgehend verloren? Der Kulturanthropologe begibt sich auf Spurensuche.
Der vorliegende Report beschäftigte sich mit den Qualifikationsstrukturen hessischer Unternehmen. Es wurde dabei deutlich, dass sich die Beschäftigung geringqualifizierter Arbeitnehmer auf vergleichsweise wenige Betriebe in Hessen konzentriert. In 30% der hessischen Unternehmen sind fast 80% aller Geringqualifizierten beschäftigt. Um den möglichen Einfluss der Qualifikationsstruktur auf betriebliche Entwicklungen aufzuzeigen, wurden drei Betriebsgruppen gebildet. Unterscheidungsmerkmal bildete der jeweilige Anteil der Gering qualifizierten an den Gesamtbeschäftigten des Unternehmens. Es zeigte sich, dass Betriebe mit geringem Qualifikationsniveau in den Bereichen Ausbildung, betriebliche Weiterbildung und Innovationen vergleichsweise geringe Aktivitäten aufweisen. Auf der anderen Seite hatten sie zwischen 2000 und 2001 das stärkste Beschäftigungswachstum und zeichnen sich auch in Bezug auf Ertragslage und Geschäftsentwicklung durch für diese Gruppe unerwartet gute Ergebnisse und Prognosen aus. Hierin stellen diese Betriebe eine recht homogene Gruppe dar, es gibt kaum Unternehmen, die ihre wirtschaftliche Situation als „sehr gut“ oder als „mangelhaft“ bezeichnen. Des weiteren gibt es bei den Unternehmen mit geringem Qualifikationsniveau eine nicht unerhebliche Anzahl offener Stellen, auch für geringqualifizierte Arbeitskräfte. Auch dies ist angesichts der Tatsache, dass Stellenbesetzungsprobleme in erster Linie unter dem Stichwort „Fachkräftemangel“ diskutiert werden, ein überraschendes Ergebnis.
Alle lebenden Organismen sind in der Lage, sich an den re-gelmäßigen Wechsel von Licht und Dunkelheit und den zeitli-che Veränderungen im Takt der Jahreszeiten anzupassen. Die-se Synchronisierung der Aktivitäts- und Ruhephasen, sowie von physiologischen Stoffwechselprozessen an die vorgegebe-nen tageszeitlichen und saisonalen Zyklen findet beim Säu-getier in der inneren Uhr im Nucleus Suprachiasmaticus (SCN) statt. Das Licht, als wichtigster Zeitgeber für die Synchronisation der inneren Uhr, findet Eingang zum SCN über die Retina und den retinohypothalamischen Trakt (RTH), der Glutamat als Neurotransmitter nutzt. Ist dieses System fehlerhaft, führt dies zu Störung der oben beschriebenen Anpassungsprozesse. Dies hat eine gestörte Homöostase des Organismus zu Folge, aus denen sich wiederum Veränderungen im Tag/Nacht- Rhythmus, Schlafstörungen und depressive Ver-stimmungen ergeben können. Die genannten Symptome decken sich mit den Frühsymptomen den neurodegenerativen Erkran-kung Morbus Parkinson.
Ziel der vorliegenden Arbeit war es, Störungen im photoneu-roendokrinen System, insbesondere Veränderungen in der Re-tina an den photosensitiven Ganglienzellen mit dem Photo-pigment Melanopsin und dem SCN bei transgene Mäuse mit dem humanen alpha-Synuclein zu untersuchen. Hierbei wurden transgene Mäuse mit dem gesunden humanen alpha-Synuclein (Wildtyp) und transgene Mäuse mit der für Parkinson spezi-fischen Mutation im alpha-Synuclein Ala53Thr (A53T) vergli-chen.
Die immunochemischen Untersuchungen an Retina und SCN zei-gen einen signifikanten Anstieg der alpha-Synuclein Immun-reaktion bei der A53T Maus im Vergleich zum Wildtyp.
Parallel dazu wurden Unterschiede in Bezug auf das Photo-pigment Melanopsin zwischen den beiden Gruppen untersucht. Melanopsin ist lichtsensitiv und trägt, durch Übermittlung der aktuellen Lichtverhältnisse über den retinohypothalami-schen Trakt zum SCN, zur Synchronisation der circadianen Rhythmik bei. Durch den in dieser Arbeit nachgewiesene Me-lanopsindefizit und des deutlich reduzierten Vglut2 im hy-pothalamischen Trakt der A53T Maus lässt sich die Hypothese ableiten, dass möglicherweise die Überexpression des mu-tierten alpha-Synuclein in der Retina einen Untergang von melanopsinhaltigen Ganglienzellen herbeiführt und dadurch die Synchronisation der inneren Uhr durch Licht gestört ist. Diese Hypothese wird durch die Aktivitätsprofile ge-stützt, die durch die Aufzeichnung der lokomotorischen Ak-tivität der Tiere erstellt wurden.
Da in beiden Gruppen unter Dauerdunkel (DD) ein endogener zirkadianer Rhythmus beobachtet werden konnte, lässt dies auf die Funktionstüchtigkeit der inneren Uhr im SCN schlie-ßen. Im anschließenden Versuch die endogene Rhythmik an exogenen Reize anzupassen, zeigte sich bei dem A53T Stamm eine fehlende Synchronisierung an vorgegebene Lichtverhält-nisse mit gesteigerter Tagaktivität und reduzierten Schlaf-phasen. Somit trägt der fehlerhaft verarbeitete Lichtreiz bei A53T Mutanten zur Destabilisierung des zirkadianen Rhythmus der Lokomotion bei. Trotz des gestörten glutama-tergen Signalweges im retinohypothalamischen Trakt konnten keine Unterschiede in der Expression der Homerproteine zwi-schen Wildtyp und A53T unter Standard-Photoperiode und nach Schlafdeprivation nachgewiesen werden.
Die vorliegenden Befunde liefern Erkenntnisse zur Entste-hung der Frühsymptome bei Morbus Parkinson. Dies könnte neue Ansatzpunkte für die Therapie und Linderung von Schlafstörungen sowie Veränderungen im Tag/Nachtrhythmus liefern.
Wohlfahrt, Wohlbefinden, Well-being oder Lebensqualität, es gibt eine Reihe von Begriffen, die als Maß für gesellschaftlichen Wohlstand diskutiert werden. Gemeinsam ist diesen Ansätzen der Versuch, von einer rein ökonomischen Messung der Wohlfahrt etc. - gemessen am Bruttoinlandsprodukt (BIP) – und hin zu einer ganzheitlichen oder zumindest breiteren Beschreibung des Wohlstands zu gelangen. In dieser Studie wird der Begriff Wellbeing dafür verwandt. Bisher erfolgt die Diskussion über dieses Thema überwiegend auf der Ebene von Nationalstaaten und mittels international vergleichender Untersuchungen. Auf regionaler oder lokaler Ebene sind breitere Ansätze zur Wohlstandsmessung bisher wenig(er) verbreitet, und das, obwohl die Bedeutung von Regionen in den vergangenen Jahren - trotz oder wegen Globalisierung und Internationalisierung - deutlich zugenommen hat. Aus regionalpolitischer Perspektive besteht hier eine "Wissenslücke", da viele Entscheidungen für das Wellbeing nicht auf nationaler, sondern auf regionaler Ebene getroffen werden. Hier knüpft die vorliegende Studie an. Ausgangspunkte sind zum einen die inzwischen verbreitete Kritik am Bruttoinlandsprodukt als zentralem Wohlstandsindikator und zum andern die, u.a. von der OECD vertretene Aussage, dass bei einem breiter definierten Wohlstandsbegriff auf regionaler/lokaler Ebene größere Unterschiede des Well-being bestehen als auf nationaler Ebene. Davon ausgehend richtet sich das Erkenntnisinteresse dieser Untersuchung darauf, das objektive Well-being kleinräumig zwischen und innerhalb von Regionen quantitativ zu messen und damit die Frage zu beantworten, welche inter- und intraregionalen Unterschiede dabei bestehen. Erfasst wird das objektive Well-being anhand von zehn Indikatoren für die Bereiche Wirtschaft, Gesellschaft, Umwelt, Region. Die Indikatoren und Bereiche basieren auf dem Konzept der Enquetekommission des Bundestages für „Wachstum, Wohlstand und Lebensqualität“. Deren Indikatoren wurden für die regionale Ebene teilweise modifiziert und ergänzt. Der Untersuchungszeitraum umfasst die Jahre 2000 bis 2011. Die Untersuchung erfolgte zum einen deskriptiv. Die Indikatoren wurden regionsvergleichend sowie für ausgewählte Regionstypen in dem betrachteten Zeitraum beschrieben. Damit lassen sich erste Erkenntnisse über regionale Unterschiede im Well-being gewinnen. Verglichen wurden exemplarisch die beiden Metropolregionen FrankfurtRheinMain und Stuttgart sowie intraregional die Städte und Kreise in diesen beiden Regionen. Zum andern wurde das inter- und intraregionale objektive Well-being anhand eines ganzheitlichen Index gemessen. Methodisch basiert diese Messung auf einem statistisch-ökonometrischen Verfahren (Structural Equation Modelling (SEM)). Mittels dieser Methode können die einzelnen Indikatoren hinsichtlich ihrer Bedeutung für das Well-being (ungleich) gewichtet und in einem einzigen Well-being-Index für die unterschiedlichen Regionsabgrenzungen erfasst werden. Bereits die deskriptiven Untersuchungsergebnisse bestätigen die Ausgangshypothese, wonach Unterschiede im regionalen Well-being zwischen und innerhalb der beiden Metropolregionen bestehen. Beim interregionalen Vergleich der Indikatoren bestehen bei den Einzelindikatoren teilweise deutliche Differenzen zwischen den Regionen. Gemessen an der Bewertung der einzelnen Indikatoren hat mal die Region Stuttgart, mal die Region FrankfurtRheinMain „die Nase vorn“. Der Verlauf der Indikatoren zeigt in beiden Regionen einen ähnlichen Entwicklungstrend.
Primäre Tumore werden nach ihrem Entstehungsort benannt. Selbst Metastasen zeigen eine gewisse Ähnlichkeit mit ihrem ursprünglichen Gewebe. Somit gehören alle Geschwülste, die ursprünglich der Harnblase entstammen, zu den Harnblasenkarzinomen.
Das Harnblasenkarzinom geht meist (90-95%) von der Schleimhaut der ableitenden Harnwege aus und wird als Urothel bezeichnet. Dementsprechend haben die meisten Patienten mit der Diagnose Blasenkarzinom ein Urothel-Blasenkarzinom. Die restlichen Blasenkarzinome entfallen auf Adenokarzinome, Plattenepithelkarzinome, kleinzellige Karzinome, Sarkome, Paragangliome, Melanome oder Lymphome (Humphrey A. et al. 2016, Moch H. et al 2016).
Die Urothel-Blasenkarzinome können sowohl flach, als auch warzenförmig wachsen. Je nach Diagnostik „oberflächlich“ oder „muskelinvasiv“ lassen sich die Urothel-Blasenkarzinome in zwei Hauptgruppen unterteilen;
Etwa 70% der Erkrankten haben dabei ein oberflächliches Urothel-Blasenkarzinom, das auf die Blasenschleimhaut begrenzt ist und durch eine Basistherapie, sog. Transurethrale Resektion (TUR-B) behandelt wird. Dabei werden die in der Schleimhaut gewachsenen Tumore getrennt reseziert. Therapieergänzend und/oder prophylaktisch wird die Blase danach mit einem Chemotherapeutikum gespült (intravesikale Instillation). Diese Zytostatika-Behandlung soll das Wiederauftreten eines Rezidivs verhindern bzw. eventuell verlangsamen (Iida K. et al. 2016, Celik O. et al. 2016).
Rassismus und Judenfeindschaft in der Zeitschrift »Die Erziehung« 1933 – 1942 (Eduard Spranger)
(2016)
Nach der Revolution 1917 schlossen sich mehrere russische Avantgardekünstler den kollektiven geistigen Anstrengungen ein, um ein revolutionäres Gesamtkunstwerk der neuen Menschheit zu gestalten. Sie nutzten alle Medien der Kunst, um ihre innovativen Ideen in diesem Experimentierfeld zu verwirklichen. Die Keramik wurde von ihnen als eines der bedeutenden Experimentierfelder und eine zukunftsweisende Kunstgattung gesehen, die durch den alltäglichen Gebrauch das Bewusstsein und die Wahrnehmung der Menschen entscheidend revolutionieren sollte.
Die vorliegende Dissertation untersucht erstmals die Keramik der russischen Avantgarde als eigenständiges künstlerisches Phänomen. Alle dokumentarisch belegten Entwürfe und Keramiken der russischen Avantgardisten werden zusammengefasst sowie alle bekannten Marken der Keramik aufgeführt. Die Autorin systematisiert die Formensprache und Dekormotive der avantgardistischen Keramikwerke und hebt Hintergrunde sowie theoretische Grundlagen der jeweiligen avantgardistischen Gruppen im Bereich Keramik hervor.
Die vorliegende vergleichende Analyse der russischen und westeuropäischen Keramikkunst des ersten Drittels des 20. Jahrhunderts deckt zum ersten Mal in der kunsthistorischen Forschung ihre Gemeinsamkeiten sowie die gegenseitigen Einflüsse auf, dabei werden die Unterschiede der russischen und europäischen avantgardistischen Keramikkunst deutlich reflektiert.
Bei Erlass des PUAG verzichtete der einfache Gesetzgeber bewusst auf eine mögliche Vereidigung von Zeugen vor Untersuchungsausschüssen. Das Recht zur Zeugenvereidigung ist aber, wie dargelegt wird, in der Verfassung selbst gewährleistet. Damit sind intrikate Fragen sowohl zum Verhältnis von Verfassung und Gesetz sowie im bundesstaatlichen Verhältnis aufgeworfen. Dem einfachen Gesetzgeber steht zwar die Befugnis zu, ein Gesetz über Untersuchungsausschüsse zu erlassen, fraglich ist aber, ob er berechtigt ist, Untersuchungsausschüssen des Bundestages Rechte zu nehmen, die ihnen nach dem Grundgesetz zustehen; dies ist im Ergebnis zu verneinen. Die bundesrechtlichen Änderungen zeitigten indes sogar Folgen für das Verfassungsrecht der Länder. Infolge der mit Einführung des PUAG gleichzeitig erfolgten Änderung des StGB entschied der Hessische Staatsgerichtshof im Jahr 2011, dass Untersuchungsausschüssen des Landtages ein Vereidigungsrecht nicht mehr zustehe, welches er zuvor aus der Hessischen Verfassung abgeleitet hatte. Der Gerichtshof gesteht dadurch dem Strafrecht die Macht zu, öffentlich-rechtliche Kompetenzen in den Ländern zu ändern.
Plus Puls : 2016, 1
(2016)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 02/2016
(2016)
Bei dem letzten Update des Genocide Alert Monitors wurde in sozialen Medien wiederholt darauf aufmerksam gemacht, dass fast sämtliche Massenverbrechen angeblich in muslimischen Staaten stattfänden. Der Islam wurde von den Kommentatoren als gewalttätige Religion bezeichnet und Muslime hauptverantwortlich für die über 21.000 im 1. Quartal 2016 getöteten Menschen gemacht. Anlass genug, die erfassten Situationen auf religiöse Identitäten von Tätern und Opfern zu analysieren...
Die dreibändige Sammlung der Fragmente der römischen Historiker bildet den Abschluss eines langjährigen Unternehmens (vii). Bereits 1996 fand ein Zusammenschluss verschiedener Wissenschaftler statt, die den Nutzen einer derartigen Kollektion erkannten und die ersten Planungsschritte vollzogen. Es folgten mehrere weitere Treffen, die der Konzeption des Corpus und der Vergrößerung des Autorenkreises gewidmet waren. Nach vielen Jahren der Zusammenarbeit und Diskussion der Ergebnisse liegt nunmehr ein beeindruckendes Ergebnis vor: 1203 Fragmente, die in jeder nur wünschenswerter Weise dokumentiert und kommentiert werden...
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von regionalen Klimasimulationen für die Region Ostasien. Hierfür werden zwei verschiedene Modellierungsansätze verwendet. Der dynamische Regionalmodellierungsansatz, vertreten durch COSMO CLM (CCLM), und der statistische Modellierungsansatz, vertreten durch STARS. Die Simulationen erfolgten unter den Rahmenbedingungen des Coordinated Regional Climate Downscaling Experiment (CORDEX). Beide Regionalmodelle wurden im Rahmen dieser Arbeit umfassend für die Region CORDEX-Ostasien kalibriert und evaluiert. Das statistische Modell STARS wurde hierbei erstmals auf kontinentaler Ebene angewendet. Auf Basis der kalibrierten Modelle wurden Projektionen der zukünftigen klimatischen Entwicklung der Region durchgeführt.
Zur Auswertung der einzelnen Kalibrierungsläufe wurde ein komplexes Evaluierungsschema, mit einem Gütekennzahlensystem basierend auf einer linearisierten Form der relativen Modelldifferenz, entwickelt. Neben den etablierten univariaten statistischen Kennwerten (Mittelwert, Varianz, Trend) enthält das Gütekennzahlensystem auch ein bivariates statistisches Maß, welches die zweidimensionalen Stichprobenverteilungen zweier Variablen (beispielsweise Temperatur und Niederschlag) bewertet.
Im Rahmen der Kalibrierung konnte ein Großteil des Parameterraums des statistischen Modells STARS systematisch untersucht werden. Es zeigte sich, dass nur wenige Parameter einen Einfluss auf die Simulationen haben. Die meisten Parameter zeigten eine geringe und teilweise unsystematische Beeinflussung. Es konnte zudem eine Schwachstelle des Modells in Bezug auf die Variablenkorrelationen identifiziert werden. Bei der Kalibrierung des dynamischen Regionalmodells CCLM zeigte sich, dass aufgrund der groben horizontalen Auflösung des Modells eine signifikante Verbesserung der Simulationen durch eine Anpassung der physikalischen Parametrisierungen erfolgen kann.
Im Rahmen einer abschließenden Evaluierung wurden beide Modelle hinsichtlich ihres räumlichen Bias, des simulierten Jahresgangs und der Abbildung des asiatischen Monsunphänomens untersucht. Im ersten Punkt ergab sich kein qualitativer Unterschied zwischen CCLM und STARS. Beide Modelle zeigen eine deutliche Überschätzung der 2m-Temperatur im Winter über dem nördlichen Teil CORDEX-Ostasiens und eine Überschätzung des Luftdrucks über dem Hochland von Tibet im Sommer. Unterschiede zwischen beiden Modellen ergaben sich hingegen beim simulierten Jahresgang.
In Bezug auf die Modellierung des Monsunphänomens zeigt CCLM eine Unterschätzung der Intensität des indischen Sommermonsuns und eine Überschätzung des Sommermonsuns über dem westlichen Nordpazifik. Das statistische Modell STARS zeigte eine Auffälligkeit bei der Simulation des Jahresgangs sowie der räumlichen und zeitlichen Entwicklung des Sommermonsuns. Aufgrund der Konzeption des Modells ergab sich in einzelnen Regionen eine systematische Deformation des Jahresgangs. Trotz der identifizierten Schwachstellen von CCLM und STARS, bilden beide Modelle das Klima über der Region CORDEX-Ostasien qualitativ ähnlich gut ab wie aktuelle Reanalysen (ERA-Interim).
Auf Basis der kalibrierten und evaluierten Modelle wurden Klimaprojektionen für einen nahen (2020-2046), mittleren (2041-2070), und späten (2071-2100) Projektionszeitraum unter den Emissionsszenarien RCP2.6, RCP4.5 und RCP8.5 durchgeführt. Aufgrund von Modellbeschränkungen begrenzen sich die Rechnungen des Modells STARS auf den nahen Projektionszeitraum und die Emissionsszenarien RCP2.6 und RCP4.5. Die Projektionen beider Modelle zeigen eine deutliche und statistisch signifikante Erhöhung der 2m-Temperatur über der gesamten Region mit einer stärkeren Erwärmung über dem Kontinent gegenüber dem Meer. Aufgrund der relativ großen interannulären Variabilität des Niederschlags und des Luftdrucks werden statistisch nicht signifikante Änderungssignale und teils widersprüchliche Änderungen für den nahen Projektionszeitraum simuliert. Für den späten Projektionszeitraum ergeben sich jedoch deutliche Änderungssignale in den Simulationen des Modells CCLM. Insbesondere über dem Hochland von Tibet wird für den Zeitraum von 2071-2100 eine Temperaturerhöhung von über 7.0°C simuliert. Der Luftdruck und der Niederschlag zeigen räumlich heterogene Änderungssignale. Die spezifische Ausprägung der Luftdruckänderungen deutet auf eine Abschwächung der indischen Sommermonsunzirkulation und eine deutlichen Intensivierung des Sommermonsun über dem westlichen Nordpazifik hin. Die Niederschlagsänderungen über dem ostasiatischen Monsungebiet lassen auf eine Entkopplung der östlichen Monsunsysteme schließen. Trotz der heterogenen Änderungssignale im Niederschlag wird in den meisten Regionen eine Zunahme der Intensität von Extremniederschlägen simuliert. Dies gilt selbst für Regionen mit einer simulierten Abnahme der jährlichen Niederschlagssumme wie Westindonesien.
Plus Puls : 2016, 2
(2016)
Plus Puls : 2016, 3
(2016)
Obgleich die Disziplin der internationalen Beziehungen global sein will, bleibt sie allzu häufig von westlichen Wissenschaftlern dominiert. Doch wie kann internationale Politik anders gedacht werden? Welche Perspektiven ergeben sich auch für westliche WissenschaftlerInnen aus einem Perspektivwechsel? Und welche Herausforderungen bringt dies mit sich?
Institutsbericht 2015 des ISOE ist erschienen +++ Arzneimittelrückstände im Wasserkreislauf: Empfehlungen aus dem Forschungsprojekt Sauber+ +++ Mobiles Baden-Württemberg – Neues Forschungsprojekt zu nachhaltiger Mobilität +++ ISOE-Lecture: Transdisziplinäre Forschung in einem neuen Erdzeitalter? Die Debatte um das Anthropozän +++ ISOE-Forscherinnen beim Future Earth Summit in Berlin +++ Aus dem ISOE: Nachhaltigkeitsstrategie Hessen: ISOE unterschreibt Zielvereinbarung für nachhaltige Beschaffung +++ Termine +++ Publikationen
Dies ist der 17. Artikel in unserer Blogreihe Trouble on the Far-Right.
Um eines gleich deutlich zu machen: Über rechtsradikale Tendenzen in der Ukraine zu schreiben ist ein Drahtseilakt. Schließlich ist die Debatte in einen größeren Kontext eingebettet: Seit den Ereignissen auf dem Maidan 2014 und dem anschließenden Regime-Change erheben pro-russische Medien die sachlich schwer begründbare Beschuldigung, dass der Westen den Charakter der „faschistischen Junta in Kiew“ verkenne. Auf der anderen Seite bagatellisieren einige Publikationen die real existierenden rechten Umtriebe in der Ukraine beträchtlich. So handelt man sich schnell den Vorwurf ein, wahlweise „die faschistischen Ukrainer“ zu protegieren oder sich „den imperialistischen Russen“ anzubiedern. An dieser Stelle bleibt die notwendige Aufgabe Meinungen von Fakten zu trennen.
Die bedeutendste Kraft der parlamentarischen Rechten in der Ukraine ist die „Freiheitspartei“ Swoboda. Ihre Beteiligung an der Übergangsregierung nach den Maidan-Protesten galt einigen Beobachtern als Beweis für einen Rechtsruck in der Ukraine. Mittlerweile verfügt diese Partei nicht einmal mehr über eine parlamentarische Fraktion. Wie ist es dazu gekommen? Welche Dynamiken stehen dahinter? Ist letztendlich alles in trockenen Tüchern und die Gefahr von rechts gebannt?
Nachkriegsländer gehören zu den schwierigsten politischen Arenen. Die Herausforderungen bestehen nicht nur darin, diese Länder dabei zu unterstützen Kriege zu beenden und neue Gewaltausbrüche zu verhindern, sondern vielmehr zu einem friedlichen Zusammenleben zurückzukehren. In diesem Zusammenhang ist in den letzten Jahren das Interesse vieler Wissenschaftler als auch vieler internationaler Akteure gestiegen, das mögliche Potential des nachhaltigen Managements natürlicher Ressourcen zu nutzen um Friedensprozesse zu unterstützen. Die Hoffnung liegt dabei darin, dass eine gute Regierungsführung („Good Governance“) und insbesondere die nachhaltige Entwicklung und Nutzung von Ressourcen wie Wasser, Wald oder landwirtschaftlichen Flächen, Kooperation zwischen Konfliktparteien ermöglichen und dabei zum Neustart der internen Beziehungen beitragen. Die wachsende Bedeutung des Zusammenspiels zwischen der Entwicklung von Frieden und Umweltschutz sowie der nachhaltigen Nutzung von Ressourcen wurde erst kürzlich durch die Ziele nachhaltiger Entwicklung der Vereinten Nationen bestätigt....
CGC aktuell 02/2016
(2016)
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
Dies ist der 25. Artikel in unserer Blogreihe Trouble on the Far-Right.
Ein Mädchen auf einem Fahrrad. Weiße Bluse, schwarzer langer Rock, weiße Socken, schwarze Schuhe. Sie fährt durch eine idyllische, friedlich wirkende, sommerliche Landschaft. Unter dem Foto steht: „Revolt against the modern world – justnationalistgirls“.
Eine Demonstration. Einzig bengalische Feuer erleuchten die Dunkelheit. Schemenhaft erkennt man eine Frau, die auf eine gefährlich anmutende Menge zugeht. Sie wirkt stark. Unter dem Foto steht: „The night’s still young – justnationalistgirls“.
Dass rechte Bewegungen Facebook zur Mobilisierung nutzen, ist bekannt. Auch die extrem rechte Facebookseite justnationalistgirls, die knapp 9000 Nutzer*innen liken, transportiert extrem rechte Inhalte, jedoch ungleich subtiler verpackt, als es auf so manch dezidiert neonazistischer Facebookseite der Fall ist. Justnationalistgirls und ähnliche Seiten reproduzieren auf den ersten Blick, scheinbar harmlos, eine idealisierte Vorstellung von Mädchen und jungen Frauen, die ihr heimisches Idyll beschützen möchten. Die im April 2014 gegründete Seite hat sich vor allem in Frankreich, Deutschland, Österreich, Polen und den USA eine Anhänger*innenschaft erarbeitet. Die generelle Botschaft ist nicht offensichtlich erkennbar. Mit Sicherheit gesagt werden kann jedoch, dass justnationalistgirls mindestens zwei, scheinbar widersprüchliche Weiblichkeitsbilder verbreitet, welche in den meisten rechten Gruppen oder Bewegungen Anklang finden: Zum einen die traditionelle Rolle der Frau als Mutter der Nation, zum anderen die der Kämpferin neben dem Mann im „nationalen Befreiungskampf“.
Die folgenden Einschätzung sowie daraus resultierende Handlungsempfehlungen formuliere ich aus meiner Erfahrung in der politischen Bildungsarbeit. Justnationalistgirls ist ein Türöffner zu extrem rechtem Gedankengut. Selbstredend ist der Einstieg in die organisierte und gegebenenfalls militante, extrem rechte Szene weitaus vielschichtiger und nicht nur auf das Besuchen einer bestimmten Internetseite zurückführbar. Inhalte, wie sie auf justnationalistgirls veröffentlicht werden, stellen allerdings ein niedrigschwelliges Einstiegsangebot dar, dem eine demokratische, politische Bildung dringend etwas entgegensetzen muss. In erster Linie gehört dazu die Förderung der Fähigkeit zum Hinterfragen und Dekonstruieren extrem rechter Ideen und Parolen. Betrachtet man das Publikum, welches die Inhalte von justnationalistgirls teilt, liest oder mit „gefällt mir“-markiert, fällt auf, dass es sich vor allem um Jugendliche und junge Erwachsene handelt. „Besonders Jugendliche auf der Suche nach Orientierung sind dafür empfänglich, wenn es erstmal unverfänglich aussieht.“, sagt Simone Rafael von der Amadeu-Antonio-Stiftung.
Im Folgenden soll der Frage nachgegangen werden, welche Weiblichkeitsbilder durch justnationalistgirls transportiert und anhand dieser Handlungsempfehlungen formuliert werden, an denen sich eine Form von politischer Bildung als Rechtsextremismusprävention orientieren kann. Justnationalistgirls soll hier als ein Beispiel für viele Formen versteckter rechter oder rassistischer Inhalte in sozialen Medien gesehen werden, welche vor allem von Akteur*innen politischer Bildung mehr Aufmerksamkeit erhalten sollten.
Das britische Austrittsreferendum ist eng mit der größeren Thematik der EU-Krise verknüpft. Gäbe es keine Krise der europäischen Integration, hätte der Brexit weniger Appeal. Umgekehrt könnte das Votum der britischen Bevölkerung die EU-Krise dramatisch verschärfen. Aus der Sicht dritter Staaten kann die Reputation des globalen Akteurs EU nur leiden, wenn eines der größten und wichtigsten Mitglieder die Leinen kappt, weil, so die „Brexiteers“, das europäische Projekt ohnehin keine Zukunft habe. Welche Konsequenzen der Brexit für den Rest der EU haben wird, hängt auch davon ab, wie Großbritannien den Exit-Schock und die Folgen verarbeitet. Möglicherweise wird den Briten (und anderen) der Wert der EU erst mit dem Ausscheiden deutlich. Dennoch erwischt der Brexit die EU in einer denkbar ungünstigen Phase und könnte die Krise vertiefen. Zumindest macht das Beispiel Schule. Bereits vor der britischen Entscheidung forderten Parteien und Bewegungen in mehreren EU-Ländern ebenfalls das Recht auf ein Referendum über Verbleib oder Austritt. Und Umfragen deuteten an, dass zumindest in einigen EU-Ländern eine Mehrheit für den Austritt votieren könnte. Nach dem Brexit rufen Marine Le Pen, Norbert Hofer und andere noch lauter nach Abstimmungen in ihren Ländern. Die europäischen Eliten werden sich in dem Spagat üben müssen, einerseits bei europäischen Fragen auf ihre Bevölkerungen zu hören, andererseits die Forderungen nach organisierter Beteiligung in Form von Referenden abzuwehren....
Am 12. Juli wurde vom Internationalen Schiedshof das Urteil im Streit zwischen den Philippinen und der VR China verkündet. Der Schiedshof erklärte, dass große Teile der chinesischen Ansprüche im Südchinesischen Meer null und nichtig sind, da sie einer rechtlichen Grundlage entbehren. Dies betrifft zunächst die auf der sog. nine-dash line basierenden Ansprüche. Dabei handelt es sich um eine aus den 1940er Jahren stammende Karte mit neun unterbrochenen Strichen, mittels derer China seit Jahrzehnten die äußeren Grenzen seiner nicht näher bestimmten historischen Rechte auf große Teile des Südchinesischen Meeres begründet. Gefallen sind auch die Ansprüche auf eine bis zu 200 Seemeilen umfassende ausschließliche Wirtschaftszone (Exclusive Economic Zone; EEZ) in den Spratly-Inseln und rund um Scarborough Shoal im Norden des südchinesischen Meeres, weil diesen vom Gericht der Inselstatus abgesprochen wurde. Der Verlust dieser Rechte wiederum hat zur Folge, dass die chinesische Besetzung mehrerer Riffe und Atolle als illegal eingestuft wird, weil sie innerhalb der ausschließlichen Wirtschaftszone EEZ der Philippinen liegen....
Dies ist eine gekürzte Version eines Beitrags, der in der Zeitschrift Internationale Politik – IP, Ausgabe Mai/Juni 2016, erschienen ist.
Während in den zehn Jahren des Afghanistan-Krieges von 1979 bis 1989 geschätzte 20 000 „foreign fighters“ zu den Mudschahedin und Al-Kaida ins Kriegsgebiet zogen, sind es im vom so genannten „Islamischen Staat“ (IS) gehaltenen Territorium nach drei Jahren bereits etwa 30 000. Zwischen 6000 und 7000 kommen aus Ländern der EU; erstmals folgen auch Frauen in signifikanter Zahl dem Ruf einer islamistischen Terrororganisation. Warum also zieht der IS so viel mehr Anhänger an, als es Al-Kaida je getan hat? Wieso machen sich Tausende junger Muslime, die in Europa geboren wurden, auf den Weg in ein angebliches Kalifat und reales Kriegsgebiet? Und welche Rolle spielen die Narrative und Angebote des IS dabei?...
In etwa 40% der Fälle erleiden Patienten bei einem Polytrauma eine Verletzung des Thorax. Diese Patienten haben im Verlau ein erhöhtes Pneumonierisiko, eine längere Beatmungs-, Intensiv- und Krankenhausverweildauer sowie ein erhöhtes Letalitätsrisiko. Um eine optimierte Versorgung dieser Patienten zu erreichen wurde seit 2003 im Universitätsklinikum Frankfurt ein standardisiertes Behandlungsverfahren durchgeführt und über die Jahre weiterentwickelt. Grundlage dieses Konzepts ist die Behandlung des Patienten mittels kinetischer Therapie im Rotorest®Bett sowie den drei Kern-Maßnahmen: Beatmung mit einem PEEP von 15mbar, frühzeitige assistierte Spontanatmung und frühzeitige enterale Ernährung. Ziel der Arbeit war die Weiterentwicklung des Behandlungsstandards wissenschaftlich unter besonderem Fokus auf die Entwicklung einer Pneumonie aufzuarbeiten. Das Konzept sah 2003 eine Beatmung, mit einem an die Oxygenierung adaptierten PEEP vor. Die Dauer der Therapie im Rotorest®Bett wurde nach Klinik entschieden. 2006 wurde standardmäßig die Therapie im Rotorest®Bett für mindestens 72h mit einem PEEP von 15mbar durchgeführt. Eine assistierte Beatmungsform sollte zeitnah etabliert werden. Im Jahr 2009, wurde das Behandlungsschema verkürzt, die Therapiedauer mit einem PEEP von 15mbar wurde auf 40 bis 48 Stunden reduziert sowie der PEEP danach initial um 4mbar reduziert. Im Anschluss erfolgte alle 8 Stunden eine weitere Reduktion des PEEP um 2mbar. Weiterhin wurde in diesem Zeitraum auf eine Antiinfektivaprophylaxe verzichtet. 108 Patienten (61,7%; ISS 37±13 Punkte) konnten in diese retrospektive Studie eingeschlossen werden. 38,3% der Patienten mussten ausgeschlossen werden, einerseits auf Grund fehlender Krankenakten oder anderseits auf Grund des Beginns der Therapie im RotoRest®Bett erst nach >48h. Durch die Anpassung des Therapiestandards über die Jahre reduzierte sich die Beatmungszeit von 17±15 Tage auf 8±8 Tage (p<0,001), die Verweildauer auf ITS von 17±9 auf 10±9 Tage (p<0,001), während die Krankenhausverweildauer unverändert blieb. Dies war begleitet von einer Reduktion der Therapiedauer im Rotorest®Bett von im Median 5 auf 3 Tage (p=0,017) sowie einer Reduktion des Anteils an Patienten mit mandatorischer Beatmung in den ersten drei Behandlungstagen von 87% (95% CI 78-96%) im Jahr 2003 auf 38,6% (95% CI 29-49%) im Jahr 2009. Die Rate an Pneumonien konnte von 25% in 2003 über 37% in 2006 auf 17% in 2009 gesenkt werden, der Unterschied war jedoch nicht signifikant. Das Risiko zu versterben war bei Entwicklung einer Pneumonie signifikant erhöht (24% vs. 4,5%, p=0,006). In der univariaten Analyse waren relevante Faktoren für die Entwicklung einer Pneumonie ein höheres Alter der Patienten (48 Jahre vs. 36 Jahre; p = 0,018), die zunehmende Höhe des Beatmungsspitzendruckes (p<0,01) sowie der Hämoglobinwert bei Aufnahme (Rs -0,28; p=0,004). Umgekehrt war eine Transfusion von Blutprodukten am ersten Behandlungstag mit einem erhöhten Pneumonierisiko verbunden (p<0,05), dies galt auch für die Verabreichung der einzelnen Komponenten, EKs (p=0,027), FFP (p=0,037) sowie von TKs (p=0,046). Keine signifikante Korrelation zur Entwicklung einer Pneumonie hatte die Verletzungsschwere (ISS) sowie die Höhe des PEEP oder der Grad der Oxygenierungsstörung (paO2/FiO2) in den ersten fünf Behandlungstagen. In der multivariaten Analyse, mit der Entwicklung einer Pneumonie als abhängigen Faktor, adjustiert auf ISS und Alter der Patienten zeigte sich als unabhängige Risikofaktoren die Gabe von EKs (OR 3,646 95%CI 1,074-12,383), die Ernährung mit >5000kcal in den ersten fünf Behandlungstagen (OR 3,219 95%CI 1,033-10,034) sowie die Höhe des Beatmungsspitzendruckes (OR 1,135 95%CI 1,010-1,275).
In Zusammenschau war ein primärer Erfolg des Konzeptes, dass kein Patient im Verlauf ein moderates oder schweres ARDS entwickelt hat. Es konnte durch die Anpassung des Behandlungsstandards sowohl die Beatmungszeit als auch die Verweildauer auf der ITS signifikant reduziert werden. Auch die Pneumonierate konnte nach einem Anstieg im Jahr 2006 bis 2009 deutlich reduziert werden. Als Risikofaktoren für die Entwicklung einer Pneumonie zeigten sich aus der Literatur bekannte Parameter wie das Alter der Patienten und die Invasivität der Beatmung sowie die Transfusion von Blutprodukten. In der multivariaten Analyse bestätigte sich dies für die Gabe von EKs, die Invasivität der Beatmung sowie der Ernährung mit kumulativ > 5000 kcal in den ersten fünf Tagen.
Patienten, die mit dem in dieser Arbeit beschrieben Protokoll behandelt wurden, zeigten aber kein signifikant erhöhtes Pneumonierisiko in Abhängigkeit zur Verletzungsschwere als Polytrauma (ISS) oder zum Grad der Oxygenierungsstörung in den ersten Tagen.
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 03/2016
(2016)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 04/2016
(2016)
CGC aktuell 01/2016
(2016)
Dies ist ein Crosspost mit freundlicher Genehmigung der Hessischen Stiftung Friedens- und Konfliktforschung. Der Beitrag findet sich ebenso auf der Seite der HSFK.
Trotz Bangen war am Ende allen zum Feiern zumute: Am 16. Dezember 2016 fasste die fünfte Überprüfungskonferenz der UN-Waffenkonvention (Convention on Certain Conventional Weapons, CCW) unter pakistanischem Vorsitz den Beschluss, im nächsten Jahr eine offizielle Expertenkommission einzusetzen, die sich mit letalen autonomen Waffensystemen (Lethal Autonomous Weapons Systems, LAWS) befassen soll. Diese Group of Governmental Experts (GGE) wird unter indischem Vorsitz „open-ended“ tagen und 2017 zu zwei je fünftägigen Treffen zusammenkommen...