Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2877)
- Article (2282)
- Contribution to a Periodical (2161)
- Book (2027)
- Doctoral Thesis (1741)
- Review (927)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (182)
Language
- German (14018) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (44)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5057)
- Medizin (1514)
- Gesellschaftswissenschaften (1066)
- Rechtswissenschaft (742)
- Neuere Philologien (653)
- Wirtschaftswissenschaften (644)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Ziel. Lokoregionäre Rezidive sind der Hauptgrund für ein Therapieversagen nach primärer multimodaler Behandlung von Plattenepithelkarzinomen der Kopf-Hals-Region (SCCHN). Wir verglichen die Effektivität und Toxizität von Cisplatin oder Cetuximab simultan zur Re-Bestrahlung (ReRT) bei inoperablen SCCHN-Rezidiven. Ein prognostischer Score sollte auf Grundlage verschiedener klinischer und pathologischer Faktoren etabliert werden.
Patienten und Methoden. 66 Patienten mit in vorbestrahlten Regionen rezidivierten SCCHN wurden von 2007 bis 2014 simultan mit Cetuximab (n=33) oder cisplatin-basierter Chemotherapie (n=33) re-bestrahlt. Die Toxizität wurde wöchentlich sowie bei jedem Nachsorgetermin erfasst. Klinische Untersuchung, Endoskopie, CT- oder MRT-Untersuchungen wurden zur Beurteilung des Therapieansprechens und der Krankheitskontrolle eingesetzt.
Ergebnisse. Nach einer mittleren Nachbeobachtungszeit von 18,3 Monaten betrug das 1-Jahres-Überleben (OS) für ReRT mit Cetuximab 44,4% und mit cisplatin-basierter Chemotherapie 45,5% (p=0.352). Die lokalen Kontollraten nach einem Jahr waren jeweils 46,4% und 54,2% (p=0.625); die Raten an Metastasenfreiheit 73,6% und 81% (p=0.842). Hämatologische Toxizität ≥ Grad 3 kam in der Cisplatin-Gruppe häufiger vor (p<0.001), dagegen trat Schmerz ≥ Grad 3 in der Cetuximab-Gruppe häufiger auf (p=0.034). Ein physiologischer Hb-Wert und ein längeres Intervall zwischen primärer RT und ReRT erwiesen sich als signifikante prognostische Faktoren für das OS (multivariat: p=0.003 und p=0.002). Die Rezidivlokalisation sowie das GTV zeigten keinen signifikanten Einfluss auf das OS in der multivariaten Analyse (p=0.160 und p=0.167). Ein auf Grundlage dieser Variablen konstruierter Prognose-Score (0 bis 4 Punkte) zeigte signifikante Überlebensunterschiede: 1-Jahres-OS für 0/1/2/3/4 Prognosepunkte: 10%, 38%, 76%, 80% und 100% (p<0.001).
Schlussfolgerung. Sowohl Cetuximab- als auch Cisplatin-basierte ReRT für SCCHN-Rezidive sind gut durchführbare und effektive Behandlungsoptionen mit vergleichbaren Ergebnissen bezüglich Tumorkontrolle und Überleben. Die akuten Nebenwirkungen könnten gering variieren. Unser Prognose-Score könnte zur Identifizierung der für ReRT geeigneten Patienten sowie zur Stratifizierung in künftigen klinischen Studien dienen.
Diese Magisterarbeit befasst sich mit der archäologischen Fundsituation von Terrakottafiguren der Nok-Kultur in Zentralnigeria (1500 v. Chr. – 1 n. Chr.). Seit 1928 werden solche anthropomorphe und zoomorphe Skulpturen aus gebranntem Ton im Verbreitungsgebiet entdeckt. Nur wenige stammen jedoch aus systematischen Ausgrabungen. Mit Beginn der Frankfurter Forschungen 2005 (seit 2009 im Rahmen eines DFG-Langfristprojekts in Zusammenarbeit mit zwei nigerianischen Universitäten und der NCMM in Nigeria) erweiterten sich die Erkenntnisse zum Kontext der Figuren und der assoziierten Funde stetig.
Im Fokus der Arbeit stehen acht Befunde mit Terrakottafragmenten von sechs Nok-Fundstellen. Sie werden dank der Frankfurter Daten beschrieben, analysiert und im Hinblick auf den finalen Umgang mit den Funden interpretiert. Unter den intentional angelegten Befunden sprechen bestimmte Kriterien für einen profanen Charakter der Niederlegungen, andere sprechen für rituelle Deponierungen. Letztere sind vermutlich im Rahmen von Aktivitäten angelegt worden, welche mit der Glaubenswelt der prähistorischen Gesellschaft in Verbindung stehen. (An English summary is included.)
Sie hören Stimmen, vermuten Botschaften in bedeutungslosen Ereignissen oder fühlen sich ferngesteuert: Die Symptome von Menschen mit einer schizophrenen Störung galten bisher als »uneinfühlbar«, da für Außenstehende nicht nachvollziehbar. Aktuelle neurowissenschaftliche Modelle helfen, die Verwechslung von »eigen« und »fremd« aufzuklären.
Um die Funktionsweise von biologischen Prozessen zu untersuchen, werden Trigger-Signale benötigt, die die Prozesse initiieren können, ohne dabei dem Organismus zu schaden oder Nebenreaktionen hervorzurufen. Ein geeignetes Trigger-Signal stellt Licht dar, da es bei geeigneter Wellenlänge nichtinvasiv ist und nur wenige biologische Prozesse durch Licht gesteuert werden. Um einen Prozess mit Licht aktivierbar zu machen, benötigt man eine lichtsensitive Einheit, beispielsweise eine photolabile Schutzgruppe, die durch die Bestrahlung mit Licht einen zuvor blockierten Bereich freisetzt.
Hauptziel dieser Arbeit war es die Zweiphotonen-Technik für die Photolyse von photolabil geschützten Oligonukleotiden nutzbar zu machen und das Photolyseergebnis zu visualisieren.
Dazu wurden zunächst verschiedene mit Zweiphotonen-sensitiven Schutzgruppen modifizierte Phosphoramidite synthetisiert und über Festphasensynthese in Oligonukleotide eingebaut. Die Oligonukleotide mit den erstmals neu eingebauten Schutzgruppen ANBP und hNDBF wurden zunächst auf ihre Einphotonen-Eigenschaften, wie Schmelzpunkt, Absorptionsverhalten und Quantenausbeute untersucht. Weiterhin wurden erste Versuche zur wellenlängenselektiven Photolyse von hNDBF- und ANBP-geschützten Oligonukleotiden durchgeführt.
Die Existenz eines Zweiphotonen-induzierten Effekts kann durch die quadratische Abhängigkeit des erzeugten Effekts von der eingestrahlten Leistung nachgewiesen werden. Dazu wurde ein Verdrängungs-Assay entwickelt, dessen Doppelstrang-Sonde aus einem FRET-Paar besteht. Der Fluorophor-markierte Strang dient dabei als Gegenstrang zum photolabil geschützten Strang. Durch einen Thiol-Linker am photolabil geschützten Oligonukleotid konnte dieses erfolgreich in Maleimid-Hydrogele immobilisiert werden und der Verdrängungs-Assay im Gel durchgeführt werden. Die immobilisierten Stränge enthielten DEACM bzw. ANBP Schutzgruppen. Neben der quadratischen Abhängigkeit der Photolyse von der eingestrahlten Leistung konnten in diesen Hydrogelen auch 3D-aufgelöste Photolysen realisiert werden, die eindeutig die Zwei-Photonen-Photolyse belegen. Diese 3D-Experimente wurden zusammen mit Dr. Stephan Junek am MPI für Hirnforschung durchgeführt. Durch die Wahl zweier unterschiedlicher Sequenzen für die dTDEACM und dGANBP modifizierten Stränge und zwei unterschiedlicher Fluorophore für die Doppelstrang-Sonden, konnte die orthogonale Zweiphotonen-Photolyse gezeigt werden. Um zu zeigen, dass die Zweiphotonen-Photolyse von Oligonukleotiden auch in Organismen realisiert werden kann ohne das biologische System zu schädigen, wurde versucht den Verdrängungs-Assay auch in Zellen durchzuführen. Durch die Verwendung der Patch-Clamp-Technik in Zusammenarbeit mit Dr. Stephan Junek am MPI für Hirnforschung konnten die Stränge über die Elektrolyt-Lösung in Hippocampus-Neuronen eingebracht werden und durch Zweiphotonen-Bestrahlung dort photolysiert werden, was zu einem deutlichen Fluoreszenzanstieg führte. Durch die angeschlossene Patch-Clamp-Pipette konnten so zusätzlich elektrophysiologische Messungen durchgeführt werden, die zeigten, dass die durchgeführte Zweiphotonen-Bestrahlung nicht invasiv für die Zellen ist.
Die durchgeführten Experimente beweisen, dass Zweiphotonen-sensitive Schutzgruppen auf Oligonukleotiden photolysiert werden können und dass ihr Einsatz auch in biologischen Systemen möglich ist. Der entwickelte Verdrängungs-Assay ermöglicht es weiterhin neue photolabile Schutzgruppen auf Oligonukleotiden auf ihre Zweiphotonen-Sensitivität zu untersuchen.
Ein weiteres Projekt beschäftigte sich mit der Synthese der neuen Schutzgruppe DMA-NDBF-OH, die in-silico von der Arbeitsgruppe von Prof. Andreas Dreuw aus Heidelberg als effiziente Zweiphotonen-sensitive Schutzgruppe beschrieben wird. Es wurde versucht DMA-NDBF-OH über zwei Syntheserouten herzustellen. Eine Route basierte auf der Einführung der Funktionalitäten an einem unmodifizierten Dibenzofuran, die leider an der Bromierung der Seitenkette scheiterte. Die zweite Syntheseroute wurde in Anlehnung an die NDBF-Synthese von Deiters et al., bei der das Dibenzofuran durch eine Kondensation zweier modifizierter Benzolringe und einem Pd-katalysierten Ringschluss aufgebaut wird, durchgeführt. Mit dieser Syntheseroute konnte das DMA-NDBF-OH erfolgreich synthetisiert werden. Aufgrund ihrer starken bathochromen Verschiebung sollte sich diese Schutzgruppe hervorragend für die wellenlängenselektive Photolyse auf Ein- und Zweiphotonenebene eignen.
kurz und kn@pp news : Nr. 37
(2016)
kurz und kn@pp news : Nr. 38
(2016)
kurz und kn@pp news : Nr. 36
(2016)
Kosmopolitismus ist kein Konzept, das für jedermann positiv besetzt ist, auch wenn dies die wohlklingende Bezeichnung "Weltbürger" zunächst vermuten lässt. Für George Cogniot, Chefredakteur der kommunistischen Tageszeitung "L’Humanité" repräsentierte der Kosmopolit vielmehr "die letzte Stufe kapitalistischer Unmenschlichkeit"; letztlich handele es sich um eine "weltweite zynische Ausbeutung entwurzelter Sklaven". Wer in den Koordinaten einer proletarischen Internationalen dachte, sah im Kosmopolitismus eher ein Konkurrenzprojekt des gehobenen Bürgertums. Schließlich war die Grundidee des Weltbürgertums eng mit der Aufklärung und dem Reisenden des 18. Jahrhunderts verbunden, mit den Vertretern der Oberschicht, die während einer Grand Tour die benachbarten Kulturen kennenlernten und dort weltgewandtes Auftreten erwarben. Der Großteil der historischen Studien, die sich mit der Geschichte des Kosmopolitismus beschäftigen, konzentriert sich auf diese Epoche. Dass dadurch ein wichtiger Umbruchpunkt in der Entwicklung des Kosmopolitismus ausgeklammert wird, verdeutlicht der vorliegende Sammelband von Ute Lemke, Massimo Lucarelli und Emmanuel Mattiato, in dem der Fokus auf die zwanziger und dreißiger Jahre des 20. Jahrhunderts gelegt wird. ...
Der vorliegende Text ist das Ergebnis einer sondierenden Vorstudie zur Vorbereitung einer qualitativen empirischen Befragung zum Umgang mit Wasser in chinesischen Haushalten, die im November 2015 im Rahmen des Projekts SEMIZENTRAL in Qingdao, China, durchgeführt wurde (Publikation in Vorbereitung). Das vom BMBF geförderte Projekt SEMIZENTRAL wird vom Institut IWAR der Technischen Universität Darmstadt geleitet (siehe http://www.semizentral.de/home/). Das ISOE ist Partner im Forschungsverbund und führt eine Stoffstrom- und eine damit verbundene Vulnerabilitätsanalyse für das Gebiet der Implementierung durch. In diesem Zusammenhang ist es wichtig, Einflussfaktoren des Umgangs mit Wasser durch die Bevölkerung kennenzulernen.
Gestützt auf das integrative Konzept der Wasserkultur werden im nachfolgenden Text die Ergebnisse einer diesbezüglichen Recherche vorgestellt. Dabei werden natürliche, infrastrukturelle, soziale, kulturelle, ökonomische und verhaltensbezogene Aspekte der Wasserverfügbarkeit, der Ansprüche an Wasserqualität und des Umgangs mit Wasser in China thematisiert.
Prognostische Faktoren und das Outcome von Patienten mit einem primären Glioblastom sind in der Fachliteratur gut beschrieben. Im Gegensatz dazu gibt es wenige vergleichbare Informationen zu Patienten mit einem sekundären Glioblastom. Das Ziel dieser Arbeit war es, das Outcome von Patienten mit einem sekundären Glioblastom zu beurteilen und prognostische Faktoren in Be-zug auf das Gesamtüberleben zu identifizieren.
Dazu wurde die interne Datenbank des Universitätsklinikums Frankfurt/Main von Patienten mit Hirntumoren retrospektiv nach klinischen Daten durchsucht. Alle Patienten hatten ein histologisch gesichertes WHO Grad II oder III Gliom und anschließend ein WHO Grad IV sekundäres Glioblastom. Paraffiniertes Hirntumorgewebe wurde auf Mutationen der Isocitrat Dehydrogenase-1 (IDH1) mittels einer immunhistochemischen Färbung mit einem R132H (clone H09) spezifischen Antikörper untersucht. Eine uni- und multivariate statistische Analyse wurde durchgeführt, um Faktoren zu ermitteln, die potentiell das Gesamt-überleben beeinflussen könnten.
Es wurden 45 Patienten mit einem histologisch gesicherten sekundären Glioblastom untersucht. Das mediane Alter betrug 41 Jahre. 14 Patienten unterzogen sich einer radiologisch kompletten Resektion des sekundären Glioblastoms, 31 Patienten wurden subtotal reseziert oder biopsiert. Initial ist bei 37 Patienten ein astrozytärer Tumor nachgewiesen worden und die restlichen Patienten litten an Oligodendrogliomen oder gemischten Gliomen; bei der initialen Diagnose wurden 17 WHO Grad II und 28 WHO Grad III Tumoren fest-gestellt. Die mediane Zeit zwischen Ursprungstumor und dem Auftreten des sekundären Glioblastoms betrug 158,9 Wochen. Das mediane Gesamtüberleben betrug 445 Tage nach der Diagnose eines sekundären Glioblastoms. Mutationen des IDH1 (R132H) Proteins wurden bei 24 Patienten festgestellt und fehlten bei 17 Patienten; bei 4 Patienten konnte keine IDH1 immunhistochemische Färbung durchgeführt werden.
In der univariaten Analyse konnte der Zeitraum zwischen initialer Läsion und dem Progress zu einem sekundären Glioblastom als statistisch signifikanter Einflussfaktor identifiziert werden- Patienten mit einem Zeitraum von mehr als 2 Jahren hatten ein besseres Gesamtüberleben (460 vs. 327 Tage, p = 0,011). Außerdem konnte bei Patienten, die eine kombinierte Radiochemotherapie bekamen, ein besseres Gesamtüberleben nachgewiesen werden als bei Patienten, welche ausschließlich eine Therapieform erhielten (611 vs. 380 Tage, p < 0,001). Weiterhin konnten ein WHO Grad II Ursprungstumor (472 vs. 421 Tage, p = 0,05) und eine Frontalllappenlokalisation des Glioblastoms (472 vs. 425 Ta-ge, p = 0,031) das Überleben steigern.
In der multivariaten Analyse konnte gezeigt werden, dass die Mutation des IDH1 (R132H) Proteins in statistisch signifikanter Weise mit einem längeren Gesamtüberleben assoziiert war (p = 0,012); statistische Signifikanz für ein län-geres Gesamtüberleben bei Patienten mit initial einem WHO Grad II (p = 0,047) und einer Frontallappenlokalisation des Glioblastoms (p = 0,042) stellte sich auch ein. In Bezug auf die Patienten spezifischen Daten wurden zwei Prognosegruppen erstellt; Patienten in der guten Prognosegruppe scheinen einen Benefit von einer totalen Tumorresektion zu haben (p = 0,02), während eine Resektion für die andere Prognosegruppe keine große Rolle spielte (p = 0,926).
Trotz des relativ geringen Erkrankungsalters haben sekundäre Glioblastom Patienten eine schlechte Prognose. Die Ergebnisse dieser Arbeit unterstreichen die Wichtigkeit und den prognostischen Wert der IDH1 Diagnostik, die Notwendigkeit einer kombinierten Radiochemotherapie und eine Risikostratifizierung für eine Prognoseabschätzung anhand der Patienten spezifischen Einflussfaktoren.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
„Keine Gesellschaft ohne Natur“ – Beiträge zur Entwicklung der Sozialen Ökologie erschienen +++ ISOE beim Symposium deutscher Mobilitäts- und Verkehrsforscher in Berlin +++ Arzneimittelrückstände im Wasserkreislauf: Technische Lösungen stoßen an ihre Grenzen +++ Stakeholder im Forschungsprozess – für den naturnahen Umbau der Nidda +++ Neuer Stromspiegel für Deutschland: Ergebnisse aus Forschungsprojekt von ISOE und Öko-Institut +++ Best Paper Award der Zeitschrift GAIA: ISOE-Beitrag unter den drei Erstplatzierten +++ Aus dem ISOE: Girls'Day 2016: Zukunftstag für Mädchen am ISOE +++ Termine +++ Publikationen
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Der Beitrag untersucht das in jüngerer Zeit verstärkt diskutierte Phänomen einer – tatsächlichen oder vermeintlichen – „anglo-amerikanischen Rechts-hegemonie“. Es geht dabei um die Frage, ob die Rechtsordnungen Deutschlands und der Europäischen Union unter eine Vormachtstellung des amerikanischen Rechtsdenkens und amerikanischer Regelungsmuster geraten sind oder eine solche vielleicht sogar selbst aktiv befördert haben. In dem Beitrag wird diese Diskussion aus zivilrechtlicher Perspektive aufgegriffen. Nach einer Konkretisierung des Topos der Rechtshegemonie werden dabei zunächst einige Grundcharakteristika des amerikanischen Rechtssystems und des deutschen Rechtssystems gegenübergestellt und zusammengefasst, in welchen Bereichen das deutsche und das europäische Recht in den vergangenen Jahrzehnten durch amerikanische Denk- und Regelungsmuster überformt worden sind. Im Anschluss erfolgt eine Bewertung der zuvor skizzierten Entwicklung, wobei die Unterscheidung zwischen einem intrinsisch orientierten und einem funktional orientierten Verständnis von Rechtskultur als ein Kernproblem der jüngeren rechtsvergleichenden Diskussion im Zentrum steht. Im Ergebnis wird eine tendenziell skeptische Perspektive gegenüber dem suggestiven Bild eines Wettbewerbs der Rechtsordnungen eingenommen und die in jüngerer Zeit häufig geäußerte These der globalfunktionalen Überlegenheit eines wettbewerbsorientierten Rechtsmodells in Zweifel gezogen.
Dieser Artikel beschreibt die Inverted-Classroom-Methode(ICM) im Sinne einer Einführung in die Thematik und soll als Praxisleitleitfaden für diejenigen dienen, die diese Methode in der medizinischen Aus-, Fort- und Weiterbildung einsetzen möchten. Es handelt sich bei der ICM um einen Blended-Learning-Methode, bei dem eine Selbstlernphase (individuelle Phase) vor die Präsenzunterrichtsphase gesetzt wird. In der Online-Phase wird Faktenwissen vermittelt, das als Grundlage für die Präsenzphase dient. Die Präsenzphase soll anschließend dafür genutzt werden, das erlernte Wissen zu vertiefen und anzuwenden. Dem gegenüber stehen die traditionellen Kurskonzepte, in denen das Faktenwissen beispielsweise in Vorlesungen oder in anderen Präsenzunterricht-Formaten vermittelt wird und die Vertiefung dieses Wissens durch die Studierenden im Anschluss daran im Selbststudium stattfinden soll. Das Ziel der ICM ist die Verschiebung des passiven Lernens hin zum aktivierenden Lernen, um das Lernen auf kognitiv anspruchvollen Ebenen wie Analyse, Synthese und Evaluation zu unterstützen. Dabei haben die gestiegene Produktion und Nutzung von Screencasts und Lernvideos, die „Bewegung“ der „Open Educational Resources“ und die verbreitete Nutzung von „Massive Open Online Courses“ (MOOCs) zu einer gestiegenen Verbreitung der Inverted-Classroom-Methode beigetragen. Der Artikel soll als Einführung in die Thematik dienen und dabei eine kurze Übersicht über wichtige Projekte und Forschungsergebnisse in der medizinischen Ausbildung und in weiteren Gesundheitsberufen geben. Außerdem werden die Vor- und Nachteile der Methode und ihr potentieller Nutzen für die zukünftige medizinische Aus- und Weiterbildung dargestellt.
In der folgenden Anleitung werden diverse Methoden für den Zugriff auf das Ressourcen-Management, entwickelt von der AG Texttechnologie, erläutert. Das Ressourcen-Management ist für alle Anwendungen identisch. Erklärt wird das Auslesen des Ressourcen-Managements der Projects „PHI Picturing Atlas“. Alle Anweisungen erfolgen per RESTful-Aufrufen. Die API-Dokumentation findet sich unter http://phi.resources.hucompute.org.
Seitdem im Juli die Schiedsentscheidung über die Territorialkonflikte im südchinesischen Meer gefällt wurde, wird in Zeitungen und Blogs intensiv darüber diskutiert, wie diese Entscheidung einzuordnen ist und welche Folgen sich daraus ergeben. Das Schiedsgericht hat nicht über Fragen der Souveränität selbst entschieden, sondern über die rechtlichen Grundlagen, aus denen Souveränitätsansprüche abgeleitet werden können. In diesem Zusammenhang hatte das Gericht die interessante Frage zu klären, inwieweit die durch China angeführten „historischen Rechte“ geeignet sind, einen Gebietsanspruch zu begründen. Klar ist, dass der Schiedsspruch nicht geeignet ist, den Konflikt zu beenden. China hat von Beginn an deutlich gemacht, dass es das Verfahren weder anerkennen noch sich daran beteiligen würde und hat daher schließlich auch die Entscheidung als rechtwidrig abgelehnt. Die Funktion des Verfahrens ist daher auch weniger die Konfliktlösung, die es nicht leisten kann, als vielmehr das Herausarbeiten einer rechtlich gerechtfertigten Position....
Dies ist der 21. Artikel unseres Blogfokus „Salafismus in Deutschland“. Im vergangenen Jahr verloren in den westlichen Ländern so viele Menschen durch Terroranschläge islamistischer Extremisten ihr Leben wie seit dem Jahr 2001 mit dem schicksalsschweren 11. September nicht mehr. Und die Anschläge sind erneut nah an Deutschland herangerückt: Gleich zweimal wurden tödliche Anschläge in Paris verübt, Brüssel ist zu einem Hotspot des islamistischen Extremismus geworden und der vereitelte mutmaßliche Anschlag auf ein Radrennen im Raum Frankfurt hat einmal mehr die Terrorgefahr auch hierzulande verdeutlicht. Nach dieser Lesart ist der islamistische Extremismus also eine reale Bedrohung und stellt das friedliche Zusammenleben in einer offenen Gesellschaft in Frage – aber nicht nur aufgrund von Anschlagsgefahren, sondern vor allem weil sich islamistischer Extremismus und Islamfeindlichkeit gegenseitig zu gefährlichen, illiberalen Dynamiken hochschaukeln. Dieser Beitrag führt kurz in dieses Wechselspiel ein, das die offene Gesellschaft in die Zange nimmt und benennt Handlungsempfehlungen für verschiedene Akteursgruppen in Deutschland mit dem Ziel, das Fundament unserer offenen, pluralen Gesellschaftsordnung zu bewahren und zu stärken...
Seit der Antike wird über das Thema der Ästhetik, über das Schöne, diskutiert. Diese Diskussion, die mit der Frage „Was ist schön?“ anfängt und was „schön“ als Wert ausdrückt, was die Quelle des Schönheitsgefühls bei dem Menschen ist, und auch die Frage nach dem Prozess der Entstehung eines ästhetischen Urteils, wird bis zur heutigen Zeit geführt. Heutzutage ist das ästhetische Verständnis des Propheten Muhammed nicht nur Untersuchungsthema, die Muslime haben im 21. Jahrhundert die von ihm erhaltenen ästhetischen Werte durch direkte Übertragung in ihr Leben und in ihre Lebensweise integriert. Die Koranforschung hat ergeben, dass der Sinn für Schönheit eine Fähigkeit bezeichnet, die dem im Koran erwähnten Menschen mit der Geburt gegeben worden ist. Im Propheten Muhammed hat das in ihm vorhandene Potenzial in der vorislamischen Zeit durch Aufrechterhaltung und durch göttliche Erziehung, die ihm nach dem Erhalt der prophetische Mission zuteil wurde, den Höhepunkt erreicht. In diesem Sinne ist sein Auftreten schön und die Schönheit beim letzten Propheten kein Zufall. Die Schönheit, die dem Koran folgend mit dem ersten Menschen, Adam, begann, fand ihre Vollendung im Propheten Muhammed Denn für den Propheten Muhammed war die Schönheit nicht lediglich ein philosophischer Wert, sondern im Gegenteil eine Lebensweise. Zu Beginn der Behandlung des ästhetischen Themas Am Anfang der Beschäftigung des Korans mit der Frage der Ästhetik liegt vor allem in den Worten der glaubenden Menschen, in ihrem Verhalten, den Zielen, die sie erreichen wollen, und in ihrem Glauben und ihren Gottesdiensten. Nach dem Koran ist es Allah, der die Geschöpfe verschönert, diese Schönheit wurde den Geschöpfen während ihrer Erschaffung gegeben. Mit anderen Worten hat Allah die Geschöpfe schön erschaffen. In der islamischen Welt gibt es Philosophen und Islamwissenschaftler, die über die Vorstellung der Schönheit Überlegungen anstellen...
Vielerorts machen sich Sorgen breit: Was bedeutet die Flüchtlingskrise für Europa? Wie geht es weiter im syrischen Bürgerkrieg? Wie lässt sich der Hunger in Afrika - derzeit verstärkt durch El Niño - bekämpfen? Und welche Rolle kann Deutschland spielen? Antworten gibt der erfahrene schwedische Spitzendiplomat und frühere Vizepräsident der Weltbank, Mats Karlsson, im Bretterblog-Interview.
100 Jahre Fachbereich Rechtswissenschaft ist auch ein Grund, derer zu gedenken, die über eine lange Strecke dieser Zeitspanne das Bild des Fachbereichs entscheidend mitgeprägt haben, aber nicht mehr mitfeiern können. Darunter verdient ein Strafrechtsprofessor und Rechtsphilosoph besondere Hervorhebung und Würdigung. Prof. Dr. Dr. h.c. mult. Winfried Hassemer. Das Verständnis von der gegenseitigen Befruchtung in Theorie-Praxis-Projekten brachte Hassemer aus der akademischen Welt mit in seine hohen Staatsämter: Hessischer Datenschutzbeauftragter, Richter und Vizepräsident des Bundesverfassungsgerichts. Schließlich konnte er in der Rolle des Anwalts gleichsam als „Gegenprobe“ auch noch seine schon lange gezeigte Zuneigung zum Beruf des Strafverteidigers erleben. Der fruchtbare Dialog zwischen Theorie und Praxis setzte sich 12 Jahre lang im „Frankfurter Arbeits-Kreis Strafrecht“ („FAKS“) fort, zu dessen Gründern Hassemer gehörte. Dabei haben Strafverteidiger, Richter, Staatsanwälte, Ministerialbürokratie, Strafvollzugs und Polizeibeamte mit auch Rechtswissenschaftlern im konstruktiven Diskurs die Abstände zwischen unseren „Berufswelten“ verringert. Im Zentrum stand sein Bekenntnis, dass das staatliche Strafen ein „blutiges Geschäft“ ist, das nur als ultima ratio und auch nur dann zu rechtfertigen ist, wenn „schützende Formen“ des Verfahrensrechts strafbegrenzend wirken. Der Fachbereich Rechtswissenschaft wird auch in dem jetzt beginnenden zweiten Jahrhundert seines Bestehens das Andenken an Winfried Hassemer hoch halten.
Die vorliegende Arbeit lässt sich in den Bereich Data Science einordnen. Data Science verwendet Verfahren aus dem Bereich Computer Science, Algorithmen aus der Mathematik und Statistik sowie Domänenwissen, um große Datenmengen zu analysieren und neue Erkenntnisse zu gewinnen. In dieser Arbeit werden verschiedene Forschungsbereiche aus diesen verwendet. Diese umfassen die Datenanalyse im Bereich von Big Data (soziale Netzwerke, Kurznachrichten von Twitter), Opinion Mining (Analyse von Meinungen auf Basis eines Lexikons mit meinungstragenden Phrasen) sowie Topic Detection (Themenerkennung)....
Ergebnis 1: Sentiment Phrase List (SePL)
Im Forschungsbereich Opinion Mining spielen Listen meinungstragender Wörter eine wesentliche Rolle bei der Analyse von Meinungsäußerungen. Das im Rahmen dieser Arbeit entwickelte Vorgehen zur automatisierten Generierung einer solchen Liste leistet einen wichtigen Forschungsbeitrag in diesem Gebiet. Der neuartige Ansatz ermöglicht es einerseits, dass auch Phrasen aus mehreren Wörtern (inkl. Negationen, Verstärkungs- und Abschwächungspartikeln) sowie Redewendungen enthalten sind, andererseits werden die Meinungswerte aller Phrasen auf Basis eines entsprechenden Korpus automatisiert berechnet. Die Sentiment Phrase List sowie das Vorgehen wurden veröffentlicht und können von der Forschungsgemeinde genutzt werden [121, 123]. Die Erstellung basiert auf einer textuellen sowie zusätzlich numerischen Bewertung, welche typischerweise in Kundenrezensionen verwendet werden (beispielsweise der Titel und die Sternebewertung bei Amazon Kundenrezensionen). Es können weitere Datenquellen verwendet werden, die eine derartige Bewertung aufweisen. Auf Basis von ca. 1,5 Millionen deutschen Kundenrezensionen wurden verschiedene Versionen der SePL erstellt und veröffentlicht [120].
Ergebnis 2: Algorithmus auf Basis der SePL
Mit Hilfe der SePL und den darin enthaltenen meinungstragenden Phrasen ergeben sich Verbesserungen für lexikonbasierte Verfahren bei der Analyse von Meinungsäußerungen. Phrasen werden im Text häufig durch andere Wörter getrennt, wodurch eine Identifizierung der Phrasen erforderlich ist. Der Algorithmus für eine lexikonbasierte Meinungsanalyse wurde veröffentlicht [176]. Er basiert auf meinungstragenden Phrasen bestehend aus einem oder mehreren Wörtern. Da für einzelne Phrasen unterschiedliche Meinungswerte vorliegen, ist eine genauere Bewertung als mit bisherigen Ansätzen möglich. Dies ermöglicht, dass meinungstragende Phrasen aus dem Text extrahiert und anhand der in der SePL enthaltenen Einträge differenziert bewertet werden können. Bisherige Ansätze nutzen häufig einzelne meinungstragende Wörter. Der Meinungswert für beispielsweise eine Verneinung muss nicht anhand eines generellen Vorgehens erfolgen. In aktuellen Verfahren wird der Wert eines meinungstragenden Wortes bei Vorhandensein einer Verneinung bisher meist invertiert, was häufig falsche Ergebnisse liefert. Die Liste enthält im besten Fall sowohl einen Meinungswert für das einzelne Wort und seine Verneinung (z.B. „schön“ und „nicht schön“).
1.3 übersicht der hauptergebnisse 5
Ergebnis 3: Evaluierung der Anwendung der SePL
Der Algorithmus aus Ergebnis 2 wurde mit Rezensionen der Bewertungsplattform CiaoausdemBereichderAutomobilversicherunge valuiert.Dabei wurden wesentliche Fehlerquellen aufgezeigt [176], die entsprechende Verbesserungen ermöglichen. Weiterhin wurde mit der SePL eine Evaluation anhand eines Maschinenlernverfahrens auf Basis einer Support Vector Machine durchgeführt. Hierbei wurden verschiedene bestehende lexikalische Ressourcen mit der SePL verglichen sowie deren Einsatz in verschiedenen Domänen untersucht. Die Ergebnisse wurden in [115] veröffentlicht.
Ergebnis 4: Forschungsprojekt PoliTwi - Themenerkennung politischer Top-Themen
Mit dem Forschungsprojekt PoliTwi wurden einerseits die erforderlichen Daten von Twitter gesammelt. Andererseits werden der breiten Öffentlichkeit fortlaufend aktuelle politische Top-Themen über verschiedene Kanäle zur Verfügung gestellt. Für die Evaluation der angestrebten Verbesserungen im Bereich der Themenerkennung in Verbindung mit einer Meinungsanalyse liegen die erforderlichen Daten über einen Zeitraum von bisher drei Jahren aus der Domäne Politik vor. Auf Basis dieser Daten konnte die Themenerkennung durchgeführt werden. Die berechneten Themen wurden mit anderen Systemen wie Google Trends oder Tagesschau Meta verglichen (siehe Kapitel 5.3). Es konnte gezeigt werden, dass die Meinungsanalyse die Themenerkennung verbessern kann. Die Ergebnisse des Projekts wurden in [124] veröffentlicht. Der Öffentlichkeit und insbesondere Journalisten und Politikern wird zudem ein Service (u.a. anhand des Twitter-Kanals unter https://twitter.com/politwi) zur Verfügung gestellt, anhand dessen sie über aktuelle Top-Themen informiert werden. Nachrichtenportale wie FOCUS Online nutzten diesen Service bei ihrer Berichterstattung (siehe Kapitel 4.3.6.1). Die Top-Themen werden seit Mitte 2013 ermittelt und können zudem auf der Projektwebseite [119] abgerufen werden.
Ergebnis 5: Erweiterung lexikalischer Ressourcen auf Konzeptebene
Das noch junge Forschungsgebiet des Concept-level Sentiment Analysis versucht bisherige Ansätze der Meinungsanalyse dadurch zu verbessern, dass Meinungsäußerungen auf Konzeptebene analysiert werden. Eine Voraussetzung sind Listen meinungstragender Wörter, welche differenzierte Betrachtungen anhand unterschiedlicher Kontexte ermöglichen. Anhand der Top-Themen und deren Kontext wurde ein Vorgehen entwickelt, welches die Erstellung bzw. Ergänzung dieser Listen ermöglicht. Es wurde gezeigt, wie Meinungen in unterschiedlichen Kontexten differenziert bewertet werden und diese Information in lexikalischen Ressourcen aufgenommen werden können, was im Bereich der Concept-level Sentiment Analysis genutzt werden kann. Das Vorgehen wurde in [124] veröffentlicht.
Die Begegnung mit dem Nachbarn bleibt nahezu kommunikationsfrei, wenn man nur darauf achtet, dass die Zweige der Birke nicht über die Grenze zu ihm hinüberwachsen. Ist der Nachbar nicht mehr nur der Andere von nebenan und gegenüber, sondern tendenziell längst ein Fremder geworden? Haben Nachbarschaften wirklich ihren sozialen Verpflichtungscharakter weitgehend verloren? Der Kulturanthropologe begibt sich auf Spurensuche.
Der vorliegende Report beschäftigte sich mit den Qualifikationsstrukturen hessischer Unternehmen. Es wurde dabei deutlich, dass sich die Beschäftigung geringqualifizierter Arbeitnehmer auf vergleichsweise wenige Betriebe in Hessen konzentriert. In 30% der hessischen Unternehmen sind fast 80% aller Geringqualifizierten beschäftigt. Um den möglichen Einfluss der Qualifikationsstruktur auf betriebliche Entwicklungen aufzuzeigen, wurden drei Betriebsgruppen gebildet. Unterscheidungsmerkmal bildete der jeweilige Anteil der Gering qualifizierten an den Gesamtbeschäftigten des Unternehmens. Es zeigte sich, dass Betriebe mit geringem Qualifikationsniveau in den Bereichen Ausbildung, betriebliche Weiterbildung und Innovationen vergleichsweise geringe Aktivitäten aufweisen. Auf der anderen Seite hatten sie zwischen 2000 und 2001 das stärkste Beschäftigungswachstum und zeichnen sich auch in Bezug auf Ertragslage und Geschäftsentwicklung durch für diese Gruppe unerwartet gute Ergebnisse und Prognosen aus. Hierin stellen diese Betriebe eine recht homogene Gruppe dar, es gibt kaum Unternehmen, die ihre wirtschaftliche Situation als „sehr gut“ oder als „mangelhaft“ bezeichnen. Des weiteren gibt es bei den Unternehmen mit geringem Qualifikationsniveau eine nicht unerhebliche Anzahl offener Stellen, auch für geringqualifizierte Arbeitskräfte. Auch dies ist angesichts der Tatsache, dass Stellenbesetzungsprobleme in erster Linie unter dem Stichwort „Fachkräftemangel“ diskutiert werden, ein überraschendes Ergebnis.
Alle lebenden Organismen sind in der Lage, sich an den re-gelmäßigen Wechsel von Licht und Dunkelheit und den zeitli-che Veränderungen im Takt der Jahreszeiten anzupassen. Die-se Synchronisierung der Aktivitäts- und Ruhephasen, sowie von physiologischen Stoffwechselprozessen an die vorgegebe-nen tageszeitlichen und saisonalen Zyklen findet beim Säu-getier in der inneren Uhr im Nucleus Suprachiasmaticus (SCN) statt. Das Licht, als wichtigster Zeitgeber für die Synchronisation der inneren Uhr, findet Eingang zum SCN über die Retina und den retinohypothalamischen Trakt (RTH), der Glutamat als Neurotransmitter nutzt. Ist dieses System fehlerhaft, führt dies zu Störung der oben beschriebenen Anpassungsprozesse. Dies hat eine gestörte Homöostase des Organismus zu Folge, aus denen sich wiederum Veränderungen im Tag/Nacht- Rhythmus, Schlafstörungen und depressive Ver-stimmungen ergeben können. Die genannten Symptome decken sich mit den Frühsymptomen den neurodegenerativen Erkran-kung Morbus Parkinson.
Ziel der vorliegenden Arbeit war es, Störungen im photoneu-roendokrinen System, insbesondere Veränderungen in der Re-tina an den photosensitiven Ganglienzellen mit dem Photo-pigment Melanopsin und dem SCN bei transgene Mäuse mit dem humanen alpha-Synuclein zu untersuchen. Hierbei wurden transgene Mäuse mit dem gesunden humanen alpha-Synuclein (Wildtyp) und transgene Mäuse mit der für Parkinson spezi-fischen Mutation im alpha-Synuclein Ala53Thr (A53T) vergli-chen.
Die immunochemischen Untersuchungen an Retina und SCN zei-gen einen signifikanten Anstieg der alpha-Synuclein Immun-reaktion bei der A53T Maus im Vergleich zum Wildtyp.
Parallel dazu wurden Unterschiede in Bezug auf das Photo-pigment Melanopsin zwischen den beiden Gruppen untersucht. Melanopsin ist lichtsensitiv und trägt, durch Übermittlung der aktuellen Lichtverhältnisse über den retinohypothalami-schen Trakt zum SCN, zur Synchronisation der circadianen Rhythmik bei. Durch den in dieser Arbeit nachgewiesene Me-lanopsindefizit und des deutlich reduzierten Vglut2 im hy-pothalamischen Trakt der A53T Maus lässt sich die Hypothese ableiten, dass möglicherweise die Überexpression des mu-tierten alpha-Synuclein in der Retina einen Untergang von melanopsinhaltigen Ganglienzellen herbeiführt und dadurch die Synchronisation der inneren Uhr durch Licht gestört ist. Diese Hypothese wird durch die Aktivitätsprofile ge-stützt, die durch die Aufzeichnung der lokomotorischen Ak-tivität der Tiere erstellt wurden.
Da in beiden Gruppen unter Dauerdunkel (DD) ein endogener zirkadianer Rhythmus beobachtet werden konnte, lässt dies auf die Funktionstüchtigkeit der inneren Uhr im SCN schlie-ßen. Im anschließenden Versuch die endogene Rhythmik an exogenen Reize anzupassen, zeigte sich bei dem A53T Stamm eine fehlende Synchronisierung an vorgegebene Lichtverhält-nisse mit gesteigerter Tagaktivität und reduzierten Schlaf-phasen. Somit trägt der fehlerhaft verarbeitete Lichtreiz bei A53T Mutanten zur Destabilisierung des zirkadianen Rhythmus der Lokomotion bei. Trotz des gestörten glutama-tergen Signalweges im retinohypothalamischen Trakt konnten keine Unterschiede in der Expression der Homerproteine zwi-schen Wildtyp und A53T unter Standard-Photoperiode und nach Schlafdeprivation nachgewiesen werden.
Die vorliegenden Befunde liefern Erkenntnisse zur Entste-hung der Frühsymptome bei Morbus Parkinson. Dies könnte neue Ansatzpunkte für die Therapie und Linderung von Schlafstörungen sowie Veränderungen im Tag/Nachtrhythmus liefern.
Wohlfahrt, Wohlbefinden, Well-being oder Lebensqualität, es gibt eine Reihe von Begriffen, die als Maß für gesellschaftlichen Wohlstand diskutiert werden. Gemeinsam ist diesen Ansätzen der Versuch, von einer rein ökonomischen Messung der Wohlfahrt etc. - gemessen am Bruttoinlandsprodukt (BIP) – und hin zu einer ganzheitlichen oder zumindest breiteren Beschreibung des Wohlstands zu gelangen. In dieser Studie wird der Begriff Wellbeing dafür verwandt. Bisher erfolgt die Diskussion über dieses Thema überwiegend auf der Ebene von Nationalstaaten und mittels international vergleichender Untersuchungen. Auf regionaler oder lokaler Ebene sind breitere Ansätze zur Wohlstandsmessung bisher wenig(er) verbreitet, und das, obwohl die Bedeutung von Regionen in den vergangenen Jahren - trotz oder wegen Globalisierung und Internationalisierung - deutlich zugenommen hat. Aus regionalpolitischer Perspektive besteht hier eine "Wissenslücke", da viele Entscheidungen für das Wellbeing nicht auf nationaler, sondern auf regionaler Ebene getroffen werden. Hier knüpft die vorliegende Studie an. Ausgangspunkte sind zum einen die inzwischen verbreitete Kritik am Bruttoinlandsprodukt als zentralem Wohlstandsindikator und zum andern die, u.a. von der OECD vertretene Aussage, dass bei einem breiter definierten Wohlstandsbegriff auf regionaler/lokaler Ebene größere Unterschiede des Well-being bestehen als auf nationaler Ebene. Davon ausgehend richtet sich das Erkenntnisinteresse dieser Untersuchung darauf, das objektive Well-being kleinräumig zwischen und innerhalb von Regionen quantitativ zu messen und damit die Frage zu beantworten, welche inter- und intraregionalen Unterschiede dabei bestehen. Erfasst wird das objektive Well-being anhand von zehn Indikatoren für die Bereiche Wirtschaft, Gesellschaft, Umwelt, Region. Die Indikatoren und Bereiche basieren auf dem Konzept der Enquetekommission des Bundestages für „Wachstum, Wohlstand und Lebensqualität“. Deren Indikatoren wurden für die regionale Ebene teilweise modifiziert und ergänzt. Der Untersuchungszeitraum umfasst die Jahre 2000 bis 2011. Die Untersuchung erfolgte zum einen deskriptiv. Die Indikatoren wurden regionsvergleichend sowie für ausgewählte Regionstypen in dem betrachteten Zeitraum beschrieben. Damit lassen sich erste Erkenntnisse über regionale Unterschiede im Well-being gewinnen. Verglichen wurden exemplarisch die beiden Metropolregionen FrankfurtRheinMain und Stuttgart sowie intraregional die Städte und Kreise in diesen beiden Regionen. Zum andern wurde das inter- und intraregionale objektive Well-being anhand eines ganzheitlichen Index gemessen. Methodisch basiert diese Messung auf einem statistisch-ökonometrischen Verfahren (Structural Equation Modelling (SEM)). Mittels dieser Methode können die einzelnen Indikatoren hinsichtlich ihrer Bedeutung für das Well-being (ungleich) gewichtet und in einem einzigen Well-being-Index für die unterschiedlichen Regionsabgrenzungen erfasst werden. Bereits die deskriptiven Untersuchungsergebnisse bestätigen die Ausgangshypothese, wonach Unterschiede im regionalen Well-being zwischen und innerhalb der beiden Metropolregionen bestehen. Beim interregionalen Vergleich der Indikatoren bestehen bei den Einzelindikatoren teilweise deutliche Differenzen zwischen den Regionen. Gemessen an der Bewertung der einzelnen Indikatoren hat mal die Region Stuttgart, mal die Region FrankfurtRheinMain „die Nase vorn“. Der Verlauf der Indikatoren zeigt in beiden Regionen einen ähnlichen Entwicklungstrend.
Primäre Tumore werden nach ihrem Entstehungsort benannt. Selbst Metastasen zeigen eine gewisse Ähnlichkeit mit ihrem ursprünglichen Gewebe. Somit gehören alle Geschwülste, die ursprünglich der Harnblase entstammen, zu den Harnblasenkarzinomen.
Das Harnblasenkarzinom geht meist (90-95%) von der Schleimhaut der ableitenden Harnwege aus und wird als Urothel bezeichnet. Dementsprechend haben die meisten Patienten mit der Diagnose Blasenkarzinom ein Urothel-Blasenkarzinom. Die restlichen Blasenkarzinome entfallen auf Adenokarzinome, Plattenepithelkarzinome, kleinzellige Karzinome, Sarkome, Paragangliome, Melanome oder Lymphome (Humphrey A. et al. 2016, Moch H. et al 2016).
Die Urothel-Blasenkarzinome können sowohl flach, als auch warzenförmig wachsen. Je nach Diagnostik „oberflächlich“ oder „muskelinvasiv“ lassen sich die Urothel-Blasenkarzinome in zwei Hauptgruppen unterteilen;
Etwa 70% der Erkrankten haben dabei ein oberflächliches Urothel-Blasenkarzinom, das auf die Blasenschleimhaut begrenzt ist und durch eine Basistherapie, sog. Transurethrale Resektion (TUR-B) behandelt wird. Dabei werden die in der Schleimhaut gewachsenen Tumore getrennt reseziert. Therapieergänzend und/oder prophylaktisch wird die Blase danach mit einem Chemotherapeutikum gespült (intravesikale Instillation). Diese Zytostatika-Behandlung soll das Wiederauftreten eines Rezidivs verhindern bzw. eventuell verlangsamen (Iida K. et al. 2016, Celik O. et al. 2016).
Rassismus und Judenfeindschaft in der Zeitschrift »Die Erziehung« 1933 – 1942 (Eduard Spranger)
(2016)
Nach der Revolution 1917 schlossen sich mehrere russische Avantgardekünstler den kollektiven geistigen Anstrengungen ein, um ein revolutionäres Gesamtkunstwerk der neuen Menschheit zu gestalten. Sie nutzten alle Medien der Kunst, um ihre innovativen Ideen in diesem Experimentierfeld zu verwirklichen. Die Keramik wurde von ihnen als eines der bedeutenden Experimentierfelder und eine zukunftsweisende Kunstgattung gesehen, die durch den alltäglichen Gebrauch das Bewusstsein und die Wahrnehmung der Menschen entscheidend revolutionieren sollte.
Die vorliegende Dissertation untersucht erstmals die Keramik der russischen Avantgarde als eigenständiges künstlerisches Phänomen. Alle dokumentarisch belegten Entwürfe und Keramiken der russischen Avantgardisten werden zusammengefasst sowie alle bekannten Marken der Keramik aufgeführt. Die Autorin systematisiert die Formensprache und Dekormotive der avantgardistischen Keramikwerke und hebt Hintergrunde sowie theoretische Grundlagen der jeweiligen avantgardistischen Gruppen im Bereich Keramik hervor.
Die vorliegende vergleichende Analyse der russischen und westeuropäischen Keramikkunst des ersten Drittels des 20. Jahrhunderts deckt zum ersten Mal in der kunsthistorischen Forschung ihre Gemeinsamkeiten sowie die gegenseitigen Einflüsse auf, dabei werden die Unterschiede der russischen und europäischen avantgardistischen Keramikkunst deutlich reflektiert.
Bei Erlass des PUAG verzichtete der einfache Gesetzgeber bewusst auf eine mögliche Vereidigung von Zeugen vor Untersuchungsausschüssen. Das Recht zur Zeugenvereidigung ist aber, wie dargelegt wird, in der Verfassung selbst gewährleistet. Damit sind intrikate Fragen sowohl zum Verhältnis von Verfassung und Gesetz sowie im bundesstaatlichen Verhältnis aufgeworfen. Dem einfachen Gesetzgeber steht zwar die Befugnis zu, ein Gesetz über Untersuchungsausschüsse zu erlassen, fraglich ist aber, ob er berechtigt ist, Untersuchungsausschüssen des Bundestages Rechte zu nehmen, die ihnen nach dem Grundgesetz zustehen; dies ist im Ergebnis zu verneinen. Die bundesrechtlichen Änderungen zeitigten indes sogar Folgen für das Verfassungsrecht der Länder. Infolge der mit Einführung des PUAG gleichzeitig erfolgten Änderung des StGB entschied der Hessische Staatsgerichtshof im Jahr 2011, dass Untersuchungsausschüssen des Landtages ein Vereidigungsrecht nicht mehr zustehe, welches er zuvor aus der Hessischen Verfassung abgeleitet hatte. Der Gerichtshof gesteht dadurch dem Strafrecht die Macht zu, öffentlich-rechtliche Kompetenzen in den Ländern zu ändern.
Plus Puls : 2016, 1
(2016)