Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2867)
- Article (2263)
- Contribution to a Periodical (2161)
- Book (1979)
- Doctoral Thesis (1725)
- Review (926)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (176)
Language
- German (13890) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5008)
- Medizin (1479)
- Gesellschaftswissenschaften (1062)
- Rechtswissenschaft (742)
- Neuere Philologien (650)
- Wirtschaftswissenschaften (639)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Kennt die Nächstenliebe Grenzen? : wie christliche Ethik über die aktuelle Migration nachdenkt
(2016)
In der Flüchtlingsdebatte geht es auch um die moralische Frage: Dürfen wir Menschen in Not abweisen? Einfache Antworten sind unseriös. Verschiedenste soziale, kulturelle und religiöse Aspekte müssen berücksichtigt werden. Die christliche Ethik kann zu dieser Diskussion u. a. ihr Handlungsmotiv der "Nächstenliebe" beisteuern, das allerdings auch der Interpretation bedarf.
Der bisher in Deutschland sehr selten gemeldete Neophyt Phedimus stolonifer wurde im Jahr 2015 in Frankfurt am Main anscheinend erstmals für Hessen nachgewiesen. Das individuenreiche Vorkommen längs eines Bachlaufes wird beschrieben. Eine Einbürgerung kann aufgrund der kurzen Beobachtungsdauer bislang nicht konstatiert werden.
Die vorliegende Dissertation untersucht wie Hegel nicht nur den Begriff der Freiheit, aber auch das Subjekt der Freiheit verstanden hat. Sie versucht diese Idee Hegels durch die gegenwärtige Philosophie, insbesondere die analytische Philosophie, und auch die Soziologie, insbesondere die Soziologie von Talcott Parsons, umzudenken.
Im ersten Kapitel wird die Idee der Freiheit als private Sphäre analysiert, die durch eine ganze Gruppe von subjektiven Rechten gesichert oder sogar geschaffen ist, die ohne Hilfe anderer Struktur existierte und von den meisten Naturrechttheoretiker verteidigt wurden, den alten sowie den neuen. Hegel nannte diese Ideen abstraktes Recht. Er wirft diese Vorstellung als noch funktional unvollständig oder metaphysisch inkohärent vor.
Im zweiten Kapitel wird das andere große Modell der Freiheit in der Moderne, nämlich, die Freiheit als Autonomie analysiert. Hegel untersucht diese Idee durch die Konzepte der Verantwortlichkeit und Handelns, die sich in der Praxis des Strafrechts befinden. Nach Hegel ist Verantwortlichkeit das Ergebnis einer gesamten sozialen Beziehung der Anerkennung. Daher ist ein Verbrechen, erstens, die Verletzung einer Norm und diese Normverletzung ist zugleich Anerkennungsverletzung. Zweitens, ein Verbrechen ist die Negation des objektiven Rechts, die dem Akteur zurechnen werden kann, und das ist, warum ein Verbrechen eine Anerkennungsverletzung ist. Ein zentraler Begriff für die Verantwortlichkeit ist der Vorsatz. In dem Konzept von Vorsatz finden wir sowohl die Absicht wie das Wissen, d. i. wenn jemand vorsätzlich handelt, nicht nur wünscht er etwas, sondern er denkt auch, wie er handeln sollte, um zu erreichen, was sie will. Man findet im Vorsatz auch die Idee des Grundes. Dies öffnet wiederum die Idee der moralischen Standards und auch die Möglichkeit eines moralischen Gewissens. Hegel sieht Kant als der größte Befürworter dieser Theorie. Hegel kritisiert Kant, dass er eine Art solipsistischer Methode hat. Die Gewissheit des Guten in die eigene Handlung könnte das Böse verbreiten. Hegel argumentiert, dass ohne eine soziale Basis dafür, die Sittlichkeit, solche moralischen Standards und moralisches Gewissen nicht möglich sind.
Im letzten Kapitel wird analysiert, wie jemand in der hegelschen Lehre frei sein könnte. Nach Hegel gibt es mindestens drei Bedingungen, sodass jemand tatsächlich als frei betrachtet werden könnte: eine metaphysische Bedingung, eine psychologische Bedingung, und eine soziale Bedingung. Diese drei Bedingungen entsprechen den Hauptkritiken gegen die Möglichkeit des freien Willens. Die erste der Kritik besagt, dass es in einer durch mechanische Gesetze geregelten Welt keinen Raum für die Freiheit gibt. Nach Hegel sei die Möglichkeit der teleologischen Erklärung zugleich die Möglichkeit für die Freiheit. In der psychologischen Bedingung argumentiert Hegel, dass das hedonistische oder Wunsch-Überzeugung-Handlung Modell in der Tat fast eine mechanische Erklärung wäre. In einem systemischen Selbstbewusstsein Vorstellung der individuellen Persönlichkeit, in dem alle Teile des Akteurs systemisch artikuliert sind, könnte das Individuum wirklich frei handeln, da das Individuum nicht mehr in seinen Wünschen oder anderen Trieben verschwunden wäre. Am Ende argumentiert noch Hegel, dass die Gary Strawson‘ Kritik an der Idee des freien Willens, dass wir nicht den ersten Umstand unseres Lebens, unsere Sozialisierung und Erziehung ändern könnten, nicht korrekt wäre. Freiheit bedeutet nicht, jeden Aspekt unseres Lebens zu bestimmen, sondern uns selbst und unser Handeln zu bestimmen. Hegel zufolge können wir in der Tat unseren Anfang ändern, indem wir uns selbst neu interpretieren. Diese Art der Selbstbestimmung setzt die Teilnahme an der Gesellschaft voraus. Wenn wir die semantische in unserer Kultur ändern, ändern wir uns selbst und solches aktive Engagement mit unserer Gesellschaft wäre auch eine Bedingung, um ein freies Leben zu führen.
Der Nucleus suprachiasmaticus (SCN) ist ein Kerngebiet des Hypothalamus mit der Funktion des zentralen Taktgebers für die Generierung der circadianen Rhythmik. Zahlreiche petale Verbindungen zum SCN dienen der Synchronisierung der circadianen Uhr mit der tatsächlichen Tagesphase. Fugale Verbindungen des SCN dienen der Verteilung der Tageszeiteninformation über das Gehirn, insbesondere in vegetativen Zentren. So werden beispielsweise die physiologischen Vorgänge des Kreislaufsystems, Hormonausschüttung, der Schlaf-Wach-Zyklus etc. kontrolliert und mit Tag-Nacht-Wechsel synchronisiert. Obwohl viele dieser Verbindungen verstanden und beschrieben sind, sind die nahen Verbindungen in der unmittelbaren Nähe des SCN und des-sen intrinsische Verbindung nicht genau untersucht. Zur Darstellung dieser nahen Verbindungen wurden DiI-Tracer-Studien an Gehirnschnitten von Mäusen durchgeführt. Untersucht wurde parallel zu der DiI-Färbung das Neuropeptid Vasopressin innerhalb und außerhalb des SCN bei Mäusen von zwei verschiedenen Mäusestämmen (C3H und C57BL); C57BL ist defizient für das photoperiodische sezernierte Epiphysenhormon Melatonin, C3H-Mäuse er-blinden im frühen Lebensalter. Die immunzytochemische Untersuchung des Vasopressin-Systems belegte einen Unterschied in der Zytoarchitektur des SCN zwischen den C3H und C57BL Mäusen. Obwohl einige Elemente ähnliche Lokalisations- und Reaktivitätscharakteristika aufwiesen z.B. die dorsomediale Verteilung der Vasopressin-Perikaryen im Kerngebiet, so zeigte sich bei den C57BL-Mäusen eine deutlich schwächere Reaktivität des Neuropeptids AVP in diesem Bereich und ferner eine deutliche inhomogenere Verteilung der Vasopressin-Elemente im gesamten Kerngebiet. Die Tracing Untersuchung zeigte bei beiden Mäuse-Stämmen die gleichen Verbindungswege des SCN mit der nahen Periphere. Zum einen zeigen die Ergebnisse, dass der Hauptpassage des SCN im dorsomedialen, also im periventrikulären Bereich lokalisiert ist und das der SCN multiple Zugänge an seiner dorsalen und lateralen Grenze zur subparaventrikulären Zone besitzt. Ferner konnte auch gezeigt werden, dass beide bilateralen SCN-Kerne direkt über ausgeprägte Kommissurfaserverbindungen miteinander kommunizieren. Diese Kommissuren dürften dafür verantwortlich sein, den SCN einer Seite mit dem SCN der kontralateralen Seite zu synchronisieren. Obwohl in der vorliegenden Arbeit der Tracer nur einseitig appliziert wurde, ist dennoch von einer gekreuzten kontralateralen Verbindung auszugehen. Hier liegen Ansätze für weitere Un-tersuchungen. Ein weiterer Aspekt der Untersuchungen zeigen Faserverbin-dungen in die Area hypothalamica lateralis (AHL), die eine wichtige Rolle in der Kontrolle der zentralen Nahrungsaufnahme besitzt. Diese Faserverbin-dungen haben ihren Ursprung im SCN bzw. Nucl. paraventricularis und dem Nucl. arcuatus. Diese Verbindungen dienen am ehesten der Modulation der zentralen Regulation der Nahrungsaufnahme und spielen daher eine besondere Rolle in der Krankheitsentstehung wie Adipositas, Diabetes und Herz-Kreislauf-Erkrankung bei gestörter circadianen Rhythmik. Neu ist der Befund einer beachtlichen Anzahl von suprachiasmaticopetalen Fasern aus der sub-paraventrikulären Zone. Diese könnten die Einbindung des limbischen Systems in die Modulation der inneren Uhr erklären, die darüber hinaus ursächlich für zahlreiche Pathologien sein könnten.
Die Krisenproteste in Frankfurt am Main und insb. das Blockupy-Bündnis und dessen Praxen zwischen 2012 und 2015 stehen im Mittelpunkt der folgenden Auseinandersetzung. Insgesamt stellt Blockupy den wohl breitesten Versuch dar, in Deutschland Widerstand gegen das „europäische Krisenregime“ zu organisieren. Hierfür trat das Bündnis 2012 und 2013 mit Aktionen des zivilen Ungehorsams in Frankfurt, im Mai 2014 mit dezentralen Aktionen in ganz Europa sowie der Mobilisierung gegen die Eröffnungsfeier des Neubaus der EZB im Frankfurter Ostend 2015 in Erscheinung. In dichter Form werden die Ereignisse skizziert und abschließend bewertet. Zentralgestellt werden in der Auseinandersetzung mit Blockupy dessen Praxen des Widerspruchs, die Aktionsformen sowie die Prozesse der Bündnisbildung. Gefragt wird nach Blockupys Organisation, den vollzogenen Lernprozessen sowie den inhaltlichen und praxisbezogenen Verschiebungen. Herausgearbeitet wird, dass Blockupy zunächst stark auf die Kritik an „Banken und Konzernen“ abzielte, dann aber immer expliziter auf die EZB fokussierte und eine antikapitalistische Position entwickelte. Immer stärker wird auch die internationale Ausrichtung des Bündnisses, womit die Zielsetzung der Etablierung eines ‚Europas von unten‘ entgegen der ‚autoritären EU von oben‘ einherging.
Anhand ausgewählter Materialien – insbesondere anhand von Vorträgen, die zwischen 1966/68 und 2001 auf den vom Deutschen Germanistenverband (DGV) veranstalteten sog. Deutschen Germanistentagen gehalten wurden – wird gezeigt, dass sich das Fach in seinem expliziten bzw. impliziten Diskurs über das Verhältnis der Germanistik zur Politik nach – den für den fachhistorischen Diskurs einschneidenden Daten – 1966/68 auf mehreren relevanten Ebenen auf der Suche nach einer neuen Identität befindet.
Zugleich führen Spezialisierungs-, Ausdifferenzierungs- sowie Entdifferenzierungsprozesse der Disziplin als wissenschaftssysteminhärente Prozesse das Fach an seine Grenzen bis hin zur (Selbst-)Auflösung. Diese Auflösung ist systemtheoretisch als Prozess der Szientifizierung und der Entkoppelung von Wissenschaft und Politik zu beschreiben – eine Koppelung, die für die Entstehung des Faches wesentlich war. Gleichzeitig zeigen sich – gegen den sog. Elfenbeinturm gerichtete – Diskurse, diese Abkoppelung zu kompensieren (z.B. Sprachenpolitik).
Die eukaryotische RNA-Polymerase II (RNAPII) ist der zentrale Faktor für die Umsetzung des genetischen Codes in funktionelle Proteine. Durch die Transkription wird die statische Information der DNA in ein transient nutzbares RNA-Molekül umgewandelt. Bei diesem fundamentalen Prozess der Genexpression wird ein spezifischer DNA-Abschnitt des Genoms abgelesen und in die komplementäre RNA transkribiert, die entweder direkt regulatorische bzw. funktionelle Aufgaben in der Zelle übernimmt oder als Matrize für die Proteinbiosynthese dient. Zur Erhaltung der Funktionalität eines Organismus und zur schnellen und gezielten Reaktion auf exogene Reize ist eine strikte Regulation der Transkription und der zahlreichen beteiligten Faktoren notwendig. Aufgrund der zentralen Rolle in der Genexpression ist diese Regulation äußerst vielschichtig und erfordert eine feinabgestimmte Maschinerie an Enzymen und Transkriptionsfaktoren, deren genaue Wirkungsweise und Abhängigkeit noch nicht vollständig verstanden sind. Fehler in der Transkriptionsregulation werden mit einer Reihe von schwerwiegenden metabolischen Störungen und der möglichen malignen Transformation der betroffenen Zelle in Verbindung gebracht.
Während einige Regulationsmechanismen der RNAPII bereits seit längerer Zeit beschrieben sind, ist eine besondere Form der RNAPII-abhängigen Regulation erst in den letzten Jahren Gegenstand genauerer Untersuchungen geworden. So erfährt die RNAPII bei einer Vielzahl von Genen unmittelbar nach der Transkriptionsinitiation einen Arrest, der das Enzym nicht weiter über die DNA prozessieren lässt und somit die produktive Elongation des Gens blockiert. Die Aufhebung dieses promotornahen Arrests wird durch den positiven Transkriptions-Elongationsfaktor b (P-TEFb) dominiert, der durch distinkte post-translationale Modifikationen der C-terminalen Domäne der RNAPII und assoziierter Faktoren den Übergang in die produktive Transkriptionselongation ermöglicht. P-TEFb selbst unterliegt dabei einer strengen Regulation durch die Inkorporation in inhibierende Speicherkomplexe (7SK snRNPs), bestehend aus der 7SK snRNA und mehrerer assoziierter Proteine. Abseits des 7SK snRNP wurde P-TEFb als Bestandteil großer Multiproteinkomplexe identifiziert, die einen positiven Einfluss auf die Transkriptionselongation besitzen. Die Transition von P-TEFb aus dem 7SK snRNP in diese sogenannten Superelongationskomplexe (SECs) stellt einen der zentralen Regulationsmechanismen der eukaryotischen Transkription dar, ist jedoch noch nicht ausreichend verstanden.
Ein zentrales Element aller SECs bilden die Mitglieder der AF4/FMR2-Proteinfamilie, darunter das AF4 Protein, dem neben der Erhaltung der strukturellen Integrität mittlerweile auch eine Funktion in der Rekrutierung von P-TEFb zugeschrieben wird. Dabei scheint AF4 jedoch auf die Hilfe bislang noch nicht charakterisierter Faktoren angewiesen zu sein. AF4 ist über diese Rolle hinaus als Bestandteil des Fusionsproteins AF4-MLL eng mit der onkogenen Zelltransformation im Falle einer durch die Translokation t(4;11)(q21;q23) bedingten, akuten lymphoblastischen Leukämie assoziiert.
Das zentrale Thema dieser Arbeit stellen Untersuchungen zum Transfer von P-TEFb aus dem 7SK snRNP zum AF4-Protein dar. Dabei konnte zunächst die DEAD-Box RNA-Helikase DDX6 als Integraler Bestandteil der AF4-SECs identifiziert werden, der bereits eine Funktion in der Kontrolle des microRNA- wie auch des mRNA-Metabolismus zugeschrieben werden konnte. Aus diesem Grund wurde von uns eine mögliche Beteiligung von DDX6 an der Rekrutierung von P-TEFb zum AF4-SEC durch Modulationen der 7SK snRNA postuliert. Des Weiteren konnte eine Bindefähigkeit von DDX6 gegenüber der 7SK snRNA sowie eine direkte Korrelation zwischen des zellulären DDX6-Proteinlevel und der Akkumulation von P-TEFb im AF4-SEC nachgewiesen werden. Sowohl die Überexpression von DDX6 als auch die von AF4 resultierten in einer gesteigerten mRNA-Produktion, wobei die Ergebnisse auf einen kooperativen Mechanismus zwischen den beiden Proteinen in der Aktivierung der Transkription hindeuteten. Außerdem konnte die These einer DDX6-vermittelten Aktivierung von P-TEFb anhand von Expressionsanalysen des bekannten P-TEFb Zielgens HEXIM1, dessen Expression im Zusammenhang eines negativen Rückkopplungsmechanismus gesteigert wird, bestätigt werden. Damit konnte der DEAD-Box RNA-Helikase DDX6 in dieser Arbeit das erste Mal eine entscheidende Funktion in der Rekrutierung von P-TEFb aus dem 7SK snRNP in den AF4-SEC, und somit an der Kontrolle der eukaryotischen Transkription, zugeschrieben werden.
Der "Beratungs-Wegweiser, Beratungsstellen und Adressverzeichnis" wird vom Studien-Service-Center (SSC) als ergänzendes Angebot zum "Wegweiser für Erstsemester" sowie der Internetseite der Goethe-Universität herausgegeben und enthält studiengangbezogene Informationen und Kontaktdaten. Vertiefende Informationen zu diversitätsunterstützenden Angeboten der zentralen sowie fachübergreifenden Einrichtungen und der Fachbereiche können in der Broschüre "Diversity kompakt. Angebote für Studierende in unterschiedlichen Lebens und Studiensituationen" - herausgegeben von Di3 - nachgeschlagen werden.
Die "Digitalisierung" ist ein gesamtgesellschaftlicher und globaler Trend, der nahezu alle Bereiche der Lebens- und Arbeitswelt durchzieht und insofern auch das Studieren an (allen) Hochschulen betrifft. Das Schlagwort "Digitalisierung" verweist auch auf alle Varianten der Nutzung von digitalen Technologien im Bereich Studium und Lehre. Lange Zeit stand vor allem das E-Learning im Vordergrund der Diskussion und damit die Nutzung von digitalen Technologien im engeren Lehr-Lernkontext zur Unterstützung der Interaktion von Lehrenden und Studierenden. Heute werden an den Hochschulen zunehmend die weiteren Möglichkeiten der digitalen Technik für Studium und Lehre erkannt und immer mehr in der Praxis an Hochschulen genutzt: Von der Werbung um Studierende bis hin zur Ansprache von Alumni können sie die Qualität, die Leistungsfähigkeit, die Öffnung, Vermarktung und Internationalisierung der Hochschullehre unterstützen (Kerres 2013, Bischof und von Stuckrad 2013); und einige Hochschulen nutzen die Digitalisierung von Lehre und Studium zur Profilbildung und zur besseren Positionierung im nationalen und internationalen Wettbewerb zwischen Hochschulen. ...
According to Benjamin and Foucault, calling something into question is not just a precondition of critical practice but its very realisation. The effect of critique depends on how a question is asked. An inaccurately posed question supports what it aspired to criticise. Critical practice thus involves a critique of allegedly critical questions. In their critique of power and violence, Foucault and Benjamin expose the moment in which a critical question becomes uncritical and subsequently seek its critical transformation. In Foucault, this movement is identical with "desubjugation", and in Benjamin, with "revolution". A revolutionary resoluteness in raising critical questions, however, can turn out to be decisionistic and uncritical itself. In this paper I reconstruct the struggle for an accurate critical question in Benjamin and Foucault and address how the dialectical turn into uncritical action might be avoided.
Weltweit sind ca. 130–180 Millionen Menschen mit HCV infiziert und jährlich sterben etwa 500.000 Menschen an dessen Folgen. Die neuartigen Therapien versprechen zwar eine sehr hohe Heilungsrate, sind aber aufgrund ihrer enorm hohen Kosten nur in Industrieländern verfügbar. Noch immer gibt es keine prophylaktische Vakzinierung gegen HCV. Deshalb ist es wichtig, den HCV-Lebenszyklus und die Interaktion zwischen Wirtszelle und Virus detailliert zu verstehen, um die Entwicklung von Therapien und Impfungen zu ermöglichen. Außerdem kann ein fundiertes Wissen von HCV translatiert werden und auf neuartige Erreger der Familie der Flaviviridae, wie Denguevirus und Zikavirus, angewendet werden. Während der Zelleintritt und die Replikation von HCV relativ gut charakterisiert sind, bleiben die Assemblierung und Freisetzung der viralen Partikel schlecht verstandene Schritte des HCV-Lebenszyklus. In dieser Arbeit sollte die Rolle des zellulären Proteins α-Taxilin im Lebenszyklus von HCV untersucht werden. In einer späteren Phase der Arbeit wurde der endosomale Freisetzungsweg von HCV untersucht. Dazu wurden HCV Varianten generiert und charakterisiert, die Fluoreszenz-Proteine im NS5A- und E1-Protein enthalten, durch die es möglich ist, den Replikationskomplex und die Viruspartikel zu visualisieren und zu quantifizieren und den viralen Lebenszyklus dadurch besser untersuchen zu können...
Der deutsche und französische Innenminister haben eine Initiative gestartet um gegen Verschlüsselung vorzugehen. Ihr Argument, was von mehr oder weniger allen Geheimdiensten/Strafverfolgungsbehörden unisono vorgetragen wird lautet, dass verschlüsselte Kommunikation die Arbeit der Behörden behindere. Bereits im Jahr 1993 wurde die gleiche Debatte geführt, endete aber mit dem Konsens, dass die Vorteile von Verschlüsselung die Nachteile deutlich überwiegen. Dieser Konsens, getragen von Industrie, Datenschützern und Politik (sowohl Liberale als auch Konservative) schien sicher, war er doch die vernünftigste Antwort auf ein komplexes Problem. Heute stellen die von Rechtspopulisten getriebenen Innenminister wieder einmal die Verschlüsselung in Frage. Warum das eine schlechte Idee ist, soll dieser Beitrag klären.NSA Chef Inman argumentierte bereits 1980: “There is
a very real and critical danger that unrestrained public discussion of crypto-logic matters will seriously damage the ability of this government to conduct signals intelligence and the ability of this government to carry out its mission of protecting national security information from hostile exploitation” (1980). Kern dieses “going dark” Arguments ist also, dass digitale Überwachung schwerer würde, wenn alle verschlüsseln. Terroristen und andere bad guys könnten also nicht mehr gefangen werden. Die Debatte ist also gar nicht so neu und überraschend wie immer behauptet wird....
Dies ist der 24. Artikel in unserer Blogreihe Trouble on the Far-Right.
Dass deutsche Neonazis ins europäische Ausland fahren um dort an „Gedenkmärschen“ teilzunehmen, stellt grundsätzlich keinen Widerspruch dar.1 Die extreme Rechte oder der Neonazismus war und ist kein rein nationales Phänomen. Schon im 20. Jahrhundert existierten diverse Bündnisse unter den faschistischen Bewegungen in Europa und auch heute haben sich in verschiedenen europäischen Ländern extrem rechte Bewegungen und Organisationen etabliert, die sich grenzüberschreitend vernetzen, kooperieren und eine (gemeinsame) Straßenpolitik betreiben.
In der Begründung einer länderübergreifenden Zusammenarbeit rekurriert die extreme Rechte auf verschiedene Europakonzeptionen und -vorstellungen. Innerhalb des deutschen Neonazismus existiert eine starke Bezugnahme auf eine Europa-Idee, die auf völkisch-rassistische Ordnungsvorstellungen des Nationalsozialismus zurückgreift. Einen wichtigen Anknüpfungspunkt stellt die Heroisierung der SS bzw. der Divisionen dar, in denen „Waffenbrüder“ aus verschiedenen europäischen Ländern gekämpft haben. Die Orientierung an einem vermeintlichen Kampf für eine „weiße Rasse“ und ein „freies Europa der Völker“ dient der extremen Rechten auch heute als gemeinsame Basis für transnationale Kooperationen. Neben dieser allgemeinen europäischen Ausrichtung der extremen Rechten, existieren weitere konkrete Beweggründe und Faktoren, die dazu führen, dass deutsche Neonazis im europäischen Ausland an Demonstrationen teilnehmen. Ausschlaggebend können persönliche oder organisatorische Kontakte und Freundschaften zwischen extrem rechten Gruppen und Einzelpersonen sein. Dies ist besonders in Grenzgebieten der Fall, und daher finden oft durch die räumliche Nähe transnationale Kooperationen statt. Darüber hinaus kann auch die Hoffnung, sich an Ausschreitungen und Übergriffen beteiligen zu können, ein Grund für deutsche Neonazis sein, sich auf Reisen zu begeben....
Mehr Geld für BND und Verfassungsschutz, bessere Vernetzung der europäischen Datenbanken, die Schaffung eines Ein- und Ausreiseregisters, die Übermittlung von europäischen Fluggastdaten an die Sicherheitsbehörden der EU-Mitgliedsstaaten, mehr Videoüberwachung, Kennzeichenlesesysteme, Biometrie – und vieles mehr. Detaillierte Angaben dazu, ob die angepeilten Maßnahmen überhaupt wirksam sind, werden selten gegeben. Politische Entscheidungsträger denken sich in der Regel nicht selbst aus, was gebraucht wird, vielmehr werden von den Sicherheitsbehörden Bedarfe angemeldet, die ihrer Arbeitslogik entsprechen. Und die sagt im Zweifelsfall: mehr hilft mehr. So sind im Zuge der Bekämpfung des Terrorismus im Laufe der letzten 15 Jahre unzählige verdachtsabhängige und verdachtsunabhängige Maßnahmen ergriffen worden. Allein auf Ebene der EU waren es mehr als 250...
Gestern hat der Deutsche Bundestag mit nur einer Gegenstimme und einer Enthaltung zum ersten Mal den Völkermord an den Armeniern im Ersten Weltkrieg formal anerkannt. Die Türkei hat daraufhin sogleich ihren Botschafter zurückbeordert; weitere Maßnahmen z. B. die Aussetzung des Flüchtlingskompromisses könnten folgen. Die Krux jedoch von all‘ dem ist die Frage, ob es in den Jahren 1915-1917 einen Genozid an der eigenen christlich-armenischen Minderheit gab oder nicht:...
Wohl kaum ein anders arabisches Land ist so umstritten wie Saudi-Arabien, zumindest wenn es um die Frage von Rüstungsexporten geht. Erst im Juni hat das Verwaltungsgericht Frankfurt in einer von Heckler & Koch eingereichten Klage geurteilt, dass die Bundesregierung sich in der Frage der Genehmigung der Lieferung von Bauteilen für die Lizenzproduktion des G-36 Sturmgewehrs nach Saudi-Arabien entscheiden müsse. Das Wirtschaftsministerium unter der Führung von Sigmar Gabriel (SPD) hatte diese Entscheidung bislang vertagt, auch mit Hinweis auf die gegenwärtige Militärintervention, die das Königreich zusammen mit anderen arabischen Staaten im Jemen führt....
Das Bundeskabinett hat in der vergangenen Woche die Strategie der Bundesregierung zur Extremismusprävention und Demokratieförderung beschlossen. Das gemeinsam vom Bundesinnenministerium und dem Bundessozialministerium verantwortete Konzept stellt damit die erste ressortübergreifende Strategie des Bundes in diesem Bereich dar....
„Wir sind im Krieg mit Russland.“ Diese gleichermaßen lakonische wie wuchtige Bewertung des Journalisten Jan-Philipp Hein lässt den Leser unwillkürlich zusammenzucken, klingt sie doch wie ein aus der Zeit gefallenes Zitat einer längst überwundenen Ost-West-Konfrontation. Zudem erscheint sie verstörend irreal, da die sich in den Vordergrund drängenden aktuellen sicherheitspolitischen Herausforderungen wie islamistischer Terrorismus, anhaltend große (und vielfach unkontrollierte) Flüchtlingsströme und eng damit verknüpft ein Erstarken rechtsextremistischer Kräfte in den vergangenen Monaten die gesamte Aufmerksamkeit zu absorbieren schienen...
Die Anschläge in diesem Sommer in ganz Europa sowie der andauernde Kampf gegen den Islamischen Staat haben das Thema der Terrorbekämpfung auch in der Öffentlichkeit wieder ganz nach oben auf die Tagesordnung gesetzt. Ob nun auf Länderebene oder durch neue Maßnahmen auf Bundesebene und International – eine ganze Reihe weiterer Maßnahmen wurden beschlossen um die Terrorbekämpfung in Deutschland zu verbessern. Ebenso wurden auch in anderen Ländern neue Maßnahmen beschlossen, in Frankreich sogar der Ausnahmezustand bis Anfang 2017 verlängert. Gleichzeitig brachten die neuen Maßnahmen auch eine Diskussion über die Sinnhaftigkeit, Effizienz und Effektivität dieser Maßnahmen mit sich – und ebenso, wie weit eine demokratische Gesellschaft in ihrem Sicherheitsbedürfnis überhaupt gehen soll. An diese Diskussion soll diese Blogserie anschließen...
Ziel der vorliegenden Arbeit war es, vor- und nachbereitenden Unterricht zu Biodiversitätsführungen an den vier außerschulischen Lernorten Palmengarten, Senckenbergmuseum, Stadtwaldhaus und Zoo Frankfurt zu evaluieren. Durch den Unterricht mithilfe neu entwickelter Arbeitsmaterialien sollte die aktuelle Motivation der Schüler und weitere pädagogisch-psychologische Lernvariablen gefördert werden. Es stellte sich die Frage, ob so eine erhöhte Auseinandersetzung mit dem Themenkomplex Biodiversität erreicht werden kann und welche Einflussfaktoren dabei eine Rolle spielen.
Theoretische Grundlage war dabei das Risikowahlmodell der Leistungsmotivation nach Atkinson, das von Rheinberg zum handlungstheoretischen Modell der Motivation erweitert wurde (Rheinberg & Vollmeyer, 2012). Auf dieses bezieht sich der von Rheinberg et al. (2001) entwickelte und hier eingesetzte Fragebogen zur aktuellen Motivation (FAM).
Die Stichprobe setzte sich aus insgesamt 523 Schülern der Klassen 5 bis 9 zusammen. Davon nahm jeweils die Hälfte mit (Versuchsgruppe) und die andere ohne (Kontrollgruppe) vor- und nachbereitendem Unterricht an den Biodiversitätsführungen teil. Die Erhebung der aktuellen Motivation, des erworbenen Fachwissens und weiterer Variablen erfolgte in einem Pre/Post/Follow-Up-Design mit Fragebögen, deren Auswertung analytisch statistisch durgeführt wurde.
Es zeigte sich, dass in der Gesamtstichprobe die Teilnahme an der Biodiversitätsführung die aktuelle Motivation der Schüler erhöhte. Dauerhafte Lernparameter wie die Biologieeinstellung und die Interessenshandlung wurden jedoch nicht signifikant verändert. Ein eindeutiger Effekt der unterrichtlichen Vorbereitung konnte jedoch nicht ermittelt werden. Einzig beim gemessen Fachwissen zu den Führungsinhalten schnitt die Versuchsgruppe signifikant besser ab. Insgesamt wird angenommen, dass der Effekt des Besuchs des außerschulischen Lernortes an sich den Effekt der Vor- und Nachbereitung überdeckt oder vom Einfluss anderer Parameter beeinflusst wird. Hier stach besonders das Alter der Jugendlichen hervor, das vor allem in der hier evaluierten Schülergruppe bedingt durch die Pubertät eine große Rolle spielt. Weitere Einflussfaktoren waren die Biologieeinstellung und die Unterrichtsvariablen der Führung. In den Stichproben der einzelnen außerschulischen Lernorte zeigten sich leichte Abweichungen von der Gesamtstichprobe. Diese waren meist auf die leicht unterschiedliche Zusammensetzung der Stichproben zurückzuführen. Aber auch Besonderheiten der Lernorte hatten dabei ein bedeutendes Gewicht.
Bezüglich der Lernbedingungen für die Lernorte ließen sich aus den Ergebnissen vor allem zwei Komponenten ermitteln: Zum einen die Architektur/räumliche Struktur der Lernorte. Hier können Faktoren wie drinnen/ draußen, Größe und die räumliche Orientierung unterschieden werden. All dies hat Auswirkungen auf das physische Wohlbefinden der Schüler, was wiederum eine Voraussetzung für eine hohe Lernmotivation ist. Die andere Hauptkomponente ist das am Lernort behandelte Thema. Hier kann grob zwischen Pflanzen und Tieren unterschieden werden. Pflanzen wurden dabei in mehreren Studien von den Schülern als weniger attraktiv eingeschätzt. Trotzdem sollten aber die Möglichkeiten, auch botanische Themen außerhalb der Schule zu behandeln, von den Lehrkräften zur Vermittlung biologischer Vielfalt genutzt werden.
Als Konsequenz der Ergebnisse kann der Besuch eines außerschulischen Lernrotes im Biologieunterricht bezüglich der Förderung der Lernmotivation unbedingt empfohlen werden. Da kein klarer Effekt des vor- und nachbereitenden Unterrichts der Biodiversitätsführungen erkennbar war, wären hier weitere Untersuchungen vonnöten, um genauere Aussagen machen zu können. Hier böten sich Studien mit Schülern anderer Altersgruppen und der Vergleich nur zweier außerschulischer Lernorte an.
Das Außenministerium der Vereinigten Staaten von Amerika und die amerikanische staatliche Behörde für Entwicklungszusammenarbeit USAID haben gerade ihre Gemeinsame Strategie gegen gewaltbereiten Extremismus (Joint Strategy on Countering Violent Extremism) vorgestellt. Nachstehend sollen die wesentlichen Inhalte kurz skizziert werden.
Im Rahmen dieser Arbeit wurden Anaylsenmethoden zur Quantifizierung von Ceramiden und Prostanoiden in verschiedenen biologischen Matrices unter Verwendung von Nano-LC gekoppelt mit Tandemmassenspektrometrie entwickelt und bei diversen biologischen Fragestellungen angewendet.
Die analytische Methode zu Quantifizierung der Ceramide ermöglichte deren Bestimmung in einem Probenvolumen von 2 μL CSF. Diese neu entwickelte Methode ist die erste publizierte Nano-LC-MS/MS-Methode zur Quantifizierung der Ceramide in biologischen Proben, gleichzeitig ist es auch diejenige analytische Methode mit der höchsten Empfindlichkeit [171]. Die beschriebene Methode umfasste die Substanzen C8:0, C16:0, C18:1, C18:0, C20:0, C24:1 und C24:0 Ceramid, als interner Standard wurde C17:0 Ce-ramid verwendet. Die Probenaufarbeitung bestand in einer einfachen Proteinfällung und Verdünnung mit Methanol, die chromatografische Trennung der Analyten erfolgte mit einer RP-C8 Säule unter Verwendung eines Gradientenprogramms. Die Methode wurde anhand von FDA-Richtlinien bezüglich Linearität, Bestimmungsgrenze, Präzision, Richtigkeit und Autosampler-Stabilität validiert. Die erreichten Bestimmungsgrenzen betrugen 0,225 pg auf der Säule (2,25 pg/μL CSF) für alle Ceramide außer C24:0 Ceramid, für das der Wert von 0,75 pg auf der Säule (7,5 pg/μL CSF) ermittelt wurde. Mit der durchgeführten Validierung wurde die Zuverlässigkeit der Methode für die Quantifizierung der Ceramide in CSF gezeigt. Mit einem Standardadditionsexperiment konnte belegt werden, dass PBS als Ersatzmatrix für CSF geeignet ist und somit die Ergebnisse der Validierung mit dotierten PBS-Proben auf CSF-Proben übertragbar sind. Das entwickelte Verfahren wurde für die Quantifizierung der Analyten in murinen CSF-Proben im Rahmen eines Projekts zur Erforschung der Rolle der Ceramide bei Multipler Sklerose angewendet. Anhand der Ergebnisse wurde die Hypothese bestätigt, dass die Konzentration von C16:0 Ceramid in CSF von EAE-Mäusen erhöht ist.
Die zweite entwickelte Nano-LC-MS/MS-Methode ermöglichte die Quantifizierung der Prostanoide PGE2, PGD2, 6-keto PGF1α, PGF2α und TXB2 in einer geringen Anzahl Immunzellen. Für eine erfolgreiche Bestimmung der Analyt-Konzentrationen waren nur 5.000 T-Zellen oder 40.000 Mastzellen erforderlich. Damit ist die beschriebene Methode geeignet für die Quantifizierung in Zellen, die durch Isolation aus tierischen Geweben oder Organen erhalten werden, ohne dass das Vereinigen mehrerer Proben erforderlich ist. Durch die Messung dieser bestimmten Zellpopulationen kann, im Unterschied zur Vermessung des gesamten Organs, eine differenziertere Analyse der Lokalisation der gemessenen Analyten erfolgen. Mittels der entwickelten Methode konnten die Prostanoide PGE2, PGD2, 6-keto PGF1α, PGF2α und TXB2 quantifiziert werden. Als interner Standard stand für jedes dieser Prostanoide ein vierfach deuteriertes Strukturanalogon zur Verfügung. Die Aufarbeitung der Immunzell-Proben erfolgte durch Flüssig-Flüssig-Extraktion mit Ethylacetat, die Chromatografie wurde mit einer RP-C8-Säule und einem Gradientenprogramm durchgeführt. Eine Validierung erfolgte für die Quantifizierung in T-Lymphozyten und Mastzellen für die Parameter Linearität, Bestimmungsgrenze, Präzision, Richtigkeit, Wiederfindung, Selektivität und Stabilität. Auch ein Standardadditionsexperiment mit beiden Matrices wurde durchgeführt. Die Bestimmungsgrenzen betrugen 75 fg auf der Säule für PGE2 und PGD2 sowie 112,5 fg für 6-keto PGF1α, PGF2α und TXB2, damit zeichnet sich die Methode durch höchste Empfindlichkeit aus. Die Me-thode wurde zur Messung der Prostanoid-Konzentration in T-Zellen, die im Rahmen eines Kontaktallergie-Modells aus dem Blut von unterschiedlich behandelten Mäusen isoliert worden waren, angewendet. Es konnte kein Unterschied in den Prostanoid-Konzentrationen in den T-Zellen sensibilisierter und nicht-sensibilisierter bzw. provozierter und nicht-provozierter Mäuse festgestellt werden. Bei einer zweiten Anwendung wurden die Prostanoide in murinen Mastzellen, die nach Zymosan-Injektion in die Hinterpfote zu verschiedenen Zeitpunkten nach dem Auslösen der Entzündung aus dem entstandenen Ödem isoliert worden waren, gemessen. Zusätzlich für diese Anwendung wurden einige Leukotriene in die Methode integriert. Es wurde festgestellt, dass die Konzentrationen von PGE2, PGD2 und PGF2α in Mastzellen nach der Injektion von Zymosan-Injektion ansteigen, wobei die gemessenen Konzentrationen für PGE2 48 Stunden nach der Injektion verglichen mit denen nach 24 Stunden, bezogen auf die anderen beiden Prostaglandine, am stärksten ansteigen. Außerdem wurde mittels der für die Immunzellen entwickelten Methode die Prostanoide in murinem Urin, humanem Plasma und humaner Tränenflüssigkeit quantifiziert.
Zusammenfassend ermöglichen die entwickelten Methoden die Analyse geringer Ana-lytkonzentrationen in sehr kleinen Probenmengen und damit eine Reduktion von Versuchstierzahlen und Kosten.
Wer das zu besprechende Werk von Susan Richter zur Hand nimmt, wird beim Blick in das Inhaltsverzeichnis positiv überrascht. Die überarbeitete Heidelberger Habilitationsschrift erweist sich nämlich nicht nur, wie im Titel angekündigt, als eine Studie "[zur] Verflechtung von Herrschaft und Landwirtschaft in der Aufklärung", sondern auch als ein Buch, das den Blick weit über den europäischen Horizont hinaus richtet: Versucht wird darin, die wichtige Rolle des chinesischen Kaisers und insbesondere des von ihm jährlich durchgeführten Pflugrituals für den physiokratischen und kameralistischen Diskurs herauszuarbeiten. Die Studie verschreibt sich somit einem transfergeschichtlichen Ansatz. Sie untersucht nebst den Schriften und Bildzeugnissen aus dem Umkreis von Kameralisten und Physiokraten auch deren Quellen – Berichte von Reisenden und Experten, vor allem aber die berühmten Jesuitenberichte aus China. ...
Die Erforschung der Biographie des Theologen Dietrich Bonhoeffer (1906 – 1945) ist recht weit gediehen. Doch ein Aspekt seines Lebens und Wirkens ist bislang nicht genügend erforscht und gewürdigt worden.
Von 1939/40 an war er Mitarbeiter im Amt 'Ausland/Abwehr' im Oberkommando der Wehrmacht. Diese zu wenig beachtete Tätigkeit wird in diesem Beitrag genauer beschrieben. Der Entschluss des Theologen, in der militärischen Abwehr Dienst zu tun, wurde lange als familiär initiiert angesehen oder als Versuch, sich dem Kriegsdienst zu entziehen. Es wird aber gezeigt, daß sich Bonhoeffer sehr bewusst zur geheimdienstlichen Mitarbeit im militärischen Apparat "Abwehr" entschieden hatte, um auf diese Weise wirksam das Nazi-Regime Adolf Hitlers zu bekämpfen. Er war sich dabei der persönlichen Gefahren dieses konspirativen Engagements wohl bewußt. Bonhoeffer, so wird hier gezeigt, war demnach nicht nur Widerstandstheologe, sondern ein politischer Aktivist, der von Theologie und Kirche erwartete, dass sie entschieden situativ auf die Politik und das Weltgeschehen reagiere.
Since his death, Dietrich Bonhoeffer (1906 – 1945) has grown to be one of the most fascinating, complex figures of the 20th century. But some decisions of his life stay in the dark. Why did he join the Military Secret Service in Germany and what lead him to the judgement, that the Regime of the Nazis could only be ended with the power of military force? The author shows Bonhoeffer as a situatively influenced personality and the measure of his ethics as situativ as well.
In der Reihe "Bildbände zur Archäologie" des Philipp von Zabern Verlags erschien 2015 der Band "Antike Felsgräber" von Stephan Steingräber. Ziel des Autors ist es, die monumentalen Felsfassadengräber Etruriens in einem größeren Kontext darzustellen, was im Untertitel "unter besonderer Berücksichtigung der etruskischen Felsgräbernekropolen" zum Ausdruck kommt. Mit 162 überwiegend sehr qualitätvollen Abbildungen auf 144 Seiten fügt sich der Band in die bekannte Reihe, die archäologische Denkmäler für ein breites, Kultur interessiertes Publikum erschließt. Der Autor gehört zu den Kennern dieser etruskischen Gräber und zieht im Vorwort die Verbindungslinien zu seiner wissenschaftlichen Tätigkeit. In 14 Kapiteln spannt der Verfasser einen weiten Bogen (S. 7-86) mit Schlaglichtern auf Felsgräber und Felsarchitektur außerhalb Südetruriens; letzteren ist ein ausführliches Kapitel gewidmet (S. 87-128). Ein Anhang mit einer nützlichen Zusammenstellung der wichtigsten Informationen zu den südetruskischen Felsgräbernekropolen (S. 131-137) und einem Glossar beschließen den Bildband. Die Bibliographie spiegelt in ihrer Auswahl die Schwerpunktsetzung des Bandes. Nur der Titel selbst – auf dem Umschlag steht der Untertitel nicht – sowie das zentrale Titelbild der Felsgrabnekropole von Myra in Kleinasien stehen in eigenartigem Widerspruch zur eindeutig regionalen Konzeption. Um es gleich vorwegzunehmen, diese ambivalente Zielsetzung wirkt sich im Verlauf der Darlegungen ungünstig aus. ...
Infrastrukturprojekte können als konkrete Planungs- und Bauvorhaben beschrieben werden, die zumeist über mehrere Jahre hinweg mit aktuellen oder neuen Technologien und Verfahren realisiert werden und bei denen eine lange Nutzungsdauer vorgesehen ist. Diese Projekte sind als Investitionsprojekte mit hohem Kapitalbedarf und zumeist negativen externen Effekten besonders risikobehaftet. Die enorme technische, wirtschaftliche, organisatorische und kommunikative Komplexität macht nicht nur ein professionelles Projektmanagement und eine ebenso professionelle Kommunikation notwendig, sondern erhöht auch die Gefahr von Krisen. Infrastrukturprojekte werden auch durch die Bedingungen der Mediengesellschaft beeinflusst. Die Vorhabenträger derartiger Projekte sind öffentlich exponiert, werden kritisch beobachtet und vielstimmig kommentiert, auch im Social Web.
Die medialen und gesellschaftspolitischen Rahmenbedingungen zeigen den Bedarf nach professionellen strategischen Krisen-PR auf. Diese werden hier als zielgerichtete Public Relations zur proaktiven Prävention, Bewältigung und Nachsorge von Krisensituationen verstanden. Sie beschränken sich keineswegs auf eine reaktive Krisenkommunikation. Stattdessen werden sie als internes und externes Kommunikations- und Handlungsmanagement betrachtet und als dauerhafter Bestandteil strategischer Organisationsführung empfohlen. Mithilfe von Literaturstudien werden wichtige Anforderungen an strategische Krisen-PR bei Infrastrukturprojekten aggregiert. Die Erkenntnisse fließen in einen kürzeren Anforderungskatalog ein, der die wichtigsten Punkte für die Krisen-PR-Praxis systematisiert. Ein längerer Anforderungskatalog orientiert sich an den bei Infrastrukturprojekten üblichen Planungs- und Ausführungszyklen und enthält zudem einzelne Handlungsempfehlungen, die aus der Analyse zweier Fallstudien hervorgegangen sind. Untersucht wurden die Öffentlichkeitsbeteiligung im Rahmen der Krisenprävention beim Ausbau des Flughafens Frankfurt am Main sowie die Krisenbewältigung angesichts der Verschiebung eines Eröffnungstermins beim Bau des Flughafens Berlin Brandenburg.
Neben Anforderungen für die Phasen der Krisenprävention, -bewältigung und -nachsorge werden auch Grundsätze strategischer Krisen-PR bestimmt. So sollten diese strategisch, situativ und integriert sein, ganzheitlich und konzeptionell fundiert geplant werden, kommunikative Diskrepanzen vermeiden, Vertrauensfaktoren erfüllen und Vertrauenswürdigkeit signalisieren. Ebenso sollten sie eine verständlich, symmetrisch-dialogisch, verständigungsorientiert und crossmedial kommunizieren, stets Schnelligkeit und Richtigkeit beachten sowie funktional transparent sein. Besondere Bedeutung innerhalb der strategischen Krisen-PR kommt auch der regelmäßigen Analyse von Stakeholdern und Themen sowie dem professionellen Monitoring und Management von Issues, Risiken und Social-Media-Beiträgen zu.
Zur großen Ausstellung „Imperium der Götter“ des Badischen Landesmuseums Karlsruhe, die vom 16. November 2013 bis zum 18. Mai 2014 die Vielfalt und Bedeutung der Kulte und Religionen im römischen Reich mit einer Fülle an beeindruckenden Exponaten vor Augen führte, ist ein Ausstellungsband erschienen, in dem nicht nur die ausgestellten Objekte präsentiert, sondern auch die im Blickfeld stehenden Kulte, die „orientalischen“ Kulte einschließlich des frühen Christentums und Judentums, durch zahlreiche, kurze Beiträge näher beleuchtet werden...
Ziel. Lokoregionäre Rezidive sind der Hauptgrund für ein Therapieversagen nach primärer multimodaler Behandlung von Plattenepithelkarzinomen der Kopf-Hals-Region (SCCHN). Wir verglichen die Effektivität und Toxizität von Cisplatin oder Cetuximab simultan zur Re-Bestrahlung (ReRT) bei inoperablen SCCHN-Rezidiven. Ein prognostischer Score sollte auf Grundlage verschiedener klinischer und pathologischer Faktoren etabliert werden.
Patienten und Methoden. 66 Patienten mit in vorbestrahlten Regionen rezidivierten SCCHN wurden von 2007 bis 2014 simultan mit Cetuximab (n=33) oder cisplatin-basierter Chemotherapie (n=33) re-bestrahlt. Die Toxizität wurde wöchentlich sowie bei jedem Nachsorgetermin erfasst. Klinische Untersuchung, Endoskopie, CT- oder MRT-Untersuchungen wurden zur Beurteilung des Therapieansprechens und der Krankheitskontrolle eingesetzt.
Ergebnisse. Nach einer mittleren Nachbeobachtungszeit von 18,3 Monaten betrug das 1-Jahres-Überleben (OS) für ReRT mit Cetuximab 44,4% und mit cisplatin-basierter Chemotherapie 45,5% (p=0.352). Die lokalen Kontollraten nach einem Jahr waren jeweils 46,4% und 54,2% (p=0.625); die Raten an Metastasenfreiheit 73,6% und 81% (p=0.842). Hämatologische Toxizität ≥ Grad 3 kam in der Cisplatin-Gruppe häufiger vor (p<0.001), dagegen trat Schmerz ≥ Grad 3 in der Cetuximab-Gruppe häufiger auf (p=0.034). Ein physiologischer Hb-Wert und ein längeres Intervall zwischen primärer RT und ReRT erwiesen sich als signifikante prognostische Faktoren für das OS (multivariat: p=0.003 und p=0.002). Die Rezidivlokalisation sowie das GTV zeigten keinen signifikanten Einfluss auf das OS in der multivariaten Analyse (p=0.160 und p=0.167). Ein auf Grundlage dieser Variablen konstruierter Prognose-Score (0 bis 4 Punkte) zeigte signifikante Überlebensunterschiede: 1-Jahres-OS für 0/1/2/3/4 Prognosepunkte: 10%, 38%, 76%, 80% und 100% (p<0.001).
Schlussfolgerung. Sowohl Cetuximab- als auch Cisplatin-basierte ReRT für SCCHN-Rezidive sind gut durchführbare und effektive Behandlungsoptionen mit vergleichbaren Ergebnissen bezüglich Tumorkontrolle und Überleben. Die akuten Nebenwirkungen könnten gering variieren. Unser Prognose-Score könnte zur Identifizierung der für ReRT geeigneten Patienten sowie zur Stratifizierung in künftigen klinischen Studien dienen.
Diese Magisterarbeit befasst sich mit der archäologischen Fundsituation von Terrakottafiguren der Nok-Kultur in Zentralnigeria (1500 v. Chr. – 1 n. Chr.). Seit 1928 werden solche anthropomorphe und zoomorphe Skulpturen aus gebranntem Ton im Verbreitungsgebiet entdeckt. Nur wenige stammen jedoch aus systematischen Ausgrabungen. Mit Beginn der Frankfurter Forschungen 2005 (seit 2009 im Rahmen eines DFG-Langfristprojekts in Zusammenarbeit mit zwei nigerianischen Universitäten und der NCMM in Nigeria) erweiterten sich die Erkenntnisse zum Kontext der Figuren und der assoziierten Funde stetig.
Im Fokus der Arbeit stehen acht Befunde mit Terrakottafragmenten von sechs Nok-Fundstellen. Sie werden dank der Frankfurter Daten beschrieben, analysiert und im Hinblick auf den finalen Umgang mit den Funden interpretiert. Unter den intentional angelegten Befunden sprechen bestimmte Kriterien für einen profanen Charakter der Niederlegungen, andere sprechen für rituelle Deponierungen. Letztere sind vermutlich im Rahmen von Aktivitäten angelegt worden, welche mit der Glaubenswelt der prähistorischen Gesellschaft in Verbindung stehen. (An English summary is included.)
Sie hören Stimmen, vermuten Botschaften in bedeutungslosen Ereignissen oder fühlen sich ferngesteuert: Die Symptome von Menschen mit einer schizophrenen Störung galten bisher als »uneinfühlbar«, da für Außenstehende nicht nachvollziehbar. Aktuelle neurowissenschaftliche Modelle helfen, die Verwechslung von »eigen« und »fremd« aufzuklären.
Um die Funktionsweise von biologischen Prozessen zu untersuchen, werden Trigger-Signale benötigt, die die Prozesse initiieren können, ohne dabei dem Organismus zu schaden oder Nebenreaktionen hervorzurufen. Ein geeignetes Trigger-Signal stellt Licht dar, da es bei geeigneter Wellenlänge nichtinvasiv ist und nur wenige biologische Prozesse durch Licht gesteuert werden. Um einen Prozess mit Licht aktivierbar zu machen, benötigt man eine lichtsensitive Einheit, beispielsweise eine photolabile Schutzgruppe, die durch die Bestrahlung mit Licht einen zuvor blockierten Bereich freisetzt.
Hauptziel dieser Arbeit war es die Zweiphotonen-Technik für die Photolyse von photolabil geschützten Oligonukleotiden nutzbar zu machen und das Photolyseergebnis zu visualisieren.
Dazu wurden zunächst verschiedene mit Zweiphotonen-sensitiven Schutzgruppen modifizierte Phosphoramidite synthetisiert und über Festphasensynthese in Oligonukleotide eingebaut. Die Oligonukleotide mit den erstmals neu eingebauten Schutzgruppen ANBP und hNDBF wurden zunächst auf ihre Einphotonen-Eigenschaften, wie Schmelzpunkt, Absorptionsverhalten und Quantenausbeute untersucht. Weiterhin wurden erste Versuche zur wellenlängenselektiven Photolyse von hNDBF- und ANBP-geschützten Oligonukleotiden durchgeführt.
Die Existenz eines Zweiphotonen-induzierten Effekts kann durch die quadratische Abhängigkeit des erzeugten Effekts von der eingestrahlten Leistung nachgewiesen werden. Dazu wurde ein Verdrängungs-Assay entwickelt, dessen Doppelstrang-Sonde aus einem FRET-Paar besteht. Der Fluorophor-markierte Strang dient dabei als Gegenstrang zum photolabil geschützten Strang. Durch einen Thiol-Linker am photolabil geschützten Oligonukleotid konnte dieses erfolgreich in Maleimid-Hydrogele immobilisiert werden und der Verdrängungs-Assay im Gel durchgeführt werden. Die immobilisierten Stränge enthielten DEACM bzw. ANBP Schutzgruppen. Neben der quadratischen Abhängigkeit der Photolyse von der eingestrahlten Leistung konnten in diesen Hydrogelen auch 3D-aufgelöste Photolysen realisiert werden, die eindeutig die Zwei-Photonen-Photolyse belegen. Diese 3D-Experimente wurden zusammen mit Dr. Stephan Junek am MPI für Hirnforschung durchgeführt. Durch die Wahl zweier unterschiedlicher Sequenzen für die dTDEACM und dGANBP modifizierten Stränge und zwei unterschiedlicher Fluorophore für die Doppelstrang-Sonden, konnte die orthogonale Zweiphotonen-Photolyse gezeigt werden. Um zu zeigen, dass die Zweiphotonen-Photolyse von Oligonukleotiden auch in Organismen realisiert werden kann ohne das biologische System zu schädigen, wurde versucht den Verdrängungs-Assay auch in Zellen durchzuführen. Durch die Verwendung der Patch-Clamp-Technik in Zusammenarbeit mit Dr. Stephan Junek am MPI für Hirnforschung konnten die Stränge über die Elektrolyt-Lösung in Hippocampus-Neuronen eingebracht werden und durch Zweiphotonen-Bestrahlung dort photolysiert werden, was zu einem deutlichen Fluoreszenzanstieg führte. Durch die angeschlossene Patch-Clamp-Pipette konnten so zusätzlich elektrophysiologische Messungen durchgeführt werden, die zeigten, dass die durchgeführte Zweiphotonen-Bestrahlung nicht invasiv für die Zellen ist.
Die durchgeführten Experimente beweisen, dass Zweiphotonen-sensitive Schutzgruppen auf Oligonukleotiden photolysiert werden können und dass ihr Einsatz auch in biologischen Systemen möglich ist. Der entwickelte Verdrängungs-Assay ermöglicht es weiterhin neue photolabile Schutzgruppen auf Oligonukleotiden auf ihre Zweiphotonen-Sensitivität zu untersuchen.
Ein weiteres Projekt beschäftigte sich mit der Synthese der neuen Schutzgruppe DMA-NDBF-OH, die in-silico von der Arbeitsgruppe von Prof. Andreas Dreuw aus Heidelberg als effiziente Zweiphotonen-sensitive Schutzgruppe beschrieben wird. Es wurde versucht DMA-NDBF-OH über zwei Syntheserouten herzustellen. Eine Route basierte auf der Einführung der Funktionalitäten an einem unmodifizierten Dibenzofuran, die leider an der Bromierung der Seitenkette scheiterte. Die zweite Syntheseroute wurde in Anlehnung an die NDBF-Synthese von Deiters et al., bei der das Dibenzofuran durch eine Kondensation zweier modifizierter Benzolringe und einem Pd-katalysierten Ringschluss aufgebaut wird, durchgeführt. Mit dieser Syntheseroute konnte das DMA-NDBF-OH erfolgreich synthetisiert werden. Aufgrund ihrer starken bathochromen Verschiebung sollte sich diese Schutzgruppe hervorragend für die wellenlängenselektive Photolyse auf Ein- und Zweiphotonenebene eignen.
kurz und kn@pp news : Nr. 37
(2016)
kurz und kn@pp news : Nr. 38
(2016)
kurz und kn@pp news : Nr. 36
(2016)
Kosmopolitismus ist kein Konzept, das für jedermann positiv besetzt ist, auch wenn dies die wohlklingende Bezeichnung "Weltbürger" zunächst vermuten lässt. Für George Cogniot, Chefredakteur der kommunistischen Tageszeitung "L’Humanité" repräsentierte der Kosmopolit vielmehr "die letzte Stufe kapitalistischer Unmenschlichkeit"; letztlich handele es sich um eine "weltweite zynische Ausbeutung entwurzelter Sklaven". Wer in den Koordinaten einer proletarischen Internationalen dachte, sah im Kosmopolitismus eher ein Konkurrenzprojekt des gehobenen Bürgertums. Schließlich war die Grundidee des Weltbürgertums eng mit der Aufklärung und dem Reisenden des 18. Jahrhunderts verbunden, mit den Vertretern der Oberschicht, die während einer Grand Tour die benachbarten Kulturen kennenlernten und dort weltgewandtes Auftreten erwarben. Der Großteil der historischen Studien, die sich mit der Geschichte des Kosmopolitismus beschäftigen, konzentriert sich auf diese Epoche. Dass dadurch ein wichtiger Umbruchpunkt in der Entwicklung des Kosmopolitismus ausgeklammert wird, verdeutlicht der vorliegende Sammelband von Ute Lemke, Massimo Lucarelli und Emmanuel Mattiato, in dem der Fokus auf die zwanziger und dreißiger Jahre des 20. Jahrhunderts gelegt wird. ...
Der vorliegende Text ist das Ergebnis einer sondierenden Vorstudie zur Vorbereitung einer qualitativen empirischen Befragung zum Umgang mit Wasser in chinesischen Haushalten, die im November 2015 im Rahmen des Projekts SEMIZENTRAL in Qingdao, China, durchgeführt wurde (Publikation in Vorbereitung). Das vom BMBF geförderte Projekt SEMIZENTRAL wird vom Institut IWAR der Technischen Universität Darmstadt geleitet (siehe http://www.semizentral.de/home/). Das ISOE ist Partner im Forschungsverbund und führt eine Stoffstrom- und eine damit verbundene Vulnerabilitätsanalyse für das Gebiet der Implementierung durch. In diesem Zusammenhang ist es wichtig, Einflussfaktoren des Umgangs mit Wasser durch die Bevölkerung kennenzulernen.
Gestützt auf das integrative Konzept der Wasserkultur werden im nachfolgenden Text die Ergebnisse einer diesbezüglichen Recherche vorgestellt. Dabei werden natürliche, infrastrukturelle, soziale, kulturelle, ökonomische und verhaltensbezogene Aspekte der Wasserverfügbarkeit, der Ansprüche an Wasserqualität und des Umgangs mit Wasser in China thematisiert.
Prognostische Faktoren und das Outcome von Patienten mit einem primären Glioblastom sind in der Fachliteratur gut beschrieben. Im Gegensatz dazu gibt es wenige vergleichbare Informationen zu Patienten mit einem sekundären Glioblastom. Das Ziel dieser Arbeit war es, das Outcome von Patienten mit einem sekundären Glioblastom zu beurteilen und prognostische Faktoren in Be-zug auf das Gesamtüberleben zu identifizieren.
Dazu wurde die interne Datenbank des Universitätsklinikums Frankfurt/Main von Patienten mit Hirntumoren retrospektiv nach klinischen Daten durchsucht. Alle Patienten hatten ein histologisch gesichertes WHO Grad II oder III Gliom und anschließend ein WHO Grad IV sekundäres Glioblastom. Paraffiniertes Hirntumorgewebe wurde auf Mutationen der Isocitrat Dehydrogenase-1 (IDH1) mittels einer immunhistochemischen Färbung mit einem R132H (clone H09) spezifischen Antikörper untersucht. Eine uni- und multivariate statistische Analyse wurde durchgeführt, um Faktoren zu ermitteln, die potentiell das Gesamt-überleben beeinflussen könnten.
Es wurden 45 Patienten mit einem histologisch gesicherten sekundären Glioblastom untersucht. Das mediane Alter betrug 41 Jahre. 14 Patienten unterzogen sich einer radiologisch kompletten Resektion des sekundären Glioblastoms, 31 Patienten wurden subtotal reseziert oder biopsiert. Initial ist bei 37 Patienten ein astrozytärer Tumor nachgewiesen worden und die restlichen Patienten litten an Oligodendrogliomen oder gemischten Gliomen; bei der initialen Diagnose wurden 17 WHO Grad II und 28 WHO Grad III Tumoren fest-gestellt. Die mediane Zeit zwischen Ursprungstumor und dem Auftreten des sekundären Glioblastoms betrug 158,9 Wochen. Das mediane Gesamtüberleben betrug 445 Tage nach der Diagnose eines sekundären Glioblastoms. Mutationen des IDH1 (R132H) Proteins wurden bei 24 Patienten festgestellt und fehlten bei 17 Patienten; bei 4 Patienten konnte keine IDH1 immunhistochemische Färbung durchgeführt werden.
In der univariaten Analyse konnte der Zeitraum zwischen initialer Läsion und dem Progress zu einem sekundären Glioblastom als statistisch signifikanter Einflussfaktor identifiziert werden- Patienten mit einem Zeitraum von mehr als 2 Jahren hatten ein besseres Gesamtüberleben (460 vs. 327 Tage, p = 0,011). Außerdem konnte bei Patienten, die eine kombinierte Radiochemotherapie bekamen, ein besseres Gesamtüberleben nachgewiesen werden als bei Patienten, welche ausschließlich eine Therapieform erhielten (611 vs. 380 Tage, p < 0,001). Weiterhin konnten ein WHO Grad II Ursprungstumor (472 vs. 421 Tage, p = 0,05) und eine Frontalllappenlokalisation des Glioblastoms (472 vs. 425 Ta-ge, p = 0,031) das Überleben steigern.
In der multivariaten Analyse konnte gezeigt werden, dass die Mutation des IDH1 (R132H) Proteins in statistisch signifikanter Weise mit einem längeren Gesamtüberleben assoziiert war (p = 0,012); statistische Signifikanz für ein län-geres Gesamtüberleben bei Patienten mit initial einem WHO Grad II (p = 0,047) und einer Frontallappenlokalisation des Glioblastoms (p = 0,042) stellte sich auch ein. In Bezug auf die Patienten spezifischen Daten wurden zwei Prognosegruppen erstellt; Patienten in der guten Prognosegruppe scheinen einen Benefit von einer totalen Tumorresektion zu haben (p = 0,02), während eine Resektion für die andere Prognosegruppe keine große Rolle spielte (p = 0,926).
Trotz des relativ geringen Erkrankungsalters haben sekundäre Glioblastom Patienten eine schlechte Prognose. Die Ergebnisse dieser Arbeit unterstreichen die Wichtigkeit und den prognostischen Wert der IDH1 Diagnostik, die Notwendigkeit einer kombinierten Radiochemotherapie und eine Risikostratifizierung für eine Prognoseabschätzung anhand der Patienten spezifischen Einflussfaktoren.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
„Keine Gesellschaft ohne Natur“ – Beiträge zur Entwicklung der Sozialen Ökologie erschienen +++ ISOE beim Symposium deutscher Mobilitäts- und Verkehrsforscher in Berlin +++ Arzneimittelrückstände im Wasserkreislauf: Technische Lösungen stoßen an ihre Grenzen +++ Stakeholder im Forschungsprozess – für den naturnahen Umbau der Nidda +++ Neuer Stromspiegel für Deutschland: Ergebnisse aus Forschungsprojekt von ISOE und Öko-Institut +++ Best Paper Award der Zeitschrift GAIA: ISOE-Beitrag unter den drei Erstplatzierten +++ Aus dem ISOE: Girls'Day 2016: Zukunftstag für Mädchen am ISOE +++ Termine +++ Publikationen
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Der Beitrag untersucht das in jüngerer Zeit verstärkt diskutierte Phänomen einer – tatsächlichen oder vermeintlichen – „anglo-amerikanischen Rechts-hegemonie“. Es geht dabei um die Frage, ob die Rechtsordnungen Deutschlands und der Europäischen Union unter eine Vormachtstellung des amerikanischen Rechtsdenkens und amerikanischer Regelungsmuster geraten sind oder eine solche vielleicht sogar selbst aktiv befördert haben. In dem Beitrag wird diese Diskussion aus zivilrechtlicher Perspektive aufgegriffen. Nach einer Konkretisierung des Topos der Rechtshegemonie werden dabei zunächst einige Grundcharakteristika des amerikanischen Rechtssystems und des deutschen Rechtssystems gegenübergestellt und zusammengefasst, in welchen Bereichen das deutsche und das europäische Recht in den vergangenen Jahrzehnten durch amerikanische Denk- und Regelungsmuster überformt worden sind. Im Anschluss erfolgt eine Bewertung der zuvor skizzierten Entwicklung, wobei die Unterscheidung zwischen einem intrinsisch orientierten und einem funktional orientierten Verständnis von Rechtskultur als ein Kernproblem der jüngeren rechtsvergleichenden Diskussion im Zentrum steht. Im Ergebnis wird eine tendenziell skeptische Perspektive gegenüber dem suggestiven Bild eines Wettbewerbs der Rechtsordnungen eingenommen und die in jüngerer Zeit häufig geäußerte These der globalfunktionalen Überlegenheit eines wettbewerbsorientierten Rechtsmodells in Zweifel gezogen.
Dieser Artikel beschreibt die Inverted-Classroom-Methode(ICM) im Sinne einer Einführung in die Thematik und soll als Praxisleitleitfaden für diejenigen dienen, die diese Methode in der medizinischen Aus-, Fort- und Weiterbildung einsetzen möchten. Es handelt sich bei der ICM um einen Blended-Learning-Methode, bei dem eine Selbstlernphase (individuelle Phase) vor die Präsenzunterrichtsphase gesetzt wird. In der Online-Phase wird Faktenwissen vermittelt, das als Grundlage für die Präsenzphase dient. Die Präsenzphase soll anschließend dafür genutzt werden, das erlernte Wissen zu vertiefen und anzuwenden. Dem gegenüber stehen die traditionellen Kurskonzepte, in denen das Faktenwissen beispielsweise in Vorlesungen oder in anderen Präsenzunterricht-Formaten vermittelt wird und die Vertiefung dieses Wissens durch die Studierenden im Anschluss daran im Selbststudium stattfinden soll. Das Ziel der ICM ist die Verschiebung des passiven Lernens hin zum aktivierenden Lernen, um das Lernen auf kognitiv anspruchvollen Ebenen wie Analyse, Synthese und Evaluation zu unterstützen. Dabei haben die gestiegene Produktion und Nutzung von Screencasts und Lernvideos, die „Bewegung“ der „Open Educational Resources“ und die verbreitete Nutzung von „Massive Open Online Courses“ (MOOCs) zu einer gestiegenen Verbreitung der Inverted-Classroom-Methode beigetragen. Der Artikel soll als Einführung in die Thematik dienen und dabei eine kurze Übersicht über wichtige Projekte und Forschungsergebnisse in der medizinischen Ausbildung und in weiteren Gesundheitsberufen geben. Außerdem werden die Vor- und Nachteile der Methode und ihr potentieller Nutzen für die zukünftige medizinische Aus- und Weiterbildung dargestellt.
In der folgenden Anleitung werden diverse Methoden für den Zugriff auf das Ressourcen-Management, entwickelt von der AG Texttechnologie, erläutert. Das Ressourcen-Management ist für alle Anwendungen identisch. Erklärt wird das Auslesen des Ressourcen-Managements der Projects „PHI Picturing Atlas“. Alle Anweisungen erfolgen per RESTful-Aufrufen. Die API-Dokumentation findet sich unter http://phi.resources.hucompute.org.
Seitdem im Juli die Schiedsentscheidung über die Territorialkonflikte im südchinesischen Meer gefällt wurde, wird in Zeitungen und Blogs intensiv darüber diskutiert, wie diese Entscheidung einzuordnen ist und welche Folgen sich daraus ergeben. Das Schiedsgericht hat nicht über Fragen der Souveränität selbst entschieden, sondern über die rechtlichen Grundlagen, aus denen Souveränitätsansprüche abgeleitet werden können. In diesem Zusammenhang hatte das Gericht die interessante Frage zu klären, inwieweit die durch China angeführten „historischen Rechte“ geeignet sind, einen Gebietsanspruch zu begründen. Klar ist, dass der Schiedsspruch nicht geeignet ist, den Konflikt zu beenden. China hat von Beginn an deutlich gemacht, dass es das Verfahren weder anerkennen noch sich daran beteiligen würde und hat daher schließlich auch die Entscheidung als rechtwidrig abgelehnt. Die Funktion des Verfahrens ist daher auch weniger die Konfliktlösung, die es nicht leisten kann, als vielmehr das Herausarbeiten einer rechtlich gerechtfertigten Position....
Dies ist der 21. Artikel unseres Blogfokus „Salafismus in Deutschland“. Im vergangenen Jahr verloren in den westlichen Ländern so viele Menschen durch Terroranschläge islamistischer Extremisten ihr Leben wie seit dem Jahr 2001 mit dem schicksalsschweren 11. September nicht mehr. Und die Anschläge sind erneut nah an Deutschland herangerückt: Gleich zweimal wurden tödliche Anschläge in Paris verübt, Brüssel ist zu einem Hotspot des islamistischen Extremismus geworden und der vereitelte mutmaßliche Anschlag auf ein Radrennen im Raum Frankfurt hat einmal mehr die Terrorgefahr auch hierzulande verdeutlicht. Nach dieser Lesart ist der islamistische Extremismus also eine reale Bedrohung und stellt das friedliche Zusammenleben in einer offenen Gesellschaft in Frage – aber nicht nur aufgrund von Anschlagsgefahren, sondern vor allem weil sich islamistischer Extremismus und Islamfeindlichkeit gegenseitig zu gefährlichen, illiberalen Dynamiken hochschaukeln. Dieser Beitrag führt kurz in dieses Wechselspiel ein, das die offene Gesellschaft in die Zange nimmt und benennt Handlungsempfehlungen für verschiedene Akteursgruppen in Deutschland mit dem Ziel, das Fundament unserer offenen, pluralen Gesellschaftsordnung zu bewahren und zu stärken...
Seit der Antike wird über das Thema der Ästhetik, über das Schöne, diskutiert. Diese Diskussion, die mit der Frage „Was ist schön?“ anfängt und was „schön“ als Wert ausdrückt, was die Quelle des Schönheitsgefühls bei dem Menschen ist, und auch die Frage nach dem Prozess der Entstehung eines ästhetischen Urteils, wird bis zur heutigen Zeit geführt. Heutzutage ist das ästhetische Verständnis des Propheten Muhammed nicht nur Untersuchungsthema, die Muslime haben im 21. Jahrhundert die von ihm erhaltenen ästhetischen Werte durch direkte Übertragung in ihr Leben und in ihre Lebensweise integriert. Die Koranforschung hat ergeben, dass der Sinn für Schönheit eine Fähigkeit bezeichnet, die dem im Koran erwähnten Menschen mit der Geburt gegeben worden ist. Im Propheten Muhammed hat das in ihm vorhandene Potenzial in der vorislamischen Zeit durch Aufrechterhaltung und durch göttliche Erziehung, die ihm nach dem Erhalt der prophetische Mission zuteil wurde, den Höhepunkt erreicht. In diesem Sinne ist sein Auftreten schön und die Schönheit beim letzten Propheten kein Zufall. Die Schönheit, die dem Koran folgend mit dem ersten Menschen, Adam, begann, fand ihre Vollendung im Propheten Muhammed Denn für den Propheten Muhammed war die Schönheit nicht lediglich ein philosophischer Wert, sondern im Gegenteil eine Lebensweise. Zu Beginn der Behandlung des ästhetischen Themas Am Anfang der Beschäftigung des Korans mit der Frage der Ästhetik liegt vor allem in den Worten der glaubenden Menschen, in ihrem Verhalten, den Zielen, die sie erreichen wollen, und in ihrem Glauben und ihren Gottesdiensten. Nach dem Koran ist es Allah, der die Geschöpfe verschönert, diese Schönheit wurde den Geschöpfen während ihrer Erschaffung gegeben. Mit anderen Worten hat Allah die Geschöpfe schön erschaffen. In der islamischen Welt gibt es Philosophen und Islamwissenschaftler, die über die Vorstellung der Schönheit Überlegungen anstellen...
Vielerorts machen sich Sorgen breit: Was bedeutet die Flüchtlingskrise für Europa? Wie geht es weiter im syrischen Bürgerkrieg? Wie lässt sich der Hunger in Afrika - derzeit verstärkt durch El Niño - bekämpfen? Und welche Rolle kann Deutschland spielen? Antworten gibt der erfahrene schwedische Spitzendiplomat und frühere Vizepräsident der Weltbank, Mats Karlsson, im Bretterblog-Interview.
100 Jahre Fachbereich Rechtswissenschaft ist auch ein Grund, derer zu gedenken, die über eine lange Strecke dieser Zeitspanne das Bild des Fachbereichs entscheidend mitgeprägt haben, aber nicht mehr mitfeiern können. Darunter verdient ein Strafrechtsprofessor und Rechtsphilosoph besondere Hervorhebung und Würdigung. Prof. Dr. Dr. h.c. mult. Winfried Hassemer. Das Verständnis von der gegenseitigen Befruchtung in Theorie-Praxis-Projekten brachte Hassemer aus der akademischen Welt mit in seine hohen Staatsämter: Hessischer Datenschutzbeauftragter, Richter und Vizepräsident des Bundesverfassungsgerichts. Schließlich konnte er in der Rolle des Anwalts gleichsam als „Gegenprobe“ auch noch seine schon lange gezeigte Zuneigung zum Beruf des Strafverteidigers erleben. Der fruchtbare Dialog zwischen Theorie und Praxis setzte sich 12 Jahre lang im „Frankfurter Arbeits-Kreis Strafrecht“ („FAKS“) fort, zu dessen Gründern Hassemer gehörte. Dabei haben Strafverteidiger, Richter, Staatsanwälte, Ministerialbürokratie, Strafvollzugs und Polizeibeamte mit auch Rechtswissenschaftlern im konstruktiven Diskurs die Abstände zwischen unseren „Berufswelten“ verringert. Im Zentrum stand sein Bekenntnis, dass das staatliche Strafen ein „blutiges Geschäft“ ist, das nur als ultima ratio und auch nur dann zu rechtfertigen ist, wenn „schützende Formen“ des Verfahrensrechts strafbegrenzend wirken. Der Fachbereich Rechtswissenschaft wird auch in dem jetzt beginnenden zweiten Jahrhundert seines Bestehens das Andenken an Winfried Hassemer hoch halten.
Die vorliegende Arbeit lässt sich in den Bereich Data Science einordnen. Data Science verwendet Verfahren aus dem Bereich Computer Science, Algorithmen aus der Mathematik und Statistik sowie Domänenwissen, um große Datenmengen zu analysieren und neue Erkenntnisse zu gewinnen. In dieser Arbeit werden verschiedene Forschungsbereiche aus diesen verwendet. Diese umfassen die Datenanalyse im Bereich von Big Data (soziale Netzwerke, Kurznachrichten von Twitter), Opinion Mining (Analyse von Meinungen auf Basis eines Lexikons mit meinungstragenden Phrasen) sowie Topic Detection (Themenerkennung)....
Ergebnis 1: Sentiment Phrase List (SePL)
Im Forschungsbereich Opinion Mining spielen Listen meinungstragender Wörter eine wesentliche Rolle bei der Analyse von Meinungsäußerungen. Das im Rahmen dieser Arbeit entwickelte Vorgehen zur automatisierten Generierung einer solchen Liste leistet einen wichtigen Forschungsbeitrag in diesem Gebiet. Der neuartige Ansatz ermöglicht es einerseits, dass auch Phrasen aus mehreren Wörtern (inkl. Negationen, Verstärkungs- und Abschwächungspartikeln) sowie Redewendungen enthalten sind, andererseits werden die Meinungswerte aller Phrasen auf Basis eines entsprechenden Korpus automatisiert berechnet. Die Sentiment Phrase List sowie das Vorgehen wurden veröffentlicht und können von der Forschungsgemeinde genutzt werden [121, 123]. Die Erstellung basiert auf einer textuellen sowie zusätzlich numerischen Bewertung, welche typischerweise in Kundenrezensionen verwendet werden (beispielsweise der Titel und die Sternebewertung bei Amazon Kundenrezensionen). Es können weitere Datenquellen verwendet werden, die eine derartige Bewertung aufweisen. Auf Basis von ca. 1,5 Millionen deutschen Kundenrezensionen wurden verschiedene Versionen der SePL erstellt und veröffentlicht [120].
Ergebnis 2: Algorithmus auf Basis der SePL
Mit Hilfe der SePL und den darin enthaltenen meinungstragenden Phrasen ergeben sich Verbesserungen für lexikonbasierte Verfahren bei der Analyse von Meinungsäußerungen. Phrasen werden im Text häufig durch andere Wörter getrennt, wodurch eine Identifizierung der Phrasen erforderlich ist. Der Algorithmus für eine lexikonbasierte Meinungsanalyse wurde veröffentlicht [176]. Er basiert auf meinungstragenden Phrasen bestehend aus einem oder mehreren Wörtern. Da für einzelne Phrasen unterschiedliche Meinungswerte vorliegen, ist eine genauere Bewertung als mit bisherigen Ansätzen möglich. Dies ermöglicht, dass meinungstragende Phrasen aus dem Text extrahiert und anhand der in der SePL enthaltenen Einträge differenziert bewertet werden können. Bisherige Ansätze nutzen häufig einzelne meinungstragende Wörter. Der Meinungswert für beispielsweise eine Verneinung muss nicht anhand eines generellen Vorgehens erfolgen. In aktuellen Verfahren wird der Wert eines meinungstragenden Wortes bei Vorhandensein einer Verneinung bisher meist invertiert, was häufig falsche Ergebnisse liefert. Die Liste enthält im besten Fall sowohl einen Meinungswert für das einzelne Wort und seine Verneinung (z.B. „schön“ und „nicht schön“).
1.3 übersicht der hauptergebnisse 5
Ergebnis 3: Evaluierung der Anwendung der SePL
Der Algorithmus aus Ergebnis 2 wurde mit Rezensionen der Bewertungsplattform CiaoausdemBereichderAutomobilversicherunge valuiert.Dabei wurden wesentliche Fehlerquellen aufgezeigt [176], die entsprechende Verbesserungen ermöglichen. Weiterhin wurde mit der SePL eine Evaluation anhand eines Maschinenlernverfahrens auf Basis einer Support Vector Machine durchgeführt. Hierbei wurden verschiedene bestehende lexikalische Ressourcen mit der SePL verglichen sowie deren Einsatz in verschiedenen Domänen untersucht. Die Ergebnisse wurden in [115] veröffentlicht.
Ergebnis 4: Forschungsprojekt PoliTwi - Themenerkennung politischer Top-Themen
Mit dem Forschungsprojekt PoliTwi wurden einerseits die erforderlichen Daten von Twitter gesammelt. Andererseits werden der breiten Öffentlichkeit fortlaufend aktuelle politische Top-Themen über verschiedene Kanäle zur Verfügung gestellt. Für die Evaluation der angestrebten Verbesserungen im Bereich der Themenerkennung in Verbindung mit einer Meinungsanalyse liegen die erforderlichen Daten über einen Zeitraum von bisher drei Jahren aus der Domäne Politik vor. Auf Basis dieser Daten konnte die Themenerkennung durchgeführt werden. Die berechneten Themen wurden mit anderen Systemen wie Google Trends oder Tagesschau Meta verglichen (siehe Kapitel 5.3). Es konnte gezeigt werden, dass die Meinungsanalyse die Themenerkennung verbessern kann. Die Ergebnisse des Projekts wurden in [124] veröffentlicht. Der Öffentlichkeit und insbesondere Journalisten und Politikern wird zudem ein Service (u.a. anhand des Twitter-Kanals unter https://twitter.com/politwi) zur Verfügung gestellt, anhand dessen sie über aktuelle Top-Themen informiert werden. Nachrichtenportale wie FOCUS Online nutzten diesen Service bei ihrer Berichterstattung (siehe Kapitel 4.3.6.1). Die Top-Themen werden seit Mitte 2013 ermittelt und können zudem auf der Projektwebseite [119] abgerufen werden.
Ergebnis 5: Erweiterung lexikalischer Ressourcen auf Konzeptebene
Das noch junge Forschungsgebiet des Concept-level Sentiment Analysis versucht bisherige Ansätze der Meinungsanalyse dadurch zu verbessern, dass Meinungsäußerungen auf Konzeptebene analysiert werden. Eine Voraussetzung sind Listen meinungstragender Wörter, welche differenzierte Betrachtungen anhand unterschiedlicher Kontexte ermöglichen. Anhand der Top-Themen und deren Kontext wurde ein Vorgehen entwickelt, welches die Erstellung bzw. Ergänzung dieser Listen ermöglicht. Es wurde gezeigt, wie Meinungen in unterschiedlichen Kontexten differenziert bewertet werden und diese Information in lexikalischen Ressourcen aufgenommen werden können, was im Bereich der Concept-level Sentiment Analysis genutzt werden kann. Das Vorgehen wurde in [124] veröffentlicht.
Die Begegnung mit dem Nachbarn bleibt nahezu kommunikationsfrei, wenn man nur darauf achtet, dass die Zweige der Birke nicht über die Grenze zu ihm hinüberwachsen. Ist der Nachbar nicht mehr nur der Andere von nebenan und gegenüber, sondern tendenziell längst ein Fremder geworden? Haben Nachbarschaften wirklich ihren sozialen Verpflichtungscharakter weitgehend verloren? Der Kulturanthropologe begibt sich auf Spurensuche.
Der vorliegende Report beschäftigte sich mit den Qualifikationsstrukturen hessischer Unternehmen. Es wurde dabei deutlich, dass sich die Beschäftigung geringqualifizierter Arbeitnehmer auf vergleichsweise wenige Betriebe in Hessen konzentriert. In 30% der hessischen Unternehmen sind fast 80% aller Geringqualifizierten beschäftigt. Um den möglichen Einfluss der Qualifikationsstruktur auf betriebliche Entwicklungen aufzuzeigen, wurden drei Betriebsgruppen gebildet. Unterscheidungsmerkmal bildete der jeweilige Anteil der Gering qualifizierten an den Gesamtbeschäftigten des Unternehmens. Es zeigte sich, dass Betriebe mit geringem Qualifikationsniveau in den Bereichen Ausbildung, betriebliche Weiterbildung und Innovationen vergleichsweise geringe Aktivitäten aufweisen. Auf der anderen Seite hatten sie zwischen 2000 und 2001 das stärkste Beschäftigungswachstum und zeichnen sich auch in Bezug auf Ertragslage und Geschäftsentwicklung durch für diese Gruppe unerwartet gute Ergebnisse und Prognosen aus. Hierin stellen diese Betriebe eine recht homogene Gruppe dar, es gibt kaum Unternehmen, die ihre wirtschaftliche Situation als „sehr gut“ oder als „mangelhaft“ bezeichnen. Des weiteren gibt es bei den Unternehmen mit geringem Qualifikationsniveau eine nicht unerhebliche Anzahl offener Stellen, auch für geringqualifizierte Arbeitskräfte. Auch dies ist angesichts der Tatsache, dass Stellenbesetzungsprobleme in erster Linie unter dem Stichwort „Fachkräftemangel“ diskutiert werden, ein überraschendes Ergebnis.
Alle lebenden Organismen sind in der Lage, sich an den re-gelmäßigen Wechsel von Licht und Dunkelheit und den zeitli-che Veränderungen im Takt der Jahreszeiten anzupassen. Die-se Synchronisierung der Aktivitäts- und Ruhephasen, sowie von physiologischen Stoffwechselprozessen an die vorgegebe-nen tageszeitlichen und saisonalen Zyklen findet beim Säu-getier in der inneren Uhr im Nucleus Suprachiasmaticus (SCN) statt. Das Licht, als wichtigster Zeitgeber für die Synchronisation der inneren Uhr, findet Eingang zum SCN über die Retina und den retinohypothalamischen Trakt (RTH), der Glutamat als Neurotransmitter nutzt. Ist dieses System fehlerhaft, führt dies zu Störung der oben beschriebenen Anpassungsprozesse. Dies hat eine gestörte Homöostase des Organismus zu Folge, aus denen sich wiederum Veränderungen im Tag/Nacht- Rhythmus, Schlafstörungen und depressive Ver-stimmungen ergeben können. Die genannten Symptome decken sich mit den Frühsymptomen den neurodegenerativen Erkran-kung Morbus Parkinson.
Ziel der vorliegenden Arbeit war es, Störungen im photoneu-roendokrinen System, insbesondere Veränderungen in der Re-tina an den photosensitiven Ganglienzellen mit dem Photo-pigment Melanopsin und dem SCN bei transgene Mäuse mit dem humanen alpha-Synuclein zu untersuchen. Hierbei wurden transgene Mäuse mit dem gesunden humanen alpha-Synuclein (Wildtyp) und transgene Mäuse mit der für Parkinson spezi-fischen Mutation im alpha-Synuclein Ala53Thr (A53T) vergli-chen.
Die immunochemischen Untersuchungen an Retina und SCN zei-gen einen signifikanten Anstieg der alpha-Synuclein Immun-reaktion bei der A53T Maus im Vergleich zum Wildtyp.
Parallel dazu wurden Unterschiede in Bezug auf das Photo-pigment Melanopsin zwischen den beiden Gruppen untersucht. Melanopsin ist lichtsensitiv und trägt, durch Übermittlung der aktuellen Lichtverhältnisse über den retinohypothalami-schen Trakt zum SCN, zur Synchronisation der circadianen Rhythmik bei. Durch den in dieser Arbeit nachgewiesene Me-lanopsindefizit und des deutlich reduzierten Vglut2 im hy-pothalamischen Trakt der A53T Maus lässt sich die Hypothese ableiten, dass möglicherweise die Überexpression des mu-tierten alpha-Synuclein in der Retina einen Untergang von melanopsinhaltigen Ganglienzellen herbeiführt und dadurch die Synchronisation der inneren Uhr durch Licht gestört ist. Diese Hypothese wird durch die Aktivitätsprofile ge-stützt, die durch die Aufzeichnung der lokomotorischen Ak-tivität der Tiere erstellt wurden.
Da in beiden Gruppen unter Dauerdunkel (DD) ein endogener zirkadianer Rhythmus beobachtet werden konnte, lässt dies auf die Funktionstüchtigkeit der inneren Uhr im SCN schlie-ßen. Im anschließenden Versuch die endogene Rhythmik an exogenen Reize anzupassen, zeigte sich bei dem A53T Stamm eine fehlende Synchronisierung an vorgegebene Lichtverhält-nisse mit gesteigerter Tagaktivität und reduzierten Schlaf-phasen. Somit trägt der fehlerhaft verarbeitete Lichtreiz bei A53T Mutanten zur Destabilisierung des zirkadianen Rhythmus der Lokomotion bei. Trotz des gestörten glutama-tergen Signalweges im retinohypothalamischen Trakt konnten keine Unterschiede in der Expression der Homerproteine zwi-schen Wildtyp und A53T unter Standard-Photoperiode und nach Schlafdeprivation nachgewiesen werden.
Die vorliegenden Befunde liefern Erkenntnisse zur Entste-hung der Frühsymptome bei Morbus Parkinson. Dies könnte neue Ansatzpunkte für die Therapie und Linderung von Schlafstörungen sowie Veränderungen im Tag/Nachtrhythmus liefern.
Wohlfahrt, Wohlbefinden, Well-being oder Lebensqualität, es gibt eine Reihe von Begriffen, die als Maß für gesellschaftlichen Wohlstand diskutiert werden. Gemeinsam ist diesen Ansätzen der Versuch, von einer rein ökonomischen Messung der Wohlfahrt etc. - gemessen am Bruttoinlandsprodukt (BIP) – und hin zu einer ganzheitlichen oder zumindest breiteren Beschreibung des Wohlstands zu gelangen. In dieser Studie wird der Begriff Wellbeing dafür verwandt. Bisher erfolgt die Diskussion über dieses Thema überwiegend auf der Ebene von Nationalstaaten und mittels international vergleichender Untersuchungen. Auf regionaler oder lokaler Ebene sind breitere Ansätze zur Wohlstandsmessung bisher wenig(er) verbreitet, und das, obwohl die Bedeutung von Regionen in den vergangenen Jahren - trotz oder wegen Globalisierung und Internationalisierung - deutlich zugenommen hat. Aus regionalpolitischer Perspektive besteht hier eine "Wissenslücke", da viele Entscheidungen für das Wellbeing nicht auf nationaler, sondern auf regionaler Ebene getroffen werden. Hier knüpft die vorliegende Studie an. Ausgangspunkte sind zum einen die inzwischen verbreitete Kritik am Bruttoinlandsprodukt als zentralem Wohlstandsindikator und zum andern die, u.a. von der OECD vertretene Aussage, dass bei einem breiter definierten Wohlstandsbegriff auf regionaler/lokaler Ebene größere Unterschiede des Well-being bestehen als auf nationaler Ebene. Davon ausgehend richtet sich das Erkenntnisinteresse dieser Untersuchung darauf, das objektive Well-being kleinräumig zwischen und innerhalb von Regionen quantitativ zu messen und damit die Frage zu beantworten, welche inter- und intraregionalen Unterschiede dabei bestehen. Erfasst wird das objektive Well-being anhand von zehn Indikatoren für die Bereiche Wirtschaft, Gesellschaft, Umwelt, Region. Die Indikatoren und Bereiche basieren auf dem Konzept der Enquetekommission des Bundestages für „Wachstum, Wohlstand und Lebensqualität“. Deren Indikatoren wurden für die regionale Ebene teilweise modifiziert und ergänzt. Der Untersuchungszeitraum umfasst die Jahre 2000 bis 2011. Die Untersuchung erfolgte zum einen deskriptiv. Die Indikatoren wurden regionsvergleichend sowie für ausgewählte Regionstypen in dem betrachteten Zeitraum beschrieben. Damit lassen sich erste Erkenntnisse über regionale Unterschiede im Well-being gewinnen. Verglichen wurden exemplarisch die beiden Metropolregionen FrankfurtRheinMain und Stuttgart sowie intraregional die Städte und Kreise in diesen beiden Regionen. Zum andern wurde das inter- und intraregionale objektive Well-being anhand eines ganzheitlichen Index gemessen. Methodisch basiert diese Messung auf einem statistisch-ökonometrischen Verfahren (Structural Equation Modelling (SEM)). Mittels dieser Methode können die einzelnen Indikatoren hinsichtlich ihrer Bedeutung für das Well-being (ungleich) gewichtet und in einem einzigen Well-being-Index für die unterschiedlichen Regionsabgrenzungen erfasst werden. Bereits die deskriptiven Untersuchungsergebnisse bestätigen die Ausgangshypothese, wonach Unterschiede im regionalen Well-being zwischen und innerhalb der beiden Metropolregionen bestehen. Beim interregionalen Vergleich der Indikatoren bestehen bei den Einzelindikatoren teilweise deutliche Differenzen zwischen den Regionen. Gemessen an der Bewertung der einzelnen Indikatoren hat mal die Region Stuttgart, mal die Region FrankfurtRheinMain „die Nase vorn“. Der Verlauf der Indikatoren zeigt in beiden Regionen einen ähnlichen Entwicklungstrend.
Primäre Tumore werden nach ihrem Entstehungsort benannt. Selbst Metastasen zeigen eine gewisse Ähnlichkeit mit ihrem ursprünglichen Gewebe. Somit gehören alle Geschwülste, die ursprünglich der Harnblase entstammen, zu den Harnblasenkarzinomen.
Das Harnblasenkarzinom geht meist (90-95%) von der Schleimhaut der ableitenden Harnwege aus und wird als Urothel bezeichnet. Dementsprechend haben die meisten Patienten mit der Diagnose Blasenkarzinom ein Urothel-Blasenkarzinom. Die restlichen Blasenkarzinome entfallen auf Adenokarzinome, Plattenepithelkarzinome, kleinzellige Karzinome, Sarkome, Paragangliome, Melanome oder Lymphome (Humphrey A. et al. 2016, Moch H. et al 2016).
Die Urothel-Blasenkarzinome können sowohl flach, als auch warzenförmig wachsen. Je nach Diagnostik „oberflächlich“ oder „muskelinvasiv“ lassen sich die Urothel-Blasenkarzinome in zwei Hauptgruppen unterteilen;
Etwa 70% der Erkrankten haben dabei ein oberflächliches Urothel-Blasenkarzinom, das auf die Blasenschleimhaut begrenzt ist und durch eine Basistherapie, sog. Transurethrale Resektion (TUR-B) behandelt wird. Dabei werden die in der Schleimhaut gewachsenen Tumore getrennt reseziert. Therapieergänzend und/oder prophylaktisch wird die Blase danach mit einem Chemotherapeutikum gespült (intravesikale Instillation). Diese Zytostatika-Behandlung soll das Wiederauftreten eines Rezidivs verhindern bzw. eventuell verlangsamen (Iida K. et al. 2016, Celik O. et al. 2016).