Universitätspublikationen
Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (2840)
- Wissenschaftlicher Artikel (2192)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (2101)
- Buch (Monographie) (1972)
- Dissertation (1683)
- Rezension (914)
- Bericht (608)
- Arbeitspapier (440)
- Teil eines Buches (Kapitel) (195)
- Konferenzveröffentlichung (160)
Sprache
- Deutsch (13554) (entfernen)
Volltext vorhanden
- ja (13554) (entfernen)
Schlagworte
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (36)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institut
- Präsidium (4930)
- Medizin (1344)
- Gesellschaftswissenschaften (1058)
- Rechtswissenschaft (736)
- Neuere Philologien (634)
- Geschichtswissenschaften (629)
- Wirtschaftswissenschaften (627)
- Biochemie und Chemie (540)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (522)
- Kulturwissenschaften (463)
Eine neuere Entscheidung des Bundesgerichtshofs zu den Anforderungen an die Mitteilung nach § 20 AktG über die Mitteilung eines Beteiligungserwerbs2 gibt Anlass zu Überlegungen zu den Rechtsfolgen einer Verletzung von Mitteilungspflichten durch mittelbar beteiligte Gesellschafter.
Der Bundesgerichthof hat, ohne auf abweichende Ansichten einzugehen, die h.M.3 bestätigt, nach der bei Verletzungen einer Mitteilungspflicht durch ein herrschendes Unternehmen die Rechtsfolge des Rechtsverlustes das unmittelbar beteiligte Tochterunternehmen selbst dann trifft, wenn dieses seine eigene Mitteilungspflicht ordnungsgemäß erfüllt hat.4 Im Hinblick auf den (zeitweiligen) Verlust von Dividendenansprüchen, um die es in dem vom BGH entschiedenen Fall ging, dürfte die in der Sache entscheidende Erwägung sein, dass anderenfalls dem herrschenden Unternehmen die mittelbaren Folgen der Gewinnausschüttung auch dann erhalten blieben, wenn es den eigenen Verstoß gegen die Mitteilungspflicht und den daraus folgenden temporären Wegfall des Gewinnbezugsrechts kannte oder kennen musste.
Identifizierung des vertebraten-spezifischen Proteins C7orf43 als neue TRAPPII Komplexuntereinheit
(2016)
Bei den transport protein particle (TRAPP) Komplexen handelt es sich um eine Familie von Protein Komplexen, die jeweils aus mehreren Untereinheiten bestehen. In der vorliegenden Arbeit konnte das Protein C7orf43 als neue potenzielle TRAPPII Untereinheit identifiziert werden, die - wie auch die beiden anderen TRAPPII-spezifischen Komponenten TRAPPC9 und TRAPPC10 - sowohl für die Erhaltung von ERGIC, Golgi-Apparat und COPI Vesikel als für den ER zu Golgi Transportweg benötigt wird.
Das Internet ist allgegenwärtig - so allgegenwärtig, dass es inzwischen in gewissen Kreisen en vogue ist, sich ab und an komplett vom Internet abzukapseln. Passend zur vorösterlichen Zeit könnte man von Internetfasten sprechen. Aber was passiert, wenn das Internet einfach komplett abgestellt wird, für alle? Was für uns primär eine akademische Fragestellung ist, ist in Kamerun, Indien, Pakistan und vielen anderen Ländern Realität. Diese Beispiele verdeutlichen nicht nur wie Internetabschaltung ein Instrument sozialer und politischer Kontrolle sind, sie zeigen auch ihre dramatischen Auswirkungen. Das Thema sollte uns auch hier interessieren...
Das zwischenstaatliche Gewaltverbot steht im Zentrum der völkerrechtlichen Aufmerksamkeit. Auf bewaffnete Konflikte auf dem afrikanischen Kontinent trifft dies nur begrenzt zu. An dieses Defizit knüpft die Autorin ab der Zeitwende 1989/90 an. Dabei überschreitet sie die traditionellen Grenzen des Gewaltverbots und analysiert, inwieweit dies, v. a. durch die Fortentwicklung der Menschenrechtslehre, eine inhaltliche Änderungen erfahren hat, die auch die militärische Anwendung von Gewalt im Innern eines Staates ächtet (ius contra bellum internum). Ein weiterer Schwerpunkt sind Interventionen durch Regionalorganisation. Hierbei wird untersucht, ob multilaterale Interventionen schon dann gewohnheitsrechtliche Akzeptanz erfahren, wenn sie entweder formell oder materiell rechtmäßig sind. Zumindest solche, die durch den UN-Sicherheitsrat autorisiert sind, können diese sog. Baugenehmigungsthese für sich in Anspruch nehmen. Doch auch ohne UN-Mandat vermögen humanitäre Interventionen regionaler Organisationen in engen Grenzen völkerrechtmäßig sein.
Der bisher in Deutschland sehr selten gemeldete Neophyt Phedimus stolonifer wurde im Jahr 2015 in Frankfurt am Main anscheinend erstmals für Hessen nachgewiesen. Das individuenreiche Vorkommen längs eines Bachlaufes wird beschrieben. Eine Einbürgerung kann aufgrund der kurzen Beobachtungsdauer bislang nicht konstatiert werden.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
Bartonella Adhäsin A (BadA), das zur Gruppe der TAAs gehört, ist ein essentieller Pathogenitätsfaktor von B. henselae und übernimmt während des Infektionsverlaufs wichtige Funktion wie Autoagglutination, Adhärenz an ECM-Proteine und Endothelzellen. BadA weist die für die für die Proteinklasse der TAAs charakteristische modulare Architektur bestehend aus N-terminaler Kopf-Domäne, Stiel-Domäne, Hals-Domäne und C-terminaler Membrananker-Domäne auf. Der modulare Aufbau des Proteins deutet daraufhin, dass bestimmte Domänen mit bestimmten biologischen Funktionen des Proteins verknüpft sind. Zur Untersuchung dieser Hypothese wurden Deletionsmutanten des BadA generiert.
Die Generierung weiterer BadA-Deletionsmutanten wird durch das langsame Wachstum des Erregers und die geringe Auswahl an molekularbiologischen Werkzeugen zur genetischen Manipulation von B. henselae erschwert. Daher sollte in ersten Teil dieser Arbeit ein Expressionsmodell für Deletionsmutanten des BadA etabliert und charakterisiert werden. Dies sollte am Beispiel des trunkierten BadA, BadA HN23, durchgeführt werden. Hierzu sollten drei Hybrid-Varianten des BadA HN23 erstellt werden: (i) Austausch der BadA-Signalsequenz gegen die E. coli OmpA-Signalsequenz, (ii) Austausch der BadA-Membrananker-Domäne gegen die YadA-Membrananker-Domäne sowie (iii) Austausch von sowohl der BadA-Signalsequenz als auch der BadA-Membrananker-Domäne gegen die bereits genannten Elemente. Danach sollten die konstruierten BadA HN23 Hybride und das BadA HN23 in induzierbare Expressionsvektoren kloniert und spezielle E. coli-Expressionsstämme mit diesen Plasmiden transformiert werden. Bei erfolgreicher Expression sollten die optimalen Bedingungen für die Expression (Temperatur, Induktorkonzentration) ermittelt werden und an-schließend die biologische Funktion der heterolog exprimierten BadA HN23 Hybride überprüft werden.
Der erste Abschnitt der hier vorliegenden Arbeit zeigte folgende Ergebnisse:
1) Die beschrieben BadA HN23 Hybrid Konstrukte wurden durch Austausch von: (i) BadA-Signalsequenz gegen E. coli OmpA-Signalsequenz im BadA HN23,
(ii) BadA-Membrananker-Domäne gegen YadA-Membrananker-Domäne im BadA HN23 und
(iii) Austausch von BadA-Signalsequenz und BadA-Membrananker-Domäne gegen E. coli OmpA-Signalsequenz und YadA-Membrananker-Domäne im BadA HN23 generiert.
Die BadA HN23 Hybride und BadA HN23 wurden in Expressionsvektoren kloniert und E. coli Omp2, E. coli Omp8 und E. coli Omp8ΔdegP transformiert.
2) Alle BadA HN23 Hybrid-Konstrukte und BadA HN23 lagen in einer monomeren und trimeren Form vor.
3) Durch IFT und - Durchflusszytometrie-Untersuchungen wurde die Oberflächenexpression der einzelnen Konstrukte quantifiziert. Es zeigte sich, dass es deutliche Unterschiede in der Menge des auf der Zelloberfläche befindlichen jeweiligen BadA HN23 Proteins gab. Dabei wiesen die Konstrukte, die die YadA-Membrananker-Domäne besaßen (BadA HN23 Hybrid 2 und 3), die stärkste Oberflächenexpression auf.
4) Die biologische Funktion des BadA HN23 wurde mittels des E. coli Omp2 BadA HN23 Hybrid 3 charakterisiert. Heterolog exprimiertes BadA HN23 vermittelt Autoagglutination, die Adhärenz des Expressionsstammes an Kollagen G und Endothelzellen.
5) Die Expression des BadA HN23 führt zur signifikant verstärkten in-vivo-Pathogenität im Galleria mellonella-Infektionsmodell.
6) Das E. coli-Expressionsmodell lieferte keine Aussage über eventuelle immunodominate Funktionen des heterolog exprimierten BadA HN23, da auch mit im IFT als anti- B. henselae negativ eingestuften Patientenseren im WB ein BadA HN23 spezifisches Bandensignal detektiert wurde. Dot Blot-Experimente ermöglichten ebenfalls keine Aussage über eventuelle immunodominate Funktion des nativen BadA HN23, da das verwendete anti-B. henselae-positive Patientenserum unspezifische Reaktion gegenüber dem Kontrollstamm zeigte.
Für verschiedene TAAs ist beschrieben worden, dass sie die Serumresistenz der exprimierenden Spezies vermitteln. Daher sollte im zweiten Teil dieser Arbeit der Einfluss von BadA auf eventuelle Serumresistenz zweier B. henselae-Isolate untersucht werden. Dieser Teil lieferte folgende Ergebnisse:
1) B. henselae zeigte Sensitivität gegenüber normalem humanem Serum.
2) Sowohl BadA-positive als auch BadA-negative B. henselae-Isolate können Komplementinhibitoren wie Faktor H binden. Die dabei gebundene Menge ist relativ klein.
Die Expression von Deletionsmutanten des BadA in E. coli ist ein vielversprechendes Modell zur Analyse der Domänen-Funktionsbeziehung des BadA, da die meisten biologischen Funktionen einer homolog exprimierten BadA-Deletionsmutante reproduziert werden konnten und es sich bei E. coli um ein schnell wachsendes Bakterium, das sich leicht genetisch manipulieren lässt, handelt. Allerdings stellt das zytotoxische LPS des E. coli sowie das schnelle Wachstums der Bakterien eine Limitation des Expressionssystems dar, indem es Untersuchungen zum Einfluss der jeweiligen BadA-Deletionsmutante auf die Induktion der proangiogenetischen Wirtszellantwort verhindert oder Untersuchungen zum Einfluss der jeweiligen BadA-Deletionsmutante auf die Adhärenz an Endothelzellen deutlich erschwert. Außerdem kann eine mögliche Interaktion zwischen BadA bzw. BadA-Deletionsmutanten und dem TIVSS und zwischen BadA bzw. BadA-Deletionsmutanten und weiteren Adhäsinen (wie z.B. dem FHA) mit Hilfe dieses Expressionssystems nicht untersucht werden. Dies wäre nur im B. henselae Wildtyp-Stamm möglich.
Weltweit sind ca. 130–180 Millionen Menschen mit HCV infiziert und jährlich sterben etwa 500.000 Menschen an dessen Folgen. Die neuartigen Therapien versprechen zwar eine sehr hohe Heilungsrate, sind aber aufgrund ihrer enorm hohen Kosten nur in Industrieländern verfügbar. Noch immer gibt es keine prophylaktische Vakzinierung gegen HCV. Deshalb ist es wichtig, den HCV-Lebenszyklus und die Interaktion zwischen Wirtszelle und Virus detailliert zu verstehen, um die Entwicklung von Therapien und Impfungen zu ermöglichen. Außerdem kann ein fundiertes Wissen von HCV translatiert werden und auf neuartige Erreger der Familie der Flaviviridae, wie Denguevirus und Zikavirus, angewendet werden. Während der Zelleintritt und die Replikation von HCV relativ gut charakterisiert sind, bleiben die Assemblierung und Freisetzung der viralen Partikel schlecht verstandene Schritte des HCV-Lebenszyklus. In dieser Arbeit sollte die Rolle des zellulären Proteins α-Taxilin im Lebenszyklus von HCV untersucht werden. In einer späteren Phase der Arbeit wurde der endosomale Freisetzungsweg von HCV untersucht. Dazu wurden HCV Varianten generiert und charakterisiert, die Fluoreszenz-Proteine im NS5A- und E1-Protein enthalten, durch die es möglich ist, den Replikationskomplex und die Viruspartikel zu visualisieren und zu quantifizieren und den viralen Lebenszyklus dadurch besser untersuchen zu können...
Im Rahmen dieser Arbeit wurden Anaylsenmethoden zur Quantifizierung von Ceramiden und Prostanoiden in verschiedenen biologischen Matrices unter Verwendung von Nano-LC gekoppelt mit Tandemmassenspektrometrie entwickelt und bei diversen biologischen Fragestellungen angewendet.
Die analytische Methode zu Quantifizierung der Ceramide ermöglichte deren Bestimmung in einem Probenvolumen von 2 μL CSF. Diese neu entwickelte Methode ist die erste publizierte Nano-LC-MS/MS-Methode zur Quantifizierung der Ceramide in biologischen Proben, gleichzeitig ist es auch diejenige analytische Methode mit der höchsten Empfindlichkeit [171]. Die beschriebene Methode umfasste die Substanzen C8:0, C16:0, C18:1, C18:0, C20:0, C24:1 und C24:0 Ceramid, als interner Standard wurde C17:0 Ce-ramid verwendet. Die Probenaufarbeitung bestand in einer einfachen Proteinfällung und Verdünnung mit Methanol, die chromatografische Trennung der Analyten erfolgte mit einer RP-C8 Säule unter Verwendung eines Gradientenprogramms. Die Methode wurde anhand von FDA-Richtlinien bezüglich Linearität, Bestimmungsgrenze, Präzision, Richtigkeit und Autosampler-Stabilität validiert. Die erreichten Bestimmungsgrenzen betrugen 0,225 pg auf der Säule (2,25 pg/μL CSF) für alle Ceramide außer C24:0 Ceramid, für das der Wert von 0,75 pg auf der Säule (7,5 pg/μL CSF) ermittelt wurde. Mit der durchgeführten Validierung wurde die Zuverlässigkeit der Methode für die Quantifizierung der Ceramide in CSF gezeigt. Mit einem Standardadditionsexperiment konnte belegt werden, dass PBS als Ersatzmatrix für CSF geeignet ist und somit die Ergebnisse der Validierung mit dotierten PBS-Proben auf CSF-Proben übertragbar sind. Das entwickelte Verfahren wurde für die Quantifizierung der Analyten in murinen CSF-Proben im Rahmen eines Projekts zur Erforschung der Rolle der Ceramide bei Multipler Sklerose angewendet. Anhand der Ergebnisse wurde die Hypothese bestätigt, dass die Konzentration von C16:0 Ceramid in CSF von EAE-Mäusen erhöht ist.
Die zweite entwickelte Nano-LC-MS/MS-Methode ermöglichte die Quantifizierung der Prostanoide PGE2, PGD2, 6-keto PGF1α, PGF2α und TXB2 in einer geringen Anzahl Immunzellen. Für eine erfolgreiche Bestimmung der Analyt-Konzentrationen waren nur 5.000 T-Zellen oder 40.000 Mastzellen erforderlich. Damit ist die beschriebene Methode geeignet für die Quantifizierung in Zellen, die durch Isolation aus tierischen Geweben oder Organen erhalten werden, ohne dass das Vereinigen mehrerer Proben erforderlich ist. Durch die Messung dieser bestimmten Zellpopulationen kann, im Unterschied zur Vermessung des gesamten Organs, eine differenziertere Analyse der Lokalisation der gemessenen Analyten erfolgen. Mittels der entwickelten Methode konnten die Prostanoide PGE2, PGD2, 6-keto PGF1α, PGF2α und TXB2 quantifiziert werden. Als interner Standard stand für jedes dieser Prostanoide ein vierfach deuteriertes Strukturanalogon zur Verfügung. Die Aufarbeitung der Immunzell-Proben erfolgte durch Flüssig-Flüssig-Extraktion mit Ethylacetat, die Chromatografie wurde mit einer RP-C8-Säule und einem Gradientenprogramm durchgeführt. Eine Validierung erfolgte für die Quantifizierung in T-Lymphozyten und Mastzellen für die Parameter Linearität, Bestimmungsgrenze, Präzision, Richtigkeit, Wiederfindung, Selektivität und Stabilität. Auch ein Standardadditionsexperiment mit beiden Matrices wurde durchgeführt. Die Bestimmungsgrenzen betrugen 75 fg auf der Säule für PGE2 und PGD2 sowie 112,5 fg für 6-keto PGF1α, PGF2α und TXB2, damit zeichnet sich die Methode durch höchste Empfindlichkeit aus. Die Me-thode wurde zur Messung der Prostanoid-Konzentration in T-Zellen, die im Rahmen eines Kontaktallergie-Modells aus dem Blut von unterschiedlich behandelten Mäusen isoliert worden waren, angewendet. Es konnte kein Unterschied in den Prostanoid-Konzentrationen in den T-Zellen sensibilisierter und nicht-sensibilisierter bzw. provozierter und nicht-provozierter Mäuse festgestellt werden. Bei einer zweiten Anwendung wurden die Prostanoide in murinen Mastzellen, die nach Zymosan-Injektion in die Hinterpfote zu verschiedenen Zeitpunkten nach dem Auslösen der Entzündung aus dem entstandenen Ödem isoliert worden waren, gemessen. Zusätzlich für diese Anwendung wurden einige Leukotriene in die Methode integriert. Es wurde festgestellt, dass die Konzentrationen von PGE2, PGD2 und PGF2α in Mastzellen nach der Injektion von Zymosan-Injektion ansteigen, wobei die gemessenen Konzentrationen für PGE2 48 Stunden nach der Injektion verglichen mit denen nach 24 Stunden, bezogen auf die anderen beiden Prostaglandine, am stärksten ansteigen. Außerdem wurde mittels der für die Immunzellen entwickelten Methode die Prostanoide in murinem Urin, humanem Plasma und humaner Tränenflüssigkeit quantifiziert.
Zusammenfassend ermöglichen die entwickelten Methoden die Analyse geringer Ana-lytkonzentrationen in sehr kleinen Probenmengen und damit eine Reduktion von Versuchstierzahlen und Kosten.
Prognostische Faktoren und das Outcome von Patienten mit einem primären Glioblastom sind in der Fachliteratur gut beschrieben. Im Gegensatz dazu gibt es wenige vergleichbare Informationen zu Patienten mit einem sekundären Glioblastom. Das Ziel dieser Arbeit war es, das Outcome von Patienten mit einem sekundären Glioblastom zu beurteilen und prognostische Faktoren in Be-zug auf das Gesamtüberleben zu identifizieren.
Dazu wurde die interne Datenbank des Universitätsklinikums Frankfurt/Main von Patienten mit Hirntumoren retrospektiv nach klinischen Daten durchsucht. Alle Patienten hatten ein histologisch gesichertes WHO Grad II oder III Gliom und anschließend ein WHO Grad IV sekundäres Glioblastom. Paraffiniertes Hirntumorgewebe wurde auf Mutationen der Isocitrat Dehydrogenase-1 (IDH1) mittels einer immunhistochemischen Färbung mit einem R132H (clone H09) spezifischen Antikörper untersucht. Eine uni- und multivariate statistische Analyse wurde durchgeführt, um Faktoren zu ermitteln, die potentiell das Gesamt-überleben beeinflussen könnten.
Es wurden 45 Patienten mit einem histologisch gesicherten sekundären Glioblastom untersucht. Das mediane Alter betrug 41 Jahre. 14 Patienten unterzogen sich einer radiologisch kompletten Resektion des sekundären Glioblastoms, 31 Patienten wurden subtotal reseziert oder biopsiert. Initial ist bei 37 Patienten ein astrozytärer Tumor nachgewiesen worden und die restlichen Patienten litten an Oligodendrogliomen oder gemischten Gliomen; bei der initialen Diagnose wurden 17 WHO Grad II und 28 WHO Grad III Tumoren fest-gestellt. Die mediane Zeit zwischen Ursprungstumor und dem Auftreten des sekundären Glioblastoms betrug 158,9 Wochen. Das mediane Gesamtüberleben betrug 445 Tage nach der Diagnose eines sekundären Glioblastoms. Mutationen des IDH1 (R132H) Proteins wurden bei 24 Patienten festgestellt und fehlten bei 17 Patienten; bei 4 Patienten konnte keine IDH1 immunhistochemische Färbung durchgeführt werden.
In der univariaten Analyse konnte der Zeitraum zwischen initialer Läsion und dem Progress zu einem sekundären Glioblastom als statistisch signifikanter Einflussfaktor identifiziert werden- Patienten mit einem Zeitraum von mehr als 2 Jahren hatten ein besseres Gesamtüberleben (460 vs. 327 Tage, p = 0,011). Außerdem konnte bei Patienten, die eine kombinierte Radiochemotherapie bekamen, ein besseres Gesamtüberleben nachgewiesen werden als bei Patienten, welche ausschließlich eine Therapieform erhielten (611 vs. 380 Tage, p < 0,001). Weiterhin konnten ein WHO Grad II Ursprungstumor (472 vs. 421 Tage, p = 0,05) und eine Frontalllappenlokalisation des Glioblastoms (472 vs. 425 Ta-ge, p = 0,031) das Überleben steigern.
In der multivariaten Analyse konnte gezeigt werden, dass die Mutation des IDH1 (R132H) Proteins in statistisch signifikanter Weise mit einem längeren Gesamtüberleben assoziiert war (p = 0,012); statistische Signifikanz für ein län-geres Gesamtüberleben bei Patienten mit initial einem WHO Grad II (p = 0,047) und einer Frontallappenlokalisation des Glioblastoms (p = 0,042) stellte sich auch ein. In Bezug auf die Patienten spezifischen Daten wurden zwei Prognosegruppen erstellt; Patienten in der guten Prognosegruppe scheinen einen Benefit von einer totalen Tumorresektion zu haben (p = 0,02), während eine Resektion für die andere Prognosegruppe keine große Rolle spielte (p = 0,926).
Trotz des relativ geringen Erkrankungsalters haben sekundäre Glioblastom Patienten eine schlechte Prognose. Die Ergebnisse dieser Arbeit unterstreichen die Wichtigkeit und den prognostischen Wert der IDH1 Diagnostik, die Notwendigkeit einer kombinierten Radiochemotherapie und eine Risikostratifizierung für eine Prognoseabschätzung anhand der Patienten spezifischen Einflussfaktoren.
In dieser Arbeit wurde YM155 anhand eines Neuroblastom-Zellmodells bezüglich seiner antitumoralen Wirkung, sowie möglicher Resistenzmechanismen untersucht. Mit Hilfe eines Viabilitäts-‚Screenings‘ wurde eine Auswahl von 113 chemosensitiven und chemoresistenten Neuroblastomzellen auf mögliche Kreuzresistenzen gegen YM155 untersucht. Hinsichtlich der IC50 Werte gegen YM155, lagen insgesamt 74 % der untersuchten Zelllinien im therapeutisch erreichbaren Bereich von unter 50 nM. Zusätzlich wurden Neuroblastom-, Mammakarzinom- und Prostatakarzinomzellen an eine klinisch relevante YM155 Konzentration adaptiert. Diese zeigten wiederum, dass durch die Adaptierung hervorgerufene Expressionsänderung des ABC-Transporters ABCB1 und des ‚solute carrier‘ Protein SLC35F2 eine bedeutsame Rolle hinsichtlich des Resistenzmechanismus gegen YM155 spielen. Durch den Einsatz von spezifischen ABCB1-Inhibitoren, als auch durch siRNA-vermittelte Reduzierung von ABCB1 konnte eine Abhängigkeit für die Wirksamkeit YM155 von ABCB1 in Neuroblastomzellen bestätigt werden. Des Weiteren wurde in den untersuchten Zelllinien ein Zusammenhang zwischen der Wirkung von YM155 und der Expression des ‚solute carrier‘ Proteins SLC35F2 hergestellt. Dazu wurden Zellen mit verminderter SLC35F2 Expression verwendet, welche durch Transduktion mit einem für eine SLC35F2 spezifische shRNA kodierenden Vektor etabliert wurden. Dabei führte eine verminderte SLC35F2 Expression zu einer starken Minderung der Sensitivität gegen YM155. Das Zusammenspiel dieser beiden Transporter und der damit verbundene Resistenzmechanismus gegen YM155, konnte in fast allen etablierten YM155-resistenten Zelllinien (UKF-NB-3rYM15520, 22RV1rYM155300, PC-3rYM15520, HCC-1806rYM15520 und MDA-MB-231rYM15520) gezeigt werden. Wobei diese Zellen unabhängig von der Tumorentität als Resistenzmechanismus gegen YM155 entweder eine signifikant induzierte ABCB1 Expression (verstärkter YM155 Efflux) und/oder eine verminderte SLC35F2 Expression (verringerter YM155 Influx) entwickelten. Außerdem konnte mit Hilfe der p53-depletierten Zelllinie UKF-NB-3pc-p53 eine Abhängigkeit der YM155 Wirkung vom Tumorsuppressor p53 nachgewiesen werden, wobei es durch die Depletierung von p53 zu einer verminderten Sensitivität der Zellen gegen YM155 kam. Zudem kam es durch die Nutlin-3 hervorgerufene p53 Aktivierung und Akkumulierung zu einer Verstärkung der YM155 Wirkung in den untersuchten Zellen. Diese Ergebnisse deuten darauf hin, dass der p53 Status von Zellen einen Einfluss auf deren YM155 Resistenz haben kann. Da in der Behandlung von Neuroblastomen neben der Chemotherapie auch Bestrahlung eingesetzt wird, wurde zusätzlich untersucht ob eine Adaptierung von Neuroblastomzellen an YM155 zu einer verminderten Sensitivität gegen Bestrahlung führen kann. Da die im Rahmen dieser Arbeit untersuchten UKF-NB-3 Zelllinien (UKF-NB-3 und UKF-NB-3rYM15520) eine ähnliche Sensitivität gegenüber der Bestrahlung aufwiesen, konnte kein Zusammenhang zwischen einer Adaptierung an YM155 und der Ausbildung einer Bestrahlungsresistenz gezeigt werden.
Ein weiterer wichtiger Teil dieser Arbeit war es, den primären Wirkmechanismus von YM155 in Neuroblastomzellen zu untersuchen. In vorangegangenen Studien wurde die vom Hersteller beschriebene Wirkung von YM155 als Survivin-Inhibitor in Frage gestellt. Stattdessen soll der primäre Apoptose-induzierende Effekt in erster Linie durch DNA-Schäden hervorgerufen werden, während die Survivin Inhibierung lediglich darauf folgen soll. In einer zeitlichen und konzentrationsabhängigen Kinetik der YM155 Behandlung konnte in UKF-NB-3 Zellen der genaue Zeitpunkt der Survivin-Inhibierung und der Induktion der DNA-Schadensantwort ermittelt werden. Dabei konnte in der vorliegenden Arbeit gezeigt werden, dass in Neuroblastomzellen als Antwort auf die YM155 Behandlung zuerst eine Survivin-Inhibierung erfolgt, und die DNA-Schadensantwort als Folge dieser induziert wird. Darüber hinaus belegte die siRNA-vermittelte Survivin-Inhibierung in UKF-NB-3 und UKF-NB-6, dass eine fehlende Survivin Expression die DNA-Schadensantwort induziert.
Zusammenfassend konnte in dieser Arbeit erstmals in YM155 adaptierten Neuroblastomzellen der Resistenzmechanismus gegen YM155 näher untersucht werden und darüber hinaus wurde demonstriert, dass die Wirkung von YM155 in Neuroblastomzellen nicht auf die Induktion der DNA-Schadensantwort beruht, sondern primär auf die Survivin-Inhibierung zurückzuführen ist.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
Das Ziel dieser Arbeit ist die Entwicklung von neuen, experimentellen Ansätzen zur Thematisierung von Siliciumverbindungen im Chemieunterricht, die einen deutlichen lebensweltlichen Bezug aufweisen und moderne Entwicklungen berücksichtigen.
Die Bandbreite der Siliciumverbindungen reicht von den Silicaten im Bereich der Anorganik über elementares Silicium bis hin zu den polymeren Siliconen im Grenzbereich zu der Organik. Diese
große Vielfalt an Verbindungen hat eine Vielzahl von Anwendungen in tagtäglichen Produkten zur Folge. Dies sind einerseits relativ bekannte anorganische Baustoffe, wie Zement oder Sand, die schon seit der Antike von der Menschheit genutzt werden. Andererseits werden kontinuierlich neue Anwendungsmöglichkeiten in Alltag und Industrie für Siliciumverbindungen entwickelt, die in der modernen Lebenswelt der SchülerInnen einen festen Platz haben.
Oft ist das Vorhandensein der Siliciumverbindung gar nicht auf den ersten Blick erkennbar, obwohl sie die Eigenschaften eines Alltagsprodukts maßgeblich beeinflussen kann. Dies ist beispielsweise bei Silica-Verbindungen in der Zahncreme der Fall.
Im Chemieunterricht werden, wenn überhaupt, die „traditionellen“ Verwendungszwecke, wie in der Baustoffchemie, thematisiert, weniger dagegen die Funktion von Siliciumverbindungen in innovativen Produkten neueren Datums. Nur zögerlich werden Ansätze zur Thematisierung von Verbindungen, wie Siliconen, im Chemieunterricht etabliert.
Im Rahmen dieser Forschungsarbeit wurden daher auf der Grundlage einer fachdidaktischen Analyse und Diskussion Experimente zu ausgewählten Siliciumverbindungen entwickelt. Dies sind die Silicone, die Silica-Verbindungen und elementares Silicium. Die Experimente lassen sich größtenteils in der Sekundarstufe II in Anlehnung an verbindlich im Lehrplan thematisierte Inhalte in den Unterricht einbinden. Einige Experimente können nach einer angemessenen didaktischen Reduktion auch bereits in der Sekundarstufe I eingesetzt werden.
Die im Rahmen dieser Arbeit entwickelten Experimente wurden von LehrerInnen und SchülerInnen gleichermaßen erprobt. Es wurden Rückmeldungen zur Versuchen und Versuchsvorschriften eingeholt. Die Ergebnisse der Auswertung wurden zur Optimierung herangezogen.
Die vorliegende Arbeit beschäftigt sich mit der vergleichenden funktionalen Charakterisierung der E.coli Transporter LacY, FucP und XylE und des Glucose-Transporters GlcP aus Staphylococcus epidermidis sowie funktionsrelevanter Mutanten. Sie katalysieren in vivo den PMF-gekoppelten Zuckertransport und repräsentieren die major facilitator superfamily (MFS), einer der größten Transporter-Familien überhaupt. Die Studien wurden mithilfe einer elektrophysiologischen Methode auf Basis Festkörper-unterstützter Membranen (SSM) durchgeführt. Komplementär dazu wurden radioaktive Transportassays, fluorometrische Messungen, kinetische Simulationen und theoretische Berechnungen auf Basis der 3D-Strukturen durchgeführt. Experimentell bestimmte Zucker- und pH-Abhängigkeiten elektrogener steady-state und pre steady-state Reaktionen wurden verwendet, um ein allgemeingültiges kinetisches Modell aufzustellen.
Insgesamt konnten bei allen Transportern zwei elementare elektrogene Reaktionen identifiziert werden. Eine schnelle Zucker-induzierte Konformationsänderung wurde dem induced fit des Zuckermoleküls zugeordnet. Die Elektrogenität im steady-state wird dagegen durch den langsamen Transfer der negativ geladenen Protonenbindestelle bestimmt. Die für den Symport ratenlimitierende Reaktion ist abhängig von den äußeren Bedingungen wie pH-Werten, Zuckerkonzentrationen, Substrat-Spezies und Membranpotential meist die Konformationsänderung des leeren (P) oder des beladenen (PSH) Carriers, welche die Substratbindestellen im Zuge des Alternating Access über die Membran transferieren. Ein Wechsel zwischen hohen Protonenbindungs-pK-Werten und niedrigen Protonenfreisetzungs-pK-Werten durch weitere lokale Konformationsänderungen ist zentraler Bestandteil des Transportmechanismus. Ein weiterer wichtiger Aspekt ist die Kopplung zwischen Zucker- und Protonen-Translokation, die sich zwischen E.coli Transportern und GlcP strikt unterscheidet. In E.coli Transportern erfolgt eine kooperative Bindung von Zucker und Proton. Zudem erfolgt keine Konformationsänderung im Zucker-gebundenen, unprotonierten Carrier (PS). In GlcP ist die Kopplung erheblich reduziert. Der Transport-Modus selbst ist abhängig von den äußeren Bedingungen. So katalysiert GlcP abhängig vom pH-Gradienten Uniport, Symport oder Antiport.
Die vorliegende Arbeit leistet einen wichtigen Beitrag zum Verständnis des PMF-gekoppelten Zuckertransports und zeigt die Grenzen des für LacY formulierten 6-Zustands-Modells mit nur zwei Konformationsänderungen auf. Ein erweitertes 8-Zustands-Modell mit vier Konformationsänderungen, die unterschiedliche Ratenkonstanten aufweisen können, erklärt sowohl Symport, Antiport als auch Uniport und berücksichtigt zudem die zahlreichen Ergebnisse für LacY aus der Literatur.
Die Berichterstattung über den Nahostkonflikt gehört seit Jahrzehnten zum Standardrepertoire der Nachrichten. Hierzulande hat fast jeder eine Meinung zum israelisch-arabischen Konflikt, doch wenige verstehen, um was es den Konfliktparteien eigentlich geht, was in bisherigen Verhandlungen erreicht worden ist und wo genau die Hürden für eine Konfliktregelung liegen. Dieses Buch liefert eine kompakte und zugleich anschauliche und detaillierte Analyse des Konflikts zwischen Israel und seinen arabischen Nachbarn. Dabei stehen die lokalen und regionalen Akteure im Mittelpunkt. Um die Konfliktdynamiken zu erklären, geht das Buch vor allem auf die konkurrierenden Interessen und Narrative der Konfliktparteien sowie ihre Wechselwirkungen ein.
GOeTHEO : Ausgabe 15
(2016)
Der urheberrechtlich konnotierte Begriff des Plagiats zählt zu den anerkannten Grundtatbeständen wissenschaftlichen Fehlverhaltens. Der Beitrag zeigt indes, dass das Urheberrecht und das Wissenschaftsrecht keine konzentrischen Kreise bilden, sondern unterschiedliche Zwecke mit je anderen Regelungskonzepten verfolgen. Die Übernahme urheberrechtlicher Argumentationsmuster in die Wissenschaftsethik und das Wissenschaftsrecht erschwert die Herausbildung spezifisch wissenschaftsbezogener Kriterien zur Beurteilung wissenschaftlichen Fehlverhaltens. Als Alternative entwickelt der Beitrag ein Konzept wissenschaftlicher Redlichkeit, das sich am Recht gegen unlauteren Wettbewerb orientiert. Dazu werden weitreichende teleologische und strukturelle Gemeinsamkeiten des Lauterkeitsrechts und der Regeln zu wissenschaftlichem Fehlverhalten aufgedeckt. Insbesondere verfolgen beide Materien eine funktionale Teleologie. Das Lauterkeitsrecht gewährleistet die Funktionsbedingungen des wirtschaftlichen Wettbewerbs, das Verbot wissenschaftlichen Fehlverhaltens sichert die Funktionsbedingungen und damit zugleich den Zielerreichungsgrad des offenen Wissenschaftsprozesses und des Wettbewerbs um wissenschaftliche Reputation.
Die Geschichte des Urheberrechts ist die Geschichte seiner Expansion. In diesem Beitrag wird die Expansionsgeschichte des Urheberrechts, in der das Urheberrechtsgesetz 1965 letztlich nur eine, wenn auch wichtige Episode darstellt, in Anlehnung an Thesen des 1944 erschienenen, wirtschaftssoziologischen Klassikers „The Great Transformation. Politische und ökonomische Ursprünge von Gesellschaften und Wirtschaftssystemen“ von Karl Polanyi gedeutet. Im Zentrum steht dabei der Gedanke, dass in einer Informationsgesellschaft, deren Wirtschaft auf Märkten und Wettbewerb beruht, alle neuen Technologien und hiermit verknüpften immateriellen Leistungsergebnisse über Ausschließlichkeitsrechte zugeordnet werden müssen, damit gewährleistet ist, dass alle relevanten In- und Outputfaktoren handelbar sind, so dass ihre jeweiligen Erzeuger marktbasierte Einkünfte erzielen können. Der Aufsatz erläutert, dass sich diese Kommodifizierungslogik in der jüngeren deutschen Urheberrechtsgeschichte nachweisen lässt. Auf die soziologische und rechtliche Relevanz der entgegengesetzten Zugangsnorm wird im Schlussteil hingewiesen.
Das idiopathische Parkinsonsyndrom (IPS) wurde durch James Parkinson im Jahr 18171 vornehmlich als neurologische Bewegungsstörung beschrieben. Durch die Verdienste umfassender Forschung und klinischer Diagnostik der letzten Jahrzehnte wird das IPS heute als Syndrom aufgefasst, das neben motorischen auch durch neuropsychiatrische, vegetative und sensible Symptome charakterisiert ist. Eines dieser sogenannten „nicht-motorischen Symptome“ bildet die (milde) kognitive Beeinträchtigung, die jeden vierten nicht-dementen Parkinsonpatienten betrifft2 und die im oft langjährigen Krankheitsverlauf in eine Parkinsondemenz münden kann, an der 8 Jahre nach Krankheitsbeginn bis zu 78% der Parkinsonpatienten leiden.3 Durch die steigende Lebenserwartung der Patienten und die besseren Therapieoptionen der motorischen Komponente eines IPS finden derzeit gerade die nicht-motorischen Symptome sowohl in der Forschung als auch der Klinik zunehmend stärkere Beachtung.
Die motorische Symptomatik des IPS wird vorrangig durch die Degeneration dopaminerger Neuronen in bestimmten Strukturen des Hirnstamms hervorgerufen.4 Die Entwicklung kognitiver Symptome ist komplexer und umfasst vermutlich neben der (genannten) dopaminergen Degeneration die Beeinträchtigung weiterer Neurotransmitter sowie degenerative Prozesse an anderer Stelle des ZNS.5 Insbesondere die Atrophie von frontalem, parietalem und (medio-) temporalem Cortex scheint mit der Parkinsondemenz assoziiert.6–8 Auch gleichzeitig auftretende histopathologische Prozesse, die für die Alzheimer-Demenz charakteristisch sind, werden diskutiert.9
Der Hippocampus, eine Struktur des Mediotemporallappens, leistet einen bedeutenden Beitrag zum deklarativen räumlichen Gedächtnis und zum Arbeitsgedächtnis sowie zur Verarbeitung von Emotionen, sodass er beim normalen Altern, aber auch vielen Erkrankungen, eine wichtige Rolle einnimmt.10–12 Vor allem bei der Alzheimer-Demenz ist der Hippocampus eine sehr früh von der Atrophie betroffene Struktur.13 In den letzten Jahren mehren sich die Hinweise, dass dies auch bei der Parkinsondemenz der Fall ist.14–16 Aus diesem Grund wird im Folgenden ein besonderes Augenmerk auf diese Struktur gelegt.
Die vorliegende Studie setzt sich mit der Fragestellung auseinander, ob und inwiefern sich Parkinsonpatienten mit unterschiedlich ausgeprägten kognitiven Einschränkungen in den Volumina ausgewählter Hirnstrukturen – darunter die corticale graue und weiße 8 Substanz, der Hippocampus und die Hirnventrikel – sowie in den neuropsychologischen Domänen Gedächtnis, Exekutivfunktionen und Aufmerksamkeit, Sprache und visuell-räumliche Funktionen unterscheiden. Außerdem wird untersucht, ob zwischen den Hirnvolumina und dem Grad der kognitiven Einschränkung ein Zusammenhang besteht. Hierzu werden Parkinsonpatienten ohne Demenz (PD), Parkinsonpatienten mit milder kognitiver Beeinträchtigung (PD-MCI) und Patienten mit Parkinsondemenz (PDD) neuropsychologisch untersucht und magnetresonanztomographische Aufnahmen des Gehirns erstellt. Die mit einem automatisierten Messprogramm ermittelten Hirnvolumina werden in Korrelation zu Testungen des Gedächtnisses, der Exekutive und Aufmerksamkeit, der Sprache und visuell-räumlicher Funktionen gesetzt.
Die Arbeit gliedert sich wie folgt: Zum besseren Verständnis der kognitiven Symptomatik werden im ersten Kapitel die nicht-kognitiven Symptome des IPS charakterisiert sowie der aktuelle Wissensstand über Kognition beim IPS wiedergegeben. Anschließend werden die technischen Grundlagen der Magnetresonanztomographie und Methoden zur Auswertung struktureller MRT-Bilder erläutert. Darauf aufbauend wird die Fragestellung konkretisiert, bevor im zweiten Teil der Arbeit die Vorstellung des Studiendesigns, die Präsentation der Ergebnisse und im letzten Teil die Diskussion erfolgen.
Infrastrukturprojekte können als konkrete Planungs- und Bauvorhaben beschrieben werden, die zumeist über mehrere Jahre hinweg mit aktuellen oder neuen Technologien und Verfahren realisiert werden und bei denen eine lange Nutzungsdauer vorgesehen ist. Diese Projekte sind als Investitionsprojekte mit hohem Kapitalbedarf und zumeist negativen externen Effekten besonders risikobehaftet. Die enorme technische, wirtschaftliche, organisatorische und kommunikative Komplexität macht nicht nur ein professionelles Projektmanagement und eine ebenso professionelle Kommunikation notwendig, sondern erhöht auch die Gefahr von Krisen. Infrastrukturprojekte werden auch durch die Bedingungen der Mediengesellschaft beeinflusst. Die Vorhabenträger derartiger Projekte sind öffentlich exponiert, werden kritisch beobachtet und vielstimmig kommentiert, auch im Social Web.
Die medialen und gesellschaftspolitischen Rahmenbedingungen zeigen den Bedarf nach professionellen strategischen Krisen-PR auf. Diese werden hier als zielgerichtete Public Relations zur proaktiven Prävention, Bewältigung und Nachsorge von Krisensituationen verstanden. Sie beschränken sich keineswegs auf eine reaktive Krisenkommunikation. Stattdessen werden sie als internes und externes Kommunikations- und Handlungsmanagement betrachtet und als dauerhafter Bestandteil strategischer Organisationsführung empfohlen. Mithilfe von Literaturstudien werden wichtige Anforderungen an strategische Krisen-PR bei Infrastrukturprojekten aggregiert. Die Erkenntnisse fließen in einen kürzeren Anforderungskatalog ein, der die wichtigsten Punkte für die Krisen-PR-Praxis systematisiert. Ein längerer Anforderungskatalog orientiert sich an den bei Infrastrukturprojekten üblichen Planungs- und Ausführungszyklen und enthält zudem einzelne Handlungsempfehlungen, die aus der Analyse zweier Fallstudien hervorgegangen sind. Untersucht wurden die Öffentlichkeitsbeteiligung im Rahmen der Krisenprävention beim Ausbau des Flughafens Frankfurt am Main sowie die Krisenbewältigung angesichts der Verschiebung eines Eröffnungstermins beim Bau des Flughafens Berlin Brandenburg.
Neben Anforderungen für die Phasen der Krisenprävention, -bewältigung und -nachsorge werden auch Grundsätze strategischer Krisen-PR bestimmt. So sollten diese strategisch, situativ und integriert sein, ganzheitlich und konzeptionell fundiert geplant werden, kommunikative Diskrepanzen vermeiden, Vertrauensfaktoren erfüllen und Vertrauenswürdigkeit signalisieren. Ebenso sollten sie eine verständlich, symmetrisch-dialogisch, verständigungsorientiert und crossmedial kommunizieren, stets Schnelligkeit und Richtigkeit beachten sowie funktional transparent sein. Besondere Bedeutung innerhalb der strategischen Krisen-PR kommt auch der regelmäßigen Analyse von Stakeholdern und Themen sowie dem professionellen Monitoring und Management von Issues, Risiken und Social-Media-Beiträgen zu.
Eine spezifische Immuntherapie der Allergie, wie sie für die Pollen- und Bienengiftallergie angewandt wird, ist für Nahrungsmittelallergien wegen des hohen Risikos lebensbedrohlicher Nebenwirkungen und fehlender Wirksamkeit nicht etabliert. Somit bleibt vielen Nahrungsmittelallergikern nur die Vermeidung der allergieauslösenden Lebensmittel zur Prävention allergischer Reaktionen.
Neuartige Ansätze zur Immuntherapie von Allergien beschreiben unter anderem die Verwendung sogenannter hypoallergener Proteine. Diese sind meist Allergene, deren Struktur dahingehend verändert wurde, dass sie trotz intakter Immunogenität eine reduzierte IgE-Bindungseigenschaft und damit eine verminderte Allergenität aufweisen. Studien am Hauptallergen der Birke haben gezeigt, dass sowohl die Mutation von IgE relevanten Epitopen, als auch Multimerisierungen der Birkenpollenallergene zu solchen Hypoallergenen führen.
Mit dieser Arbeit sollte untersucht werden, inwieweit sich solche gezielten Mutationen und Oligomerisierungen auf die Hauptallergene von Sellerie und Karotte übertragen lassen. Ein weiterer Punkt der Studie lag darin, zu untersuchen, ob Oligomerisierung allein oder in Kombination mit Mutationen einen größeren Einfluss auf die immunogenen Eigenschaften bewirkt.
Wichtig für die Konzeption hypoallergener Proteine ist das Wissen, um wichtige IgE bindende Epitope auf Allergenen. Für das Hauptallergen aus Birke (Bet v 1) ist die exponierte P-Loop-Region als wichtiges Epitop beschrieben. Die Sellerieallergie ist in Mitteleuropa oft auf eine IgE-Kreuzreaktivität mit Bet v 1 zurückzuführen, weshalb auch das Hauptallergen aus Sellerie (Api g 1), von welchem zwei Isoformen beschrieben sind, näher im Bereich der P-Loop-Region untersucht wurde. Die in dieser Arbeit als stärker IgE bindende bestätigte Isoform Api g 1.01 zeigt allerdings genau in dieser Region eine wichtige Abweichung von Bet v 1, weshalb eine Mutante hergestellt wurde, welche in diesem Bereich dem Bet v 1 angepasst wurde. Mit Hilfe von IgE-Bindungsstudien konnte gezeigt werden, dass diese Veränderung zu einer Verstärkung der Bindung von IgE aus Seren von Birkenpollenallergikern führte, während Seren von Sellerieallergikern, die ausschließlich auf die Isoform Api g 1.01 sensibilisiert waren, eher eine unveränderte IgE-Bindung an diese Mutante zeigten. Seren von Patienten, die auf beide Isoformen sensibilisiert waren, zeigten wie die Birkenpollenallergiker eine erhöhte Reaktivität auf diese Mutante. Da die zweite Isoform, Api g 1.02, allerdings nur eine geringe Relevanz bei der Sellerieallergie spielt, kann durch die Ergebnisse mit dieser Mutante gefolgert werden, dass die P-Loop-Region für die birkenpollenassoziierte Sellerieallergie ein weniger wichtiges IgE-Epitop ist, als für das homologe Birkenpollenallergen. Die gerichtete Mutation der P-Loop-Region kann somit bei Api g 1.01 nicht als Strategie zur Herstellung hypoallergener Derivate in Betracht gezogen werden. Weiterführende Studien bezüglich der relevanten IgE-Epitope des Hauptallergens aus Sellerie sind demnach nötig.
Ein weiterer wichtiger Ansatz zur Herstellung hypoallergener Mutanten ist die Zerstörung der dreidimensionalen Struktur von allergenen Proteinen, so dass keine Konformationsepitope mehr vorhanden sind, welche hauptsächlich für die IgE-Bindung verantwortlich sind. In der Regel sind solche Proteine nicht mehr in der Lage IgE im Patientenserum zu binden, können aber in vivo eine zelluläre Immunogenität auslösen.
Dazu wurden neben den jeweiligen Isoformen der Hauptallergene von Sellerie (Api g 1) und Karotte (Dau c 1) auch 111P-Mutanten dieser Proteine rekombinant hergestellt, welche eine zerstörte Sekundärstruktur aufwiesen. Sowohl für Sellerie als auch für Karotte, waren die mutierten Proteine nicht mehr in der Lage, die jeweiligen spezifischen IgE-Antikörper in Patientenserum zu erkennen. Sie wiesen somit eine reduzierte Allergenität auf, was sie zu möglichen geeigneten Kandidaten für eine Immuntherapie machen. Wichtig für einen Mechanismus zur effektiven Immuntherapie ist aber auch die Induktion von blockierenden IgG-Antikörpern, welche unter anderem das Allergen binden und somit verhindern, dass es zu einer Kreuzvernetzung von IgE kommt, welches über den FceRI-Rezeptor auf der Oberfläche von Mastzellen gebunden ist. In dieser Studie konnte mittels eines Mausmodells in vivo gezeigt werden, dass die beiden Isoformen Dau c 1.01 und Dau c 1.02 des Hauptallergens aus Karotte, welche keine intakten IgE-Epitope mehr aufwiesen trotzdem noch in der Lage waren solche blockierenden Antikörper zu induzieren. Die Funktionalität dieser Antikörper mit IgE um das Allergen zu konkurrieren, wurde mittels Inhibition der Bindung von humanem IgE an das entsprechende Allergen durch Zugabe der entsprechenden Mausseren, welche die gebildeten IgG Antikörper enthielten, nachgewiesen und war vergleichbar mit der Inhibitionswirkung von Seren der Mäuse, die mit den Wildtyp-Allergenen immunisiert wurden. Wurden Proteine eingesetzt, die nicht nur eine zerstörte Struktur aufwiesen, sondern auch noch als Dimer der beiden Dau c 1 Isoformen mit zerstörter Struktur vorlagen (Dau c 1FP111P), so konnte eine verstärkte Induktion von blockierenden Antikörpern mit erhöhter IgE-Inhibitionswirkung beobachtet werden. Somit ist die Multimerisierung von Allergenen bei gleichzeitiger Zerstörung der Struktur ein geeigneter Ansatz zur Herstellung von hypoallergenen Proteinen.
Da Immuntherapeutika möglichst nicht in der Lage sein sollten allergische Reaktionen auszulösen, indem sie mit bestehenden IgE-Antikörpern kreuzreagieren, wurden die hier untersuchten hypoallergenen Proteine auch in Kreuzreaktivitätsstudien eingesetzt. Diese haben gezeigt, dass nur hohe Immunisierungsdosen zur Induktion von IgE führten, welches mit den Wildtyp-Allergenen kreuzreaktiv war. Da aber zur Induktion von blockierenden IgG-Antikörpern bereits eine geringe Dosis an verändertem Allergen ausreichend war, ist dies zu vernachlässigen.
Mittels Untersuchungen von IgE-bindenden-Epitopen und gezielter Veränderung von Allergenen, konnte in dieser Studie gezeigt werden, dass nicht nur die Zerstörung der Struktur oder die Oligomerisierung von Allergenen, sondern die Kombination der beiden Methoden eine geeignete Strategie zur Entwicklung neuer Reagenzien für die klassische spezifische Immuntherapie der Lebensmittelallergie darstellen kann.
In der vorliegenden Arbeit werden funktionale Details der Okklusion während der Mastikation bei ausgewählten fossilen und rezenten Primaten quantitativ vergleichend untersucht. Dazu wurden die Okklusionsflächen von antagonistischen Molarenpaaren mit modernen virtuellen Verfahren eingescannt und anhand von 3D Kronenmodellen kartiert und funktional ausgewertet. Die in der Forschergruppe DFG FOR 771 entwickelte Software „Occlusal Fingerprint Analyser“ (OFA) kam erstmals bei einer großen Stichprobe von Primaten zum Einsatz.
Aus dem ursprünglichen tribosphenischen Molarentyp der frühen eozänen Primaten haben einige Nahrungsspezialisten im Laufe der Evolution Modifikationen entwickelt um ihre Nahrung mechanisch besser aufzubereiten. So sind neue Funktionselemente auf den Molaren entstanden, wie z.B. ein distolingualer Höcker (Hypoconus) auf den Oberkiefermolaren.
Die Auswertung der Parametermessungen, wie die Facettenlage und -größe, der Okklusale Kompass, der Mastikationskompass und die Messungen der Okklusionsreliefs ergaben, dass die basalen Primatenvertreter aus dem Eozän einen flachen Hypoconus als vergrößerte Fläche zum Quetschen der Nahrung genutzt haben. Das weist auf eine frugivore Nahrungspräferenz hin. Der distolinguale Höcker ist unter den rezenten Spezies mit insektivorer Nahrungspräferenz besonders häufig ausgebildet. Es konnte gezeigt werden, dass eine zweite Kauphase, die nach der maximalen Verzahnung mit der Öffnung des Kiefers eintritt, unter den rezenten Strepsirrhini mit Hypoconus nur sehr schwach ausgeprägt ist.
Eine weitere evolutionäre Modifikation sind buccolingual ausgerichtete komplementäre Kantenpaare auf den Molaren, die sogenannte Bilophodontie, die sich in der Familie der Cercopithecidae entwickelt hat. Die Unterfamilie der Colobinae zeigt eine besonders stark reliefgeführte Okklusion und hat deshalb während der Mastikation weniger Bewegungsspielraum als die der Cercopithecinae. Die zweite Kauphase der Cercopithecinae ist gegenüber den folivoren Colobinae zum Teil auffällig verlängert. Da die Colobinae Vormagenverdauer und die Cercopithecinae Monogastrier sind, kann vermutet werden, dass die Zahnmorphologie eng mit der entsprechenden chemischen Verdauungsweise verknüpft ist. Das dryopithecine Höckermuster der Hominoidea hat eine wesentlich flachere Höckermorphologie als die bilophodonten Molaren. Daher war ein höherer Bewegungsspielraum während der Mastikation beobachtbar. Es konnte gezeigt werden, dass steilere Facetten bei den folivoren Nahrungsspezialisten zu finden sind, wie den Colobinae bei den bilophodonten, oder den Gorillas unter dem dryopithecinen Molarentyp. Mit einem flacheren Molarenrelief kann auf ein breiteres Nahrungsspektrum zugegriffen werden.
Mit den OFA-Analysen und den Ergebnissen der Quantifizierung des Kronenreliefs von rezenten und fossilen Primatenzähnen konnte in der vorliegenden Untersuchung eine relevante Vergleichsbasis für ein funktionelles Verständnis der Evolution der vielfältigen Kronenformen bei Primaten erarbeitet werden. Für zukünftige Studien sollte die innerartliche Stichprobe erweitert werden um die Variabilität näher zu untersuchen.
Die erste Phase des im Dezember 2016 in Kraft getretenen Friedensabkommens zwischen der kolumbianischen Regierung und den FARC-Rebellen ist mit der Ankunft von ca. 6300 Kämpfern in den vereinbarten 26 Konzentrationszonen abgeschlossen. Dort wird nun der Prozess der Entwaffnung beginnen und die Vorbereitung auf die Eingliederung in das zivile Leben, ein Schritt, der der kolumbianischen Gesellschaft noch große Opfer abverlangen wird – sei es bezogen auf die Prozesse der justiziellen Aufarbeitung der Vergangenheit, sei es hinsichtlich der notwendigen Versöhnungsprozesse oder sei es bei der Suche nach neuen Formen des friedlichen Zusammenlebens. Sich in das zivile Leben einzufinden, dürfte insbesondere den ca. 7000 geschätzten Kindersoldaten Kolumbiens schwer fallen, die teilweise bereits im Alter von 12 Jahren von den illegalen bewaffneten Akteuren des Landes an Waffen ausgebildet wurden und ihre Kindheit bzw. Jugend in Guerilla-Verbänden verbracht haben. Die umfassende Betreuung der Kindersoldaten ist einer der zentralen Indikatoren für einen erfolgreichen Verlauf des Friedensprozesses in Kolumbien, wenn der Teufelskreis aus Gewalt, Vertreibung und Rekrutierung Minderjähriger durchbrochen werden soll. Sonst droht eine Verlängerung von Gewaltbiographien, die die Geschichte des Landes bereits in der Vergangenheit maßgeblich geprägt haben.
Am Donnerstag, dem 26.01.17, beschloss der Deutsche Bundestag, wie schon im letzten Jahr, eine Ausweitung des Bundeswehreinsatzes im Rahmen der UN-Mission MINUSMA in Mali. Die maximale Anzahl der in und um Gao im Norden Malis eingesetzten Soldatinnen und Soldaten wird von bisher 650 auf 1000 erhöht, da Deutschland zukünftig auch die Bereitstellung von Kampf- und Rettungshubschraubern für MINUSMA übernimmt. Damit wird der Einsatz in Mali zum Größten der Bundeswehr. Der Befehlshaber des Einsatzführungskommandos hat das Gefährdungspotenzial schon im vergangenen Jahr mit der ISAF-Mission in Afghanistan verglichen und in keinem anderen UN-Einsatz sind im letzten Jahr mehr Soldaten getötet worden.
Die Entsendung weiterer Soldatinnen und Soldaten vom Deutschen Bundestag in einen Einsatz, in dem sie erheblichen Gefahren für Leib und Leben ausgesetzt sind, erfordert eine umfangreiche Begründung durch die politisch Verantwortlichen und eine kritische Würdigung durch die Zivilgesellschaft.
Ist es zum Lachen oder zum Weinen? Diese Frage stellt sich immer wieder bei der Beobachtung der Worte und Taten des neuen US-Präsidenten – zum Beispiel anläßlich seines ersten Fernsehinterviews mit dem Journalisten David Muir (ABC America, 27.1.2017). Trump benahm sich wie ein rechthaberisches, selbstbezogenes, liebesbedürftiges Kind. Er beharrte auf seiner Version der Amtseinführung, nach der noch nie so viele Menschen wie diesmal an der Zeremonie teilgenommen hätten. Er sprach nicht nur davon, er verwies auch auf Fotos, die er an Wänden im Weißen Haus hat aufhängen lassen. Trump wiederholte außerdem seine Behauptung, dass es viele illegale Stimmen gegeben hätte, und alle für Hillary Clinton. Natürlich würde man auch den einen oder anderen finden, der illegal für ihn abgestimmt habe. Diese Person würde man dann, sagte Trump, als Gegenbeweis vor die Kameras zerren. Aber die Wahrheit sei, dass Millionen von illegalen Stimmen fast ausnahmslos für Clinton abgegeben worden seien...
Positive Effekte körperliche Aktivität als komplementäre Therapie in der Onkologie wurden in den letzten Jahren in zahlreichen Studien aufgezeigt. Hierbei zeigte sich ein Anstieg der körperlichen Fitness und Muskelmasse, eine Steigerung der Lebensqualität, eine Reduktion des Fatigue-Syndroms, aber auch eine verbesserte Therapieverträglichkeit sowie einer Rezidiv-Prophylaxe (Backman et al., 2014; Meyerhardt et al., 2006; Segal et al., 2001). Daraufhin wurden Empfehlungen für körperliche Aktivität im Rahmen der onkologischen Therapie ausgesprochen, welche 150 Minuten moderate körperliche Aktivität pro Woche umfassen. Diese Empfehlungen basieren auf entitätsunspezifische Studienkollektive mit meist Tumorstadium I und II. Eine Vielzahl an Studien verdeutlichen, dass gerade Patienten in fortgeschrittenen Tumorstadien mit zahlreichen therapie- sowie tumorbedingten Nebenwirkungen zu kämpfen haben und dadurch ein stärkerer Abbau der körperlichen Fitness, der Muskulatur, aber auch der funktionellen Eigenschaften vorzufinden ist. Hierbei stellen Patienten mit fortgeschrittenen gastrointestinalen Tumoren (GIT) ein stark belastetes Kollektiv dar, da 80 Prozent dieser Patienten eine Tumorkachexie erleiden. Zusätzliche wurde in einer Querschnittsuntersuchung aufgezeigt, dass Patienten mit fortgeschrittenen GIT bereits vor Therapiestart einen deutlich verminderten körperlichen und funktionellen Status im Vergleich zu Mammakarzinom-Patientinnen und Gesunden aufweisen (Stuecher et al., 2016). In der vorliegenden randomisiert kontrollierten Untersuchung wurde erstmals ein heimbasiertes Training ohne Supervision zur Steigerung der körperlichen Aktivität bei Patienten mit fortgeschrittenen GIT durchgeführt und dieses mit einer leitliniengetreuen onkologischen Therapie ohne komplementäre Bewegungstherapie verglichen. Dabei wurden der körperliche und funktionelle Status sowie die Aktivitäten des täglichen Lebens verglichen.
Zweiundvierzig Patienten mit fortgeschrittenen GIT (UICC ≥ III, 67,1 ± 6,8 Jahre, 45,2 % weiblich) wurden vor ihrer geplanten first-line Chemotherapie (CT) in die zweiarmige randomisiert kontrollierte Studie eingeschlossen. Eine der Gruppen (I) erhielt, entsprechend der ACSM-Guidelines für onkologische Patienten, die Vorgabe ein wöchentliches Laufprogramm mit einem Umfang von 150 Minuten moderater Intensität pro Woche. Die zweite Gruppe diente als Kontrollgruppe (K) und erhielt am Ende der Studiendauer entsprechende Empfehlungen. Die Interventionsdurchführung wurde mittels Trainingstagebuch und Pedometer begleitet. Vor Beginn (T0), nach zwei CT-zyklen (T1) sowie nach zwölf Wochen (T2) wurde der funktionelle und körperliche Status sowie die Alltagsbewältigung der Patienten erfasst.
Bei einer Dropoutrate von 36 Prozent konnten 28 (K: 15; I; 13) Patienten die Studie komplett durchlaufen. Die mittlere Adhärenzrate lag bei 81,3 Prozent. Im Untersuchungszeitraum konnten die folgenden sign. Veränderungen (p< 0,05) der einzelnen Parameter gezeigt werden. Die posturale Stabilität (COPLänge) konnte sowohl ein Gruppeneffekt, als auch ein Zeiteffekt nachgewiesen werden. Die Interventionsgruppe verbesserte sich im Zeitraum T0-T1 (-71,47mm) sowie im Gesamtzeitraum T0-T2 (-74,13 mm), wohingegen die Kontrollgruppe sich im Gesamtzeitraum T0-T2 (+72,83) verschlechterte. Die Gruppen unterschieden sich daher sowohl in den Zeiträumen T0-T1 ((K)+38,61; (I)-71,47 mm) sowie T0-T2 ((K)+72,83; (I) -74,13mm). Bezüglich des körperlichen Status konnte sich die Interventionsgruppe von T1-T2 (+4,03 kg) sowie von T0-T2 (+4,04 kg) verbessern, sodass sich die Gruppen zwischen den Zeitpunkten T1-T2 ((K) -0,49; (I)+4,03 kg) und T0-T2 ((K) 0,19; 4,04 kg) unterschieden. Der iADL-Fragebogen erbrachte eine Verbesserung der Interventionsgruppe im Gesamtmesszeitraum T0-T2 (+0,12), daraus resultierte ein zusätzlicher Gruppenunterschied in diesem Zeitraum ((K) -0,89; (I) +0,12). Der Ernährungszustand zeigte auch einen unterschiedlichen Verlauf der beiden Gruppen. Zwischen T1-T2 ((K) -0,59; + 1,74) sowie T0-T2 ((K) -0,55; (I) +2,39) unterschieden sich die Gruppen.
Obgleich es für einige Patienten schwierig war die Laufintervention gemäß den Empfehlungen durchzuführen, weisen die Teilnehmer der Interventionsgruppe sowohl in den Parametern des körperlichen, als auch des funktionellen Status Verbesserungen auf. Demnach scheint ein durchschnittlicher Umfang von zwei Stunden moderater körperlicher Aktivität während einer Tumortherapie ausreichend zu sein. Es veranschaulicht, dass eine komplementäre Bewegungstherapie in der onkologischen Therapie bei Patienten mit fortgeschrittenen GIT sinnvoll ist und sowohl einen Benefit in der Körperzusammensetzung, als auch der funktionellen Eigenschaften mitsichbringt. Dies hat wiederum einen positiven Einfluss auf die Alltagsbewältigung. Da einige Barrieren das Laufprogramm der Patienten einschränkten oder gar zum Laufabbruch führten, sollte versucht werden diese zu mindern. Hierbei sind vor allem klima- und wetterbedingte Barrieren ein möglicher Ansatzpunkt, da Nebenwirkungen kaum vermeidbar sind. Dennoch sollten die Patienten auch nach nebenwirkungsbedingten Laufpausen motiviert werden das Programm weiterzuführen. Diese Studie gibt zudem erste Hinweise, dass durch eine komplementäre Bewegungstherapie mit moderater körperlicher Aktivität die Toxizität der CT bei Patienten mit fortgeschrittenen GIT vermindert werden kann. Da der klinische Benefit, welcher in einigen Studien anderer Tumorentitäten postuliert wurde, in dieser Untersuchung nicht objektiv erfasst wurde, wäre dies ein möglicher Ansatzpunkt für Folgestudien.
Historisch betrachtet wurde Krebspatienten durch das behandelnde Personal von physischer Belastungen oftmals abgeraten (Steins Bisschop et al., 2012). Mit der zunehmenden Zahl an Publikationen im Bereich onkologischer Rehabilitation wird deutlich, dass Krebspatienten oftmals eine stark reduzierte kardiorespiratorische Leistungsfähigkeit aufweisen, was wiederum Implikationen für akute wie auch längerfristige krebs-assoziierte Effekte und Outcomes haben kann (Jones et al., 2008). Somit steht dem bisherigen Verhaltens-Dogma der Ruhe und Schonung bei Krebspatienten eine Vielzahl an Evidenz der Effektivität und Notwendigkeit von regelmäßiger körperlicher Bewegung gegenüber (Jones et al., 2008; Klika et al., 2009; Steins Bisschop et al., 2012). Diese Arbeiten bieten fundierte Informationen bezüglich der zu Grunde liegenden Limitationen der Belastungstoleranz. Darauf aufbauend wird dieses Wissen genutzt, um effektive Trainings- und Rehabilitationsprogramme zu entwerfen sowie klinische Resultate zu verbessern (Jones et al., 2009).
Strukturierte und individualisierte Sport- und Bewegungstherapie gilt dabei als ein vielversprechender Ansatz, die nachlassende Fähigkeit der selbständigen Alltagsbewältigung, die krebsassoziierte Müdigkeitssymptomatik (fatigue), aber auch die allgemeine kardiorespiratorische Fitness (KRF) zu verbessern (Schmitz et al., 2010). Für onkologische Patienten von ebenso großer Bedeutung ist die Tatsache, dass durch regelmäßige körperliche Aktivität Begleiterscheinungen der eingesetzten Behandlungsmethoden (Hayes et al., 2009), das psychische Wohlbefinden als auch die Gesamtmortalität positiv beeinflusst werden können (Mishra et al., 2012b; Mishra et al., 2012a). Zusätzlich verspricht regelmäßige körperliche Bewegung, den Funktionsverlust in den drei wichtigsten physiologischen Bereichen (Muskulatur, Herz-Kreislauf-System und kardiopulmonales System) zu verringern oder sogar aufzuhalten (Hayes et al., 2009). Demzufolge nimmt die sporttherapeutische Sekundär- und Tertiärprävention bei Krebserkrankungen eine wichtige Rolle ein, und die Frage nach einer effektiven und zielgerichteten Belastungs- und Trainingssteuerung auf Basis valider und reliabler Messgrößen der körperlichen Leistungsfähigkeit gewinnt zunehmend an Bedeutung (Ulrich et al., 2013; Kirkham et al., 2013).
Aktuelle Empfehlungen zu körperlicher Aktivität bei onkologischen Patienten orientieren sich hinsichtlich der Ausgestaltung in punkto Häufigkeit, Umfang und Intensität im Allgemeinen an Bewegungs-Leitlinien für gesunde Gleichaltrige ohne chronische Erkrankungen. Eine Besonderheit bei onkologischen Patienten stellt jedoch oftmals die Berücksichtigung therapieassoziierter bzw. krankheitsbedingter Nebenwirkungen in der praktischen Umsetzung der Empfehlungen dar. Aktuelle Leitlinien sehen dafür ein aerobes Ausdauertraining an mindestens 3-5 Tagen/Woche bei einem Intensitätsspektrum moderater (150min) oder intensiver (75min) Beanspruchung (MVPA) bei 46-90% der maximalen Sauerstoffaufnahmefähigkeit vor.
Die in der Literatur beschriebenen Probleme einer Vielzahl an Verfahren zur Bestimmung der KRF und der darauf basierenden Ableitung von individualisierten Trainingsempfehlungen haben in den letzten Jahren vermehrt zu Ansätzen basierend auf der individuell physiologischen Belastungsreaktion in der Ausdauertrainingssteuerung und –bewertung geführt (Meyer et al., 2005c; Bentley et al., 2007b; Binder et al., 2008; Hofmann & Tschakert, 2011). Dabei kommen vor allem die in der sportmedizinischen Ausdauerleistungsdiagnostik etablierten Verfahren der Laktat-Leistungsdiagnostik und der spiroergometrischen Ermittlung ventilatorischer Schwellen zum Einsatz.
Kernziel der vorliegenden Arbeit war daher die Untersuchung von Leistungskennwerten an submaximalen Variablen aus Spiroergometrie und der Laktatdiagnostik im Kollektiv der onkologischen Patienten mit unterschiedlichen Krebsentitäten.
Das folgende Kapitel 2 fasst den aktuellen Forschungsstand zu Epidemiologie, Prävalenz sowie die Auswirkungen onkologischer Erkrankungen auf Aspekte der körperlichen Ausdauerleistungsfähigkeit und deren Diagnostik in der Sportmedizin zusammen. Resultierend aus dem Forschungsstand werden daraufhin Zielstellung und –fragen der vorliegenden Arbeit formuliert. Kapitel 4 umfasst die methodische Ablaufbeschreibung des Studiendesigns, die Probandenrekrutierung und -stichprobe, die eingesetzten diagnostischen Messverfahren, sowie die Darstellung der statistischen Auswertung. Nachfolgend auf die Darstellung der Ergebnisse in Kapitel 5 werden diese in Kapitel 6 vor dem Hintergrund des dargestellten Forschungstandes und aktueller relevanter Literatur diskutiert. Abschließend erfolgt eine Praxis-orientierte kritische Beleuchtung der Arbeit sowie ein eine perspektivische Einordnung der Ergebnisse mit Ausblick auf zukünftige Forschungsarbeiten.
Sich mit Christa Wolf auf einen „Spaziergang durch ein Stück deutscher Künstlerlandschaft der letzten Jahrzehnte“ zu verabreden heißt, die Künstlerin von einer neuen, bisher unbekannten Seite kennenzulernen.
Als Autorin ist sie keine Unbekannte. Ihr Werk erfuhr internationale Anerkennung und eine umfassende Rezeption, was sich in zahlreichen Monographien und Einzeluntersuchungen niederschlug. In der Akademie der Künste in Berlin lagern nach Schenkungen von Gerhard Wolf und des Luchterhand Literaturverlags ungefähr 1000 Bände Archivmaterial mit Werkmanuskripten aller Schaffensperioden sowie zugehörige Materialien und Druckschriften, Privat- und Geschäftskorrespondenz sowie zahlreiche Leserbriefe und Rezensionen. Die Bibliothek der Akademie beinhaltet die gesamte Primär- und Sekundärliteratur sowie zahlreiche weitere Dokumente.2 So sind hier „Zeugnisse gelebten Lebens, künstlerischer Entwicklungen, menschlicher Beziehungen bewahrt, individuelle und Zeitgeschichte eingefangen“...
„Frauenlieder gehören zu den ältesten poetischen Zeugnissen, welche in die schriftliche Überlieferung der volkssprachlichen Dichtung im Mittelalter eingegangen sind, und schon allein aus diesem Grunde kommt ihnen eine herausragende kultur- und literarhistorische Bedeutung zu.“
Für die mittelalterlichen Lieder mit weiblichem lyrischem Ich finden sich diverse Definitionen die je nach Schwerpunkt und Sichtweise einen unterschiedlich großen Korpus an Liedern als Frauenlieder deklarieren. Für diese Arbeit habe ich versucht eine Definition zu finden, die minimal einschränkend ist und dabei keine wertenden und ästhetischen Kriterien ansetzt, die aus einem heutigen Verständnis geprägt sind. Dementsprechend basiert diese Arbeit auf der Minimaldefintion eines Frauenliedes nach Ingrid Kasten: „Es sind Lieder, deren lyrisches Subjekt eine Frau ist.“
Da explizit bei Ingrid Kasten von einem lyrischen Subjekt die Rede ist, also von der Person, die das Lied trägt, sind Gattungen wie das Tagelied oder die Pastourelle ausgeschlossen, da sie zwar weibliche Redeanteile stellen, diese allerdings keine eigenständige Meinung wiedergeben, sondern nur im Kontext des Liedes einen Dialog herstellen. Hierzu Angelica Rieger: „Zu der gattungsbedingt stark eingeschränkten Rollen der Frau in der pastorela kommt die Tatsache, daß die narrative Grundstruktur der Gattung der Frauenstimme nur im Zitat Raum läßt. Beides verhindert die Entwicklung eines selbstständigen weiblichen lyrischen Ichs innerhalb der Grenzen der Gattung. […] In jedem Fall beschränkt sich [bei der alba] die «voix féminine» auf die von der Gattung diktierte Rollenverteilung zwischen domna, amic und gaita.“
Um nun noch den Begriff der Gattung zu definieren, greife ich auf die allgemeine Definition des Duden zurück, dieser definiert Gattung als „Gesamtheit von [Arten von] Dingen, Einzelwesen, Formen, die in wesentlichen Eigenschaften übereinstimmen.“
Somit soll diese Arbeit klären, inwiefern die Frauenlieder der Troubadoure, der Trouvères, der Minnesänger und der galicisch-portugiesischen Troubadoure unter dem Gattungsbegriff „Frauenlied“ vereint werden können oder ob sich so viele verschiedene Formen von Liedern mit weiblichem lyrischen Subjekt finden lassen, dass lediglich von einem Überbegriff die Rede sein kann.
Hintergrund: Die Delegation ärztlicher Leistungen an nichtärztliches medizinisches Fachpersonal wird in Deutschland vor dem Hintergrund eines absehbaren Hausärztemangels bei gleichzeitig wachsendem Bedarf an hausärztlichen Betreuungsleistungen seit einiger Zeit diskutiert. Inzwischen wurden unterschiedliche Qualifikationsmodelle für Medizinische Fachangestellte (MFA) (z.B. die Versorgungs-assistentin in der Hausarztpraxis, VERAH) konzipiert und implementiert, die für eine Delegation von Leistungen qualifizieren. VERAH sind v.a. in Baden-Württemberg in Hausarztpraxen tätig, da deren Einsatz dort im Rahmen der Hausarztzentrierten Versorgung (HzV) seit 2008 finanziell honoriert wird. Dabei ist es den Praxen freigestellt, wie sie das VERAH-Konzept und damit auch die Delegation umsetzen. Auch gesetzliche Vorgaben zur Delegation lassen erheblichen Spielraum bei der Umsetzung. Erschwerend kommt hinzu, dass weiterhin Unklarheit darüber besteht, welche Leistungsübertragung als „Delegation“ und welche eher als „Substitution“ zu verstehen ist.
Zielrichtung der Arbeit: Ziel dieser publikationsbasierten Dissertation ist eine Darstellung der Formen und Graduierungen von Delegation, d.h. der tatsächlichen Umsetzung von Leistungsübertragung in der Hausarztpraxis am Beispiel der VERAH in Baden-Württemberg. Es können Empfehlungen für das Gelingen der Delegation aus der Analyse von Ergebnissen auf Patienten-, Praxis- und Teamebene abgeleitet werden.
Resultate: Diese Dissertation basiert auf sechs Publikationen, die im Rahmen von zwei Projekten zur Evaluation des VERAH-Einsatzes in der HzV in Baden-Württemberg entstanden. Die Evaluationen basieren auf einem Mixed Methods-Design, d.h. auf der Analyse von querschnittlich erhobenen quantitativen Daten sowie qualitativen Daten zu verschiedenen Fragen des VERAH-Einsatzes.
Es existiert ein breites Spektrum an Formen und Graduierungen der Delegation in Hausarztpraxen, die am HzV-Modell teilnehmen. VERAH übernehmen einerseits supplementäre (zusätzliche) ärztliche Tätigkeiten, wie z.B. Geriatrisches Assessment oder Impfberatungen, aber auch komplementäre (ergänzende) Tätigkeiten wie z.B. die Beratung der Angehörigen zu Hilfeleistungen im Gesundheitssystem. Vor allem im Rahmen von Hausbesuchen üben VERAH auch substituierende (ersetzende) Funktionen
aus. Auf Patientenseite sind gerade ältere, multimorbide und pflegebedürftige Patienten Empfänger delegierter Leistungen. Sie erhalten eine umfassende Betreuung und werden beim Erhalt ihrer häuslichen Selbständigkeit unterstützt. Die Patienten sehen in der VERAH eine zusätzliche Vertrauensperson in der Praxis und akzeptieren sie als kompetente Ansprechpartnerin. Die Hausärzte profitieren durch die Delegation von Tätigkeiten an VERAH, indem sie entlastet werden und Zeit für wichtige medizinische Aufgaben gewinnen. Für VERAH stellt die Delegation eine Erweiterung ihrer Tätigkeits- und Kompetenzbereiche dar und kann insofern als ein Schritt zur Professionalisierung des nichtärztlichen Personals einer Hausarztpraxis gelten.
Viele Faktoren, die zum Gelingen einer Umsetzung der Delegation beitragen, können vom hausärztlichen Team selbst beeinflusst werden. Darunter fallen das Engagement der MFA, die Qualifikation, zeitliche Flexibilität, ausreichend Gestaltungsspielraum, Grad der Autonomie, Abgrenzung des Verantwortungsbereiches und auch adäquates Equipment. Entsprechend richten sich die hier formulierten Empfehlungen meist an die Praxis, aber auch an den Gesetzgeber.
Bedeutung für die übergeordnete Fragestellung: Die Ergebnisse dieser Arbeit zeigen, dass mit dem VERAH-Konzept erste Ansätze einer teambasierten Versorgung vorhanden sind, und dass sich die Analyse dieses Konzeptes eignet, um Desiderata für die Zukunft von Delegation (haus-)ärztlicher Leistungen an nichtärztliches Personal formulieren zu können. Teambasierte Ansätze bedürfen, wie auch internationale Beispiele verdeutlichen, einer Weiterentwicklung der bestehenden Delegationskonzepte in deutschen Hausarztpraxen. Idealerweise mündet eine mit Delegation einhergehende Aufgaben- und Rollenneuverteilung in einer Betreuungsform, in der alle Teammitglieder entsprechend ihrer Qualifikation an der Versorgung der Patienten in der Hausarztpraxis beteiligt sind. Daher kommt die Einbindung von Pflegekräften in die hausärztliche Versorgung genauso in Frage, wie auch speziell ausgebildete VERAH/MFA. In jedem Fall sollte über Schritte der Professionalisierung nichtärztlicher Berufsgruppen nachgedacht werden. Ob sich in Deutschland, wie in den USA und in Kanada, aus diesen Delegationskonzepten im Laufe der Zeit Substitution (im Sinne der Verantwortungsübertragung an nichtärztliche Berufsgruppen) entwickelt, bleibt abzuwarten. Die Ergebnisse der Dissertation zeigen, dass es mit der gegenwärtigen Umsetzung der Delegation an VERAH zu einer Erweiterung des Leistungsspektrums in den Hausarztpraxen kommen kann; eine Ausweitung der Delegation sollte jedoch zeitnah vorangetrieben werden.
Die Wärme liebende Asiatische Tigermücke »Aedes albopictus« fühlt sich seit Jahrzehnten im Mittelmeerraum wohl. Sie ist Überträgerin gefährlicher, bisher in Europa nicht verbreiteter Viren. Wird sie sich aufgrund des Klimawandels und anderer Umweltfaktoren weiter nach Norden ausbreiten? Und werden andere eingeschleppte Arten ihr folgen? Das untersucht die Arbeitsgruppe von Prof. Dr. Sven Klimpel mithilfe der ökologischen Nischenmodellierung und genomischer Analysen.
Die meisten von Menschen in neue Habitate eingeschleppten Arten sind harmlos. Doch einige richten beträchtliche ökologische und ökonomische Schäden an. Rückgängig machen kann man den Prozess nicht, aber vorbeugen sollte man. Computermodelle ermitteln die gefährdeten Knotenpunkte im Handelsnetz und sagen die nächsten Invasoren im marinen Bereich inzwischen zuverlässig voraus.
Lauschangriff mit tödlichen Folgen : Signalmoleküle von Bakterien können fremden Arten schaden
(2016)
Eine der wichtigsten Fähigkeiten aller Lebewesen ist die Kommunikation. Ihre universelle Ausdrucksform findet sie im Austausch hoch spezifischer Signalmoleküle. Bei der Entschlüsselung der diversen »Sprachen« und »Dialekte« von Bakterien machen Forscher immer wieder neue und überraschende Entdeckungen, die auch eine Alternative zu Antibiotika versprechen.
Es war kein Aprilscherz, als das »Time Magazine« am 1. April 2013 auf der Titelseite ankündigte, wie man Krebs heilen kann. Anlass war die Gründung einer Initiative zur besseren Vernetzung von klinischen Forschern und Grundlagenwissenschaftlern, um so neue Therapieansätze wie »Checkpoint-Inhibitoren« bei malignem Melanom (schwarzem Hautkrebs), auch auf andere Krebserkrankungen übertragen zu können. Checkpoint-Inhibitoren sind der erste echte Durchbruch in der Therapie von fortgeschrittenen Krebserkrankungen.
Vitamin-D-Mangel – ein Risikofaktor für Diabetes : wie Forscher das Immunsystem umprogrammieren
(2016)
Was tun, wenn das Immunsystem nicht mehr zwischen fremden und eigenen Zellen unterscheiden kann? Bei Diabetes Typ 1, einer der häufigsten Autoimmunerkrankungen, gibt es bisher keine Heilung. Besonders schwierig wird die Therapie, wenn parallel dazu weitere Autoimmunerkrankungen auftreten. Mit Vitamin D und anderen Immunmodulatoren soll sich die Situation der Patienten in Zukunft grundlegend verbessern.
Organspenden retten und verlängern Leben : Prof. Dr. Ingeborg Hauser im Interview mit Dr. Anne Hardy
(2016)
Der 21. Mai 2015 ist für Claudia und Timothy Pillar ein besonderer Tag. Seitdem verbindet das Paar mehr als die Erlebnisse einer fast vierzigjährigen Ehe und ein gemeinsamer Sohn. Tim Pillar hat seiner Frau eine Niere gespendet und ihr damit wieder ein (fast) normales Leben ermöglicht. Inzwischen spricht sie von ihrer Krankheit in der Vergangenheitsform.
Überraschende neue Antworten auf die althergebrachte Frage nach dem »Eigenen« und »Fremden« geben die Romane des indischstämmigen Schriftstellers Moyez G. Vassanji, der in Kenia geboren wurde, seit Jahrzehnten in Kanada lebt und heute zu den bedeutendsten Autoren der ostafrikanischen Gegenwartsliteratur zählt. Seine Protagonisten verkörpern eine transregionale Verflechtungsgeschichte, die aus europäischer Perspektive kaum wahrgenommen wird, aber durchaus Impulse für aktuelle Debatten geben kann.
Der Film als modernes mobiles Medium lebt von Erfahrungen des Eigenen und Fremden. Zeigten die Reisefilme zu Beginn des 20. Jahrhunderts bewusst die »wunderbare Differenz« zur eigenen Wirklichkeit, wurde in der heilen Welt der Heimatfilme nach Ende des Zweiten Weltkriegs das Eigene für den Konsum verfügbar gemacht. Erst die Hollywood-Blockbuster verfolgten die Strategie, das kulturell Fremde so zu minimieren, dass daraus der für alle verständliche »Dialekt der Moderne« wurde.
Einflüsse aus anderen Sprachen gehören zum Sprachwandel. Doch wie viele fremde Wörter und Wendungen verträgt eine Sprache? Wann sind sie das Salz in der Suppe? Wann und warum gelten sie als Störfaktor? Das Verhältnis zum Fremdwort kann viel aussagen über den allgemeinen Zustand einer Sprachgemeinschaft – vor allem der deutschen.
Auf nur 25 Seiten schuf Tacitus gegen Ende des 1. Jahrhunderts »Germania« und damit auch das Volk der Germanen, das so gar nicht existierte. In der Antike lebten auf diesem Territorium völlig unabhängig voneinander vielerlei Stämme. Warum zeichnete Tacitus das positive Bild eines unverdorbenen, kampfeslustigen Naturvolks? Wollte er damit den dekadenten Römern einen Spiegel vorhalten? Wollte er vor den starken Gegnern im fremden Norden warnen, gegen die die Römer nicht wieder zu Felde ziehen sollten?
Die Deutschen traten »sich selbst immer ein wenig fremd gegenüber «, schreibt der Frankfurter Mittelalter-Historiker Johannes Fried in seinem Buch »Die Anfänge der Deutschen«, das deren »ethnische Taufe« vom späten 8. bis zum 12. Jahrhundert in den Blick nimmt. Das viel beachtete Werk, das nach 20 Jahren in einer überarbeiteten Neuausgabe vorliegt, lässt sich mittlerweile auch als Kommentar zur aktuellen Diskussion um eine angebliche Bedrohung »eigener« Werte lesen. Bernd Frye sprach mit Prof. Dr. Johannes Fried über ein Volk, das seinerseits aus fremden Elementen und Einwanderungsprozessen erwachsen ist.
Sie hören Stimmen, vermuten Botschaften in bedeutungslosen Ereignissen oder fühlen sich ferngesteuert: Die Symptome von Menschen mit einer schizophrenen Störung galten bisher als »uneinfühlbar«, da für Außenstehende nicht nachvollziehbar. Aktuelle neurowissenschaftliche Modelle helfen, die Verwechslung von »eigen« und »fremd« aufzuklären.
Aerosolteilchen agieren als Kondensationskeime für Wolkentröpfchen (engl. Cloud Condensation Nuclei, CCN) oder Eiskristalle und sind deswegen für die Wolken- und Niederschlagsbildung entscheidend. Sowohl die Aerosolpartikel als auch die Wolken können Sonnenlicht effizient streuen, wodurch ein kühlender Effekt auf das Klima ausgeübt wird. Einige der Teilchen, wie z. B. aufgewirbelter Staub oder Seesalz, werden direkt in die Atmosphäre injiziert; der größte Anteil der Teilchen und etwa die Hälfte der CCN werden allerdings durch die Kondensation gasförmiger Substanzen gebildet. Dieser Prozess wird als Nukleation oder Partikelneubildung (engl. New Particle Formation, NPF) bezeichnet. Trotz intensiver Forschung ist die NPF noch nicht vollständig verstanden, was an der Komplexität der chemischen Abläufe in der Atmosphäre und an der Schwierigkeit liegt, die relevanten Substanzen bei extrem geringen Mischungsverhältnissen (etwa ein Molekül oder Cluster per 1012 bis 1015 Moleküle) zu identifizieren und zu quantifizieren. Neben der Frage nach den bei der Nukleation beteiligten Substanzen ist außerdem noch unklar, ob Ionen-induzierte Nukleation ein wichtiger Prozess für das Klima ist. Das CLOUD-Projekt (Cosmics Leaving OUtdoor Droplets) am CERN soll diesen Fragen nachgehen, indem dort die Partikelbildung in einem Kammer-Experiment unter extrem gut kontrollierten Bedingungen simuliert wird. Die chemischen Systeme, die in dieser Schrift diskutiert werden, umfassen das binäre (H2SO4-H2O), das ternäre Ammoniak (H2SO4-H2O-NH3) und das ternäre Dimethylamin (H2SO4-H2O-(CH3)2NH)-System.
Einige der wesentlichen Ergebnisse von Experimenten an der CLOUD-Kammer werden diskutiert. Diese zeigen, dass das binäre und das ternäre Ammoniak System die atmosphärische Nukleation bei niedrigen Temperaturen erklären können, wohingegen das ternäre Dimethylamin System prinzipiell in der Lage ist, die hohen bodennahen Nukleationsraten bei atmosphärisch relevanten Schwefelsäure-Konzentrationen zu beschreiben. Des Weiteren werden zwei für Nukleationsstudien wesentliche Messmethoden vorgestellt. Das Chemical Ionization Mass Spectrometer (CIMS) wird zur Messung von gasförmiger Schwefelsäure verwendet, da H2SO4 vermutlich die wichtigste Substanz bei der atmosphärischen Nukleation ist. Das Chemical Ionization-Atmospheric Pressure interface-Time Of Flight (CI-APi-TOF) Massenspektrometer misst Schwefelsäure und neutrale Cluster. Beide Geräte wurden für den Einsatz bei CLOUD optimiert und instrumentelle Entwicklungen wurden in Bezug auf die Ionenquelle vorgenommen, die eine Korona-Entladung verwendet. Außerdem wurden eine Kalibrationseinheit zur Bereitstellung definierter Schwefelsäure-Konzentrationen entwickelt und das CI-APi-TOF aufgebaut. In Bezug auf das ternäre Dimethylamin System werden Nukleationsraten und die ersten Messungen von gro en nukleierenden neutralen Clustern präsentiert. Monomer- und Dimer-Konzentrationen der Schwefelsäure, die mit dem CIMS bei tiefen Temperaturen gemessen wurden, dienten der Ableitung der thermodynamischen Eigenschaften bei der Dimer-Bildung im binären und ternären Ammoniak System. Um möglichst exakte Nukleationsraten zu bestimmen, wurde eine neue Methode entwickelt, die es erlaubt, den Effekt der Selbst-Koagulation bei der Nukleation miteinzubeziehen.
Die zusammengefassten Studien tragen signifikant zum Verständnis der Partikelneubildung bei.
Nur die Einbeziehung des Fremden bewahre vor steriler Identität, meinte Adorno, aus dem Exil in den USA nach Frankfurt zurückgekehrt. Wie steht es heute um Fremdheit und Fremde und um das Verhältnis von Eigenem und Fremdem? Das erkundet der Philosoph und Publizist Rolf Wiggershaus im Gespräch mit fünf Frankfurter Professorinnen und Professoren.
Haben Vorurteile einen Sinn? In der Entwicklungsgeschichte des Menschen vermutlich schon, um Freund und Feind unterscheiden zu können. Aber in der heutigen globalen, wenn auch komplexeren Welt ist es wichtig zu wissen, warum Vorurteile entstehen und welche Gruppenprozesse dahinterstecken. Die Sozialpsychologie kann seit den 1950er Jahren auf eine Vielzahl von Experimenten verweisen – mit spannenden Ergebnissen. Eines lautet: Je mehr Kontakt Menschen aus unterschiedlichen Gruppen miteinander haben, desto geringer sind auch die Vorurteile.
Die Begegnung mit dem Nachbarn bleibt nahezu kommunikationsfrei, wenn man nur darauf achtet, dass die Zweige der Birke nicht über die Grenze zu ihm hinüberwachsen. Ist der Nachbar nicht mehr nur der Andere von nebenan und gegenüber, sondern tendenziell längst ein Fremder geworden? Haben Nachbarschaften wirklich ihren sozialen Verpflichtungscharakter weitgehend verloren? Der Kulturanthropologe begibt sich auf Spurensuche.
Der vorliegende Band dokumentiert die Erhebungsinstrumente, die im BilWiss-Forschungsprogramm in den Erhebungen der folgenden Projektphasen zum Einsatz kamen: BilWiss („Bildungswissenschaftliches Wissen und der Erwerb professioneller Kompetenz in der Lehramtsausbildung“; 2009–2013), gefördert vom Programm des Bundesministerium für Bildung und Forschung „Entwicklung von Professionalität des pädagogischen Personals in Bildungseinrichtungen (ProPäda)“ unter dem Förderkennzeichen 01 JH 0910, und BilWiss-Beruf („Die Bedeutung des bildungswissenschaftlichen Hochschulwissens für den Berufseinstieg von Lehrkräften“; 2013–2016), gefördert vom BMBF Förderprogramm „Kompetenzmodellierung und Kompetenzerfassung im Hochschulsektor (KoKoHs)“ unter dem Förderkennzeichen 01 PK1 1007. Das Forschungsprogramm ist ein Verbundprojekt der Goethe-Universität Frankfurt (M. Kunter), der Universität Duisburg-Essen (D. Leutner), der Westfälischen Wilhelms-Universität Münster (E. Terhart), des Max-Planck-Instituts für Bildungsforschung (J. Baumert, nur Projektphase BilWiss) und der Technischen Universität München (T. Seidel, nur Projektphase BilWiss-Beruf).
Das Forschungsprogramm zielt darauf ab, zu untersuchen, inwieweit angehende Lehrkräfte durch das Studium der Bildungswissenschaften unterstützt werden, mit den vielfältigen Herausforderungen ihres Berufs professionell umzugehen. Die zentrale Annahme dabei ist, dass konzeptuelles Wissen über bildungswissenschaftliche Inhalte die professionelle Entwicklung im Vorbereitungsdienst und im Berufseinstieg unterstützt. Die Grundhypothese des Projekts lautet:
Bildungswissenschaftliche Inhalte und Zusammenhänge stellen einen begrifflichen Rahmen dar, den Lehrkräfte benötigen, um Unterrichts- und Schulereignisse angemessen zu interpretieren, zu reflektieren und so für die eigene Kompetenzentwicklung zu nutzen.
Um dies zu prüfen wurde im Rahmen des Forschungsprogramms ein standardisiertes Testinstrument zur Erfassung des bildungswissenschaftlichen Wissens entwickelt und in einer Vollerhebung von angehenden Lehrkräften zu Beginn des Vorbereitungsdienstes (n = 3298) an allen Studienseminaren in Nordrhein-Westfalen (NRW) eingesetzt. Um die Annahme zur Bedeutsamkeit des bildungswissenschaftlichen Wissens für die professionelle Entwicklung empirisch zu prüfen, wurde ein Teil dieser Lehramtsanwärter(innen) im Laufe des Vorbereitungsdienstes längsschnittlich begleitet, dabei wurden mehrfach das bildungswissenschaftliche Wissen und weitere Aspekte der professionellen Kompetenz sowie verschiedene Indikatoren des professionellen Verhaltens und beruflichen Erlebens erfasst. Die Erhebungszeitpunkte im Längsschnitt fanden ein Jahr nach dem Beginn des Vorbereitungsdienstes (n = 362), am Ende des Vorbereitungsdienstes (n = 284) und ca. zwei Jahre nach Berufseinstieg (n = 101) statt.
Die zeitliche Überschneidung des BilWiss-Projekts mit der Einführung eines reformierten Vorbereitungsdienstes im Rahmen der 2009 beschlossenen Neuerungen in der Lehrerbildung im Land NRW eröffnete zudem die Möglichkeit, die differenzielle Entwicklung der angehenden Lehrkräfte aufgrund unterschiedlicher Lerngelegenheiten in einer quasi-experimentellen Feldstudie empirisch zu untersuchen. Hierfür wurde zusätzlich zur oben bereits beschriebenen Kohorte, die sich im 24-monatigen Vorbereitungsdienst befand (Kohorte 1), eine weitere Kohorte in die Befragung einbezogen, die den reformierten verkürzten, 18-monatigen Vorbereitungsdienst absolviert (Kohorte 2). Die beiden Kohorten angehender Lehrkräfte stiegen zu verschiedenen Zeitpunkten in den Vorbereitungsdienst ein (Kohorte 1 = Anfang 2011; Kohorte 2 = Ende 2011), beendeten diesen jedoch durch die Verkürzung des Vorbereitungs-dienstes zu einem ähnlichen Zeitpunkt (Anfang 2013). Auch die Daten der Kohorte 2 wurde zu Beginn (n = 511) und Ende des Vorbereitungsdienstes (n = 386), sowie ca. zwei Jahre nach dem Berufseinstieg (n = 104) erhoben.
Weiterführende Informationen zum theoretischen Ansatz der Studie und Ergebnissen der Studie können der Internetseite http://www.bilwiss.uni-frankfurt.de sowie den unten aufgeführten Publikationen entnommen werden.
In diesem Arbeitspapier1 soll die statistische Erfassungstechnologie – im Foucaultschen Sinne einer gouvernementalen Technologie – in zwei ihrer zentralen Bestandteile, die Teilpraxen Zählen und Ordnen zerlegt werden, die gerade in ihrer Kombination einen Reifizierungseffekt von statistischem Wissen bewirken, der, wie hier gezeigt werden soll, wenn es um die Produktion von Wissen über „Rasse“/Ethnizität geht, als solcher gleichzeitig ein rassistischer Effekt ist. Die Macht der Zahlen einerseits und die zumeist stillschweigend im Hintergrund erfolgende taxonomische Arbeit andererseits wirken dabei als Teilpraxen der statistischen Erfassungstechnologie zusammen und bewirken gemeinsam deren Blackboxing-Effekt. Im ersten Abschnitt über das Zählen soll der Unterschied zwischen Zahlen und Worten aufgespürt werden, und damit der Unterschied zwischen Zahlenwissen und anderen Formen des Wissens. Im zweiten Abschnitt über das Ordnen wird ausführlicher die taxonomische Arbeit im Zusammenhang von Regierungswissen einschließlich ihrer Subjektivierungseffekte betrachtet und im Fortgang zunehmend auf die Anlage von Taxonomien der „Rasse“/Ethnizität für amtliche Statistiken fokussiert.
Die folgenden konzeptuellen Überlegungen dienen im Rahmen meiner Studie über das Dilemma der Erhebung von Ethnizitätsdaten zur Diskriminierungsmessung dazu, statistische Taxonomien als Instrument des Regierens und der Wissensproduktion in einer machtanalytischen Perspektive zu fassen.
Der Artikel untersucht Rassismus und Sexismus und ihre materiellen und diskursiven Artikulationen an dem spezifischen Artikulationsort Haar, bzw. Locken. Anhand von biographisch-narrativen Interviews mit Frauen of Color und mit Hilfe von Ansätzen der Grounded Theory werden Fragen danach aufgeworfen, welche symbolischen Bedeutungen von Locken es gibt; Welche Umgangsformen mit Haar es gibt; Wie Haar eingesetzt wird; Ob es Widersprüche gibt; Wie sich diese artikulieren und wie Subjekte trotz rassistischer, sexistischer Diskurse und der damit verbundenen materiellen Unterdrückung handlungsmächtige Akteurinnen ihrer eigenen Biographien werden. Parallel wird der Forschungsprozess aus dekolonialer, feministischer Perspektive entwickelt, beschrieben und reflektiert und damit eine dekolonial feministische Methodologie entworfen.
Das Yin und Yang des Terrors
(2017)
Man stelle sich folgendes Szenario vor: Björn Höcke und Abū Bakr al-Baġdādī diskutieren bei Sandra Maischberger darüber, welche Konsequenzen Deutschland aus dem islamistischen Terrorismus ziehen sollte – und sie sind sich dabei einig.
Die Fiktion mag hanebüchen klingen. Nicht nur, weil der Möchtegern-Kalif des „Islamischen Staats“ (IS) unter keinen Umständen als Gast einer deutschen Talkshow in Erscheinung treten könnte – oder auch nur wollte. Sondern auch, weil der Möchtegern-Goebbels aus Thüringen sich stets als ritterlicher Gegner der Islamisten präsentiert, deren Denken und Handeln völlig unvereinbar sei mit dem Willen des hiesigen Volkes, den die Rechtspopulisten zu repräsentieren meinen. Gleicht man allerdings die (migrations-)politischen Willensbekundungen, die AFD und Co. als Antwort auf den islamistischen Terror bieten, ab mit den politischen Reaktionen, die sich der IS von Anschlägen in Europa erhofft, fällt es schwer, hier einen Widerspruch zu sehen. Vielmehr lässt ein solcher Abgleich die deutschen – und auch europäischen – Rechtspopulisten, für die Höcke hier stellvertretend steht, fast schon als heimliche Partner des IS erscheinen, deren Absichten sich bestens mit den Vorstellungen der IS-Strategen ergänzen.
Damit ist ein dialektisches Problem angesprochen, das dem Umgang mit dem Terrorismus stets inhärent ist. Immerhin gehört es zu den Binsenweisheiten der Konfliktforschung, dass terroristische Akteure Reaktionen provozieren wollen, die ihnen neue Handlungsmöglichkeiten eröffnen. Und dies wiederum verweist darauf, dass Politiker und Sicherheitsbehörden, aber auch die Medien dabei (ungewollt) zu Erfüllungsgehilfen werden können, wenn deren Reflexe dem terroristischen Kalkül entsprechen. Die Dynamik des Terrors speist sich eben nicht nur aus den Aktionen der Terroristen, sondern auch aus dem Verhalten ihrer Antagonisten und der Öffentlichkeit. Um jene Dynamik zu verstehen, reicht daher der Blick auf terroristische Strategien keineswegs aus. Vielmehr ist deren Effekt von den Reaktionen relationaler Akteure abhängig. Wer also dem Terrorismus das Wasser abgraben will, der muss – so paradox das klingt – auch Vorsicht gegenüber denen walten lassen, die Anstoß an ihm nehmen.
Diese Prämisse eröffnet eine kritische Perspektive auf Formen des Anti-Terrorismus. Denn demnach können Versuche, dem Terror die Stirn zu bieten, unbeabsichtigte (Neben-)Folgen mit sich bringen, welche die Dynamik des Terrors verstärken. Derartige backfire mechanisms sind es, die in diesem Beitrag problematisiert werden. Jedoch widmet er sich nicht der staatlichen Antiterrorpolitik, sondern erörtert, inwiefern das Zusammenspiel von Medien und Rechtspopulismus zur aktuellen Dynamik des islamistischen Terrorismus beiträgt. Diese Frage stellt sich vor dem Hintergrund, dass die jüngsten Anschläge in Europa eine virtuelle Form des Terrorismus darstellen, wo häufig Einzelpersonen im Namen des IS agieren, aber kaum bis gar nicht im Kontakt mit der Organisation standen. Es scheint daher die Vermutung nicht abwegig, dass co-konstitutive Faktoren – wie die Berichterstattung über den Terror und anti-muslimische Diskurse – eine nicht unbedeutende Rolle bei deren Radikalisierung und Aktivierung spielen.
Gleichstellungs-Monitor 2013
(2014)
Der vorliegende Text ist ein Bericht über die Ergebnisse einer qualitativen empirischen Befragung, die im Herbst 2015 in Haushalten eines Quartiers der Stadt Qingdao in China im Rahmen des BMBF-Projekts SEMIZENTRAL durchgeführt wurde. Das Gesamtprojekt umfasst die erstmalige Realisierung eines Resource Recovery Centers (RRC) als flexibles System mit Wasserrückgewinnung und Wiederverwertung in einer schnell wachsenden Stadt. Das Fachgebiet Abwassertechnik am Institut IWAR der Technischen Universität Darmstadt leitet das Projekt. Das ISOE ist Partner im Forschungsverbund und führt eine Stoffstrom- und eine damit verbundene Vulnerabilitätsanalyse für das Gebiet der Implementierung durch. In diesem Zusammenhang ist es wichtig, Einflussfaktoren des Umgangs mit Wasser und Abwasser durch die Bewohner und Bewohnerinnen zu erfassen. Thematischer Schwerpunkt der Befragung war, welche Alltagspraxis in Bezug auf Wasser und Abwasser die Bewohnerinnen und Bewohner haben und wie sich diese durch den Umzug aus einer traditionellen Dorfstruktur in ein modernes Wohnquartier verändert hat. Gleichzeitig sollte die Bekanntheit und Akzeptanz des Konzepts des RRC empirisch untersucht werden.