Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2867)
- Article (2263)
- Contribution to a Periodical (2161)
- Book (1979)
- Doctoral Thesis (1725)
- Review (926)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (176)
Language
- German (13890) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5008)
- Medizin (1479)
- Gesellschaftswissenschaften (1062)
- Rechtswissenschaft (742)
- Neuere Philologien (650)
- Wirtschaftswissenschaften (639)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Was ist ein geographisches Bild? Darauf hat sicher jeder eine Antwort: Beim einen poppen im Kopf zunächst die Urlaubsfotos von der finnischen Schären-Küste oder aus Paris auf, die andere denkt an Satellitenaufnahmen des schwindenden Eisrandes der Arktis im GEO-Magazin oder an Claudia Kleinerts Wetterkarte in den Tagesthemen. Auf den ersten Blick scheint klar: alles Bilder, alles irgendwie geographisch.
Das Recht – abstrakt und bilderfeindlich? Ein Fehlurteil. Denn schon immer hat das Recht zu sinnlichen Hilfsmitteln gegriffen, um sich den Menschen verständlich zu machen, teils auf realer, besonders gern aber auf sprachlicher Ebene. Die heutige Bilderflut ist jedoch auch für die Rechtswissenschaft ein neues Phänomen.
Der Aufbau unserer Umwelt folgt bestimmten Regelmäßigkeiten, die für uns so selbstverständlich sind, dass wir ihrer kaum bewusst sind. Doch würden Sie die Milch unter dem Bett suchen oder das Kissen in der Badewanne? Wohl kaum. Die Psychologin Prof. Melissa Lê-Hoa Võ untersucht das erlernte Regelwerk, die Entwicklung von sogenanntem Szenenwissen, mithilfe psychophysischer Verfahren, Blickbewegungsund Hirnpotenzialmessungen.
Der Mensch besteht aus vielen Körperteilen, und doch ist es fast ausschließlich das Gesicht, an dem wir ein Individuum erkennen. Aber erkennen wir es wirklich? In Zeiten des Selfie-Kults und der biometrischen Verfahren ist diese Frage aktueller denn je. Wir leben in einer »fazialen« Gesellschaft: Das Gesicht ist Medium für alle erdenklichen Arten, sich mitzuteilen.
Die Arbeit untersucht am Fall der Religionspolitik in den Verfassungsgebungsprozessen der deutschen Bundesländer, ob Verfassungen eher das Ergebnis von Konflikt oder Konsens sind. Die Länderverfassungen zeigen eine hohe religionspolitische Vielfalt, die in dieser Arbeit erstmals vollständig erhoben und systematisiert wird. Die religionspolitischen Normen der Verfassungen werden vier Typen von Religionspolitik zugewiesen (Statusverleihung, Redistribution, Religionsfreiheit und Restriktion). Für die Verbreitung der einzelnen Normen werden die historischen Verläufe von 1919 bis 2015 analysiert und Trends beschrieben. Für die Erklärung der Unterschiede entwickelt die Arbeit ein ökonomisches Modell des Parteienwettbewerbs, in dem religiöse Parteien, insbesondere CDU und CSU, die zentrale Rolle spielen. In dem Modell wird angenommen, dass religiöse Parteien (einschließlich der Union) nur dann die Interessen nicht- und andersreligiöser Wähler berücksichtigen – wenn dies für ihren Wahlerfolg notwendig ist. Die zentrale Idee des Modells ist, dass religionspolitische Policies unterschiedliche Kosten und Nutzen für religiöse und nichtreligiöse Wähler implizieren. Diesen Kosten und Nutzen müssten religiöse Parteien Rechnung tragen, wenn sie Politikergebnis und Wahlergebnis gleichzeitig optimieren – d.h. rational abwägend agieren. Aus der Überprüfung dieses Modells lässt sich ableiten, ob die Religionspolitik in Verfassungen das Ergebnis offener Verhandlungen mit dem Ziel der Herstellung bzw. Abbildung eines gesellschaftlichen Konsenses sind – oder ob sie vielmehr das Ergebnis harter politischer Auseinandersetzungen sind und die gesellschaftlichen Machtverhältnisse reproduzieren. Je weniger Ersteres und je mehr Zweiteres gegeben ist, desto weniger können Verfassungen voraussetzungslos als Rahmen oder Bezugspunkt eines fairen politischen Wettstreits dienen. Die Arbeit belegt dieses Modell empirisch mit einem Mixed-Methods-Ansatz aus multiplen Regressionsanalysen und fuzzy set Qualitative Comparative Analysis (fsQCA).
Mimetische Praktiken in der neueren Architektur : Prozesse und Formen der Ähnlichkeitserzeugung
(2017)
Praktiken des Zitierens, Kopierens, der Montage, des Rekonstruierens, der Analogiebildung und der Mimikry sind gängige Verfahren im architektonischen Alltag. Dennoch ist das Paradigma der Originalität bis heute beherrschend und verstellt oft den Blick auf mimetische Phänomene. Der Tagungsband versammelt zwölf im Jahr 2016 auf der Konferenz „Ähnlichkeit: Prozesse und Formen“ in der Bibliothek der Stiftung Werner Oechslin in Einsiedeln gehaltene Vorträge, ergänzt durch zwei Artikel der Herausgeberinnen. Der Fokus der Tagung lag auf aktuellen Forschungen zu Praktiken der Ähnlichkeitserzeugung in der neueren Architektur und wurde von Teilprojekten der DFG-SNF-Forschergruppe „Medien und Mimesis“ organisiert.
Die Studie behandelt archäologische und ethnoarchäologische wie auch ethnohistorische Untersuchungen im südlichen Tschadbecken Nigerias in der Zeit zwischen 1992 und 1998. Die Untersuchungen fanden im Rahmen der Anstellung des Verf. im Sonderforschungsbereich 268 "Kulturentwicklung und Sprachgeschichte im Naturraum Westafrikanische Savanne" sowie eines Habilitationsstipendiums der Deutschen Forschungsgemeinschaft statt.
Zeitrahmen ist das 7./8. Jh. n. Chr. bis 1925, Hauptthema die Entwicklung komplexer eisenzeitlicher Gesellschaften in der Region sowie ihre Transformation bei der Eingliederung des Raumes in das expandierende Reich Kanem-Borno.
Mathematische Basiskompetenzen gelten als wichtiger Prädiktor für die schulische Mathematikleistung. Ebenso offenbaren Studien eine prädiktive Wirkung des selbstregulierten Lernens auf die akademische Leistung. Die Ergebnisse mehrerer Studien zeigen, dass Kinder mit Migrationshintergrund im deutschen Schulsystem schlechter abschneiden. Schon in der Grundschule weisen diese Kinder im Fach Mathematik schlechtere Leistungen auf als ihre Mitschüler[innen] ohne Migrationshintergrund. Vermutlich kann dieser Umstand mit schlechteren Ausgangsbedingungen im mathematischen Vorwissen begründet werden. Darüber hinaus spielen auch mangelnde Sprachfähigkeiten in der Unterrichtssprache eine wichtige Rolle. Daher sollten die fehlenden Kompetenzen im Anfangsunterricht entwicklungsorientiert aufgebaut werden. Zusätzlich sollten auch Methoden zum selbstregulierten Lernen frühzeitig vermittelt werden, da diese Fähigkeit die Übertragung fachlicher Förderungen auf weiterführende Inhalte erleichtert und eine Voraussetzung für die gelingende Umsetzung verschiedener Unterrichtsmethoden darstellt. In der Praxis werden entsprechende Konzepte bislang allerdings nur vereinzelt umgesetzt.
In der vorliegenden Studie sollten daher die Lernvoraussetzungen von Kindern mit Migrationshintergrund in den mathematischen Basiskompetenzen und im selbstregulierten Lernen überprüft werden. Im Anschluss hieran sollte erprobt werden, ob sich die Kombination aus einem Training zur Förderung mathematischer Basiskompetenzen sowie einem Programm zur Förderung selbstregulierten Lernens als Unterrichtskonzept für den Anfangsunterricht mit Kindern mit Migrationshintergrund eignet und hiermit die Disparitäten in den Lernvoraussetzungen der migrierten Kinder ausgeglichen werden können. Hierfür wurde das ursprünglich für den vorschulischen Einsatz konzipierte Trainingsprogramm „Mengen, zählen, Zahlen“ (MZZ, Krajewski, Nieding & Schneider 2007) sowie ein von Otto (2007) ausgearbeitetes Konzept mit selbstregulativen Inhalten (SRL) für den unterrichtsintegrierten Einsatz im Erstunterricht adaptiert. Für die Teilnahme an der Studie konnten 30 Grundschulklassen rekrutiert werden. 517 Schüler[innen] wurden klassenweise einer von drei Versuchsbedingungen zugeordnet: (1) Der ersten Experimentalgruppe, in der die Trainingskombination in der Reihenfolge erst SRL, dann MZZ durchgeführt wurde (EGSRL+MZZ) oder (2) der zweiten Experimentalgruppe, die die Trainingskombination in der umgekehrten Reihenfolge (EGMZZ+SRL) erhielt oder (3) der Kontrollgruppe (KG), in der der reguläre Mathematikunterricht erfolgte. Die Durchführung der Trainingskombination wurde von den jeweiligen Mathematiklehrkräften vorgenommen. Vor der Implementierung der Trainingsprogramme erfolgte eine Erfassung der mathematischen Basiskompetenzen, der Fähigkeiten im selbstregulierten Lernen sowie der Fähigkeiten im Wortverständnis. Zur Überprüfung der Wirksamkeit wurden im Anschluss an die Durchführung der Trainingskombination diese Fähigkeiten erneut erhoben. Zudem wurde die Transferwirkung auf die Fähigkeiten im Basisrechnen untersucht. Ein halbes Jahr später erfolgte eine Follow-up-Untersuchung, bei der abermals die Fähigkeiten im selbstregulierten Lernen sowie der Transfer auf das Basisrechnen und die curriculare Mathematikleitung erfasst wurden.
Die Ergebnisse offenbarten für Kinder mit Migrationshintergrund ein schlechteres Vorwissen in den mathematischen Basiskompetenzen. Hinsichtlich der Fähigkeiten im selbstregulierten Lernen konnten keine Unterschiede gefunden werden. Die Ergebnisse des Posttests konnten einen größeren Kompetenzzuwachs in den mathematischen Basiskompetenzen bei den Kindern mit Migrationshintergrund der ersten Experimentalgruppe (EGSRL+MZZ) im Vergleich zu den Kindern mit Migrationshintergrund der Kontrollgruppe nachweisen. Zudem zeigten sich positive Transfereffekte auf das Basisrechnen. Transfereffekte auf die curriculare Mathematikleistung wurden bei den Kindern mit Migrationshintergrund dagegen nicht ersichtlich. Hinsichtlich der Fähigkeiten im selbstregulierten Lernen ließen sich bei den Kindern mit Migrationshintergrund keine Trainingseffekte aufdecken. In Bezug auf die Kompensation der lückenhaften Lernvoraussetzungen in den mathematischen Basiskompetenzen bei Kindern mit Migrationshintergrund konnte für die erste Experimentalgruppe (EGSRL+MZZ) ein höherer Lernzuwachs bei Kindern nicht deutscher Herkunft festgestellt werden. Bei der zweiten Experimentalgruppe (EGMZZ+SRL) zeigten sich zwar keine Unterschiede zwischen Kindern mit und ohne Migrationshintergrund, doch es offenbarte sich, dass Kinder mit deutscher Muttersprache von der Trainingskombination im Hinblick auf ihre mathematischen Basiskompetenzen mehr profitieren. Die Ergebnisse verweisen auf die Bedeutung der sprachlichen Fähigkeiten bei der entwicklungsorientierten Förderung mathematischer Kompetenzen und werden vor dem Hintergrund einer Ausarbeitung zu einem flächendeckend einsetzbaren Unterrichtskonzept diskutiert.
Dies ist eine Festschrift für Detlef Brandes zum 75. Geburtstag. Ein Vorwort für sie zu verfassen, ist kein leichtes Unterfangen, denn die beeindruckende wissenschaftliche Arbeit und die Tätigkeit von Detlef Brandes sind schon vor zehn Jahren in der Festschrift zum 65. Geburtstag ausführlich gewürdigt worden. Der inzwischen leider verstorbene Hans Lemberg zeichnete damals den wissenschaftlichen Lebensweg des Jubilars in bewegender Weise nach, von den Archivstudien des jungen Doktoranden in der Tschechoslowakei der 1960er Jahre über die Tätigkeit am Collegium Carolinum in München, an der Freien Universität Berlin und die internationalen Wanderjahre, die ihn nach Florenz, New York, Stanford und Sapporo geführt hatten, bis er nach einem kurzen Intermezzo in Oldenburg 1991 auf die Stiftungsprofessur für "Kultur und Geschichte der Deutschen im östlichen Europa" an die Heinrich-Heine-Universität in Düsseldorf berufen wurde. ...
Die Frankfurter Dissertation von Alexander Krey ist für den Themenkomplex "Rechtsräume" von besonderer Bedeutung. Unter den Leitbegriffen "Gerichtslandschaften" und "Rechtslandschaften" wird anhand der Oberhöfe im Rhein-Main-Gebiet des Spätmittelalters eine vergleichende Untersuchung vorgelegt, die zeigen soll, dass diese juristisch-geographischen Raumbildungen zu einer "Umwälzung in den vielschichtigen Gerichtslandschaften führte, in welche die jeweiligen Oberhöfe eingebettet waren", auch wenn der Terminus "Oberhof" selbst aus der Frühneuzeit stammt. Die bestimmende Frage ist, ob eine "Pluralität lokaler Rechtsordnungen anstelle des einen gemeinen deutschen Rechts" angenommen werden kann. Welchen Stellenwert nehmen Wechselwirkungen zwischen den regional beschränkt wirkenden Oberhöfen ein? Als Untersuchungsgegenstand wählt Krey, wie gesagt, das Rhein-Main-Gebiet, im Einzelnen Frankfurt, Gelnhausen und Ingelheim. ...
CGC aktuell 02/2017
(2017)
Der römische Kaiser Claudius, dritter Prinzeps nach Augustus, regierte von 41 – 54 n. Chr. und wurde vermutlich von Agrippina, seiner letzten Ehefrau, mit einem Pilzgericht vergiftet. Obwohl er wegen seiner angeborenen Körperbehinderung als dynastischer Nachfolger nicht vorgesehen war, folgte er C. Caligula unmittelbar nach dessen Ermordung auf den Kaiserthron.
Die dem Amt inhärenten strukturellen Schwierigkeiten wurden verstärkt durch seine imbecillitas, die nicht nur Seneca, seinen Zeitgenossen, sondern auch Tacitus, Sueton und Cassius Dio, die ihn nachfolgend zum Sujet ihrer Werke machen, erheblich verunsicherte.
Besonders die Vertreter der antiken Historiographie und Biographie stehen vor der Herausforderung, glaubhaft erklären zu müssen, warum ein imbecillus, der Gegenentwurf zu Augustus, an die Macht gelangen und sie 13 Jahre behalten konnte, ohne unterschiedlich motivierten Anschlägen zum Opfer zu fallen. Aus dieser Diskrepanz entstehen – abhängig von der persönlichen Vorstellung des jeweiligen Autors und den gesellschaftlich bedingten Vorurteilen über Behinderung – unterschiedliche Bilder, die nicht nur das Dilemma des behinderten Kaisers, sondern auch das seiner Interpreten illustrieren: Claudius tritt, je nach Situation und Interaktionspartnern, als willenlos Re-agierender oder als taktisch Agierender auf: Als Regierenden hingegen zeigen ihn die Berichte gar nicht oder selten. Unberechenbarkeit, Übertreibung und Wiederholung werden für die antiken Schriftsteller zum Herrschafts- und Persönlichkeitsmerkmal des Prinzeps, die Antithese zum Narrativ.
Das essentielle Kommunikationsproblem des behinderten Claudius scheint, folgt man den Berichten, aus einem bewussten oder charakterbedingten Verzicht auf die patria potestas zu resultieren, mit katastrophalen Auswirkungen auf sein Ansehen als Prinzeps. Die von allen Autoren kritisierte Abhängigkeit von den Mitgliedern seines Hofes, zu deren prominentesten Opfern die junge und unerfahrene Messalina und letztlich Claudius selbst zählen, erregt Spott und Unmut der Plebs und verunsichert die Aristokratie durch eine als willkürlich empfundene Rechtsprechung.
Andererseits verweisen die Darstellungen seiner erstaunlichen Amtserhebung, des siegreichen Britannienfeldzugs, des abrupten Sturzes Messalinas, aber auch Agrippinas plötzlicher Angst, die sie zum Gattenmord veranlasst, auf einen Kaiser, der bei Bedarf offenbar recht gezielt das Klischee des imbecillus als Mittel des Machterhalts zu bedienen vermag.
So entsteht aus Claudius, abhängig vom gesellschaftlichen Status Behinderter, in den antiken und modernen Schriften, die sich mit ihm und seiner Amtsführung befassen, die paradoxe Figur eines schuldigen Opfers bzw. unschuldigen Täters: Sowohl Opfer- als auch Täterrolle sind a priori durch die Behinderung gerechtfertigt und relativiert.
Aufbauend auf den Erfahrungen zweier Workshops zu (urbaner) Austerität in Griechenland und Deutschland diskutiert der Beitrag die (unterschiedliche) Geschichte und Geographie der Austerität mit besonderem Blick auf die Regionen Frankfurt/Rhein-Main und Athen. Die Erfahrungen der multiplen Krise seit 2008, die sich in Griechenland vor dem Hintergrund einer austeritätspolitischen "Shock Doctrine" und in der BRD im Kontext eines langfristigen Projekts der "scheibchenweisen" Austerität entwickelten, eröffnen dabei die Möglichkeit, die Debatten um urbane Austerität einem kritischen Blick zu unterziehen. Der Beitrag sieht insbesondere im Bereich der Krisen der (urbanen) sozialen Reproduktion sowie der Krisen der (städtischen) Politik und Repräsentation weiteren Forschungsbedarf.
In der vorliegenden Arbeit wurde die Dynamik zweier grundlegend verschiedener, deaktivierender Mechanismen von Retinalproteinen untersucht. In einem dritten Projekt wurde die Photodynamik einer Dreifachmutante von visuellem Rhodopsin erforscht, von der eine Mutation zu kongenitaler (angeborener) Nachtblindheit führt und zwei andere Mutationen das Protein über eine Disulfidbrücke stabilisieren. Die Ergebnisse dieser drei Projekte sind im Folgenden zusammengefasst.
Die Aktivität des mikrobiellen Proteorhodopsins als lichtgetriebene Protonenpumpe kann photoinduziert unterbunden werden. Dies erfolgt durch die Absorption von blauem Licht durch das Retinal bei deprotonierter Schiff‘schen Base. Vor dieser Arbeit war allerdings nur wenig über den Mechanismus und die Kinetik dieses Effekts bekannt. Das einzige Retinalprotein, an dem diese Deaktivierungsdynamik auf molekularer Ebene zeitaufgelöst untersucht wurde, ist Bakteriorhodopsin. Doch auch an diesem System wurde die ultraschnelle Primärreaktion in der photoinduzierten Deaktivierungsdynamik - die Photoisomerisierung des 13-cis-Retinals - bisher nicht zeitaufgelöst gemessen.
In dieser Arbeit wurde ein Weg gefunden, diesen Prozess auf einer Sub-Pikosekundenzeitskala zu detektieren. Dazu wurde eine Proteorhodopsinmutante genutzt, in der der primäre Protonendonor E108 durch Glutamin ersetzt ist. Diese Mutante weist eine signifikante Erhöhung der Lebensdauer des M-Intermediats auf. Im photostationären Gleichgewicht führt diese veränderte Kinetik zu einer erheblich erhöhten Akkumulation des Proteins im M-Zustand, die ausreicht, um photoinduzierte Absorptionsänderungen der Deaktivierungsdynamik sowohl im sichtbaren als auch im mittleren Infrarotbereich auf ultrakurzer Zeitskala zu detektieren. Dieses Projekt erfolgte in Kooperation mit dem Arbeitskreis Glaubitz (Goethe-Universität Frankfurt am Main).
Es zeigte sich, dass die Anregung des Retinals von Proteorhodopsin im M-Zustand zur Isomerisierung von 13-cis zu all-trans führt, die nach wenigen Pikosekunden abgeschlossen ist. Der zweite und abschließende Schritt ist die Reprotonierung der Schiff'schen Base. Es stellte sich heraus, dass dieser Prozess auf einer Nanosekundenzeitskala abläuft und über einen Protonentransfer vom primären Protonenakzeptor D97 zur Schiff'schen Base ermöglicht ist.
Die in dieser Arbeit vorgestellte Methodik zur Untersuchung der deaktivierenden Photodynamik von Proteorhodopsin auf ultraschneller Zeitskala, könnte in Zukunft auf weitere mikrobielle Rhodopsine angewandt werden. So ist die Studie der Deaktivierungsdynamik von Channelrhodopsinen von großem Interesse für optogenetische Anwendungen. Eine lichtgesteuerte Kontrolle der Ionenkanalöffnung und -schließung sollte die Präzision in der Regulierung ionischer Permeation erheblich verbessern.
Die Proteorhodopsinmutante E108Q wurde außerdem in ihrer primären Photodynamik sowohl bei grünem als auch blauem Anregungslicht untersucht. Es zeigte sich in beiden Fällen eine Dynamik, die der des Wildtyps sehr ähnlich ist. Eine Beobachtung unterscheidet sich jedoch wesentlich vom Wildtyp. Das K-Intermediat der E108Q-Mutante scheint nach einigen hundert Pikosekunden zumindest partiell zu zerfallen, woraufhin sich eine Signatur im blauen Spektralbereich bildet. Blitzlichtphotolysemessungen lassen vermuten, dass diese blau absorbierende Species im zwei- bis dreistelligen Nanosekundenbereich wieder zerfallen sein muss.
Der zweite Teil dieser Arbeit beschäftigt sich mit dem Photozerfall von visuellem Rhodopsin. Es ist bekannt, dass die Signaltransduktion durch Wechselwirkung zwischen aktiviertem Rhodopsin und Arrestin unterbunden wird. Im ersten Abschnitt wurde der Einfluss der Arrestin-1-Variante p44 auf die Photodynamik visuellen, bovinen Rhodopsins untersucht. In einer Kooperation mit dem Arbeitskreis Schwalbe (Goethe-Universität Frankfurt am Main) konnte gezeigt werden, dass Arrestin erheblichen Einfluss auf die Zerfallsdynamik von Meta II und Meta III hat. Es wurde festgestellt, dass die Wechselwirkung von p44 mit photoaktiviertem Rhodopsin eine erhöhte Population des Intermediats Meta III bewirkt, mit der Folge einer zweifach langsameren Freisetzungskinetik des all-trans-Retinals. Diese Beobachtung weist auf eine physiologische Rolle des Zustands Meta III in der Retinalhomöostase hin.
Gegenstand einer zweiten Studie mit dem Arbeitskreis Schwalbe ist zum einen die Rhodopsinmutation G90D, die mit kongenitaler (angeborener) stationärer Nachtblindheit zusammenhängt, und zum anderen die Doppelmutation N2C und D282C, die zur Ausbildung einer stabilisierenden Disulfidbrücke zwischen den im extrazellulären Bereich eingeführten Cysteinen führt. Im Rahmen dieser Arbeit wurde die Photodynamik des Wildtyps, der Doppelmutante und der stabilisierten G90D-Mutante (Mutationen G90D, N2C und D282C) sowohl auf einer ultrakurzen Zeitskala als auch auf einer Minutenskala untersucht.
Die vorliegende Arbeit untersucht die Möglichkeiten Sozialer Arbeit in segregierten städtischen Gebieten unter den Bedingungen der Festivalisierung von Stadtentwicklungspolitik. Der Hamburger Stadtteil Wilhelmsburg, bisher vorrangig als „benachteiligtes“ oder „gefährliches“ Gebiet charakterisiert, stand bis zum Jahr 2013 im Mittelpunkt des Rahmenprogramms Sprung über die Elbe, dessen zentrale Maßnahmen eine „Internationale Bauausstellung 2013 (IBA)“ und eine „internationale gartenschau 2013 (igs)“ waren. Wenn ein solches Gebiet mit dem Repertoire der unternehmerischen Stadtpolitik entwickelt wird, verändert sich das Verhältnis von Sozialer Arbeit und Stadtentwicklungspolitik.
Eine zentrale Fragestellung der Arbeit beschäftigt sich mit der Veränderung der institutionellen Landschaft in Stadtentwicklungsprozessen: Welche Ausgangslage findet Soziale Arbeit in segregierten Gebieten unter den Bedingungen einer neoliberalisierten Stadtpolitik vor? Ein weiterer Schwerpunkt liegt auf der Untersuchung der Zugänglichkeit von Ressourcen, die die Bewohner_innen des Gebiets für ihre räumliche Reproduktion einsetzen können.
Auffällig am Vorgehen der Hamburger Stadtentwicklungspolitik im Sprung über die Elbe ist, dass sie sich zunächst durch eine veränderte Diskursstrategie definiert, die die Entwick-lungspotentiale des Gebiets hervorhebt. Zentrales Ziel ist die Veränderung der Bevölke-rungszusammensetzung, die mit einer Mischung aus Anreizpolitik für die gewünschten Be-völkerungsgruppen und der Ausrichtung anderer kommunaler Handlungsfelder wie der Kul-turförderung und der Bildungspolitik auf dieses stadtentwicklungspolitische Ziel erreicht wer-den soll. Die dabei transportierte Vorstellung von „Aufwertung“ und der Herstellung einer veränderten Sozialen Mischung geht implizit auf nachfrageorientierte Gentrifizierungstheorien zurück. Institutionen der Sozialen Arbeit sind an diesem Vorgehen nicht beteiligt. Zudem wird deutlich, dass auch die Wissenschaft Sozialer Arbeit dort eine Leerstelle aufweist, wo sie mit der Gentrifizierung städtischer Gebieten konfrontiert ist.
Die Analyse von Interviews mit Bewohner_innen des Untersuchungsgebiets ermöglichte Einblicke in die grundlegender Veränderungen, denen Mietverhältnissen als eine zentrale Form räumlicher Reproduktion unterworfen sind. Dabei ließen sich parallele Entwicklungen zu den Auswirkungen nachweisen, die ein Wandel von Produktionsweisen in Bezug auf Ar-beitsverhältnisse hat.
Die Arbeit beruht auf einem induktiven Vorgehen und besteht aus mehreren empirischen Untersuchungen, die sich auf Teilfragestellungen beziehen. Die Analyse des programmati-schen Vorgehens bedient sich einer diskursanalytischen Dokumentenanalyse und der Aus-wertung von Experteninterviews. Für Veränderungen, die auf die Ressourcenzugänge von Bewohner_innen von segregierten städtischen Gebieten abzielen, kamen leitfadengestützte narrative Interviews zum Einsatz, deren Auswertung sich an dem Dokumentierenden Inter-pretieren orientierte. Die vorliegende Fallanalyse steht in einer Tradition der Untersuchung gesellschaftlicher Veränderungen aus der Perspektive „from below“. Das konkrete und situ-ierte Beforschen eines Stadtentwicklungsprozesses, der zu einem nicht unbeträchtlichen Anteil auf der diskursiven Ebene ausgetragen wird, wird als „Eingreifende Sozialforschung“ entwickelt.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
Freundschaft und Liebe haben eines gemeinsam: die innige und wechselseitige Zuneigung zweier Personen zueinander. Das Mittelalter kennt die diskursive Trennung von Freundschaft und Liebe als Codes der Intimität nicht. Mit dem Terminus "minne" wird in der mittelalterlichen Literatur sowohl die Freundschaft zweier Männer als auch die Liebe zwischen Ritter und Dame beschrieben. Die Gesellschaft des Mittelalters um 1200 ist eine patriarchal organisierte und damit männlich homosozial geprägte Kriegergesellschaft. Vor diesem Hintergrund wird die These formuliert, dass Freundschaft im Mittelalter eher nicht der unwahrscheinliche Code der Intimität ist, sondern die Liebe. Mit dieser These wird die moderne Perspektive auf personale Zweierbeziehungen umgekehrt, die intuitiv die heterosoziale Beziehung und damit Liebe als Code der Intimität präferiert.
Im Zentrum des Interesses stehen männlich homosoziale Freundschaften und heterosoziale Liebesbeziehungen. Diese werden auf Basis linearer und triangulärer Figurenkonstellationen und unter Rückgriff auf Niklas Luhmanns Thesen, die er in „Liebe als Passion“ (1982) entwickelt, untersucht. Luhmann unterscheidet drei historische Stufen des Liebesdiskurses und ordnet diese Epochen zu: die höfische Liebe des Mittelalters, die passionierte Liebe der frühen Neuzeit und die romantische Liebe des 19. Jahrhunderts, die bis heute den Liebesdiskurs prägt. Die strikte Epocheneinteilung, die Luhmann vornimmt, wird für die Analyse der mittelhochdeutschen Texte aufgebrochen um zu zeigen, dass in der Literatur des Mittelalters Beispiele für alle drei Formen der Liebe zu finden sind. Die höfische Epik präsentiert Freundschaft und Liebe als Codes der Intimität, die sich einerseits wechselseitig bedingen, andererseits miteinander konkurrieren. Zwar stehen in den untersuchten Texten die heterosozialen Beziehungen im Fokus, doch mündet die Dominanz der Liebe als Code der Intimität nicht in der Verdrängung der Freundschaft. Im Gegenteil: Freundschaft dient der Liebe als Modell.
Am Ende ging es dann doch recht fix. Hatte der Islamische Staat (IS) noch im März 2017 fast die Hälfte des Territoriums in Syrien unter seiner Kontrolle, ist das Möchtegern-Kalifat mittlerweile so gut wie von der Landkarte getilgt. Das heißt zwar nicht, dass er als Terrororganisation keine Rolle in dem Land mehr spielen wird. Doch als maßgeblicher Bürgerkriegsakteur mit territorialer Basis dürfte der IS weitestgehend aus dem Spiel genommen sein. Das macht diesen verworrenen Bürgerkrieg zunächst einmal ein wenig übersichtlicher. Andererseits wird damit aber auch der Vorhang für das nächste Kapitel geöffnet, das neue Wirrungen verspricht. Denn schließlich waren wegen des Kampfes gegen den IS einige Konfliktlinien erkaltet. Diese könnten nun wieder heiß werden. Allerdings lässt sich aufgrund der vielschichtigen Konstellationen nur schwer einschätzen, welche Dynamiken daraus erwachsen dürften. Der folgende Beitrag soll daher einen Überblick über die vergangenen und neuesten Entwicklungen im Syrischen Bürgerkrieg geben, um zumindest den Ist-Stand ermessen zu können. Die Anfertigung eines solchen Panoramas ist jedoch, zugegeben, eine kleine Herausforderung. Denn aufgrund der zahlreichen Konfliktparteien und multiplen Fronten sind die Entwicklungen derart konfus, dass sie sich nicht so einfach chronologisch zusammenfassen lassen. Der Beitrag stellt daher die jeweiligen Akteursgruppen und Allianzen dar und versucht, deren (ambivalenten) Verhältnisse untereinander zu sortieren und aufzuschlüsseln.
Warum werden Frauen Terroristinnen? Wider eine stereotype Betrachtung des weiblichen Terrorismus
(2017)
Punk-Band Frontfrau, Ex-Katholikin, Kosmetikverkäuferin – für die meisten klingt das nicht nach der Biographie einer der aktivsten Anhängerinnen des sogenannten Islamischen Staates (IS). Und doch: Bis Sally Jones jüngst bei einem US-Drohnenangriff ums Leben gekommen ist, war die Britin für mehr als vier Jahre das weibliche Gesicht des IS. Die Geschichte von Jones wirft eine grundlegende Frage auf: Wieso werden Frauen Terroristinnen? Ein Blick auf das breite Spektrum und die Geschichte des weiblichen Terrorismus zeigt, dass Terroristinnen weder neu noch selten, weder vor allem Opfer noch rein persönlich motiviert sind. Wenn an solchen Stereotypen festgehalten wird, steht dies nicht nur einer umfassenden Analyse der Gründe, sondern auch der Prävention von weiblichem Terrorismus im Wege.
Sally Jones Tod im Juni wurde erst vor Kurzem bekannt, und eine letztgültige Bestätigung steht noch aus – genauso wie die Antwort auf die Frage, ob der Drohnenangriff legal war, da angeblich auch ihr 12-jähriger Sohn getötet wurde. So wie Sally Jones möglicherweise posthum als erstes explizit weibliches Ziel eines solchen Angriffs Prominenz erlangen könnte, gibt ihre Person der regelmäßig wiederkehrenden öffentlichen wie wissenschaftlichen Diskussion über die Gründe für weiblichen Terrorismus neue Nahrung. In dieser Debatte sind Antworten auf die Frage, ob Frauen „auch“ Terroristinnen sein können, inzwischen zu einem Dickicht aus Stereotypen und Fantasien mutiert. Wird Religion – vulgo Islam – dieser Mischung hinzugefügt, begibt sich die Diskussion oft vollends auf Abwege. Von den vielen Argumenten, die dabei angeführt werden, halten sich drei mit besonderer Vehemenz: Weiblicher Terrorismus sei erstens ein neues und seltenes Phänomen; Frauen seien zweitens in der Regel Opfer; und drittens hätten Terroristinnen – im Gegensatz zu ihren männlichen Counterparts – in der Regel persönliche Motive. Die beiden ersten Argumente sind schlicht falsch und das dritte greift entschieden zu kurz. Es lohnt also, ein paar Breschen in das Dickicht zu schlagen...
Wie sieht die Zukunft der Wertschöpfung aus? Lässt sich eine "Demokratisierung" der Wertschöpfung beobachten? Befinden wir uns inmitten eines Paradigmenwechsels von der Industriellen Produktion hin zur Bottom-up-Ökonomie? Und wenn ja, was bedeutet das für die Gesellschaft?
Um diese Fragen aus verschiedenen wissenschaftlichen Perspektiven zu betrachten und gemeinschaftlich die damit zusammenhängenden gesellschaftlichen Chancen und Herausforderungen zu diskutieren, wurde das neue Konferenzformat "Interdisziplinäre Konferenz zur Zukunft der Wertschöpfung" geschaffen. Neben dem themenübergreifenden fachlichen Austausch ist auch die Vernetzung zwischen Wissenschaftlern/innen und Experten aus der Praxis ein Ziel dieser Reihe.
Der vorliegende Konferenzband beinhaltet die Beiträge der teilnehmenden Wissenschaftlicher/innen aus den Technik-, Wirtschafts-, Sozial- und Rechtswissenschaften und gibt einen Überblick über die aktuellen Forschungsschwerpunkte in den jeweiligen Fachgebieten. Die akademische Qualitätssicherung erfolgte mit Hilfe eines Peer-Review-Verfahrens. ...
Erstmals trägt dieses nationale Assessment den Forschungsstand zum Klimawandel umfassend für alle Themenbereiche und gesellschaftlichen Sektoren zusammen. Womit müssen wir in Deutschland rechnen, welche Auswirkungen werden die Klimaveränderungen auf Wirtschaft und Gesellschaft haben, und wie können wir uns wappnen? 126 Autoren aus ganz Deutschland äußern sich zu Themen wie bereits beobachtete und zukünftige Veränderungen, Wetterkatastrophen und deren Folgen, den Projektionen für die Zukunft, den Risiken sowie möglichen Anpassungsstrategien.
Die Autoren stellen in verständlicher Sprache den aktuellen Forschungsstand dar und veranschaulichen die wichtigsten Gedanken in Grafiken und Tabellen. Alle Texte wurden mehrfach wissenschaftlich begutachtet. Klimawandel in Deutschland ist die erste Gesamtschau zu dem Themenkomplex, benennt offene Fragestellungen und liefert eine Grundlage für Entscheidungen im Zusammenhang mit dem Klimawandel.
Deutschland reiht sich damit ein in die Liste von Ländern wie die Vereinigten Staaten, Österreich und Großbritannien, in denen derartige Berichte bereits vorliegen.
Bestimmung des klinischen Nutzens systemischer adjuvanter Therapien beim frühen Mammakarzinom
(2017)
Die onkologische Therapie befindet sich im Umbruch. Hohe Erwartungen sind mit einer Reihe innovativer zielgerichteter Medikamente verknüpft, die sich derzeit in der klinischen Entwicklung befinden. Vor diesem Hintergrund erfahren Diskussionen um die Begriffe klinischer Nutzen oder klinische Relevanz neue Aktualität. Dies gilt auch für die Weiterentwicklungen der adjuvanten systemischen Therapie des frühen Mammakarzinoms. In Anbetracht der kurativen Zielsetzung erfolgt die Beurteilung des klinischen Nutzens einer adjuvanten Therapie maßgeblich anhand von Wirksamkeitsendpunkten. Der Fokus liegt hierbei auf Verbesserungen des krankheitsfreien Überlebens und des Rezidivrisikos. Eine Aussage zum Gesamtüberleben ist aufgrund der heute erreichten niedrigen Mortalitätsraten erst nach sehr langen Beobachtungszeiten möglich. Folgerichtig sollte neuen Medikamenten für die adjuvante Therapie ein klinischer Nutzen zugesprochen werden, wenn sie eine weitere Reduktion des Rezidivrisikos über den heutigen hohen Standard hinaus ermöglichen. Die Evidenz für etablierte adjuvante Therapiestandards beim frühen Mammakarzinom kann als objektiver Maßstab zum Vergleich herangezogen werden. Am Beispiel der adjuvanten endokrinen Therapie, der adjuvanten Polychemotherapie und der adjuvanten Anti-HER2-Therapie werden in diesem Übersichtsartikel die Anforderungen für den klinischen Nutzen neuer adjuvanter Therapien beim frühen Mammakarzinom abgeleitet.
Die mitochondriale Innenmembran (IM) besteht aus zwei Subkompartimenten. Der
Cristae Membran (CM) und der inneren Grenzmembran (IBM), welche durch die runden und
schlitzartige Strukturen der Christa Junctions (CJs) verbunden werden Der MICOS-Komplex
ist an den CJs lokalisiert und besteht aus mindestens 6 Komponenten, Mic60, Mic27, Mic26,
Mic19, Mic12 und Mic10. Es ist bekannt, dass der MICOS-Komplex essentiell für die Stabilität der CJs ist. Die in dieser Arbeit gezeigten Ergebnisse, geben Aufschluss darüber, wie sich
einzelne MICOS-Komponenten auf die Stabilität von Cristae und CJs im Modellsystem Hefe (S
cerevisiae) auswirken. Zu Beginn dieser Arbeit war zum einen bekannt, dass die MICOSKomponente
Mic60 essentiell für die Bildung von CJs ist. Zum Anderen wurden im Vorfeld
dieser Arbeit Interaktionen von Mic60 mit Proteinen in der mitochondrialen Außenmembran,
vor allem Proteinkomplexe mit ȕ-barrel-Proteinen identifiziert. Diese Interaktionen werden
über den evolutionär, konservierten C-Terminus von Mic60 vermittelt.
ȕ-barrel Proteine besitzen eine charakteristische Peptidsequenz, die ȕ-Sequenz. Diese
dient nach dem Import der ȕ-barrel Proteine in die Mitochondrien als Signalpeptid für den
SAM-/TOB-Komplex, welcher daraufhin die Proteine in die Außenmembran insertiert. In
dieser Arbeit wurde ebenfalls eine ȕ-Sequenz im C-Terminus von Mic60 identifiziert, diese
zeigte einen Einfluss auf die Cristae-Stabilität. Zellen die eine Mic60-Variante mit einer
Deletion oder Punktmutation der ȕ- Domäne exprimieren, zeigten eine reduzierte Anzahl an
CJs. Auch das Verkürzen des C-Terminus von Mic60 hatte diesen Effekt auf die mitochondriale
Ultrastruktur. So konnte gezeigt werden, dass die ȕ-Domäne und die Integrität des C-Terminus
essentiell für die Stabilität von CJs sind.
Der Fokus dieser Arbeit lag in der Charakterisierung der MICOS-Komponenten Mic26
und Mic27. Es konnte bewiesen werden, dass beide Proteine genetisch mit der MICOSKernkomponente
Mic60 interagieren. Die Untersuchung der mitochondrialen Ultrastruktur von
Δmicβ6- und Δmicβ7-Zellen zeigte, dass eine Deletion vom Mic26 keinen Einfluss auf die
Organisation der mitochondrialen Innenmembran hat. Im Gegensatz dazu, ist im Vergleich zum
Wildtyp die Anzahl an CJs in Δmicβ7-Zellen um zwei Drittel reduziert. Auch die
Innenmembranoberfläche ist in diesen Zellen stark vergrößert. Die Untersuchung der
Morphologie der mitochondrialen Innenmembran in Zellen ohne Mic27 durch KryoElektronentomographie
isolierter Mitochondrien, veranschaulichte die Struktur der CJs in
diesen Zellen genauer. Es zeigten sich hier breitere CJs, und der Übergang von der
Cristaemembran in den Bereich der inneren Grenzmembran ist sehr flach und undefiniert. In
Wildtyp-Mitochondrien waren die CJs schmal und schlitzartig und haben einen scharfkantigen
Übergang von der Cristaemembran zur inneren Grenzmembran. Des Weiteren wies die
Cristaemembran in Δmicβ7-Zellen unregelmäßige zackige Strukturelemente auf, was auf eine
Anhäufung an Dimeren der F1FO-ATP Synthase hinweist.
Diese Beobachtungen in den Kryo-Tomogrammen, wurde durch Analysen des sich deutlich weniger höhere Oligomere und vermehrt Dimere. So kann aus diesen Befunden
geschlossen werden, dass Mic27 die Oligomere der F1FO-ATP Synthase stabilisiert.
Um zu untersuchen, wie der MICOS-Komplex mit der F1FO-ATP Synthase in
Verbindung steht, wurde mittels 2D-BNE-Analysen und einem Complexome Profiling die
Komplexierung der nativen Komplexe in Wildtyp- und Δmicβ7-Mitochondrien analysiert. Zum
einen konnte durch diese Untersuchungen gezeigt werden, dass Mic27 neben der F1FO-ATP
Synthase auch stabilisierend auf den MICOS-Komplex wirkt. Die Komplexe im
hochmolekularen Bereich der MICOS-Komponenten zerfielen in Δmicβ7-Zellen, was darauf
hinweist, dass die anderen MICOS-Komponenten hier nicht mehr assemblieren können. Mic10
war die einzige MICOS-Komponente die in Δmicβ7-Zellen noch stabile Komplexe im hohen
Massenbereich ausbildete. Mic10 findet sich zudem nicht nur in Klustern mit anderen MICOSKomponenten
sondern auch mit der F1FO-ATP Synthase.
Die Interaktion von Mic10 und der F1FO-ATP Synthase wurde auch biochemisch,
mittels chemischer Quervernetzern und Ko-Immunpräzipitationsexperimenten bestätigt. Dies
legt nahe, dass Mic10 die CJs mit hoher Wahrscheinlichkeit, durch die Verbindung mit der
F1FO-ATP Synthase, mit der Cristaemembran verbindet und so stabilisiert.
Aufgrund der Erkenntnisse dieser Arbeit konnte ein neuartiges Modell postuliert
werden. Die MICOS-Komponente Mic60 stabilisiert die CJs durch eine Interaktion seines CTerminus
mit Proteinen in der Außenmembran. Mic27 vermittelt über Mic10 die Interaktion
zur F1FO-ATP Synthase. Somit ist diese neu identifizierte Interaktion des MICOS-Komplex zur
F1FO-ATP Synthase essentiell für die Stabilität von CJs ist, indem es den MICOS-Komplex mit
den Oligomeren der F1FO-ATP Synthase verbindet.
Oligomerisierungszustands der F1FO-ATP Synthase in Δmicβ7-Zellen, bestätigt. Hier fanden
sich deutlich weniger höhere Oligomere und vermehrt Dimere. So kann aus diesen Befunden
geschlossen werden, dass Mic27 die Oligomere der F1FO-ATP Synthase stabilisiert.
Um zu untersuchen, wie der MICOS-Komplex mit der F1FO-ATP Synthase in
Verbindung steht, wurde mittels 2D-BNE-Analysen und einem Complexome Profiling die
Komplexierung der nativen Komplexe in Wildtyp- und Δmicβ7-Mitochondrien analysiert. Zum
einen konnte durch diese Untersuchungen gezeigt werden, dass Mic27 neben der F1FO-ATP
Synthase auch stabilisierend auf den MICOS-Komplex wirkt. Die Komplexe im
hochmolekularen Bereich der MICOS-Komponenten zerfielen in Δmicβ7-Zellen, was darauf
hinweist, dass die anderen MICOS-Komponenten hier nicht mehr assemblieren können. Mic10
war die einzige MICOS-Komponente die in Δmicβ7-Zellen noch stabile Komplexe im hohen
Massenbereich ausbildete. Mic10 findet sich zudem nicht nur in Klustern mit anderen MICOSKomponenten
sondern auch mit der F1FO-ATP Synthase.
Die Interaktion von Mic10 und der F1FO-ATP Synthase wurde auch biochemisch,
mittels chemischer Quervernetzern und Ko-Immunpräzipitationsexperimenten bestätigt. Dies
legt nahe, dass Mic10 die CJs mit hoher Wahrscheinlichkeit, durch die Verbindung mit der
F1FO-ATP Synthase, mit der Cristaemembran verbindet und so stabilisiert.
Aufgrund der Erkenntnisse dieser Arbeit konnte ein neuartiges Modell postuliert
werden. Die MICOS-Komponente Mic60 stabilisiert die CJs durch eine Interaktion seines CTerminus
mit Proteinen in der Außenmembran. Mic27 vermittelt über Mic10 die Interaktion
zur F1FO-ATP Synthase. Somit ist diese neu identifizierte Interaktion des MICOS-Komplex zur
F1FO-ATP Synthase essentiell für die Stabilität von CJs ist, indem es den MICOS-Komplex mit
den Oligomeren der F1FO-ATP Synthase verbindet.
Dieser Beitrag widmet sich der Hauptthese in Derek Parfits On What Matters, dass kantianische, konsequentialistische und kontraktualistische Theorien in der Moralphilosophie richtig verstanden zu gleichen Ergebnissen bei der Beurteilung moralischer Fragen gelangen. Anhand einer Diskussion von Parfits Reformulierung des kontraktualistischen Arguments wird gezeigt, dass die Akzeptanz dieser These entscheidend von einer Akzeptanz des Parfit’schen Gründebegriffs abhängt. Während es On What Matters nicht gelingen wird, diejenigen zu überzeugen, die Parfits objektiv-wertbasierte Gründetheorie nicht teilen, verweist selbst eine schwache Version der Konvergenzthese auf eine weitere wichtige Funktion des Moraldiskurses. Die von Parfit vorgestellte Objektivität und Einheit können dabei als notwendiges Element eines systematischen Moraldiskurses auftreten, der eine kontinuierliche Auseinandersetzung über universelle Normgehalte zum Inhalt hat.
Die Reihe „Papers of Excellence 2.0: Ausgewählte Arbeiten aus den Fachdidaktiken und Bildungswissenschaften der Goethe-Universität Frankfurt a.M.“ ist eine neue, erweiterte und zusätzliche Auflage der bekannten Reihe „Papers of Excellence: Ausgewählte Arbeiten aus den Fachdidaktiken“, welche seit 2010 von Daniela Elsner und Anja Wildemann im Shaker-Verlag herausgegeben wird. In alter Tradition werden auch in der ab sofort zusätzlich zur Printausgabe erscheinenden Online Version dieser Buchreihe herausragende Examens- und Masterarbeiten, die sich durch eine ausgewiesene empirische, fachdidaktische Auseinandersetzung mit einem Thema auszeichnen, zusammenfassend vorgestellt. Neu ist, dass die Online Version nun auch Arbeiten mit einem bildungswissenschaftlichen Fokus aufnimmt und solche, die an der Schnittstelle zwischen Fachdidaktik und Bildungswissenschaften an-gelegt sind. Die Papers of Excellence 2.0, die derzeit nur Studien integriert, die an der Goethe Universität Frankfurt am Main angefertigt wurden, werden von Astrid Jurecka (Bildungswissenschaften) und Daniela Elsner (Fachdidaktik) herausgegeben und sind kostenfrei zugänglich.
Die vorliegende Dissertation befasst sich mit dem Umstieg von papierbasiertem (PBA) auf computerbasiertes Assessment (CBA), insbesondere in Large-Scale-Studien. In der Bildungsforschung war Papier lange Zeit das Medium für Assessments, im Zuge des digitalen Zeitalters erhält der Computer aber auch hier Einzug. So sind die großen Bildungsvergleichsstudien, wie PISA (Programme for International Student Assessment) oder PIAAC (Programme for the International Assessment of Adult Competencies), und nationalen Studien über Bildungsverläufe und -entwicklungen im Rahmen des NEPS (Nationales Bildungspanel) bereits umgestiegen oder befinden sich im Prozesses des Umstiegs von PBA auf CBA. Findet innerhalb dieser Studien ein Moduswechsel statt, dann muss die Vergleichbarkeit zwischen den Ergebnissen der unterschiedlichen Administrationsmodi gewährleistet werden. Unterschiede in den Eigenschaften der Modi, wie beispielsweise im Antwortformat, können sich dabei auf die psychometrischen Eigenschaften der Tests auswirken und zu sogenannten Modus Effekten führen. Diese Effekte wiederum können sich in Unterschieden zwischen den Testscores widerspiegeln, sodass diese nicht mehr direkt miteinander vergleichbar sind. Die zentrale Frage dabei ist, ob es durch den Moduswechsel zu einer Veränderung des gemessenen Konstruktes kommt. Ist dies der Fall, so können Testergebnisse aus unterschiedlichen Administrationsmodi nicht miteinander verglichen und die Ergebnisse aus dem computerbasierten Test nicht analog zu den Ergebnissen aus dem papierbasierten Test interpretiert werden. Auch Veränderungen, die aus Messungen zu verschiedenen Zeitpunkten und mit unterschiedlichen Modi resultieren, lassen sich dann nicht mehr beschreiben. Es kann jedoch auch Modus Effekte geben, die zwar nicht das gemessene Konstrukt betreffen, aber sich beispielsweise in der Schwierigkeit der Items niederschlagen. Solange aber das erfasste Konstrukt bei einem Moduswechsel unverändert bleibt, können diese Modus Effekte bei der Berechnung der Testscores berücksichtigt und die Vergleichbarkeit gewährleistet werden. Somit ist, nicht nur im Hinblick auf gültige Trendschätzungen, der Analyse von Modus-Effekten ein hoher Stellenwert beizumessen. Da die bisherige Befundlage in der Literatur zu Modus-Effekten sowohl hinsichtlich der Stärke der gefundenen Effekte, als auch in Bezug auf die verwendeten Methoden sehr heterogen ist, ist das Ziel des ersten Beitrags dieser publikationsbasierten Dissertation, eine Anleitung für eine systematische Durchführung einer Äquivalenzuntersuchung, speziell für Large-Scale Assessments, zu geben. Dabei wird die exemplarisch dargelegte Modus-Effekt-Analyse anhand von zuvor definierten und in ihrer Bedeutsamkeit belegten Kriterien auf der Test- und Item-Ebene illustriert. Zudem wird die Möglichkeit beschrieben, auftretende Effekte anhand von Eigenschaften des Administrationsmodus’, beispielsweise des Antwortformats oder der Navigationsmöglichkeiten innerhalb des Tests, zu erklären. Im zweiten und dritten Beitrag findet sich jeweils eine empirische Anwendung der im ersten Beitrag beschriebenen schematischen Modus-Effekt-Analyse mit unterschiedlicher Schwerpunktsetzung. Dazu wurden die Daten eines Leseverständnistests aus der Nationalen Begleitforschung von PISA 2012 sowie zweier Leseverständnistests im NEPS, die jeweils sowohl papier- als auch computerbasiert administriert wurden, analysiert. Das Kriterium der Konstrukt-Äquivalenz steht dabei als wichtigstes Äquivalenz-Kriterium im Fokus. Zusätzlich wurde Äquivalenz in Bezug auf die Reliabilität und die Item-Parameter (Schwierigkeit und Diskrimination) untersucht. Im zweiten Beitrag wurden darüber hinaus interindividuelle Unterschiede im Modus-Effekt in Bezug zu basalen Computerfähigkeiten und zum Geschlecht gesetzt. Der dritte Beitrag fokussiert die Item-Eigenschaften, die als mögliche Quellen von Modus-Effekten herangezogen werden können und bezieht diese zur Erklärung von Modusunterschieden in die Analyse mit ein. In beiden Studien wurde keine Evidenz gefunden, dass sich das Konstrukt bei einem Wechsel des Administrationsmodus ändert. Lediglich einzelne Items wiesen am Computer im Vergleich zum PBA eine erhöhte Schwierigkeit auf, wobei sich der größte Teil der Items als invariant zwischen den Modi erwies. Für zwei Item-Eigenschaften wurde ein Effekt auf die erhöhte Schwierigkeit der Items am Computer gefunden. Interindividuelle Unterschiede im Modus-Effekt konnten nicht durch basale Computerfähigkeiten oder das Geschlecht erklärt werden.
Diese Dissertation leistet einen wesentlichen Beitrag zur Systematisierung von Äquivalenzuntersuchungen, insbesondere solchen in Large-Scale Assessments, indem sie die wesentlichen Kriterien für die Beurteilung von Äquivalenz herausstellt und diskutiert sowie deren Analyse methodisch aufbereitet. Die Relevanz von Modus-Effekt Studien wird dabei nicht zuletzt durch die Ergebnisse der beiden empirischen Beiträge hervorgehoben. Schließlich wird der Bedeutung des Einbezugs von Item-Eigenschaften hinsichtlich der Beurteilung der Äquivalenz Ausdruck verliehen.
Mit ihrer Studie zur pädagogischen Berufsarbeit und Zufriedenheit von Pädagogen liefert Julia Schütz erstmalig eine quantitative und segmentübergreifende Betrachtung der pädagogisch Tätigen in Deutschland. Sie befragt 424 Pädagogen der Elementarstufe, Sekundarstufe I und aus der Weiterbildung in Hessen und wertet die Ergebnisse kritisch aus. Der Zusammenhang von Zufriedenheit - z.B. im Hinblick auf die eigenen Lebensumstände (Alter, Gehalt, Familienstand etc.) - und dem Grad der kollektiven Professionalisierung des Bildungssegments steht dabei im Fokus der Studie.
Vor einem Monat haben sich mehr als zwei Millionen Katalanen für die Unabhängigkeit der Region von Spanien ausgesprochen. Auch wenn das Referendum für illegal erklärt wurde und weniger als die Hälfte der Katalanen teilnahmen, verraten uns die Ergebnisse einiges über die Stärke der Unabhängigkeitsbewegung. Dieser Beitrag untersucht, wie ein mögliches legales Referendum mit höherer Wahlbeteiligung ausgehen könnte. Auch wenn die rechtlichen Rahmenbedingungen ein solches Referendum nicht vorsehen, unterstützen laut aktueller Umfragen auch eine Mehrheit der Spanier diesen Weg der Konfliktlösung.
Wassergefiltertes Infrarot A (wIRA) ist eine spezielle Form der Wärmestrahlung mit hohem Eindringvermögen in das Gewebe und geringer thermischer Belastung der Hautoberfläche.
wIRA steigert deutlich Temperatur, Sauerstoffpartialdruck und Durchblutung im Gewebe und wirkt auch über nicht-thermische zelluläre Effekte.
wIRA mindert indikationsübergreifend Schmerzen (mit relevant weniger Analgetikabedarf), Entzündung und vermehrte Sekretion und fördert Infektionsabwehr und Regeneration.
Entsprechend breit sind die klinischen Anwendungsmöglichkeiten von wIRA.
wIRA ist ein kontaktfreies, verbrauchsmaterialfreies, leicht anzuwendendes, (selbst bei Wunden) als angenehm empfundenes Verfahren mit guter Tiefenwirkung und anhaltendem Wärmedepot.
wIRA ist u.a. einsetzbar zur Verbesserung der Heilung akuter und chronischer Wunden (wobei selbst eine ungestört "normal" ablaufende Wundheilung noch verbessert werden kann: schneller, schmerzärmer), bei Hauterkrankungen (wie vulgären Warzen, Herpes labialis, Herpes Zoster, Sklerodermie, Akne papulopustulosa; aktinischen Keratosen im Rahmen einer Photodynamischen Therapie), zur Resorptionsverbesserung topisch applizierter Substanzen, bei muskuloskeletalen Erkrankungen (wie Arthrosen, Arthritiden, Lumbago, ankylosierender Spondyloarthritis), zur Regeneration nach Sport, beim komplexen regionalen Schmerzsyndrom (CRPS), bei Polyneuropathien und in Kombination mit Strahlentherapie oder Chemotherapie in der Onkologie.
Diese kulturanthropologische Studie beschäftigt sich mit gegenwärtigen Veränderungen des Nachkriegsphänomens Städtepartnerschaften. Ausgangspunkt ist die Beobachtung, dass, obwohl einstige Gründungsmotive wegfallen, Städtepartnerschaften derzeit nicht etwa abgeschafft oder ersetzt, sondern neu ausgerichtet werden. Im Zentrum der Arbeit steht daher die Frage nach den Charakteristiken des gegenwärtigen Wandels und der kulturellen Spezifik von Städtepartnerschaften sowie möglichen Folgen. Dem wird am Beispiel von deutsch-polnischen und deutsch-türkischen Städtepartnerschaften des Ruhrgebiets mit Methoden einer transnational ausgerichteten empirisch-ethnografischen Feldforschung und einer akteurszentrierten und praxisorientierten Anwendung des Assemblage-Konzepts nachgegangen. Die Ergebnisse, die sich schwerpunktmäßig auf einen Zeitraum zwischen 2007 und 2012 beziehen, machen nicht zuletzt durch ihren länderbezogenen Kontrast deutlich: In Städtepartnerschaften trifft derzeit eine Vielzahl von aktuellen Entwicklungen, Prozessen und Akteuren aufeinander. Städtepartnerschaften werden derzeit staatsgrenzenübergreifend von verschiedenen Akteuren aus Politik, Zivilgesellschaft und Bürgerschaft mit je eigenen derzeitigen Herausforderungen wie Integrationsfragen und Wirtschaftsförderung, urbanem Standortwettbewerb sowie biografischen Bestrebungen und Mobilitätsinteressen verbunden. Dabei führen insbesondere auf deutscher Seite normative Ansprüche dazu, dass einstige Prinzipien und Aktivitäten von Städtepartnerschaften beibehalten und abgewandelt werden, weshalb von einem Format und einem Formatwandel gesprochen werden kann, was nicht jede beliebige Veränderung zulässt. In den neueren Varianten von Städtepartnerschaften zeigen sich aber auch nicht zwangsläufig intendierte, doch sehr wirkungsvolle Formen von Europäisierung und Governance durch Kommunen und ihre Bürgerinnen und Bürger.
In diesem Aufsatz möchten wir Denk- und Deutungsmuster des mediengestützten Studiums und der mediengestützten Lehre herausarbeiten, welche die These einer qualitativ neuen Form der Bildung stützen2. Der Rahmen, in dem wir uns dabei bewegen, wird einerseits durch die Debatte um die Wissensgesellschaft und andererseits durch die Perspektive der kanadischen Medientheorie3 gekennzeichnet.
Unser Augenmerk gilt den Veränderungen in unserer Alltagskultur, den Deutungs- und Wahrnehmungsmustern und den entsprechenden Erwartungshorizonten, welche sich zunehmend unter den Bedingungen moderner Medientechnologien verändern. Besonders hervorheben wollen wir dabei den Zusammenhang von medientechnischen und kulturellen Modernisierungen. Fragen der Entwicklung und Nutzung neuer Medientechnologien wie dem Internet lassen sich so jenseits einer Sichtweise der Instrumentalisierung in den Blick nehmen. Wir werden uns bei den nachfolgenden Betrachtungen dazuhin auf das Feld der Hochschulen und die dort angesiedelten Fragen zur mediengestützten Lehre beschränken.
Möglichkeiten der Evaluation von E-Learning-Arrangements. Eine Analyse am Beispiel von EverLearn
(2010)
E-Learning in der Hochschulpraxis: wie Lehren und Lernen nicht auf der (virtuellen) Strecke bleiben
(2010)
Die Anforderungen an eine zukunftsorientierte Hochschulentwicklung sind eng mit dem Einsatz neuer Medien verknüpft, welche sich sowohl institutionell, personell und hochschulpolitisch niederschlagen werden. Neben der technischen Integration neuer Lehrformen spielen insbesondere die organisatorischen und didaktischen Implikationen eine zentrale Rolle. Als ein wichtiger Aspekt zur Qualitätssicherung der Hochschullehre bei steigender Studierendenzahl spielen die neuen Medien dahingehend eine Rolle, dass durch den Einsatz innovativer Lehrtechnologien eine verbesserte Betreuung und Beratung der Studierenden angestrebt wird (vgl. Albrecht 2003, S. 83). Häufig wird die Annahme vertreten, dass E-Learning hier eine kostensparende Variante darstellt, die gleichzeitig durch den „Neuigkeitseffekt“ die Lernmotivation der Teilnehmenden steigere (vgl. Meister 2001, S. 167). Die generellen Befürworter des E-Learnings zeigen neue didaktische Handlungsmöglichkeiten auf, z. B. Lernen durch Exploration (insbesondere durch Navigieren, Browsing, Searching, Connecting und Collecting, vgl. Peters 2000), während die empirische Bestätigung erhöhter Lerneffekte im E-Learning noch aussteht. Der folgende Beitrag fordert die Lehrenden dazu auf, die didaktischen Aspekte des E-Learnings stärker in den Blick zu nehmen, damit sich ein lernförderlicher Einsatz computer- und internetbasierter Lehr- / Lernszenarien endlich in der (Hochschul-)Praxis etablieren kann. Denn die gängigste Variante von E-Learning an deutschen Hochschulen – soweit wagen wir uns vor – besteht häufig in der bloßen Informationsdistribution aktueller Seminarinhalte. Didaktische und methodische Überlegungen bleiben dabei ganz offensichtlich auf der Strecke...
Der Einsatz von E-Learning-Angeboten wird seit Mitte der 1990er Jahre intensiv diskutiert (Baumgartner et al. 2002, S. 13) und sowohl von der Industrie als auch von staatlichen Stellen gefördert (Kerres et al. 2005). Neben dem Wunsch nach genereller Modernisierung (Bachmann et al. 2004, S. 1) soll der Einsatz von E-Learning vor allem zu einer Verbesserung der Betreuungsintensität der Lernenden, insbesondere in Massenveranstaltungen an deutschen Hochschulen führen (Grüne et al. 2006; Hiltz 1995; Mathes 2002; Schwickert et al. 2005). E-Learning soll es ermöglichen, die Lernenden intensiver und individueller zu betreuen, und so zu einer Erhöhung des empfundenen Servicegrades beitragen (Alavi 1994; Schutte 1997).
Seit der Abschaffung der zentralen Vergabestelle für Studienplätze (ZVS) müssen Hochschulen solche vermuteten Wettbewerbsvorteile nutzen und sich aktiv um die Steigerung der Bewerberzahlen und die Zufriedenheit der Lernenden bemühen, was zu der Forderung führte, den Einsatz von E-Learning-Angeboten in der Hochschullehre auszudehnen (BLK 2002, S. 1; BMBF 2000). In der Folge wurden große Summen für die Entwicklung und die Implementierung innovativer E-Learning-Angebote bereitgestellt, ohne deren langfristigen Erfolg sicherstellen zu können (Marshall et al. 2004).
In diesem Beitrag untersuchen wir, wie eine nachhaltige Implementierung von E-Learning-Projekten in Hochschulen durch organisatorische Gestaltungsmaßnahmen gefördert werden kann. Die Untersuchung erfolgt aus dem Blickwinkel der Wirtschaftsinformatik, die sich mit dem Potenzial von Informations- und Kommunikationstechnik (IKT) für die Verbesserung von Geschäftsprozessen beschäftigt (Laudon et al. 2007; Lyytinen 1985; WKWI 1994)...
Dem vorliegenden Buch liegt die erkenntnisleitende Annahme zugrunde, dass der ebenso komplexe wie hybride Gegenstandsbereich „E-Learning“ keiner akademischen Fachkultur exklusiv zurechenbar ist oder ihr gar „allein gehört“. Aus diesem Umstand wird gewöhnlich die Notwendigkeit eines stärker inter- und multidisziplinär ausgerichteten Forschens und Arbeitens an den Hochschulen abgeleitet. Doch trotz schlüssiger Begründung der Notwendigkeit, den Blick über den Tellerrand der eigenen Disziplin zu richten und die Kooperation mit Vertretern anderer Fachkulturen zu verstärken, scheinen beim Thema E-Learning die Grenzen zwischen den Disziplinen besonders undurchlässig zu sein. So kommt es, dass die vielfach beschworenen Synergieeffekte im Prozess des wissenschaftlichen Forschens eher die Ausnahme als die Regel darstellen. In der Tat sollte man sich vor diesbezüglichen Illusionen hüten. Denn der Weg zu einer konstruktiven interdisziplinären Forschungs- und Gesprächskultur dürfte noch sehr weit sein, und es ist keineswegs absehbar, ob die damit verbundenen Erwartungen und Hoffnungen sich tatsächlich jemals erfüllen werden...
In diesem Beitrag untersuchen wir den Erfolg von E-Learning-Maßnahmen in einer Massenveranstaltung an der Goethe-Universität Frankfurt am Main. Mit Bezug auf das Modell von Seufert und Euler gehen wir auf die didaktische Dimension der Nachhaltigkeit von E-Learning-Aktivitäten ein (Seufert et al. 2003a, S. 6; Seufert et al. 2003b, S. 18f.). Die didaktische Dimension sehen Seufert und Euler als die zentrale und wichtigste Dimension der Nachhaltigkeit von E-Learning-Angeboten an. Der Einsatz von E-Learning-Maßnahmen muss sich daran messen lassen, ob er Lernziele besser erreicht als alternative, weniger aufwändige Lernszenarien (Seufert et al. 2004, S. 11)...
E-Learning ist das Thema zahlreicher Debatten. Die Beiträge in diesem Buch zielen darauf ab, die Diskussion zu intensivieren und zu vertiefen. Dabei fokussieren die Autoren die Bereiche Hochschule und Weiterbildung als wichtige Einsatzgebiete von E-Learning, mit dem Ziel einer Verbindung beider Bereiche. Dies geschieht aus Sicht der Wirtschaftsinformatik, der Erziehungswissenschaft und der Wirtschaftspädagogik.
Die Autoren zeigen in ihren Beiträgen, wie pädagogische Gesichtspunkte mit Fragen der Organisation und der Informationstechnik verknüpft werden können und leiten daraus Einsatzchancen für E-Learning-Konzepte ab.
Die Psoriasis vulgaris (PsV) ist eine immunvermittelte entzündliche Erkrankung der Haut mit einer Prävalenzrate von 2-3 %, sodass etwa zwei Millionen Menschen in Deutschland an dieser erkrankt sind. Charakteristisch für die PsV sind veränderte Hautareale (Plaques), die im Rahmen der der entzündungsbedingten Durchblutungssteigerung gerötet erscheinen und eine silbrig-weiße Schuppung als Resultat einer vermehrten Abschilferung abgestorbener Keratinozyten aus der hyperproliferativen Epidermis aufweisen.
In dieser Arbeit wurde die Bedeutung des proinflammatorischen Zytokins granulocyte-macrophage colony-stimulating factor (GM-CSF) in der Pathogenese einer modellhaften Experimentalerkrankung der PsV untersucht. GM-CSF wird unter anderem von Interleukin (IL-) 17 produzierenden T-Helferzellen (Th17-Zellen) sezerniert, deren pathogenetische Bedeutung für die PsV gut etabliert ist. Die pathogene Wirkung von GM-CSF als Effektorzytokin konnte bereits in Tiermodellen anderer Th17-vermittelter Autoimmunerkrankungen wie der multiplen Sklerose und der rheumatoiden Arthritis (RA) gezeigt und die therapeutische Wirkung von GM-CSF-neutralisierenden Antikörpern in klinischen Studien an RA-Patienten demonstriert werden.
Das in dieser Arbeit angewendete murine Krankheitsmodell der Imiquimod (IMQ-) induzierten psoriasiformen Dermatitis wird durch die topische Anwendung des Medikaments Aldara®, dessen Wirkstoff IMQ ist, ausgelöst und führt zu einer Entzündung der Haut, die in vielen Aspekten dem humanen Krankheitsbild einer PsV ähnelt. Die pathogenetische Bedeutung von GM-CSF für die IMQ-induzierte psoriasiforme Dermatitis wurde über zwei unterschiedliche experimentelle Ansätze untersucht. So wurde GM-CSF in C57Bl/6J Mäusen mittels eines spezifischen, rekombinanten murinen Antikörpers in der Induktionsphase des Krankheitsmodells neutralisiert und zeitgleich der modifizierte Psoriasis Area Severity Index (PASI-)Score als Parameter des Schweregrades der klinischen Manifestationen ermittelt. Des Weiteren wurde am Versuchsende die Infiltration von Immunzellen in das entzündete Gewebeareal untersucht. Diese Ergebnisse wurden mit den Daten einer Behandlungsgruppe, nach Applikation eines IgG-Isotyp identischen Kontrollantikörpers verglichen. Dabei zeigte die Neutralisierung des Zytokins einen therapeutischen Effekt, der in einem signifikant niedrigeren PASI-Score, einer verringerten Tnfa mRNA Expression und einer reduzierten Infiltration mit neutrophilen Granulozyten resultierte.
Parallel zu diesen Versuchen wurde die Modellerkrankung auch in einer GM-CSF-defizienten C57Bl/6J Mauslinien (GM-CSF-/-) studiert. Die funktionelle Inaktivität des GM-CSF-kodierenden Csf2 Gens wurde 1994 durch gezielte genetische Manipulation etabliert. Unter den experimentellen Bedingungen war der Schweregrad der IMQ-induzierten psoriasiformen Dermatitis in GM-CSF-/- Mäusen nicht signifikant different von dem der wildtypischen (Wt) Mäuse und zeigte somit im Gegensatz zu den Ergebnissen aus den Versuchsreihen der Antikörper vermittelten Zytokinneutralisierung keinen offensichtlichen Hinweis auf eine GM-CSF-Abhängigkeit. In den GM-CSF-defizienten Tieren war jedoch nach IMQ-Induktion eine signifikant höhere Il6 und Il22 mRNA Expression am Entzündungsort im Vergleich zu den Wt Mäusen auffällig. Aufgrund dieser Ergebnisse wurde der Phänotyp der GM-CSF-defizienten Mäuse genauer untersucht und eine vermehrte Anzahl plasmazytoider dendritischen Zellen (pDCs) in Milz und Lymphknoten nachgewiesen. Diese Zellen werden im Rahmen ihrer Differenzierung aus Vorläuferzellen durch GM-CSF suppressiv reguliert und sind sowohl in die Entwicklung der PsV im Menschen als auch die Pathogenese der IMQ-induzierten psoriasiformen Dermatitis involviert. Aufgrund des in den sekundären lymphatischen Organen GM-CSF-defizienter Mäuse expandierten pDC-Kompartiments wurde die Beteiligung dieser Zellen in der Initiationsphase des Modells analysiert. Im Vergleich mit GM-CSF-suffizienten C57Bl/6J Mäusen weisen die Tiere der GM-CSF-defizienten Mauslinie zu diesen Zeitpunkten eine verstärkte Infiltration von pDCs in die Haut auf. Für pDCs ist bekannt, dass sie über die Produktion von IL-6 und TNF die Effektorzelldifferenzierung aktivierter, naiver T-Lymphozyten in Richtung Th22-Zellen polarisieren können. Dieser Mechanismus liefert ein hypothetisches Konzept, das die Ergebnisse zur gesteigerten IL-6-Produktion und Differenzierung IL-22-produzierender T-Zellen in IMQ-behandelten GM-CSF-/- Mäusen im Kontext der nachweisbaren Expansion von pDCs, erklären könnte. Dieser in den GM-CSF-/- Mäusen nachweisbare alternative Pathogenesemechanismus, ist offenbar geeignet die proinflammatorische Wirkung des genetisch fehlenden Zytokins zu kompensieren, aber hinsichtlich seiner Etablierung über ein verändertes pDC-Kompartiment von Dauer und Ausmaß der GM-CSF-Defizienz abhängig. So erklärt sich, warum die zeitlich limitierte Antikörper vermittelte GM-CSF-Neutralisierung in GM-CSF-suffizienten-Mäusen zu keiner pDC-Expansion und Steigerung von IL-6 und IL-22 Expression nach IMQ-Induktion führt.
Die GM-CSF-Neutralisierung durch einen rekombinanten murinen Antikörper reduziert deutlich die Krankheitsschwere der IMQ-induzierten psoriasiformen Dermatitis und belegt damit das therapeutische Potenzial dieses Therapieansatzes für die Humanerkrankung der PsV. Die unter angeborener GM-CSF-Defizienz in den Studien darüber hinaus aufgedeckten Veränderungen des pDC-Kompartiments sind von potenzieller Relevanz für zukünftige therapeutische Anwendungen dieses Prinzips, da unter einer dauerhaften GM-CSF-Neutralisierung mit therapeutischen Antikörpern ein Monitoring dieser Zellpopulation empfehlenswert erscheint z.B. über veränderte Interferonsignaturen durch pDCs, um mögliche Wirkverluste, aber auch unerwünschte Effekte zu erkennen.
Rechtspopulistische Bewegungen machen sich zur Zeit in vielen westlichen Staaten zum Sprachrohr angeblich bisher unterdrückter Bevölkerungsgruppen und Meinungen. Die identitäre Bewegung entwickelt diesen Ansatz weiter zu einem Projekt der autoritären Staatlichkeit gegen Multikulturalismus, Islam und Einwanderung. Dabei verbindet sie ihre Kampagne für einen ethnisch geschlossen Nationalstaat mit der Kritik an der kapitalistischen Globalisierung. Mit einem Sprachduktus, der Politik emotionalisiert, wird durch «geistige Verschärfung» das Programm eines defensiven Ethnonationalismus entfaltet. Dieser beruft sich auf Traditionsbestandteile eines völkischen Antimodernismus und eine von dem russischen Philosophen Alexander Dugin entworfene eurasische Geopolitik.
Ein europäischer Keynesianismus als Grundlage für ein gesamteuropäisches Wirtschaftskonzept würde als offensive Gegenstrategie die Idee einer sozialstaatlichen Erneuerung propagieren können. Zudem sind Akteure aus der Zivilgesellschaft aufgefordert, gegen Fremdenfeindlichkeit und Orientierungsverlust aufklärerisch zu wirken.
Das Folgende ist eine Auseinandersetzung mit dem Zeitungsartikel von Patrick Bahners (FAZ 5. 9. 2015) und zugleich mit seiner wichtigsten Autorität, Gerd Althoff (FmSt 48, 2014, S. 261-76: "Das Amtsverständnis Gregors VII. und die neue These vom Friedenspakt in Canossa"). Zu beiden Texten sind einige Bemerkungen vonnöten. Der vorliegenden Fassung meiner Darlegung gingen Versionen voraus, die an Jürgen Petersohn u.a., sowie jeweils erweitert an Nikolas Jaspert und zuletzt an Folker Reichert geschickt wurden. Ich stelle hiermit diese erweiterte Version (entgegen meiner ursprünglichen Absicht) auf Drängen von Kollegen und Freunden ins "Netz".
Der negative Einfluss auf die Abstoßungsrate, die Transplantatfunktion und das Transplantatüberleben bei Nierentransplantationen von Antikörpern, die im Serum von Transplantatempfängern nachgewiesen werden, ist unumstritten. Die Entwicklung immer sensitiverer Methoden zur Antikörperdetektion wie beispielsweise die Luminex-Technologie wirft jedoch neue Fragen auf: Sind die hier nachgewiesenen, zum Teil sehr niedrigtitrigen Antikörper immer noch relevant für das Outcome von Transplantationen? Oder bergen die hier zusätzlich aufgedeckten Antikörper nur die Gefahr in sich, die Organallokation zu erschweren und mögliche komplikationslose Transplantationen zu verhindern? Zur Beantwortung dieser Fragen erfolgte die Durchführung dieser retrospektiven Studie.
In die Studie wurden Seren von 197 Nierentransplantatempfängern eingeschlossen. Diese Seren wurden vor der Transplantation auf Antikörper im Luminex untersucht und anschließend deren Transplantatfunktion und das Transplantatüberleben in Abhängigkeit vom Antikörperstatus ermittelt. Zusätzlich erfolgte eine Gegenüberstellung mit den Ergebnissen aus den im Rahmen der aktuellen Richtlinien zur Transplantationskompatibilität durchgeführten Testmethoden LCT und ELISA.
Bei einem Vergleich der drei unterschiedlichen Techniken zum HLA-Antikörpernachweis zeigte sich, dass der Luminex eine deutlich größere Sensitivität als der ELISA und insbesondere als der LCT besitzt. Außerdem war nachweisbar, dass die mittels Luminex Technology nachgewiesenen HLA-Antikörper ein schlechteres Transplantatüberleben bewirken (Graphik 4). Dies zeigte sich insbesondere, wenn HLA-Klasse I oder gleichzeitig HLA-Klasse I und HLA-Klasse II Antikörper bei Patienten vorhanden sind (Graphik 5). Im Gegensatz dazu fanden sich bei der Betrachtung der Patienten mit im LCT oder im ELISA nachgewiesen HLA-Antikörpern deutlich geringere, klinisch prognostische Hinweise auf das Transplantatüberleben (Graphik 10 und 13).
Das Transplantatüberleben war signifikant besser bei nicht-immunisierten Patienten als bei der Kohorte, die mittels einer der Nachweismethoden HLA-spezifische Antikörper aufwies. Eine Analyse der Transplantatfunktion, die mithilfe der Proteinurie und des Serum-Kreatinins bestimmt wurde, ergab, dass nicht immunisierte Patienten ein besser funktionierendes Transplantat besitzen als antikörperpositive Empfänger. Ein besonders negativer Einfluss donorspezifischer Antikörper konnte hier jedoch nicht nachgewiesen werden.
Im Hinblick auf die klinische Relevanz der nachgewiesenen HLA-Antikörper erfolgte die Auswertung mit unterschiedlichen MFI Kategorien (MFI 1000, 2000, 3000 und 4000). Anhand dieser Arbeit wurde ein MFI-Grenzwert zur Bestimmung des Antikörperstatus im Luminex von größer oder gleich 1000 im Luminex festgelegt, der am besten mit dem Transplantatoutcome korrelierte. Ein negativer Einfluss donorspezifischer Antikörper konnte jedoch nicht nachgewiesen werden. Es zeigte sich dennoch bei MFI Werten über 2000 ein tendenziell schlechteres Transplantatüberleben, wenn donorspezifische Antikörper vorliegen (Graphik 7).
Bei der Betrachtung des Antikörperstatus im LCT und im ELISA war kein Unterschied hinsichtlich des Transplantatüberlebens in Abhängigkeit vom Antikörperstatus sichtbar. Jedoch wurden die Patientenseren mit diesen beiden Methoden vor der Durchführung der Transplantation auf präformierte Antikörper untersucht und bei positiver Befundung eine intensivierte Immunsuppression veranlasst, was zu einer Beeinflussung des Transplantatoutcomes führt. Eine Unterteilung der nicht immunisierten Patienten im LCT und im ELISA anhand des Luminex-Ergebnisses zeigt, dass Patienten, die sowohl im LCT bzw. ELISA als auch im Luminex keine Antikörper aufweisen ein signifikant besseres Transplantatüberleben besitzen als Empfänger, die nur im Luminex immunisiert sind, jedoch nicht im LCT bzw. im ELISA. Dies lässt darauf schließen, dass die Beachtung von Antikörpern, die ausschließlich im Luminex nachgewiesen werden können, zu einem besseren Transplantatoutcome führt. Somit ist eine Durchführung des Luminex in Kombination mit anderen Antikörpernachweisverfahren von Vorteil.
Zur genauen Beantwortung der anfangs aufgeworfenen Fragen bedarf es sicherlich trotz einiger bereits vorhandener Arbeiten – mit zum Teil jedoch sehr unterschiedlichen Ergebnissen – noch zusätzlicher Studien. Auch sollte die Rolle der Denaturierung der HLA-Antigene auf den Beads, die zu falsch positiven und negativen Resultaten führen können, weiter analysiert werden. Außerdem muss der Einfluss komplementaktivierender Antikörper, wie mit der C1q- und C4d-Technik im Luminex nachweisbar, und der Einfluss nicht HLA-spezifischer Antikörper noch genauer erläutert werden.
Eiskeime (INP) sind Aerosolpartikel, die das Entstehen von Eiskristallen in der Atmosphäre zwischen 0 und -37°C ermöglichen, indem sie die zur Ausbildung der Eisphase nötige Energie gegenüber einem reinen Wassersystem stark herabsetzen. Dabei sind aktive Stellen auf der Oberfläche dieser Partikel für die erste Nukleation von Eis verantwortlich. In der Folge können die Eiskristalle zulasten von verdunstenden Wasserdampfmolekülen und Wassertröpfchen weiter anwachsen. Über Eismultiplikationsprozesse zersplittern und vervielfältigen sich die Eiskristalle und wachsen über Bereifung schließlich zu einer kritischen Größe heran, wodurch sie als Niederschlag zu Boden fallen können. Auch wenn der Anteil der zur heterogenen Eisnukleation fähigen Aerosole vergleichsweise gering ist, spielen INP eine entscheidende Rolle für die Entwicklung von Niederschlag und nehmen Einfluss auf Strahlungsprozesse, indem sie auf die Phase der Wolken und damit auf deren Strahlungseigenschaften einwirken. Viele Fragen im Forschungsgebiet der heterogenen Eisnukleation sind jedoch weiterhin nicht hinreichend genau geklärt. Ohne eine verbesserte Kenntnis von Konzentrationen, geographischer und vertikaler Verteilung, sowie zeitlicher Variation, Quellen und Natur von INP, sind noch vorhandene Wissenslücken im Strahlungsantrieb durch Wechselwirkungen von Aerosolen und Wolken nur zu einem gewissem Grad zu reduzieren. Dies ist nötig, um aktuelle Beobachtungsdaten der sich erwärmenden Atmosphäre besser verstehen und die zukünftigen Änderungen des Klimas sicherer vorhersagen zu können. In dieser Arbeit wird die Vakuumdiffusionskammer FRIDGE verwendet, um atmosphärische INP-Konzentrationen zu bestimmen. Aerosolpartikel werden dabei in einem ersten Schritt auf einem Silicium-Probenträger elektrostatisch niedergeschlagen. Die Effizienz des Sammelprozesses, also der Anteil der Partikel die tatsächlich auf dem Si-Substrat abgeschieden werden, wurde mittels zweier unabhängiger Methoden auf etwa 60% bestimmt. In einem zweiten Mess-Schritt werden die Proben in FRIDGE typischen Bedingungen von Mischphasenwolken ausgesetzt, wodurch Eiskristalle an den INP aktiviert werden und im Verlauf einer Messung anwachsen. Eine Kamera beobachtet die durch das Eiswachstum entstehenden Helligkeitsänderungen auf dem dunklen Probensubstrat. Die Kriterien, wann ein Objekt als Eiskristall identifiziert und gezählt wird, mussten im Rahmen dieser Arbeit neu entwickelt werden. In der zu Beginn der Arbeit vorgefundenen Einstellung hatte bereits eine sehr geringe Helligkeitsänderung, wie sie durch das hygroskopische Wachstum von Aerosolpartikeln hervorgerufen wird, zu Signalen geführt, die fälschlicherweise als Eiskristalle gezählt wurden. Das reevaluierte Messverfahren von FRIDGE wurde im Zuge der FIN-02 Kampagne in einem groß angelegten Laborexperiment an der AIDA Wolkenkammer mit zahlreichen anderen INP-Zählern aus der ganzen Welt verglichen. Für den Großteil der Messungen der untersuchten Modell-Aerosoltypen konnte eine zufriedenstellende Übereinstimmung mit den anderen Instrumenten erzielt werden. In einer einmonatigen Feldmesskampagne im östlichen Mittelmeerraum konnten die ersten INP-Messungen an Bord eines unbemannten Flugzeugs durchgeführt werden. Während der Kampagne auf Zypern wurden mehrere Fälle von transportiertem Saharastaub beprobt, in denen die INP-Konzentration maßgeblich erhöht war. Lidar-Beobachtungen und ein Staubtransportmodell zeigten, dass sich das Maximum der Staubschichten zumeist in etwa 2-4 Kilometern Höhe befand. In der Höhe wurden INP-Konzentrationen gefunden, die im Mittel um einen Faktor 10 größer waren als auf Bodenniveau. Es wird gefolgert, dass INP-Messungen am Boden möglicherweise nur begrenzte Aussagekraft über die Situation nahe der Wolkenbildung besitzen. Im Rahmen BACCHUS-Projekts wurden zwischen August 2014 und Januar 2017 (mit Unterbrechungen) alle 1-2 Tage Proben an drei Reinluftstationen gesammelt (insgesamt über 900). Das INP-Messnetz mit einer geographischen Ausdehnung von der Arktis zum Äquator bestand aus Stationen in Spitzbergen, Martinique und im Amazonas. Die Station im brasilianischen Regenwald ist durch wechselnde Bedingungen von sauberer Regen- und verunreinigter Trockenzeit charakterisiert. In der Trockenzeit steigen die Partikelkonzentrationen durch starke Belastung aus Biomassenverbrennung um eine Größenordnung an; eine gleichzeitige Zunahme der INP-Konzentrationen konnte nicht beobachtet werden. Daraus kann vermutet werden, dass Partikel aus Feueremissionen keine ausgezeichneten Fähigkeiten zur Eisnukleation aufweisen. Die INP-Konzentrationen in der Karibik konnten mit dem Jahresgang von transportieren Saharastaub in Verbindung gebracht werden. In der Arktis wurden die niedrigsten INP-Konzentrationen der drei Stationen beobachtet. Zum Zeitpunkt des Erstellens dieser Arbeit können die determinierenden Einflussfaktoren, sowie der anthropogene Einfluss zur Zeit des arktischen Dunstes noch nicht abschließend geklärt werden.
WiWi news ; Nr. 1 [2017]
(2017)
Wie verhalten sich Freiheit und Geld zueinander? In der liberalen Tradition der Philosophie und der Ökonomik wird Geld meist als bloßes Mittel gefasst, dessen Einführung den Austausch von Waren erleichtert, darüber hinaus jedoch keine tiefergreifenden sozialen Folgen zeitigt. Im Gegensatz hierzu wird in diesem Working Paper der Zusammenhang von Geld und (Un-)Freiheit herausgearbeitet. Im Anschluss an die Tradition kritischer Sozialphilosophie und in Auseinandersetzung mit Marx, Simmel und der neueren Geldsoziologie wird dabei in einem ersten Schritt der paradoxe Charakter dieser gesellschaftlich eröffneten Freiheit dargelegt: Zum einen kultiviert Geld in kapitalistischen Ökonomien eine individuelle Form von Wahlfreiheit. Zum anderen wird über Geld der Zugang zum gesellschaftlichen Reichtum auf ungleiche und disziplinierende Weise strukturiert: Je nach individueller Verfügung über finanzielle Mittel ist man auf unterschiedliche Weise zum Verkauf der eigenen Arbeitskraft angehalten, um den Zugriff auf Güter und die eigene Reproduktion zu sichern. Diese paradoxe Form von Freiheit wird in einem zweiten Schritt hinsichtlich ihrer Entfremdungstendenz befragt: Insofern die über die Institution des Geldes eröffnete Freiheit ihren gesellschaftlichen Ermöglichungsgrund verdeckt, kann sie als eine fetischisierte Form von Freiheit begriffen werden.
Kardiovaskuläre Erkrankungen stellen in Deutschland die häufigste Todesursache dar [1]. Eine Schlüsselrolle wird hierbei der koronaren Herzkrankheit (KHK) auf dem Boden einer Atherosklerose zuteil. Die Prävalenz der koronaren Herzkrankheit in Deutschland lag 2012 laut Zahlen des Robert Koch-Instituts bei 8,3 %; dies entspricht 6,64 Millionen Menschen. Die Spitzengruppe bilden die über 65-Jährigen mit einer Erkrankungshäufigkeit von 18,3 % bei Frauen und 27,8 % bei Männern. Oberstes Therapieziel bei der Behandlung der KHK ist die Prävention von Myokardinfarkten und Herzinsuffizienz. Wegweisend für das therapeutische Procedere sind die klinische Situation des Patienten und die Ergebnisse der kardialen Diagnostik. Sind mehrere Koronargefäße betroffen oder bestehen komplizierte Gefäßverengungen ist die Indikation zur operativen Myokardrevaskularisierung gegeben. Im Jahr 2015 unterzogen sich in Deutschland 51.941 Patienten einem solchen Eingriff [2]; weltweit erhalten jährlich fast eine Millionen Patienten eine Bypass-Operation [3]. Für den Therapieerfolg ist postoperativ eine suffiziente Thrombozytenaggregationshemmung von essentieller Bedeutung. Daher wird zur Sekundärprophylaxe eine lebenslange antiaggregatorische Medikation empfohlen; das am häufigsten hierfür genutzte Medikament ist Acetylsalicylsäure (ASS) [4]....
Ziel der vorliegenden Studie war, mittels MEA, die Prävalenz und mögliche Prädiktoren einer ASS-Nonresponse in einer Kohorte kardiochirurgischer Patienten zu analysieren.
Es wurden folgende Nullhypothesen aufgestellt:
- Die tägliche Einnahme von 100 mg ASS ist ausreichend, um bei allen Patienten eine therapeutische Thrombozytenaggregationshemmung zu erreichen.
- Es existieren keine Prädiktoren für die mittels MEA detektierte ASSNonresponse.
In his Yiddish autobiography “Fun Lublin biz Rige”, Riga: 1940, the actor Abraham Eines reported on his 30-year lasting career as an actor in Yiddish theatre companies in Eastern Europe and also on the period when he was an artist in the Yiddish theatre in Riga. The so called “Naier idisher teater” had been planned since 1913 and opened in 1927 on the initiative of Jakob Landau, Paul Minz and Lew Ginsberg.
This thesis is based on Eines’ autobiography and researches in Latvian, Lithuanian and Polish archives and libraries. The aim was to reconstruct the history of this specialized Yiddish theatre, which fortunately is kept until today in the art nouveau quarter of Riga.
The thesis deals with the history of this theatre, the plans which resulted in the construction of the building, people and organisations that were involved, its opening, playing schedules, companies and actors as well as the intercultural, economic and social environments and activities.
In January 1927, the “Naier idisher teater” opened under the main direction of M. Karpinowitsch and the art direction of Abraham Morewski. It was financially supported by membership fees from the “Jewish Theatre Company”. New artists were often engaged by the “Warsaw Association of Artists”.
In the following years, the art direction changed several times because of disagreements between the direction of the theatre and the company. Actors demanded more sophisticated plays and greater artistic licenses. The theatre had big economic problems. The repertoire of the theatre differed distinctly from that of the guest companies coming to Riga: the “Vilner Trupe”, staged Yiddish classics by Scholem Alejchem, Scholem Asch, Jacob Gordin, as well as by Oskar Wilde, Shakespeare and Moliere. Furthermore, Alexander Granovsky (GOSET) gave guest performances with his company of the Moscow theatre “Habima” in Riga. Besides “Habima” started its Europe tour in this Yiddish theatre Riga. Many artists were partly engaged for a long period in Riga`s “Naier idisher teater” and the theatre was well attended – on average 70 000 visitors per season. The theatre was equipped with 473 seats and 160 seats on balconies. It existed with different names until the occupation of Riga by the Germans. Today, the museum „Jews in Latvia“ (Muzejs Ebreji Latvijā) is located in the former theatre building.
This is a not revised edition of the thesis.
RNA-Aptamere sind kurze einzelsträngige Oligonukleotide, die ein Zielmolekül spezifisch erkennen und über ihre 3D-Struktur binden. Die Identifizierung von Aptameren erfolgt mittels in vitro Selektion nach dem Kriterium einer hohen Bindungsaffinität und/oder -spezifität. Das Tetracyclin-bindende Aptamer gehört zu den Aptameren mit der höchsten bekannten Liganden-Affinität. Darüber hinaus gehört es zu den wenigen RNA-Aptameren, die in vivo als artifizieller Riboswitch zur Modulation der Genexpression eingesetzt werden können. Im Rahmen der vorliegenden Arbeit wurde das Tetracyclin-bindende Aptamer mittels NMR-spektroskopischer und biophysikalischer Methoden im ligandfreien sowie im ligandgebundenen Zustand untersucht, um neben der bereits bekannten Kristallstruktur des RNA-Tetracyclin-Komplexes Aufschlüsse über den dynamischen Ligandenbindungsprozess und die damit verbundene genregulatorische Aktivität des Aptamers zu erhalten. Hierfür wurde der Einfluss von Mg2+-Ionen auf die globale und lokale Strukturausbildung des ligandfreien Aptamers analysiert. Durch die Bindung von Mg2+-Ionen an die RNA wird eine kompakte RNA-Struktur stabilisiert, die neben zahlreichen komplexen Tertiärinteraktionen eine starre Bindungstasche ausbildet, in der der Ligand nach einem „Schlüssel-Schloss-Prinzip“ bindet. Die Ligandbindung zieht nur noch kleinere strukturelle Änderungen nach sich. Mittels der Stopped-Flow-Technik wurden die kinetischen Aspekte der Ligandbindung in Abhängigkeit der Mg2+-Konzentration untersucht. Diese Methode ermöglichte die Analyse der Zusammenhänge zwischen RNA-Faltung und anschließender Komplexbildung in Echtzeit. Die Analyse der Stopped-Flow-Messungen ergab, dass die Geschwindigkeit des Ligandbindungsprozesses wesentlich von der Mg2+-induzierten Strukturausbildung abhängig ist. Die Mg2+-vermittelte globale Organisation der RNA-Struktur ist somit der geschwindigkeitsbestimmende Schritt des Ligandbindungsprozesses. Die RNA-Mg2+-Interaktionen bestimmen also nicht nur die 3D-Struktur des Tetracyclin-bindenden Aptamers, sondern auch die Kinetik des Ligandbindungsprozesses. Der detaillierte Vergleich des Tetracyclin-Aptamers in seiner ligandfreien und ligandgebundenen Form ergab, dass trotz der stark ausgeprägten strukturellen Ähnlichkeit, lediglich die ligandgebundene Form in einer thermisch stabilen Konformation vorliegt. Die signifikante Erhöhung der Thermostabilität durch die Ligandbindung ist die essentielle Voraussetzung für die genregulatorische Funktion des Aptamers. Basierend auf diesen Ergebnissen ist also nicht die Struktur, sondern die strukturelle Stabilität ausschlaggebend für die regulatorische Aktivität des Tetracyclin-bindenden Aptamers.
Ein weiterer Teil dieser Arbeit beschäftigt sich mit der Charakterisierung des Bindungsmodus von GTP an die GTP-bindenden Aptamere 9-4, 10-10, Klasse II und Klasse V. Durch den direkten NMR-spektroskopischen Nachweis von Wasserstoffbrückenbindungen konnte eine intermolekulare G:C-Watson-Crick-Basenpaarung zwischen GTP und den GTP-bindenden Aptameren 9-4, 10-10 und Klasse II gezeigt werden. Basierend auf diesen Ergebnissen konnte durch eine C zu U Mutation die Bindungsspezifität des Aptamers Klasse II von GTP zu 2-Amino-ATP verändert werden.
Weiterhin konnte im Rahmen dieser Arbeit ein intermolekularer G-Quadruplex als Ligandbindungsmodus zwischen GTP und dem GTP-bindenden Aptamer Klasse V beschrieben werden. Hierbei bildet GTP mit sieben Guanin-Basen der RNA eine intermolekulare G-Quadruplexstruktur, bestehend aus zwei übereinanderliegenden Guanin-Tetraden, aus. Durch den Einsatz von 15N-markiertem NH4+ konnte eine spezifische Kaliumbindungsstelle im Zentrum der Quadruplexstruktur lokalisiert werden, die zur Stabilisierung des RNA-Ligand-Komplexes dient. Die beobachteten NOE-Kreuzsignale zwischen den Protonen des gebundenen NH4+ und den Protonen der RNA bestätigten dabei die Ausbildung eines intermolekularen G-Quadruplexes. Zusätzlich ergab die Analyse der NMR-Spektren, dass die G-Quadruplexstruktur erst im Zuge der Ligandbindung ausgebildet wird. Die Bildung eines G-Quadruplexes, in der der Ligand einen integralen Bestandteil der Quadruplexstruktur darstellt, ist ein bislang unbeschriebener Bindungsmechanismus.
Die chemischen und physikalischen Eigenschaften eines Festkörpers sind vom inneren Aufbau des Festkörpers abhängig. Die Methode der Wahl zur Bestimmung von Kristallstrukturen sind Beugungsexperimente. Fehlordnungen in den Kristallstrukturen werden mit Beugungsexperimenten häufig nur unzureichend ausgewertet oder ignoriert. In dieser Arbeit wurden die (möglichen) Stapelfehlordnungen der Aminosäuren DL-Norleucin und DL-Methionin, sowie von Chloro (phthalocyaninato)aluminium(III) untersucht. Dazu wurden Gitterenergieminimierungen mit Kraftfeld- und quantenchemischen Methoden an einem Satz geordneter Modellstrukturen durchgeführt.
In den Kristallstrukturen der α- und β-Phasen von DL-Norleucin ordnen sich die Moleküle in Doppelschichten an und bilden jeweils eine Schichtstruktur mit unterschiedlicher Stapelsequenz. Röntgenbeugungsexperimente an Kristallen dieser Verbindung zeigen charakteristische diffuse Streuung. Die durchgeführten Gitterenergieminimierungen reproduzieren die experimentelle Stabilitätenreihenfolge der beiden Polymorphe von DL-Norleucin. Die berechneten Gitterenergien zeigen, dass es für DL-Norleucin bevorzugte Stapelsequenzen gibt. Die Gitterenergien und Molekülstrukturen einer einzelnen Doppelschicht sind dabei von der Anordnung benachbarter Doppelschichten abhängig. Zudem wurden Strukturmodelle mit Stapelsequenzen aufgebaut, die aus kristallographischer Sicht möglich sind, jedoch experimentell nicht beobachtet wurden, und deren Gitterenergie berechnet. Diese Stapelsequenzen liefern im Vergleich zu den energetisch günstigsten Stapelsequenzen einen signifikanten Energieverlust und treten daher selten auf. Ausgehend von den Ergebnissen der Gitterenergieminimierungen mit DFT-D-Methoden wurden Stapelwahrscheinlichkeiten mit Hilfe der Boltzmann-Statistik berechnet. Es wurde ein großes geordnetes Modell mit einer Stapelsequenz gemäß der Stapelwahrscheinlichkeiten aufgebaut. Dieses Modell wurde verwendet, um Beugungsexperimente zu simulieren und mit experimentellen Daten zu vergleichen. Die theoretischen und experimentellen Beugungsdaten waren in guter Übereinstimmung.
Die Moleküle in den Kristallstrukturen der α- und β-Phasen von DL-Methionin bilden Doppelschichten. Die beiden Phasen unterscheiden sich in der Stapelung der Doppelschichten und der Molekülkonformation. Es wurden Gitterenergieminimierungen sowohl mit Kraftfeld-Methoden als auch mit DFT-DMethoden an geordneten Modellen mit unterschiedlichen Stapelsequenzendurchgeführt. Die experimentell bestimmte Stabilitätenreihenfolge der Polymorphe von DL-Methionin bei tiefen Temperaturen wurde durch die Ergebnisse der kraftfeldbasierten Rechnungen reproduziert. Die Modellstrukturen wurden während den Rechnungen moderat verzerrt. Die Bandbreite der relativen Energien aller Modelle ist relativ gering, sodass eine Stapelfehlordnung aus thermodynamischer Sicht nicht ausgeschlossen werden kann. In der Regel liefern Gitterenergieminimierungen mit DFT-D Methoden genauere Ergebnisse. Die Modellstrukturen wurden während den Rechnungen nur leicht verzerrt. Allerdings unterscheidet sich das Energieranking zwischen den Kraftfeld- und DFT-D-Methoden deutlich. Die experimentell bestimmte Stabilitätenreihenfolge der Polymorphe von DL-Methionin wurde mit DFT-D-Methoden nicht reproduziert. Die Energieunterschiede zwischen den beiden Polymorphen (ΔE = 1,60 kJ∙mol−1 (DFT-D2) bzw. ΔE = 0,83 kJ∙mol−1 (DFT-D3)) sind relativ gering und liegen im Fehlerbereich der Methode. Die Bandbreite der relativen Energien aller Strukturmodelle beträgt nur etwa 1,8 kJ∙mol−1. Auf dieser Grundlage ist eine Stapelfehlordnung in den Kristallstrukturen von DL-Methionin möglich, jedoch nicht experimentell beobachtet. Nicht nur die Kraftfeld-,sondern auch die DFT-D-Methoden scheinen für die Berechnung der Gitterenergien für das System DL-Methionin nicht genügend genau zu sein. Die erhaltenen relativen Energien sollten daher mit Vorsicht betrachtet werden.
Chloro(phthalocyaninato)aluminium(III) (AlPcCl) bildet eine Schichtstruktur, in der sich die Moleküle zu Doppelschichten zusammenlagern. Die 1984 durchgeführte Kristallstrukturbestimmung [98] lieferte auf Grund der schlechten Datenqualität nur eine ungenaue Kristallstruktur. Die asymmetrische Einheit enthält zwei Moleküle, von denen das eine Molekül geordnet, das andere fehlgeordnet ist. Die Kristallstruktur von AlPcCl ist fehlgeordnet, weil eine einzelne Doppelschicht von Molekülen eine tetragonale P4/n-Symmetrie aufweist, die vier symmetrieäquivalente Möglichkeiten bietet, eine zweite Doppelschicht auf einer ersten Doppelschicht zu platzieren. Mit Hilfe der OD-Theorie wurde ein Satz geordneter Modelle mit verschiedenen Stapelsequenzen aufgestellt und die Gitterenergie zunächst mit Kraftfeld-Methoden und anschließend mit DFT-DMethoden berechnet. Auf Grund unzureichender Parametrisierung, musste das Kraftfeld an das System AlPcCl angepasst werden. Die Modellstrukturen werden während den Kraftfeld-Rechnungen nur leicht verzerrt. Die berechneten Gitterenergien hängen allerdings stark von der verwendeten Parametrisierung und den Atomladungen ab und sollten daher mit Vorsicht betrachtet werden. Genauere Ergebnisse erzielten Gitterenergieminimierungen mit DFT-D-Methoden. Die verschiedenen Stapelsequenzen haben eine ähnliche Energie, was die Stapelfehlordnung in der Kristallstruktur von AlPcCl erklärt. Die Überlagerung der vier energetisch günstigsten geordneten Stapelsequenzen führt zu einer gemittelten Struktur, die sehr gut die fehlgeordnete experimentelle Kristallstruktur von AlPcCl erklärt.
Die Verarbeitung während des Hörprozesses von Säugetieren verläuft von der Kochlea mit den inneren und äußeren Haarsinneszellen (äHZ) über afferente Nervenbahnen bis zum auditorischen Kortex (AK). Die daran beteiligten Schaltstationen und deren Funktion sind überwiegend aufgeklärt. Die Hörbahn ist zudem in besonderer Weise durch efferente Rückkopplungen gekennzeichnet, die interne Modulationen sowie sekundäre Reaktionen auf den Reiz ermöglichen. Anatomisch betrachtet verlaufen efferente Projektionen vom AK zu sämtlichen am Hörprozess beteiligten Kerngebieten. Vom Olivenkomplex erfolgt über mediale und laterale Fasern eine Innervation der äHZ bzw. des Hörnervs. Trotz der gut beschriebenen Anatomie ist die funktionelle Beziehung zwischen dem AK und der Peripherie weitgehend ungeklärt. In der vorliegenden Arbeit wurde der funktionelle Zusammenhang vom AK zu den äHZ in der mongolischen Wüstenrennmaus untersucht. Dafür wurde entweder eine pharmakologische Blockierung der Kortexaktivität durch den Natriumkanalblocker Lidocain erzeugt oder eine Aktivierung der Kortexaktivität durch die Anwendung elektrischer Reize ausgelöst. Der Einfluss der Manipulationen wurde in der Kochlea mittels Messungen von Distorsionsprodukt-otoakustischen Emissionen (DPOAE) erfasst. Diese entstehen durch die nichtlineare Verstärkung leiser Schallsignale durch die äHZ zur Erzielung hoher Sensitivität und Frequenzauflösung. Die DPOAE treten als kubische (z. B. 2f1-f2) und quadratische (z. B. f2-f1) Verzerrungen auf und geben Aufschluss über unterschiedliche Parameter der äHZ-Verstärkungsfunktion.
Die Lidocainversuche wurden entweder kontra- oder ipsilateral zur DPOAE-Messung durchgeführt. In beiden Konstellationen traten nach der Lidocaininjektion Erhöhungen und Verringerungen der DPOAE-Pegel im Vergleich zur Basismessung oder unveränderte DPOAE-Pegel auf. Im Mittel lagen die Pegeländerungen bei ca. 11 dB, in Einzelfällen betrugen sie bis zu 44,8 dB. In den Gesamtdaten waren die Effekte nach kontralateraler Injektion oft signifikant größer als nach ipsilateraler Injektion. Ebenso waren die Effekte in der 2f1-f2 Emission meist signifikant größer als in der f2-f1 Emission. Zudem wurde beobachtet, dass signifikant größere Effekte bei einer Stimulation mit Pegeln von 60/50 dB SPL im Vergleich zu 40/30 dB SPL erreicht wurden. Grundsätzlich trat in allen Datensätzen eine Reversibilität der DPOAE-Pegel mit zunehmender Versuchsdauer auf. Die Effekte waren direkt nach der Injektion am größten und erreichten je nach Stimuluspegel und Emissionstyp nach 28-100 min die Basispegel. In keinem der Datensätze lag eine Abhängigkeit der im Kortex gereizten charakteristischen Frequenz (CF) zum betroffenen Frequenzbereich in der Kochlea vor. Die Effekte waren über den gesamten gemessenen Frequenzbereich von 1-40 kHz nachweisbar. Allerdings waren die Frequenzbereiche von 1-10 kHz und 30,5-40 kHz besonders stark von der Lidocaininjektion betroffen.
Auch nach der elektrischen Reizung wurden die drei oben beschriebenen Effekttypen definiert. Mit 54,6 % war der Prozentsatz unveränderter DPOAE-Pegel allerdings sehr hoch. In den anderen beiden Kategorien konnten zusätzlich Differenzierungen im zeitlichen Verhalten der DPOAE-Pegel vorgenommen werden. In 21,6 % bzw. 16,5 % der Datensätze waren die Verringerungen bzw. Erhöhungen bis zum letzten gemessenen Zeitpunkt nach der elektrischen Reizung irreversibel und nur in jeweils 2,8 % der Datensätze war eine Reversibilität zu verzeichnen. In diesen Fällen war die Effektdauer mit im Mittel 31 bzw. 25 min kürzer als in den Lidocainversuchen. Auch die Effektstärken waren mit maximal 23,9 dB und je nach Effekttyp im Mittel 5,1-13,7 dB geringer als nach der Lidocaininjektion. Die größten Effekte traten in einem mittleren Stimuluspegelbereich von 45-55 dB SPL auf. Wiederum konnte keine Abhängigkeit des betroffenen Frequenzbereichs von der kortikal gereizten CF nachgewiesen werden. In Einzelfällen waren auf DPOAE-Ebene nur die Frequenzen ober- und unterhalb der kortikalen CF beeinflusst, wohingegen bei der CF selbst keine Effekte auftraten.
Durch Kontrollexperimente (Salineinjektion bzw. Einführen der Elektrode ohne elektrische Reizung) konnte nachgewiesen werden, dass die Effekte durch die Manipulation der Kortexaktivität hervorgerufen wurden. Somit liegt eine funktionelle Beziehung zwischen dem AK und der Peripherie vor, die langanhaltende massive Ausmaße annehmen kann. Die Effektrichtung ist vermutlich durch die exzitatorisch oder inhibitorisch wirkenden Neurone vom Colliculus inferior zum Olivenkomplex bedingt. Die größeren Effekte in der kontralateralen Konfiguration lassen sich durch die Diskrepanz in der Anzahl der gekreuzten (2/3) und ungekreuzten (1/3) medialen Efferenzen erklären. Die kubischen Komponenten der äHZ-Verstärkungsfunktion scheinen stärker beeinflusst zu sein als die quadratischen Komponenten, was in größeren Pegeländerungen in der 2f1-f2 Emission resultiert. Die teils großen Effektstärken sowie die nicht vorhandene Frequenzabhängigkeit zwischen AK und Kochlea sind vermutlich auf den großen Kortexbereich zurückzuführen, der von den gewählten Injektionsvolumina bzw. elektrischen Reizstärken betroffen war. Die großen Effekte im mittleren Stimuluspegelbereich lassen sich sowohl mit einer möglichen Schutzfunktion der Efferenzen vor zu lauten Schallereignissen als auch mit einer Verbesserung des Signal-Rausch-Verhältnisses zur erleichterten Detektion akustischer Signale in Einklang bringen. Insgesamt deuten die Ergebnisse darauf hin, dass die Aktivität des AK einen starken Einfluss auf periphere auditorische Mechanismen hat, wodurch die kochleäre Verarbeitung akustischer Signale je nach kortikalem Verarbeitungsstatus massiv modifiziert werden kann.
Die Verknüpfung des Fahrrades mit dem Öffentlichen Verkehr (ÖV) kann den Umweltverbund stärken, den Übergang von einem Verkehrssystem auf das andere erleichtern und eine attraktive Alternative zum motorisierten Individualverkehr schaffen. Die vorliegende Arbeit repräsentiert den ersten umfassenden Projektbericht innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“. Ziel dieser Publikation ist eine aktuelle Aufarbeitung des Standes der Forschung und der Praxis zu diesem Thema.
Nach einer systematischen Darstellung wichtiger Forschungsstränge, werden zunächst Ergebnisse aus dem „Mobilität in Deutschland“-Datensatz hinsichtlich intermodaler Rad‐ÖV‐Nutzungsmuster präsentiert. Aufbauend darauf werden Datengrundlagen und generelle Erfordernisse an Erhebungsmethoden diskutiert, um die inter- und multimodale Verkehrsmittelnutzung tatsächlich beurteilen zu können. Die Darstellung des aktuellen Standes in der Praxis wird anhand von drei Schwerpunkt-Feldern vorgenommen: Bike and Ride Abstellanlagen an Haltestellen des ÖV, Radmitnahme in den Fahrzeugen des ÖV und Fahrradverleihsysteme. Dabei werden sowohl infrastrukturelle Maßnahmen als auch Betreiberkonzepte und Marketingaspekte behandelt. Ein weiteres Kapitel beschäftigt sich mit den Chancen und Herausforderungen im Zuge der fortschreitenden Digitalisierung und der Verbreitung von mobilen Endgeräten.
Die Goethe-Universität ernannte 1959 den Frankfurter NS-Schul- und Kulturdezernenten Rudolf Keller sowie den NS-Stadtkämmerer Friedrich Lehmann zu Ehrenbürgern. Vor allem: sie erklärte beide feierlich zu NS-Gegnern. In welche NS-Untaten aber waren beide involviert und worüber waren sie informiert? Das Ergebnis ist die Historiographie: „Schuld und Ehrung. Die Kommunalpolitiker Rudolf Keller und Friedrich Lehmann zwischen 1933 und 1960 - ein Beitrag zur NS-Geschichte in Frankfurt am Main“. Es wird vielfältig und en détail dargelegt, wie beide an NS-Verbrechen und Vergehen beteiligt waren; ihre Rolle im „Dritten Reich“ wird nachgezeichnet. Die Untersuchung fügt sich in aktuelle Forschungen zum erweiterten Täterkreis und zu intellektuellen Unterstützern ein. Die Studie wendet sich an das lokale wie das überregionale Fachpublikum und an die Frankfurter Stadtgesellschaft.
Fossile Rohstoffe dienen in unserer heutigen Gesellschaft als Energiequelle und als Rohstofflieferant für Grund-, Feinchemikalien und Pharmazeutika. Sie tragen jedoch zum Klimawandel und Umweltverschmutzung bei. Lignocellulosische Biomasse ist eine erneuerbare und nachhaltige Alternative, die durch biotechnologische Prozesse erschlossen werden kann. Die Bäckerhefe Saccharomyces cerevisiae ist ein sehr gut untersuchter Modellorganismus, für den es zahlreiche genetische Werkzeuge und Analysemethoden gibt. Zudem wird S. cerevisiae häufig in biotechnologischen Prozessen eingesetzt, da diese Hefe robust gegenüber industriellen Bedingungen wie niedrigen pH-Werten, toxischen Chemikalien, osmotischem und mechanischem Stress ist. Die Pentose D-Xylose ist ein wesentlicher Bestandteil von lignocellulosischer Biomasse, die aber nicht natürlicherweise von der Bäckerhefe verwerten werden kann. Für eine kommerzielle Herstellung von Produkten aus lignocellulosischer Biomasse muss S. cerevisiae D-Xylose effektiv verwerten. Für die Bäckerhefe konnten heterologe Stoffwechselwege etabliert werden, damit diese D-Xylose verwerten kann. Für eine effiziente Xyloseverwertung bleiben dennoch zahlreiche Herausforderungen bestehen. Unter anderem nehmen die Zellen D-Xylose über ihre endogenen Hexosetransporter nur langsam auf. Die heterologe Xylose-Isomerase (XI) besitzt in S. cerevisiae eine geringe Aktivität für die Isomerisierung von D-Xylose. Unspezifische Aldosereduktasen konkurrieren mit der Xylose-Isomerase um das gleiche Substrat und produzieren Xylitol, ein starker Inhibitor der Xylose-Isomerase. Eine Möglichkeit die Umsatzrate von Enzymen zu steigern und Substrate vor Nebenreaktionen zu schützen, ist die Anwendung von Substrate Channeling Strategien. Bei Substrate Channeling befinden sich die beteiligten Enzyme in einem Komplex, wodurch die Substrate lokal angereichert werden und von einem aktiven Zentrum zum nächsten weitergeleitet werden, ohne Diffusion in den restlichen Reaktionsraum. In dieser Arbeit wurde untersucht, ob ein Komplex zwischen einem membranständigen Transporter und einem löslichen Enzym konstruiert werden kann, um durch Substrate Channeling eine verbesserte Substrat-Verwertung zu erreichen. Die Xylose-Isomerase aus C. phytofermentans und die endogene Hexose-Permease Gal2 sollten in dieser Arbeit als Modellproteine in S. cerevisiae-Zellen mit Hilfe von Protein-Protein-Interaktionsmodulen (PPIM) in räumliche Nähe zueinander gebracht werden.
Die Expression verschiedener PPIM konnte in S. cerevisiae mittels Western Blot nachgewiesen werden. Auch Fusionsproteine aus unterschiedlichen PPIM wurden in dieser Hefe exprimiert. Die PPIM binden komplementäre PPIM oder kurze Peptidliganden, welche an die Xylose-Isomerase und an den Gal2-Transporter fusioniert wurden. Die Funktionalität beider Proteine wurde mittels in vivo und in vitro Tests untersucht. Die Xylose-Isomerase mit N-terminalen Liganden des WH1-Protein-Protein-Interaktionsmoduls (WH1L-XI) und der Gal2-Transporter mit N-terminalen SYNZIP2-Protein-Protein-Interaktionsmodul (SZ2-Gal2) erwiesen sich als geeignete Kandidaten für weitere Untersuchungen. Mittels indirekter Immunfluoreszenz konnte die Ko-Lokalisierung von SZ2-Gal2 und WH1L-XI, die einander über ein Scaffold-Protein binden, nachgewiesen werden.
Transformanten, in denen ein Komplex aus Transporter, Scaffold-Protein und Xylose-Isomerase gebildet wurde, zeigten bessere Fermentationseigenschaften gegenüber der Scaffold-freien Kontrolle und dem Wildtyp: Sie verwerteten Xylose schneller, bildeten weniger vom unerwünschten Nebenprodukt Xylitol, produzierten mehr Ethanol und wiesen eine höhere Ethanolausbeute auf. Der beobachtete Substrate Channeling Effekt kompensierte die geringere Enzymaktivität der WH1L-XI im Vergleich zum Wildtyp-Protein. Die Wirksamkeit des Substrate Channeling wurde verringert, wenn die Bildung des Komplexes aus Transporter, Scaffold-Protein und Xylose-Isomerase gestört wurde, indem ein getaggtes GFP mit dem Scaffold-Protein um die Bindungsstelle an Gal2 konkurrierte. Dies zeigt, dass die positive Wirkung auf die Komplex-Bildung zwischen XI und Gal2 zurück zu führen ist. Die Fermentationseigenschaften konnten gesteigert werden, indem der zuvor zwischen SZ2-Zipper und Gal2-Transporter verwendete Linker, der aus zehn Aminosäuren von Glycin, Arginin und Prolin (GRP10) bestand, durch einen aus Glycin und Alanin (GA10) ersetzt wurde. Die verbesserten Fermentationseigenschaften beruhten auf einem Substrate Channeling Effekt und einer gesteigerten Aufnahmerate des SZ2-GA10-Gal2-Transporters. Ein Vergleich der Strukturvorhersagen von SZ2-GRP10-Gal2 und SZ2-GA10-Gal2 zeigte, dass der GRP10-Linker einen unstrukturierten, flexiblen Linker ausbildet, während der GA10-Linker eine starre α-Helix ausbildet. Die Struktur und der Transportprozess von Gal2 sind nicht aufgeklärt. Bei verwandten Transportern geht man davon aus, dass Substrate durch Konformationsänderungen ins Innere der Zelle transportiert werden, indem die beiden Domänen gegeneinander klappen. Die α-Helix könnte die Geschwindigkeit der Konformationsänderungen begünstigen.
Durch Kontrollexperimente konnte ausgeschlossen werden, dass die gesteigerten Fermentationseigenschaften eine Folge der Stabilisierung der XI- und Gal2-Fusionsproteine durch das Anfügen des Liganden oder durch Komplexbildung mit dem Scaffold-Protein waren. Substrate Channeling zwischen Gal2 und XI entsteht durch die Komplexbildung mit dem Scaffold-Protein, wodurch sich Gal2 und XI in räumlicher Nähe zueinander befinden. Dieser Effekt beruht möglicherweise zusätzlich aufgrund einer hohen örtlichen Ansammlung dieser Proteine, da die tetramere XI weitere Scaffold-Proteine binden könnte, welche weitere Gal2-Transporter binden könnte. Darüber hinaus sammeln sich Transporter an bestimmten Orten der Membran an und Transporter mit ähnlicher oder gleicher Transmembransequenz tendieren dazu zu ko-lokalisieren. Hierdurch könnten Gal2-XI-Agglomerate entstehen und Xylose wird mit hoher Wahrscheinlichkeit von einer der vielen Xylose-Isomerasen umgesetzt.
HCMV ist ein Pathogen mit einer weltweit sehr hohen Prävalenz und stellt nach wie vor ein großes Problem für Immunsupprimierte (Transplantations- und AIDS-Patienten) und für ungeborene Kinder dar. Seine Pathogenese ist weiterhin nur unzureichend bekannt, eine Impfprophylaxe existiert nicht und es stehen nur wenige, unzureichende Medikamente zur Therapie zur Verfügung. Auch ein verstärkender Einfluss des Virus auf die Tumormalignität ist gezeigt. Aber die der viralen Onkomodulation zugrundeliegenden Mechanismen, insbesondere die Frage, wie und wann Tumorwachstum und -invasion durch HCMV beschleunigt werden, bedürfen weiterer Aufklärung.
Die immediate early-Proteine IE1 und IE2 sind wichtige Regulatorproteine einer HCMV-Infektion – insbesondere IE1, welches einen entscheidenden Einfluss auf die Genexpression der Wirtszelle nimmt. Es wurde a-priori die Hypothese erstellt, dass über einen positiven Einfluss von IE1 auf die Enterokinaseexpression die Trypsin-vermittelte Tumorinvasion gefördert wird.
Im ersten Teil dieser Arbeit wurde ein effizientes, zuverlässiges Protokoll zur Herstellung IE1- und IE2-exprimierender Tumorzelllinien mit Hilfe von lentiviralem Gentransfer ausgearbeitet. Damit verbunden konnten zwei persistent-transduzierte humane Tumorzelllinien, U-251 MGIE1 und U-251 MGIE2, mit hohen Expressionsraten etabliert werden. Weiter konnte im zweiten Teil der Arbeit, sowohl im Akutmodell als auch an persistent-transduzierten Zellen, gezeigt werden, dass die Enterokinaseexpression nicht im Zusammenhang mit der IE1-Expression steht.
Durch die Erarbeitung des Transduktions-Protokolls und die Etablierung der persistent-transduzierten humanen Tumorzelllinien ist es nun möglich, die isolierten Auswirkungen von IE1 und IE2 auf humane Tumorzellen zu untersuchen. Die Widerlegung der Hypothese über die Beeinflussung der Enterokinaseexpression durch IE1 liefert eine Erkenntnis, um die Mechanismen der erhöhten Tumorinvasion besser verstehen zu können. Insgesamt konnte durch diese Arbeit ein Beitrag geliefert werden, die durch HCMV verursachten onkomodulatorischen Effekte noch besser nachvollziehen zu können. Dies wiederum kann künftig dazu dienen therapeutische Strategien, welche der Invasion und Metastasierung entgegen wirken, zu verbessern bzw. zu entwickeln.
Hintergrund: CD34+ Zellen besitzen eine essenzielle Rolle in der Hämatopoese und vaskulären Homöostase. Das Ziel unserer Studie war, erstens, in vitro die Rolle des thrombozytären JAM-C bei der Adhäsion und anschließenden Differenzierung von humanen CD34+ Zellen zu endothelialen Progenitorzellen zu analysieren sowie zweitens, seine Assoziation mit dem thrombozytären P-Selektin bei Patienten mit koronarer Herzkrankheit zu untersuchen.
Methoden und Ergebnisse: Mittels Durchflusszytometrie beobachteten wir, dass in vitro die JAM-C-Expression auf der Oberfläche von Thrombozyten, nach Thrombozytenaktivierung, erhöht ist. Die JAM-C-Expression korrelierte mit der Expression des thrombozytären P-Selektin in Patienten mit koronarer Herzkrankheit (r=0,301, P=0,01). Die Rolle des JAM-C und seines Counter-Rezeptors MAC-1 bei der Adhäsion von humanen CD34+ Zellen über immobilisierten Thrombozyten, wurde jeweils, unter Verwendung eines neutralisierenden löslichen Proteins (sJAMC-Fc) und eines monoklonalen Antikörpers gegen JAM-C oder Integrin MAC-1 (CD11b/CD18), untersucht. Die Behandlung mit löslichem JAM-C-Fc, anti-JAM-C oder anti-MAC-1 ergab, im Gegensatz zu einer Vorbehandlung mit Control-Fc oder IgG1, eine signifikant verminderte Adhäsion von humanen CD34+ Zellen an immobilisierten Thrombozyten unter statischen Bedingungen (P<0,05). Um unsere Ergebnisse unter hoher Scherspannung, ähnlich der arteriellen Strömung, zu validieren, führten wir Perfusionsexperimente in einer Flusskammer durch. Auch unter hoher Scherspannung führte die Hemmung der JAM-C/MAC-1 Interaktion zu einer signifikant verringerten Adhäsion von CD34+ Zellen über immobilisierten Thrombozyten (P<0,05). Mittels endothelialer Kolonienbildungstests und Kokulturen konnten wir zeigen, dass die Thrombozyten-vermittelte Differenzierung von CD34+ Zellen zu Endothelzellen oder Makrophagen/Schaumzellen, durch die Hemmung der JAM-C/MAC-1-Achse, unbeeinflussbar bleibt.
Schlussfolgerungen: In Anbetracht dieser Ergebnisse kann man behaupten, dass thrombozytäres JAM-C die CD34+ Zelladhäsion unterstützt. Dieser Mechanismus kann möglicherweise am Homing sowie an der Domizilierung von humanen CD34+ Zellen beteiligt sein.
Der Beitrag ist der urheberrechtlichen Einordnung des sog. Internet Protocol Television (IPTV) gewidmet. In einem ersten Abschnitt werden technische, organisatorisch-wirtschaftliche und juristische Unterschiede zwischen dieser Übertragungstechnologie und dem sog. Internet-TV herausgearbeitet. Sodann wird nach Maßgabe der SatCabRL 93/83 geprüft, ob die Ausübungsregeln der §§ 20b, 87 V UrhG nur für klassisches Kabelfernsehen oder auch für IPTV gelten. Das Ergebnis lautet, dass IPTV unter die §§ 20b, 87 V UrhG fällt, soweit sein Einsatz nach der AKM-Entscheidung des EuGH überhaupt eine erlaubnispflichtige öffentliche Wiedergabe darstellt.