Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2867)
- Article (2263)
- Contribution to a Periodical (2161)
- Book (1979)
- Doctoral Thesis (1725)
- Review (926)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (176)
Language
- German (13875) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5008)
- Medizin (1479)
- Gesellschaftswissenschaften (1062)
- Rechtswissenschaft (742)
- Neuere Philologien (650)
- Wirtschaftswissenschaften (639)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Diese kulturanthropologische Studie beschäftigt sich mit gegenwärtigen Veränderungen des Nachkriegsphänomens Städtepartnerschaften. Ausgangspunkt ist die Beobachtung, dass, obwohl einstige Gründungsmotive wegfallen, Städtepartnerschaften derzeit nicht etwa abgeschafft oder ersetzt, sondern neu ausgerichtet werden. Im Zentrum der Arbeit steht daher die Frage nach den Charakteristiken des gegenwärtigen Wandels und der kulturellen Spezifik von Städtepartnerschaften sowie möglichen Folgen. Dem wird am Beispiel von deutsch-polnischen und deutsch-türkischen Städtepartnerschaften des Ruhrgebiets mit Methoden einer transnational ausgerichteten empirisch-ethnografischen Feldforschung und einer akteurszentrierten und praxisorientierten Anwendung des Assemblage-Konzepts nachgegangen. Die Ergebnisse, die sich schwerpunktmäßig auf einen Zeitraum zwischen 2007 und 2012 beziehen, machen nicht zuletzt durch ihren länderbezogenen Kontrast deutlich: In Städtepartnerschaften trifft derzeit eine Vielzahl von aktuellen Entwicklungen, Prozessen und Akteuren aufeinander. Städtepartnerschaften werden derzeit staatsgrenzenübergreifend von verschiedenen Akteuren aus Politik, Zivilgesellschaft und Bürgerschaft mit je eigenen derzeitigen Herausforderungen wie Integrationsfragen und Wirtschaftsförderung, urbanem Standortwettbewerb sowie biografischen Bestrebungen und Mobilitätsinteressen verbunden. Dabei führen insbesondere auf deutscher Seite normative Ansprüche dazu, dass einstige Prinzipien und Aktivitäten von Städtepartnerschaften beibehalten und abgewandelt werden, weshalb von einem Format und einem Formatwandel gesprochen werden kann, was nicht jede beliebige Veränderung zulässt. In den neueren Varianten von Städtepartnerschaften zeigen sich aber auch nicht zwangsläufig intendierte, doch sehr wirkungsvolle Formen von Europäisierung und Governance durch Kommunen und ihre Bürgerinnen und Bürger.
In diesem Aufsatz möchten wir Denk- und Deutungsmuster des mediengestützten Studiums und der mediengestützten Lehre herausarbeiten, welche die These einer qualitativ neuen Form der Bildung stützen2. Der Rahmen, in dem wir uns dabei bewegen, wird einerseits durch die Debatte um die Wissensgesellschaft und andererseits durch die Perspektive der kanadischen Medientheorie3 gekennzeichnet.
Unser Augenmerk gilt den Veränderungen in unserer Alltagskultur, den Deutungs- und Wahrnehmungsmustern und den entsprechenden Erwartungshorizonten, welche sich zunehmend unter den Bedingungen moderner Medientechnologien verändern. Besonders hervorheben wollen wir dabei den Zusammenhang von medientechnischen und kulturellen Modernisierungen. Fragen der Entwicklung und Nutzung neuer Medientechnologien wie dem Internet lassen sich so jenseits einer Sichtweise der Instrumentalisierung in den Blick nehmen. Wir werden uns bei den nachfolgenden Betrachtungen dazuhin auf das Feld der Hochschulen und die dort angesiedelten Fragen zur mediengestützten Lehre beschränken.
Möglichkeiten der Evaluation von E-Learning-Arrangements. Eine Analyse am Beispiel von EverLearn
(2010)
E-Learning in der Hochschulpraxis: wie Lehren und Lernen nicht auf der (virtuellen) Strecke bleiben
(2010)
Die Anforderungen an eine zukunftsorientierte Hochschulentwicklung sind eng mit dem Einsatz neuer Medien verknüpft, welche sich sowohl institutionell, personell und hochschulpolitisch niederschlagen werden. Neben der technischen Integration neuer Lehrformen spielen insbesondere die organisatorischen und didaktischen Implikationen eine zentrale Rolle. Als ein wichtiger Aspekt zur Qualitätssicherung der Hochschullehre bei steigender Studierendenzahl spielen die neuen Medien dahingehend eine Rolle, dass durch den Einsatz innovativer Lehrtechnologien eine verbesserte Betreuung und Beratung der Studierenden angestrebt wird (vgl. Albrecht 2003, S. 83). Häufig wird die Annahme vertreten, dass E-Learning hier eine kostensparende Variante darstellt, die gleichzeitig durch den „Neuigkeitseffekt“ die Lernmotivation der Teilnehmenden steigere (vgl. Meister 2001, S. 167). Die generellen Befürworter des E-Learnings zeigen neue didaktische Handlungsmöglichkeiten auf, z. B. Lernen durch Exploration (insbesondere durch Navigieren, Browsing, Searching, Connecting und Collecting, vgl. Peters 2000), während die empirische Bestätigung erhöhter Lerneffekte im E-Learning noch aussteht. Der folgende Beitrag fordert die Lehrenden dazu auf, die didaktischen Aspekte des E-Learnings stärker in den Blick zu nehmen, damit sich ein lernförderlicher Einsatz computer- und internetbasierter Lehr- / Lernszenarien endlich in der (Hochschul-)Praxis etablieren kann. Denn die gängigste Variante von E-Learning an deutschen Hochschulen – soweit wagen wir uns vor – besteht häufig in der bloßen Informationsdistribution aktueller Seminarinhalte. Didaktische und methodische Überlegungen bleiben dabei ganz offensichtlich auf der Strecke...
Der Einsatz von E-Learning-Angeboten wird seit Mitte der 1990er Jahre intensiv diskutiert (Baumgartner et al. 2002, S. 13) und sowohl von der Industrie als auch von staatlichen Stellen gefördert (Kerres et al. 2005). Neben dem Wunsch nach genereller Modernisierung (Bachmann et al. 2004, S. 1) soll der Einsatz von E-Learning vor allem zu einer Verbesserung der Betreuungsintensität der Lernenden, insbesondere in Massenveranstaltungen an deutschen Hochschulen führen (Grüne et al. 2006; Hiltz 1995; Mathes 2002; Schwickert et al. 2005). E-Learning soll es ermöglichen, die Lernenden intensiver und individueller zu betreuen, und so zu einer Erhöhung des empfundenen Servicegrades beitragen (Alavi 1994; Schutte 1997).
Seit der Abschaffung der zentralen Vergabestelle für Studienplätze (ZVS) müssen Hochschulen solche vermuteten Wettbewerbsvorteile nutzen und sich aktiv um die Steigerung der Bewerberzahlen und die Zufriedenheit der Lernenden bemühen, was zu der Forderung führte, den Einsatz von E-Learning-Angeboten in der Hochschullehre auszudehnen (BLK 2002, S. 1; BMBF 2000). In der Folge wurden große Summen für die Entwicklung und die Implementierung innovativer E-Learning-Angebote bereitgestellt, ohne deren langfristigen Erfolg sicherstellen zu können (Marshall et al. 2004).
In diesem Beitrag untersuchen wir, wie eine nachhaltige Implementierung von E-Learning-Projekten in Hochschulen durch organisatorische Gestaltungsmaßnahmen gefördert werden kann. Die Untersuchung erfolgt aus dem Blickwinkel der Wirtschaftsinformatik, die sich mit dem Potenzial von Informations- und Kommunikationstechnik (IKT) für die Verbesserung von Geschäftsprozessen beschäftigt (Laudon et al. 2007; Lyytinen 1985; WKWI 1994)...
Dem vorliegenden Buch liegt die erkenntnisleitende Annahme zugrunde, dass der ebenso komplexe wie hybride Gegenstandsbereich „E-Learning“ keiner akademischen Fachkultur exklusiv zurechenbar ist oder ihr gar „allein gehört“. Aus diesem Umstand wird gewöhnlich die Notwendigkeit eines stärker inter- und multidisziplinär ausgerichteten Forschens und Arbeitens an den Hochschulen abgeleitet. Doch trotz schlüssiger Begründung der Notwendigkeit, den Blick über den Tellerrand der eigenen Disziplin zu richten und die Kooperation mit Vertretern anderer Fachkulturen zu verstärken, scheinen beim Thema E-Learning die Grenzen zwischen den Disziplinen besonders undurchlässig zu sein. So kommt es, dass die vielfach beschworenen Synergieeffekte im Prozess des wissenschaftlichen Forschens eher die Ausnahme als die Regel darstellen. In der Tat sollte man sich vor diesbezüglichen Illusionen hüten. Denn der Weg zu einer konstruktiven interdisziplinären Forschungs- und Gesprächskultur dürfte noch sehr weit sein, und es ist keineswegs absehbar, ob die damit verbundenen Erwartungen und Hoffnungen sich tatsächlich jemals erfüllen werden...
In diesem Beitrag untersuchen wir den Erfolg von E-Learning-Maßnahmen in einer Massenveranstaltung an der Goethe-Universität Frankfurt am Main. Mit Bezug auf das Modell von Seufert und Euler gehen wir auf die didaktische Dimension der Nachhaltigkeit von E-Learning-Aktivitäten ein (Seufert et al. 2003a, S. 6; Seufert et al. 2003b, S. 18f.). Die didaktische Dimension sehen Seufert und Euler als die zentrale und wichtigste Dimension der Nachhaltigkeit von E-Learning-Angeboten an. Der Einsatz von E-Learning-Maßnahmen muss sich daran messen lassen, ob er Lernziele besser erreicht als alternative, weniger aufwändige Lernszenarien (Seufert et al. 2004, S. 11)...
E-Learning ist das Thema zahlreicher Debatten. Die Beiträge in diesem Buch zielen darauf ab, die Diskussion zu intensivieren und zu vertiefen. Dabei fokussieren die Autoren die Bereiche Hochschule und Weiterbildung als wichtige Einsatzgebiete von E-Learning, mit dem Ziel einer Verbindung beider Bereiche. Dies geschieht aus Sicht der Wirtschaftsinformatik, der Erziehungswissenschaft und der Wirtschaftspädagogik.
Die Autoren zeigen in ihren Beiträgen, wie pädagogische Gesichtspunkte mit Fragen der Organisation und der Informationstechnik verknüpft werden können und leiten daraus Einsatzchancen für E-Learning-Konzepte ab.
Die Psoriasis vulgaris (PsV) ist eine immunvermittelte entzündliche Erkrankung der Haut mit einer Prävalenzrate von 2-3 %, sodass etwa zwei Millionen Menschen in Deutschland an dieser erkrankt sind. Charakteristisch für die PsV sind veränderte Hautareale (Plaques), die im Rahmen der der entzündungsbedingten Durchblutungssteigerung gerötet erscheinen und eine silbrig-weiße Schuppung als Resultat einer vermehrten Abschilferung abgestorbener Keratinozyten aus der hyperproliferativen Epidermis aufweisen.
In dieser Arbeit wurde die Bedeutung des proinflammatorischen Zytokins granulocyte-macrophage colony-stimulating factor (GM-CSF) in der Pathogenese einer modellhaften Experimentalerkrankung der PsV untersucht. GM-CSF wird unter anderem von Interleukin (IL-) 17 produzierenden T-Helferzellen (Th17-Zellen) sezerniert, deren pathogenetische Bedeutung für die PsV gut etabliert ist. Die pathogene Wirkung von GM-CSF als Effektorzytokin konnte bereits in Tiermodellen anderer Th17-vermittelter Autoimmunerkrankungen wie der multiplen Sklerose und der rheumatoiden Arthritis (RA) gezeigt und die therapeutische Wirkung von GM-CSF-neutralisierenden Antikörpern in klinischen Studien an RA-Patienten demonstriert werden.
Das in dieser Arbeit angewendete murine Krankheitsmodell der Imiquimod (IMQ-) induzierten psoriasiformen Dermatitis wird durch die topische Anwendung des Medikaments Aldara®, dessen Wirkstoff IMQ ist, ausgelöst und führt zu einer Entzündung der Haut, die in vielen Aspekten dem humanen Krankheitsbild einer PsV ähnelt. Die pathogenetische Bedeutung von GM-CSF für die IMQ-induzierte psoriasiforme Dermatitis wurde über zwei unterschiedliche experimentelle Ansätze untersucht. So wurde GM-CSF in C57Bl/6J Mäusen mittels eines spezifischen, rekombinanten murinen Antikörpers in der Induktionsphase des Krankheitsmodells neutralisiert und zeitgleich der modifizierte Psoriasis Area Severity Index (PASI-)Score als Parameter des Schweregrades der klinischen Manifestationen ermittelt. Des Weiteren wurde am Versuchsende die Infiltration von Immunzellen in das entzündete Gewebeareal untersucht. Diese Ergebnisse wurden mit den Daten einer Behandlungsgruppe, nach Applikation eines IgG-Isotyp identischen Kontrollantikörpers verglichen. Dabei zeigte die Neutralisierung des Zytokins einen therapeutischen Effekt, der in einem signifikant niedrigeren PASI-Score, einer verringerten Tnfa mRNA Expression und einer reduzierten Infiltration mit neutrophilen Granulozyten resultierte.
Parallel zu diesen Versuchen wurde die Modellerkrankung auch in einer GM-CSF-defizienten C57Bl/6J Mauslinien (GM-CSF-/-) studiert. Die funktionelle Inaktivität des GM-CSF-kodierenden Csf2 Gens wurde 1994 durch gezielte genetische Manipulation etabliert. Unter den experimentellen Bedingungen war der Schweregrad der IMQ-induzierten psoriasiformen Dermatitis in GM-CSF-/- Mäusen nicht signifikant different von dem der wildtypischen (Wt) Mäuse und zeigte somit im Gegensatz zu den Ergebnissen aus den Versuchsreihen der Antikörper vermittelten Zytokinneutralisierung keinen offensichtlichen Hinweis auf eine GM-CSF-Abhängigkeit. In den GM-CSF-defizienten Tieren war jedoch nach IMQ-Induktion eine signifikant höhere Il6 und Il22 mRNA Expression am Entzündungsort im Vergleich zu den Wt Mäusen auffällig. Aufgrund dieser Ergebnisse wurde der Phänotyp der GM-CSF-defizienten Mäuse genauer untersucht und eine vermehrte Anzahl plasmazytoider dendritischen Zellen (pDCs) in Milz und Lymphknoten nachgewiesen. Diese Zellen werden im Rahmen ihrer Differenzierung aus Vorläuferzellen durch GM-CSF suppressiv reguliert und sind sowohl in die Entwicklung der PsV im Menschen als auch die Pathogenese der IMQ-induzierten psoriasiformen Dermatitis involviert. Aufgrund des in den sekundären lymphatischen Organen GM-CSF-defizienter Mäuse expandierten pDC-Kompartiments wurde die Beteiligung dieser Zellen in der Initiationsphase des Modells analysiert. Im Vergleich mit GM-CSF-suffizienten C57Bl/6J Mäusen weisen die Tiere der GM-CSF-defizienten Mauslinie zu diesen Zeitpunkten eine verstärkte Infiltration von pDCs in die Haut auf. Für pDCs ist bekannt, dass sie über die Produktion von IL-6 und TNF die Effektorzelldifferenzierung aktivierter, naiver T-Lymphozyten in Richtung Th22-Zellen polarisieren können. Dieser Mechanismus liefert ein hypothetisches Konzept, das die Ergebnisse zur gesteigerten IL-6-Produktion und Differenzierung IL-22-produzierender T-Zellen in IMQ-behandelten GM-CSF-/- Mäusen im Kontext der nachweisbaren Expansion von pDCs, erklären könnte. Dieser in den GM-CSF-/- Mäusen nachweisbare alternative Pathogenesemechanismus, ist offenbar geeignet die proinflammatorische Wirkung des genetisch fehlenden Zytokins zu kompensieren, aber hinsichtlich seiner Etablierung über ein verändertes pDC-Kompartiment von Dauer und Ausmaß der GM-CSF-Defizienz abhängig. So erklärt sich, warum die zeitlich limitierte Antikörper vermittelte GM-CSF-Neutralisierung in GM-CSF-suffizienten-Mäusen zu keiner pDC-Expansion und Steigerung von IL-6 und IL-22 Expression nach IMQ-Induktion führt.
Die GM-CSF-Neutralisierung durch einen rekombinanten murinen Antikörper reduziert deutlich die Krankheitsschwere der IMQ-induzierten psoriasiformen Dermatitis und belegt damit das therapeutische Potenzial dieses Therapieansatzes für die Humanerkrankung der PsV. Die unter angeborener GM-CSF-Defizienz in den Studien darüber hinaus aufgedeckten Veränderungen des pDC-Kompartiments sind von potenzieller Relevanz für zukünftige therapeutische Anwendungen dieses Prinzips, da unter einer dauerhaften GM-CSF-Neutralisierung mit therapeutischen Antikörpern ein Monitoring dieser Zellpopulation empfehlenswert erscheint z.B. über veränderte Interferonsignaturen durch pDCs, um mögliche Wirkverluste, aber auch unerwünschte Effekte zu erkennen.
Rechtspopulistische Bewegungen machen sich zur Zeit in vielen westlichen Staaten zum Sprachrohr angeblich bisher unterdrückter Bevölkerungsgruppen und Meinungen. Die identitäre Bewegung entwickelt diesen Ansatz weiter zu einem Projekt der autoritären Staatlichkeit gegen Multikulturalismus, Islam und Einwanderung. Dabei verbindet sie ihre Kampagne für einen ethnisch geschlossen Nationalstaat mit der Kritik an der kapitalistischen Globalisierung. Mit einem Sprachduktus, der Politik emotionalisiert, wird durch «geistige Verschärfung» das Programm eines defensiven Ethnonationalismus entfaltet. Dieser beruft sich auf Traditionsbestandteile eines völkischen Antimodernismus und eine von dem russischen Philosophen Alexander Dugin entworfene eurasische Geopolitik.
Ein europäischer Keynesianismus als Grundlage für ein gesamteuropäisches Wirtschaftskonzept würde als offensive Gegenstrategie die Idee einer sozialstaatlichen Erneuerung propagieren können. Zudem sind Akteure aus der Zivilgesellschaft aufgefordert, gegen Fremdenfeindlichkeit und Orientierungsverlust aufklärerisch zu wirken.
Das Folgende ist eine Auseinandersetzung mit dem Zeitungsartikel von Patrick Bahners (FAZ 5. 9. 2015) und zugleich mit seiner wichtigsten Autorität, Gerd Althoff (FmSt 48, 2014, S. 261-76: "Das Amtsverständnis Gregors VII. und die neue These vom Friedenspakt in Canossa"). Zu beiden Texten sind einige Bemerkungen vonnöten. Der vorliegenden Fassung meiner Darlegung gingen Versionen voraus, die an Jürgen Petersohn u.a., sowie jeweils erweitert an Nikolas Jaspert und zuletzt an Folker Reichert geschickt wurden. Ich stelle hiermit diese erweiterte Version (entgegen meiner ursprünglichen Absicht) auf Drängen von Kollegen und Freunden ins "Netz".
Der negative Einfluss auf die Abstoßungsrate, die Transplantatfunktion und das Transplantatüberleben bei Nierentransplantationen von Antikörpern, die im Serum von Transplantatempfängern nachgewiesen werden, ist unumstritten. Die Entwicklung immer sensitiverer Methoden zur Antikörperdetektion wie beispielsweise die Luminex-Technologie wirft jedoch neue Fragen auf: Sind die hier nachgewiesenen, zum Teil sehr niedrigtitrigen Antikörper immer noch relevant für das Outcome von Transplantationen? Oder bergen die hier zusätzlich aufgedeckten Antikörper nur die Gefahr in sich, die Organallokation zu erschweren und mögliche komplikationslose Transplantationen zu verhindern? Zur Beantwortung dieser Fragen erfolgte die Durchführung dieser retrospektiven Studie.
In die Studie wurden Seren von 197 Nierentransplantatempfängern eingeschlossen. Diese Seren wurden vor der Transplantation auf Antikörper im Luminex untersucht und anschließend deren Transplantatfunktion und das Transplantatüberleben in Abhängigkeit vom Antikörperstatus ermittelt. Zusätzlich erfolgte eine Gegenüberstellung mit den Ergebnissen aus den im Rahmen der aktuellen Richtlinien zur Transplantationskompatibilität durchgeführten Testmethoden LCT und ELISA.
Bei einem Vergleich der drei unterschiedlichen Techniken zum HLA-Antikörpernachweis zeigte sich, dass der Luminex eine deutlich größere Sensitivität als der ELISA und insbesondere als der LCT besitzt. Außerdem war nachweisbar, dass die mittels Luminex Technology nachgewiesenen HLA-Antikörper ein schlechteres Transplantatüberleben bewirken (Graphik 4). Dies zeigte sich insbesondere, wenn HLA-Klasse I oder gleichzeitig HLA-Klasse I und HLA-Klasse II Antikörper bei Patienten vorhanden sind (Graphik 5). Im Gegensatz dazu fanden sich bei der Betrachtung der Patienten mit im LCT oder im ELISA nachgewiesen HLA-Antikörpern deutlich geringere, klinisch prognostische Hinweise auf das Transplantatüberleben (Graphik 10 und 13).
Das Transplantatüberleben war signifikant besser bei nicht-immunisierten Patienten als bei der Kohorte, die mittels einer der Nachweismethoden HLA-spezifische Antikörper aufwies. Eine Analyse der Transplantatfunktion, die mithilfe der Proteinurie und des Serum-Kreatinins bestimmt wurde, ergab, dass nicht immunisierte Patienten ein besser funktionierendes Transplantat besitzen als antikörperpositive Empfänger. Ein besonders negativer Einfluss donorspezifischer Antikörper konnte hier jedoch nicht nachgewiesen werden.
Im Hinblick auf die klinische Relevanz der nachgewiesenen HLA-Antikörper erfolgte die Auswertung mit unterschiedlichen MFI Kategorien (MFI 1000, 2000, 3000 und 4000). Anhand dieser Arbeit wurde ein MFI-Grenzwert zur Bestimmung des Antikörperstatus im Luminex von größer oder gleich 1000 im Luminex festgelegt, der am besten mit dem Transplantatoutcome korrelierte. Ein negativer Einfluss donorspezifischer Antikörper konnte jedoch nicht nachgewiesen werden. Es zeigte sich dennoch bei MFI Werten über 2000 ein tendenziell schlechteres Transplantatüberleben, wenn donorspezifische Antikörper vorliegen (Graphik 7).
Bei der Betrachtung des Antikörperstatus im LCT und im ELISA war kein Unterschied hinsichtlich des Transplantatüberlebens in Abhängigkeit vom Antikörperstatus sichtbar. Jedoch wurden die Patientenseren mit diesen beiden Methoden vor der Durchführung der Transplantation auf präformierte Antikörper untersucht und bei positiver Befundung eine intensivierte Immunsuppression veranlasst, was zu einer Beeinflussung des Transplantatoutcomes führt. Eine Unterteilung der nicht immunisierten Patienten im LCT und im ELISA anhand des Luminex-Ergebnisses zeigt, dass Patienten, die sowohl im LCT bzw. ELISA als auch im Luminex keine Antikörper aufweisen ein signifikant besseres Transplantatüberleben besitzen als Empfänger, die nur im Luminex immunisiert sind, jedoch nicht im LCT bzw. im ELISA. Dies lässt darauf schließen, dass die Beachtung von Antikörpern, die ausschließlich im Luminex nachgewiesen werden können, zu einem besseren Transplantatoutcome führt. Somit ist eine Durchführung des Luminex in Kombination mit anderen Antikörpernachweisverfahren von Vorteil.
Zur genauen Beantwortung der anfangs aufgeworfenen Fragen bedarf es sicherlich trotz einiger bereits vorhandener Arbeiten – mit zum Teil jedoch sehr unterschiedlichen Ergebnissen – noch zusätzlicher Studien. Auch sollte die Rolle der Denaturierung der HLA-Antigene auf den Beads, die zu falsch positiven und negativen Resultaten führen können, weiter analysiert werden. Außerdem muss der Einfluss komplementaktivierender Antikörper, wie mit der C1q- und C4d-Technik im Luminex nachweisbar, und der Einfluss nicht HLA-spezifischer Antikörper noch genauer erläutert werden.
Eiskeime (INP) sind Aerosolpartikel, die das Entstehen von Eiskristallen in der Atmosphäre zwischen 0 und -37°C ermöglichen, indem sie die zur Ausbildung der Eisphase nötige Energie gegenüber einem reinen Wassersystem stark herabsetzen. Dabei sind aktive Stellen auf der Oberfläche dieser Partikel für die erste Nukleation von Eis verantwortlich. In der Folge können die Eiskristalle zulasten von verdunstenden Wasserdampfmolekülen und Wassertröpfchen weiter anwachsen. Über Eismultiplikationsprozesse zersplittern und vervielfältigen sich die Eiskristalle und wachsen über Bereifung schließlich zu einer kritischen Größe heran, wodurch sie als Niederschlag zu Boden fallen können. Auch wenn der Anteil der zur heterogenen Eisnukleation fähigen Aerosole vergleichsweise gering ist, spielen INP eine entscheidende Rolle für die Entwicklung von Niederschlag und nehmen Einfluss auf Strahlungsprozesse, indem sie auf die Phase der Wolken und damit auf deren Strahlungseigenschaften einwirken. Viele Fragen im Forschungsgebiet der heterogenen Eisnukleation sind jedoch weiterhin nicht hinreichend genau geklärt. Ohne eine verbesserte Kenntnis von Konzentrationen, geographischer und vertikaler Verteilung, sowie zeitlicher Variation, Quellen und Natur von INP, sind noch vorhandene Wissenslücken im Strahlungsantrieb durch Wechselwirkungen von Aerosolen und Wolken nur zu einem gewissem Grad zu reduzieren. Dies ist nötig, um aktuelle Beobachtungsdaten der sich erwärmenden Atmosphäre besser verstehen und die zukünftigen Änderungen des Klimas sicherer vorhersagen zu können. In dieser Arbeit wird die Vakuumdiffusionskammer FRIDGE verwendet, um atmosphärische INP-Konzentrationen zu bestimmen. Aerosolpartikel werden dabei in einem ersten Schritt auf einem Silicium-Probenträger elektrostatisch niedergeschlagen. Die Effizienz des Sammelprozesses, also der Anteil der Partikel die tatsächlich auf dem Si-Substrat abgeschieden werden, wurde mittels zweier unabhängiger Methoden auf etwa 60% bestimmt. In einem zweiten Mess-Schritt werden die Proben in FRIDGE typischen Bedingungen von Mischphasenwolken ausgesetzt, wodurch Eiskristalle an den INP aktiviert werden und im Verlauf einer Messung anwachsen. Eine Kamera beobachtet die durch das Eiswachstum entstehenden Helligkeitsänderungen auf dem dunklen Probensubstrat. Die Kriterien, wann ein Objekt als Eiskristall identifiziert und gezählt wird, mussten im Rahmen dieser Arbeit neu entwickelt werden. In der zu Beginn der Arbeit vorgefundenen Einstellung hatte bereits eine sehr geringe Helligkeitsänderung, wie sie durch das hygroskopische Wachstum von Aerosolpartikeln hervorgerufen wird, zu Signalen geführt, die fälschlicherweise als Eiskristalle gezählt wurden. Das reevaluierte Messverfahren von FRIDGE wurde im Zuge der FIN-02 Kampagne in einem groß angelegten Laborexperiment an der AIDA Wolkenkammer mit zahlreichen anderen INP-Zählern aus der ganzen Welt verglichen. Für den Großteil der Messungen der untersuchten Modell-Aerosoltypen konnte eine zufriedenstellende Übereinstimmung mit den anderen Instrumenten erzielt werden. In einer einmonatigen Feldmesskampagne im östlichen Mittelmeerraum konnten die ersten INP-Messungen an Bord eines unbemannten Flugzeugs durchgeführt werden. Während der Kampagne auf Zypern wurden mehrere Fälle von transportiertem Saharastaub beprobt, in denen die INP-Konzentration maßgeblich erhöht war. Lidar-Beobachtungen und ein Staubtransportmodell zeigten, dass sich das Maximum der Staubschichten zumeist in etwa 2-4 Kilometern Höhe befand. In der Höhe wurden INP-Konzentrationen gefunden, die im Mittel um einen Faktor 10 größer waren als auf Bodenniveau. Es wird gefolgert, dass INP-Messungen am Boden möglicherweise nur begrenzte Aussagekraft über die Situation nahe der Wolkenbildung besitzen. Im Rahmen BACCHUS-Projekts wurden zwischen August 2014 und Januar 2017 (mit Unterbrechungen) alle 1-2 Tage Proben an drei Reinluftstationen gesammelt (insgesamt über 900). Das INP-Messnetz mit einer geographischen Ausdehnung von der Arktis zum Äquator bestand aus Stationen in Spitzbergen, Martinique und im Amazonas. Die Station im brasilianischen Regenwald ist durch wechselnde Bedingungen von sauberer Regen- und verunreinigter Trockenzeit charakterisiert. In der Trockenzeit steigen die Partikelkonzentrationen durch starke Belastung aus Biomassenverbrennung um eine Größenordnung an; eine gleichzeitige Zunahme der INP-Konzentrationen konnte nicht beobachtet werden. Daraus kann vermutet werden, dass Partikel aus Feueremissionen keine ausgezeichneten Fähigkeiten zur Eisnukleation aufweisen. Die INP-Konzentrationen in der Karibik konnten mit dem Jahresgang von transportieren Saharastaub in Verbindung gebracht werden. In der Arktis wurden die niedrigsten INP-Konzentrationen der drei Stationen beobachtet. Zum Zeitpunkt des Erstellens dieser Arbeit können die determinierenden Einflussfaktoren, sowie der anthropogene Einfluss zur Zeit des arktischen Dunstes noch nicht abschließend geklärt werden.
WiWi news ; Nr. 1 [2017]
(2017)
Wie verhalten sich Freiheit und Geld zueinander? In der liberalen Tradition der Philosophie und der Ökonomik wird Geld meist als bloßes Mittel gefasst, dessen Einführung den Austausch von Waren erleichtert, darüber hinaus jedoch keine tiefergreifenden sozialen Folgen zeitigt. Im Gegensatz hierzu wird in diesem Working Paper der Zusammenhang von Geld und (Un-)Freiheit herausgearbeitet. Im Anschluss an die Tradition kritischer Sozialphilosophie und in Auseinandersetzung mit Marx, Simmel und der neueren Geldsoziologie wird dabei in einem ersten Schritt der paradoxe Charakter dieser gesellschaftlich eröffneten Freiheit dargelegt: Zum einen kultiviert Geld in kapitalistischen Ökonomien eine individuelle Form von Wahlfreiheit. Zum anderen wird über Geld der Zugang zum gesellschaftlichen Reichtum auf ungleiche und disziplinierende Weise strukturiert: Je nach individueller Verfügung über finanzielle Mittel ist man auf unterschiedliche Weise zum Verkauf der eigenen Arbeitskraft angehalten, um den Zugriff auf Güter und die eigene Reproduktion zu sichern. Diese paradoxe Form von Freiheit wird in einem zweiten Schritt hinsichtlich ihrer Entfremdungstendenz befragt: Insofern die über die Institution des Geldes eröffnete Freiheit ihren gesellschaftlichen Ermöglichungsgrund verdeckt, kann sie als eine fetischisierte Form von Freiheit begriffen werden.
Kardiovaskuläre Erkrankungen stellen in Deutschland die häufigste Todesursache dar [1]. Eine Schlüsselrolle wird hierbei der koronaren Herzkrankheit (KHK) auf dem Boden einer Atherosklerose zuteil. Die Prävalenz der koronaren Herzkrankheit in Deutschland lag 2012 laut Zahlen des Robert Koch-Instituts bei 8,3 %; dies entspricht 6,64 Millionen Menschen. Die Spitzengruppe bilden die über 65-Jährigen mit einer Erkrankungshäufigkeit von 18,3 % bei Frauen und 27,8 % bei Männern. Oberstes Therapieziel bei der Behandlung der KHK ist die Prävention von Myokardinfarkten und Herzinsuffizienz. Wegweisend für das therapeutische Procedere sind die klinische Situation des Patienten und die Ergebnisse der kardialen Diagnostik. Sind mehrere Koronargefäße betroffen oder bestehen komplizierte Gefäßverengungen ist die Indikation zur operativen Myokardrevaskularisierung gegeben. Im Jahr 2015 unterzogen sich in Deutschland 51.941 Patienten einem solchen Eingriff [2]; weltweit erhalten jährlich fast eine Millionen Patienten eine Bypass-Operation [3]. Für den Therapieerfolg ist postoperativ eine suffiziente Thrombozytenaggregationshemmung von essentieller Bedeutung. Daher wird zur Sekundärprophylaxe eine lebenslange antiaggregatorische Medikation empfohlen; das am häufigsten hierfür genutzte Medikament ist Acetylsalicylsäure (ASS) [4]....
Ziel der vorliegenden Studie war, mittels MEA, die Prävalenz und mögliche Prädiktoren einer ASS-Nonresponse in einer Kohorte kardiochirurgischer Patienten zu analysieren.
Es wurden folgende Nullhypothesen aufgestellt:
- Die tägliche Einnahme von 100 mg ASS ist ausreichend, um bei allen Patienten eine therapeutische Thrombozytenaggregationshemmung zu erreichen.
- Es existieren keine Prädiktoren für die mittels MEA detektierte ASSNonresponse.