Universitätspublikationen
Refine
Year of publication
- 2012 (673) (remove)
Document Type
- Part of Periodical (125)
- Report (95)
- Article (92)
- Doctoral Thesis (84)
- Book (78)
- Review (42)
- Contribution to a Periodical (34)
- Bachelor Thesis (25)
- Working Paper (25)
- Conference Proceeding (24)
- Part of a Book (13)
- magisterthesis (10)
- Master's Thesis (9)
- Other (5)
- Periodical (5)
- Preprint (4)
- Diploma Thesis (1)
- diplomthesis (1)
- Magister's Thesis (1)
Language
- German (673) (remove)
Is part of the Bibliography
- no (673)
Keywords
- Deutschland (10)
- Europa (5)
- Schmerz (5)
- China (4)
- Frankreich (4)
- Gewebedurchblutung (4)
- Gewebetemperatur (4)
- Goethe-Universität Frankfurt am Main. Fachbereich Humanmedizin (4)
- Infrarot (4)
- Recht (4)
Institute
- Präsidium (144)
- Gesellschaftswissenschaften (105)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (74)
- Geschichtswissenschaften (47)
- Medizin (47)
- Rechtswissenschaft (37)
- Physik (31)
- Wirtschaftswissenschaften (30)
- Neuere Philologien (26)
- Biowissenschaften (20)
Arbeitslosigkeit und gesundheitlicher Status sind eng miteinander verbunden. Verlust sozialer Bindungen, Verschlechterung mentaler und physiologischer Gesundheit und damit einhergehend der Verlust an Lebensqualität lassen Morbidität und Mortalität in der Gruppe der Arbeitslosen im Vergleich zur erwerbstätigen Bevölkerung deutlich ansteigen [13, 15 – 21]. Körperliche Aktivität entsprechend internationaler Bewegungsempfehlungen [157] ist nachweislich dazu in der Lage positive gesundheitliche Effekte auf der individuellen Ebene zu erzielen [52, 55]. Dennoch zeigen arbeitslose im Vergleich zum Durchschnitt der bundesdeutschen Bevölkerung ein noch höheres Maß an körperlicher Inaktivität [24, 176] und nehmen Sport- und Bewegungsangebote sowie Präventionsangebote der Krankenkassen deutlich seltener wahr [10]. Programme zur Gesundheitsförderung bei Langzeitarbeitslosen sind generell noch selten und wenn solche Programme durchgeführt wurden mangelt es bisher meist an entsprechenden Evaluationskonzepten zur Wirksamkeit dieser Angebote [13]. Werden Angebote für die Zielgruppe initiiert, beinhaltet dies überwiegend die Einrichtung separater, zeitlich beschränkter Gruppenkurse ohne Folgeangebot. Die Durchführung solcher Angebote obliegt größtenteils zusätzlich qualifizierten Mitarbeitern der Jobcenter und nicht Fachkräften aus der Gesundheitsförderung [116, 117]. Bewegungsbezogene Programme zur Gesundheitsförderung bei Arbeitslosen sind insgesamt noch selten und objektive Daten zum Bewegungsverhalten der Teilnehmer bislang noch nicht verfügbar. Mögliche, aber bisher nur vereinzelt praktizierte Ansätze stellen Konzepte zur Bewegungsberatung (physical activity counseling) bzw. Vermittlung in Bewegungsangebote (exercise referral) dar. Vor diesem Hintergrund besitzen Erkenntnisbeiträge zur Qualitätssicherung und zur Entwicklung spezifischer Beratungs- und Vermittlungskonzepte zur bewegungsbezogenen Gesundheitsförderung bei speziellen Zielgruppen eine hohe Relevanz für das Forschungsfeld. In der vorliegenden Dissertationsschrift wurde aufbauend auf dem dargelegten Forschungsdefizit ein theoriegeleitetes Beratungs- und Vermittlungskonzept (AGILer) zur Steigerung körperlicher Aktivität entsprechend internationalen Standards und Empfehlungen [14, 122, 123] entwickelt und in Kooperation mit regionalen Jobcentern der Rhein-Main Region auf die Zielgruppe älterer Langzeitarbeitsloser übertragen. Ziel des Beratungs- und Vermittlungsansatzes ist es Langzeitarbeitslose für das Thema gesundheitsförderliche körperliche Aktivität (HEPA) im Alltag zu sensibilisieren und so den Umfang körperlicher Aktivität entsprechend den Leitlinien [157] auf ein gesundheitsförderliches Maß zu erhöhen sowie diese bisher schwer zu erreichende Personengruppe an bestehende Bewegungsangebote örtlicher Anbieter (Sportvereine, Volkshochschulen, etc.) anzubinden. Die Intervention wurde anhand zweier separater Studien hinsichtlich der Erreichbarkeit der Zielgruppe sowie deren Wirksamkeit auf das Bewegungsverhalten der Teilnehmer evaluiert. Primärzielparameter der ersten Querschnittsstudie zur Erreichbarkeit war die Teilnahmerate an Angeboten des Gesundheitssports in Abhängigkeit gesundheitlicher Parameter und des Geschlechts. Insgesamt 741 Langzeitarbeitslose (54,3 ± 3,6 Jahre, 4,5 ± 4,4 Jahre arbeitslos) hatten nach einem ersten Gruppeninformationsangebot die Möglichkeit sich weiterführend individuell durch ein Expertenteam gesundheitlich beraten und in bestehende Bewegungsangebote vermitteln zu lassen. Erfasst wurden der BMI, das Bewegungsverhalten (IPAQ – 7-Tage-Kurzversion) [130] und die selbsteingeschätzte Gesundheit (VAS 1-100) [132, 133] der Teilnehmer. Es konnte auf Grundlage berechneter Häufigkeitsverteilungen (Chi²-Test) eine signifikant höhere Teilnahmerate an gesundheitssportlicher Aktivität in der Gruppe der Frauen gegenüber der Gruppe der Männer detektiert werden (p=.038). Insgesamt 28,2% der Frauen und 21,7% der Männer begannen im Anschluss an die Beratung eine gesundheitssportliche Aktivität. Unterschiede zwischen aktiven und nichtaktiven Teilnehmern hinsichtlich bewegungs- und gesundheitsbezogener Kennwerte bestanden gemäß berechneter Mittelwertsunterschiede nur für die Gruppe der Männer. Männer mit einem erhöhten gesundheitlichen Risiko aufgrund von Bewegungsmangel (<150 Min. körperliche Aktivität/Woche), erhöhtem BMI(>30 kg/m²) und unterdurchschnittlichem Gesundheitsempfinden (VAS <50) begannen signifikant häufiger mit Gesundheitssport (p< .001) als die übrigen Männer der Stichprobe. Ihre Vermittlungschance in ein gesundheitssportliches Angebot war gemäß beobachteter Häufigkeitsverteilung um das 2,8 fache erhöht (95% CI 1,8 – 4,3). Die zweite Längsschnittstudie zur Wirksamkeit des Beratungsansatzes evaluiert erstmalig anhand objektiver Messgrößen die Effekte einer strukturierten Bewegungsberatung hinsichtlich der Veränderbarkeit des Bewegungsverhaltens in der Zielgruppe. Hierzu wurde eine Stichprobe 51 älterer Langzeitarbeitsloser (54,3 ± 3,6 Jahre, 4,8 ± 3,2 Jahre arbeitslos) ohne manifeste gesundheitliche Einschränkungen (attestiert durch den Hausarzt) mit dem Ziel einer Erhöhung körperlicher Aktivität im Alltag und der Möglichkeit zur Aufnahme eines strukturierten Bewegungsprogramms sportmedizinisch beraten. Weitere 21 langzeitarbeitslose (56,1 ± 2,8 Jahre, 4,8 ± 3,0 Jahre arbeitslos) und 17 erwerbstätige Personen (56,4 ± 3,4 Jahre) ohne Beratungs- oder Vermittlungsangebot bildeten die Kontrollgruppen. Die Umfänge körperlicher Aktivität aller 89 Probanden wurden vor und 12 Wochen nach der Beratung jeweils für 7 Tage mittels zweiachsiger Akzelerometrie (ActiGraph GT1M) gemessen. Im Ergebnis absolvierten insgesamt 58 Personen die Eingangs- und Ausgangsmessung. Zur Eingangsmessung zeigte die erwerbstätige Kontrollgruppe signifikant höhere Umfänge körperlicher Aktivität als die erwerbslosen Studienteilnehmer. Für Personen, die nach der Beratung in eine strukturierte Bewegungsaktivität vermittelt wurden, zeigte die mehrfaktorielle ANOVA eine signifikante Steigerung sowohl des Umfangs moderater bis intensiver körperlicher Aktivität (MVPA) von 26 ± 14 auf 35 ± 25 Min./Tag als auch des Gesamtumfanges körperlicher Aktivität von 207 ± 86 auf 288 ± 126 cpm. Personen die nur das Beratungsangebot wahrnahmen sowie die Kontrollgruppen zeigten keine Steigerungsraten körperlicher Aktivität. Schlussfolgernd zeigen die Untersuchungsergebnisse, dass bereits bei anderen Zielgruppen etablierte und evaluierte Beratungskonzepte entsprechend internationaler Empfehlungen zur Bewegungsförderung ebenso auf bisher weniger beachtete Zielgruppen wie beispielsweise Arbeitslose übertragen werden können. Die im Rahmen der vorliegenden Untersuchung erhöhte Erreichbarkeit gesundheitlich besonders gefährdeter Studienteilnehmer erscheint vor dem Hintergrund steigender Gesundheitskosten und der Zunahme vor allem chronischer Erkrankungen [177, 178] von besonderer Bedeutung und ist höher als in vergleichbaren Untersuchungen [11]. Es konnte gezeigt werden, dass der Beratungs- und Vermittlungsansatz geeignet ist, das Bewegungsverhalten Langzeitarbeitsloser nachweislich zu verbessern und den Umfang körperlicher Aktivitäten entsprechend den Leitlinien [157] zu erhöhen. Allerdings scheint, anders als bei anderen Zielgruppen [147, 149, 150], ein alleiniges Beratungsangebot nicht auszureichen um das Bewegungsverhalten in der Zielgruppe positiv zu beeinflussen. Dieses Ergebnis könnte allerdings auch auf dem nichtrandomisierten Studiendesign und daraus resultierenden Selektionseffekten beruhen. Insgesamt kann die vorliegende Arbeit einen wichtigen Beitrag zum Erkenntnisgewinn zur Effektivität spezifischer Beratungskonzepte bei bisher schwer zu erreichenden Zielgruppen beitragen. Weiterer Forschungsbedarf wird hinsichtlich der Nachhaltigkeit der Interventionseffekte gesehen.
Zellulare Nichtlineare Netzwerke bzw. Zellulare Neuronale Netzwerke, sogenannte CNN, wurden 1988 von L.O. Chua und L.Yang eingeführt und seither intensiv untersucht. Diese sind als Simulations-Software und als schaltungstechnische Realisierungen, in Hardware, verfügbar.
Als analog arbeitende Hardware Schaltungen können diese Netzwerke erhebliche Rechenleistungen erzielen.
Durch ihren Aufbau ermöglichen sie eine parallele Daten- und Signalverarbeitung.
Eine Einführung in CNN wird gegeben und das EyeRIS 1.1 Systems des Unternehmens ANAFOCUS Ltd. vorgestellt.
Das EyeRIS 1.1 System ist mit einem analog arbeitenden Focal Plane Prozessor (FPP) und einem digitalen Prozessor ausgestattet, wobei der Focal Plane Prozessor auch als Kamera zur Aufnahme von Bildern und Bildsequenzen benutzt werden kann.
Dies ermöglicht es, analoge CNN-Algorithmen zusammen mit digitalen Algorithmen auf einem System zu implementieren und so die Vorteile beider Ansätze zu nutzen. Der Datenaustausch zwischen dem analogen und digitalem Teil des EyeRIS 1.1 Systems geschieht mittels digital/analog und analog/digital Wandlung. Es werden Algorithmen auf dem EyeRIS 1.1 System untersucht und mit Ergebnissen die mittels Simulationen erzeugt wurden verglichen.
In Voruntersuchungen werden die Darstellungsgenauigkeit von Werten im analogen Teil des EyeRIS 1.1 Systems und die Verarbeitungsgeschwindigkeiten des EyeRIS 1.1 Systems untersucht.
Im Weiteren wird besonderes Augenmerk auf medizinische und technische Anwendungsgebiete gelegt werden.
Im medizinischen Anwendungsbereich wird die Implementierung von Algorithmen zur Vorhersage epileptischer Anfälle untersucht.
Hierfür wird ein evolutionär motiviertes Optimierungsverfahren entwicklet und auf dem EyeRIS 1.1-System implementiert.
Hierbei werden Simulationen durchgeführt und mit Ergebnissen, die mittels Verwendung des EyeRIS 1.1 Systems erlangt wurden, verglichen.
Ein zweites Verfahren geht die Signalanalyse für die Vorhersage auf dem EyeRIS 1.1-System mittels Mustererkennung an.
Das Mustererkennungsverfahren wird eingehend beschrieben sowie die hierbei zu beachtenden Randbedingungen erläutert.
Die Ergebnisse zeigen, daß Algorithmen zur Vorhersage von epileptischen Anfällen auf schaltungstechnichen Realisierungen von CNN implementiert werden können.
Im technischen Bereich wird die Anwendbarkeit auf die Problemstellung der Bildverarbeitung gelegt und die Möglichkeit von CNN basierten Algorithmen zur Erkennung von Prozessparametern bei Laserschweißverfahren untersucht. Ein solcher Prozessparameter ist das sogenannte Key-Hole, welches in Bildsequenzen von Laserschweißprozessen als ein Maß für die zu erwartende Qualität einer Schweißnaht herangezogen werden kann. Ein CNN basierter Algorithmus für die Erkennung solcher Key-Holes wird in dieser Arbeit vorgestellt und untersucht.
Für die Überwachung eines Laserschweißverfahrens wird der entwickelte Algorithmius und seine Funktionsweise beschrieben.
Dieser wird in Teilalgorithmen auf die analog bzw. digital arbeitenden Komponenten des EyeRIS 1.1 Systems verteilt.
Die Teilalgorithmen und die möglichen Aufteilungen und deren Laufzeitverhalten werden beschrieben und untersucht.
Die Ergebnisse der Untersuchung zeigen, daß eine Prozessüberwachung mittels CNN möglich ist und heben die Vorteile hervor, welche die Bildaufnahme und -verarbeitung mittels analoger CNN-Hardware bietet.
Eine Untersuchung des Laufzeitverhaltens auf Grafikkarten Prozessoren (GPU's) wird im Anhang vorgestellt.
Die Soziale Phobie ist eine weit verbreitete Störung, die ohne geeignete Therapie einen chronischen Verlauf annimmt und bei den Betroffenen zu einem hohen Leidensdruck führt. Für die Behandlung stehen sowohl pharmakologische als auch psychotherapeutische Therapieansätze zur Auswahl (siehe Heinrichs, Stangier, Gerlach, Willutzki, & Fydrich, 2011). Eine Reihe von randomisierten kontrollierten Studien belegen, dass die kognitive Therapie zu den effektivsten Behandlungsmethoden zählt. Die vorliegende Dissertation konzentriert sich auf unterschiedliche Aspekte, die die Dissemination dieses Ansatzes verbessern sollen. In einer Übersichtsarbeit (Ginzburg & Stangier, im Druck) wird zunächst ein Überblick über den aktuellen Forschungsstand zur Diagnostik und Therapie der Sozialen Phobie gegeben. Die Ergebnisse aktueller Metaanalysen zur Behandlung werden kritisch diskutiert. Besondere Beachtung wird dem kognitiven Therapieansatz nach Clark und Wells (1995) geschenkt, der mit sehr hohen Effektstärken beeindruckt. Diese Therapie wurde in mehreren randomisiert-kontrollierten Studien untersucht und zeigte sich Therapieformen wie der Interpersonellen Therapie (Stangier, Schramm, Heidenreich, Berger, & Clark, 2011; Mörtberg, Clark, Sundin, & Aberg, 2007), medikamentöser Therapie (Clark et al., 2003) oder Entspannungsverfahren (Clark et al., 2006) deutlich überlegen. Neueste Forschungsbefunde zu den einzelnen Komponenten dieser Therapie werden im Hinblick auf ihre aufrechterhaltende Funktion sozialer Ängste und ihrer Effektivität diskutiert.
In einer zweiten Publikation (Ginzburg, Bohn, Stangier & Steil 2011) wird der kognitive Ansatz nach Clark und Wells auf eine komplexe, mit starker körperlicher Symptomatik verbundene Form der Sozialen Phobie, angewendet und evaluiert. Paruresis (Williams & Degenhardt, 1954) bezeichnet die Angst, auf öffentlichen Toiletten zu urinieren, und geht mit einem psychogenen Harnverhalt (Hammelstein, Pietrowsky, Merbach, & Brahler, 2005; Soifer, Nicaise, Chancellor, & Gordon, 2009) einher. Publikation dokumentiert, wie das kognitive Modell nach Clark und Wells (1995) bei Betroffenen mit starken körperlichen Symptomen angewendet werden kann. In dem theoretischen Teil der Arbeit wird auf die Notwendigkeit einer genauen Operationalisierung der mit dem Störungsmodell verknüpften Interventionen hingewiesen und anhand einer Falldarstellung veranschaulicht. Für die Praxis ergibt sich die Konsequenz, dass das kognitive Modell einen flexible Fallkonzeption und Behandlungsplanung ermöglicht und auch auf untypische Behandlungsfälle übertragbar ist.
Die flexible und kompetente Umsetzung von Interventionen spielt allerdings nicht nur bei komplexen Fällen eine Rolle. Im Rahmen der Psychotherapieprozessforschung ist der Therapeutenfaktor bei der Umsetzung der Therapiemethode und ihrer Interventionen von
großer Bedeutung und beeinflusst maßgeblich die Effektivität der Behandlung (Perepletchikova & Kazdin, 2005). In randomisiert-kontrollierten klinischen Studien wird ein großes Augenmerk auf die Behandlungsintegrität, d.h. die Umsetzung von Behandlungsvorgaben durch den Therapeuten (Waltz, Addis, Koerner, & Jacobson, 1993; Weck, Bohn, Ginzburg, & Stangier, 2011), gelegt. Bislang liegen jedoch noch keine gesicherten Hinweise vor, ob die manualgetreue Durchführung der Interventionen an sich (Adhärenz), oder auch die kompetente Anpassung dieser Interventionen an den jeweiligen Behandlungskontext (Kompetenz), zu besseren Ergebnissen in der kognitiven Therapie sozialer Phobien führt. In Studie 3 (Ginzburg, Bohn, Weck, Clark und Stangier, submitted) wird der Einfluss von Adhärenz und Kompetenz auf das Therapieergebniss bei Patienten mit Sozialer Phobie überprüft. Die Ergebnisse zeigen, dass eine höhere Kompetenz, nicht jedoch Adhärenz, bei der Anwendung der vorgesehenen Interventionen auch mit einem besseren Behandlungserfolg einhergeht. Von besonderer Bedeutung für die Vorhersage des Therapieerfolges waren spezifisch verhaltenstherapeutische Kompetenzen.
Obwohl Adhärenz und Kompetenz des Therapeuten die Effektivität von
Psychotherapie signifikant beeinflussen, gehen vergleichsweise nur wenige Studien dieser Fragestellung nach (Perepletchikova, Treat, & Kazdin, 2007). Der hierfür notwendige hoher Zeit- und Kostenaufwand ist eine der wesentlichen Ursachen hierfür (Perepletchikova, Hilt, Chereji, & Kazdin, 2009). Um Adhärenz und Kompetenz reliabel und valide einschätzen zu können, sind Audio- bzw. Videoanalysen von Therapiesitzungen durch unabhängige und trainierte Beurteiler die Methode der Wahl. Die Reduktion des Zeitaufwandes durch die Konzentration auf relevante Videoausschnitte könnte zu einer Verbesserung der Rahmenbedingungen für die Psychotherapieforschung darstellen. In Studie 3 (Weck, Bohn, Ginzburg und Stangier, 2011) wird untersucht, ob therapeutische Adhärenz und Kompetenz auch auf der Grundlage von Sitzungsausschnitten reliabel erfaßt werden kann und den Therapieerfolg vorhersagen kann. Beim Vergleich von zwei Ratingmethoden zeigte sich, dass die genauesten Aussagen anhand der Analyse einer ganzen Sitzung getroffen werden konnten.
Zusätzlich zeigten jedoch auch die Kompetenz- und Adhärenz-Einschätzungen des mittleren Sitzungsausschnittes einen hohen Zusammenhang zu den Ratings der Gesamtsitzung. Hieraus kann die Schlußfolgerung gezogen werden, dass die Analyse von Sitzungsausschnitten eine ökonomische Alternative zu der bisherigen Forschungspraxis darstellen kann, vollständige Sitzungen zu untersuchen.
Kaum eine andere Industrie wurde in den vergangenen beiden Jahrzehnten so massiv durch den Einzug der Informationstechnologie geprägt wie der Wertpapierhandel. Traditionelle Geschäftsmodelle haben sich grundlegend verändert. Das klassische Börsenparkett ist nahezu vollständig elektronischen Handelsplattformen gewichen.
Die Hauptthese dieses Papers geht von dem Konzept der normativen Verfassung der Nachkriegzeit aus und setzt sich kritisch mit dem Konzept des 19. Jahrhunderts „Verfassungswandlung“ auseinander. Das Konzept des Verfassungswandels ist mit der Verfassungsdemokratie inkompatibel. Statt von einem Verfassungswandel zu sprechen, sollte man die Entwicklung des Sinns der Normen in der Zeit als dynamische Interpretation bezeichnen.
»Ohne Fleiß kein Preis«, heißt es. Und der nachfolgende Beitrag wäre zumindest teilweise entbehrlich, wenn dieses Sprichwort uneingeschränkt stimmen würde. Aber auch wenn man die Redewendung beim Wort nimmt, bleibt Erklärungsbedarf: Für »Preis« kann man wohl ohne Weiteres Geld oder Einkommen einsetzen. Was aber meint »Fleiß« genau? Man kann auch durch Erbschaft, Spezialbegabungen oder pures Glück zu viel Geld kommen, ohne sich sonderlich anzustrengen. Und in einer freien Marktwirtschaft scheinen ohnehin vor allem Angebot und Nachfrage den Preis zu bestimmen. So direkt und gerecht scheint der Zusammenhang vom Fleiß zum Preis also nicht zu sein.
Schädigungen des Zentralnervensystems führen häufig zu schweren irreversiblen Schäden, die die Betroffenen vor große körperlichen und psychischen Herausforderungen stellen. Auf zellulärer Ebene ist bekannt, dass das Gehirn über protektive Mechanismen verfügt, die zwar nach der Schädigung aktiviert werden deren Potential jedoch nicht ausreicht, um den Schaden einzudämmen. Das Endocannabinoidsystem wurde mehrfach als ein solches protektives System bei ZNS Läsionen beschrieben. Zu den klassischen und gut untersuchten Endocannabinoiden (eCBs) wie Anandamid oder 2-AG kommen im Gehirn mehrere eCBs vor, deren physiologische und pathologische Bedeutung schwer einzuordnen ist. Das N-Arachidonyl-Dopamin (NADA) gehört zu dieser Gruppe und wirkt über bereits bekannte Cannabinoid Rezeptoren.
Im Rahmen dieser Arbeit wurde die Wirkung von NADA auf das Überleben der Körnerzellen im Gyrus dentatus im Modell der organotypischen hippokampalen Schnittkulturen (OHSC) untersucht. Weiterhin wurden die beteiligten Rezeptoren und die intrazellulären Signalkaskaden an neuronalen und gliösen Primärkulturen sowie Zelllinien analysiert. Nach der NMDA Schädigung kam es zum massiven Absterben der Neurone und einer deutlichen Zunahme der Zahl von Mikrogliazellen. NADA (100 pM-10 μM) hemmte den Prozess der neuronalen Schädigung und führte bei 1 nM und 1 μM zum Rückgang der Mikrogliaanzahl in geschädigten OHSC. Weiterführende Analysen ergaben, dass NADA Effekte über den Cannabinoid (CB)1 Rezeptor mediiert. Sowohl die abnCBD, CB2, TRPV1 und TRPA1 Rezeptoren als auch -als struktureller Bestandteil des NADA waren an den Wirkungen nicht beteiligt. Es ist bekannt, dass der TRPV1 Rezeptor eine große Rolle bei NADA mediierten Effekten in der Peripherie spielt. Das Vorkommen bzw. die funktionelle Aktivität des TRPV1 im ZNS ist Gegenstand kontroverser Diskussionen. TRPV1 konnte auf mRNA Ebene in organotypischen hippokampalen Schnittkulturen (OHSC), Astrozyten, hippokampalen Neuronen und DRG (Spinalganglien) nachgewiesen werden. Mittels Calcium Imaging und Elektrophysiologie konnte an HEK293-TRPV1 Zellen NADA als Agonist des TRPV1 bestätigt werden. In allen untersuchten Zellen war jedoch die Funktionstüchtigkeit des TRPV1 Rezeptors mittels Calcium Imaging Messungen nicht nachweibar.
Im nächsten Schritt wurde geprüft, welche der klassischen mit dem Endocannabinoidsystem assoziierten Signalkaskaden an der NADA vermittelten Protektion teilnehmen. Die Signalkaskaden p38 und p44/42 MAPK wurden in den stimulierten und nichtstimulierten Zellen durch NADA nicht beeinflusst.
NADA gehört somit zur Gruppe der neuroprotektiv wirkenden Endocannabinoide, welches seine Effekte über den CB1 Rezeptor vermittelt. Im Schädigungsmodell des OHSC spielt der TRPV1 Rezeptor keine Rolle. Weitere intrazelluläre Signalkaskaden, wie der PLC Weg, bedürfen einer weitergehenden Analyse bezüglich ihrer Involvierung in NADA-vermittelte Effekte.
Werte sind zentraler Bestandteil der persönlichen wie sozialen Identität und spielen eine wichtige Rolle für das menschliche Erleben und Verhalten. Bisher wurden Werte aber immer nur als normative Richtlinien oder motivationale Grundlagen verstanden, an denen sich Personen bewusst orientieren oder auf die sie sich zu bewegen. Erste Forschungsergebnisse konnten nachweisen, dass Personen unabhängig davon auch von Unwerten geleitet werden, an denen sie sich bewusst nicht orientieren oder von denen sie sich wegbewegen (Van Quaquebeke, Kerschreiter, Buxton, & van Dick, 2010). Vor diesem Hintergrund stellen die zentralen Ziele dieser Dissertation die theoretische Herleitung der Trennung von Werten und Unwerten und der praktische Nachweis des Einflusses beider Werteorientierungen auf das menschliche Erleben und Verhalten dar. In dem ersten Manuskript, das dieser Dissertation zugrunde liegt, erfolgte die konzeptionelle Herleitung und Trennung von Werten und Unwerten. Durch das Aufzeigen des theoretischen Ursprungs beider Werteorientierungen konnten explizite Hypothesen zu ihrer Trennung und unabhängigen Wirkung, vor allem in organisationalen- und Führungs-Kontexten, hergeleitet und aufgestellt werden. In dem zweiten Manuskript konnte in zwei Feldstudien (N1 = 131 und N2 = 136) aufgezeigt werden, dass sich Werte und Unwerte empirisch tatsächlich voneinander unterscheiden lassen und unterschiedliche Einflüsse auf die Wahrnehmung ihrer Mitarbeiter und die Ausmaße an Identifikation und Respekt haben. In dem dritten Manuskript konnte in einer Feldstudie (N1 = 95) und einer Szenariostudie (N2 = 137) nachgewiesen werden, dass ideale Werte, die durch Führungskräfte verkörpert werden, darüber hinaus die Wahrnehmung ihrer Mitarbeiter und die Ausmaße an Identifikation und Anerkennung positiv beeinflussen. Das gilt besonders für interne Führungskräfte, die die Mitarbeiter schon länger führen und als Teil der Arbeitsgruppe angesehen werden. Insgesamt weist diese Dissertation auf die Bedeutung einer differenzierten Darstellung und Betrachtung von Werteorientierungen und Wertesystemen hin und liefert mit der Einführung von Unwerten in die (organisationale) Forschung einen wichtigen Beitrag zur Erforschung ihres Einflusses auf das Erleben und Verhalten von Führungskräften und Mitarbeitern.
Die Lösung globaler Probleme wie Klimawandel, Umweltzerstörung oder Ernährungssicherung erfordert grundlegende Transformationen unserer Gesellschaft. Um diese neuartigen und existenziellen Herausforderungen bewältigen zu können, brauchen wir neues Wissen – über die Entstehung der Probleme, über anzustrebende Lösungsansätze und über Wege zu deren Umsetzung.
Mit dem Ziel, dieses Wissen zu schaffen, hat sich die transdisziplinäre sozial-ökologische Forschung entwickelt – eine innovative, praxisnahe Forschung entlang der zentralen Motive Verstehen – Bewerten – Gestalten: Komplexe Probleme zu verstehen, die erarbeitete Wissensbasis zu bewerten und Handlungsoptionen zu gestalten greifen bei diesem Forschungstypus ineinander. Die sozialökologische Forschung hat eine Pionierfunktion für die Umwelt- und Nachhaltigkeitsforschung in Deutschland übernommen und wegweisende Arbeiten etwa zur Energie-, Mobilitäts- oder Ernährungswende vorgelegt.
Im Förderschwerpunkt Sozial-ökologische Forschung (SÖF) hat das Bundesministerium für Bildung und Forschung (BMBF) im Jahr 2000 erstmals ein Programm zur Förderung dieses spezifischen Forschungszugangs aufgelegt. Bis zum Jahr 2012 wurden darin Verbünde und Einzelvorhaben unterstützt, etwa zu Themen wie Umwelt - Ernährung - Gesundheit: Langfriststrategien für einen nachhaltigen Konsum oder Soziale Dimensionen von Klimaschutz und Klimawandel. Mit Erfolg: Forschungsvorhaben zur Transformation stehen inzwischen prominent auf der Tagesordnung von Politik und Gesellschaft. Und auch die Wissenschaft selbst öffnet sich immer mehr für die Fragen und Methoden der sozial-ökologischen Forschung.
Dieses Memorandum setzt sich dafür ein, die Basis der sozial-ökologischen Forschung in den kommenden Jahren konsequent zu vertiefen und zu verbreitern – inhaltlich, organisatorisch und institutionell. Dazu gibt das Memorandum Empfehlungen zur Förderung von Themenfeldern und von Maßnahmen der Strukturentwicklung.
Einer der zahlreichen Vorträge von Gertrude Lübbe-Wolff beginnt folgendermaßen: "Herr Gerhardt hat mich eingeladen, etwas über die aktuelle Bedeutung von Hegels Rechtsphilosophie zu sagen. Nichts lieber als das. An der Aktualität der Hegelschen Rechtsphilosophie leide ich geradezu, und über das, woran man leidet, spricht man ja gern. Die Aktualität der Hegelschen Rechtsphilosophie zeigt sich mir darin, dass ich öfter an Hegel denken muss, als mir lieb ist. Ich muss so oft an ihn denken, weil in unserer öffentlichen Kultur das Hegelwidrige so präsent ist." ...
Dieter Grimm im Interview: Welche Hürden das Grundgesetz vor einem NPD-Verbot errichtet, wie andere Demokratien mit verfassungsfeindlichen Parteien fertigwerden, und warum eine NPD-Klage gegen ein Verbot vor dem Europäischen Gerichtshof für Menschenrechte in Strassburg durchaus Erfolgschancen besäße.
Gestern hat sich hier im Blog eine interessante Kontroverse entsponnen über meine These, dass der Anruf des Bundespräsidenten bei Kai Diekmann die Pressefreiheit desselben und seiner Bildzeitung unangetastet gelassen hat. Wir haben Dieter Grimm, den ehemaligen BVerfG-Richter und Rektor des Wissenschaftskollegs, um ein klärendes Wort gebeten und die Gelegenheit genutzt, ihm auch noch einige weitere Fragen zur Affäre um den Bundespräsidenten zu stellen.
95% unseres weltweiten Datenverkehrs werden von Unterseekabeln transportiert, nur ein Bruchteil über Satelliten (~5%). Das macht sie zu einer zentralen, kritischen Infrastruktur. Die Kabel verbinden Menschen und Regierungen, ermöglichen eine globale Datenkommunikation und damit auch unsere moderne und vernetzte Gesellschaft. Das derzeitige, alltägliche Leben vieler Menschen wäre ohne diese Kabel nicht möglich. Ein moderner Staat und seine Armee wären nicht handlungsfähig...
Das Burkitt Lymphom ist ein aggressives B-Zelllymphom, das in tropischen Regionen Afrikas und in Neu Guinea endemisch auftritt und vor allem bei Kindern vorkommt. Die sporadische Form des Burkitt Lymphoms tritt weltweit in geringerer Häufigkeit auf und betrifft alle Altersschichten. In nahezu allen endemischen Fällen ist das Epstein-Barr Virus in den Tumorzellen nachweisbar, jedoch nur in ca. 20 % der sporadischen Fälle. Der Beitrag von EBV zur Entstehung EBV-positiver Burkitt Lymphome ist seit über 50 Jahren EBV-Forschung ungeklärt. Im Jahr 2004 wurden im Genom des Epstein-Barr Virus eine Reihe von microRNAs entdeckt, die potentiell für die Pathogenese des EBV-positiven Burkitt Lymphoms relevant sein könnten. Da die Expression der viralen microRNAs seither für das Burkitt Lymphom nur unvollständig beschrieben worden sind, wurden sie in dieser Arbeit systematisch analysiert und dadurch ein vollständiges Expressionsprofil erstellt. Es konnte dabei keine Unterscheidung zwischen endemischen und sporadischen Fällen erreicht werden, jedoch wurden hierbei erstmals Fälle identifiziert, die trotz nachgewiesener EBV-Assoziation keine viralen microRNAs enthielten. Neben den viralen microRNAs könnten im Burkitt Lymphom auch die zellulären microRNAs für die Tumorentstehung von Bedeutung sein. Deshalb wurde in dieser Arbeit auch die Expression der zellulären microRNAs aus Burkitt Lymphom-Biopsien charakterisiert. Durch hierarchisches „Clustering“ bildeten sich drei Gruppen, die hauptsächlich durch An- und Abwesenheit von zwei microRNAs (miR21 und miR92a) definiert wurden, denen onkogenes Potential zugeschrieben wird. Die Expressionsmuster der einzelnen Gruppen weisen auf zelluläre Mechanismen der Pathogenese des Burkitt Lymphoms hin.
Die genetische Charakteristik des Burkitt Lymphoms ist eine Chromosomentranslokation, welche das Protoonkogen c MYC unter die Kontrolle von regulatorischen Elementen der Immunglobulingene bringt. Durch die somit erhöhte Transkription von c-MYC entfaltet das Genprodukt sein onkogenes Potential. Mutationen im offenen Leserahmen können dieses Potential zusätzlich verstärken. Da c MYC ein pleiotroper Transkriptionsfaktor ist und somit auf eine ganze Reihe zellulärer Prozesse Einfluss hat, bewirkt die Translokation massive Veränderungen in der Zelle. Vorangegangene Untersuchungen der Arbeitsgruppe zeigten, dass die antivirale Interferonantwort durch hohe c MYC-Expression unterdrückt wird. Diese Beobachtung liefert eine mögliche Erklärung für die Immunevasion von Burkitt Lymphom-Zellen, trotz Anwesenheit des EBV-Genoms. In Zelllinien, die aus Burkitt Lymphom-Biopsien generiert wurden, konnte gezeigt werden, dass EBV eine Interferoninduktion auslöst, die durch c-MYC unterdrückt wird. In dieser Arbeit konnte auch gezeigt werden, dass Epstein-Barr-virale Nukleinsäureprodukte durch den zytosolischen Rezeptor RIG-I Interferon induzieren, dieser aber durch die hohe c-MYC-Expression transkriptionell gehemmt wird. Neben RIG-I wurden weitere Rezeptoren und Mediatoren der Interferoninduktionskaskade identifiziert, die ebenfalls transkriptionell von c-MYC unterdrückt werden. Diese Ergebnisse stützen die Hypothese, dass c-MYC durch Unterdrückung der angeborenen Immunität die Immunevasion von Burkitt Lymphom-Zellen ermöglicht.
Der 1723 in Schottland geborene und 1794 in Princeton, New Jersey, verstorbene John Witherspoon hat eine Sonderstellung in der amerikanischen Kulturgeschichte, denn er gilt als Urheber der "ersten umfassenden amerikanischen Rhetorik". Diese konstituiert sich im Wesentlichen in seinen Lectures on Eloquence, seinen Lectures on Moral Philosophy sowie seiner politischen und homiletischen Redepraxis im Kontext der amerikanischen Revolution (1763-1789). Die vorliegende Studie untersucht die historiographisch-kulturwissenschaftliche Bedeutung dieses einflussreichen, fast vergessenen Gründervaters und seiner produktiven Rezeption (imitatio atque aemulatio) ciceronianisch-republikanischer Rhetorik.
Im Zentrum steht die Frage nach Witherspoons imitatio Ciceronis und inwieweit diese für den Calvinisten mit der imitatio Christi im revolutionären Prozess vereinbar war. Tatsächlich zeigt sich bei der Untersuchung ein fundamentaler Habitus-Konflikt zwischen dem ursprünglich polytheistisch und republikanisch orientierten Ciceronianus und dem monotheistischen zur Monarchie tendierenden Christianus. Dieser Konflikt erklärt zum Teil die erheblichen Diskrepanzen zwischen Witherspoons rhetorischer Praxis und Lehre. Diese beziehen sich insbesondere auf die rhetorische inventio, die Witherspoon in seinen Vorlesungen als der Lehre nicht würdig erachtet. In seinen Reden nutzt er jedoch inventive Techniken wie die Status- und Chrienlehre zur effektiven Strukturierung. Dies wird anhand von drei bedeutsamen Reden verdeutlicht (The Dominion of Providence Over the Passions of Men, "Speech on the Convention with Burgoyne" und "Sermon Delivered at a Public Thanksgiving After Peace").
Von großer Bedeutung ist die dezidierte Hochschätzung des agonistischen ciceronianischen Rednerideals. Dieses Leitbild spielt im Prozess der Konstituierung der jungen amerikanischen Republik eine vitale Rolle und taucht insbesondere als republikanische Leidenschaft auf, die Witherspoons Anverwandlung der Catilinarien Ciceros zugrunde liegt. Andererseits findet sich das Festhalten an streng konservativ-calvinistischen Prinzipien. Auch im Bereich der Rhetorik bestätigt sich daher das als "doppelköpfig" erkannte Antlitz Amerikas, insofern heidnische und christliche Tradition eine besondere Verbindung eingehen. Witherspoon konnte, als erster akademischer Vertreter des Common-Sense-Realismus in Amerika, die sich ergebenden Spannungen zwar nicht lösen, aber offenbar mit seiner proto-pragmatistischen Philosophie verdecken.
Um ein besseres Verständnis der Stellung der ciceronianischen Rhetorik bei Witherspoon zu ermöglichen, wird sie auf dem Hintergrund tiefgreifender neuzeitlicher Humanismen wie des christlichen Humanismus und des Bürgerhumanismus rekonstruiert und im Bildungshorizont der "Neuen Rhetorik" des 18. Jahrhunderts gesehen. Mit diesen Paradigmen lässt sich die Rhetorik des Princetoner Professors als zivistisch-theistische Variante gegenüber der belletristisch-theistischen Ausprägung des Schotten Hugh Blair und der zivistisch-deistischen Entwicklung Thomas Jeffersons abgrenzen.
Im Projekt OPTUM wurde untersucht, welche Umweltentlastungen durch Elektrofahrzeuge in Zukunft erzielt werden könnten. Hierzu wurde ein integrativer Ansatz verfolgt, der neben der fahrzeugseitigen Betrachtung auch die Interaktionen mit dem Strommarkt berücksichtigt. Im Einzelnen fanden Analysen zu den folgenden zentralen Aspekten statt: Akzeptanz und Attraktivität von Elektrofahrzeugen, Marktpotenziale für Elektrofahrzeuge, Interaktion von Elektrofahrzeugen mit dem Stromsektor, CO2-Minderungspotenziale von Elektromobilität, Ökonomische Betrachtung der Speichermedien und Ressourceneffizienz des Systems Elektromobilität. In diesem Studientext werden die Forschungsergebnisse zur Frage nach der Attraktivität und Akzeptanz von Elektroautos vorgestellt. Dabei wird auf Ergebnisse aus zwei empirischen Untersuchungen eingegangen, die in OPTUM zur Ermittlung der Attraktivität und Akzeptanz von Elektrofahrzeugen durchgeführt wurden. Bei diesen Untersuchungen handelt es sich zum einen um eine qualitative Untersuchung mittels Fokusgruppen und zum anderen um eine standardisierte Erhebung, bei der NeuwagenkäuferInnen befragt wurden. Mit der standardisierten Befragung wurde eine Conjoint-Analyse zur Fahrzeugwahl gekoppelt, bei der sich die Befragten zwischen Fahrzeugen mit Verbrennungsmotor, Plug-in-Hybrid-Antrieb und voll-elektrischem Antrieb entscheiden mussten. Die empirischen Analysen verdeutlichen, dass es ein erhebliches Akzeptanzpotenzial für die beiden Elektrofahrzeugkonzepte – Plug-in-Hybride und vollelektrische Fahrzeuge – gibt. Speziell für voll-elektrische Fahrzeuge existiert je nach Szenario und Fahrzeugklasse ein Akzeptanzpotenzial von 12 bis 25 Prozent. Des Weiteren liefern beide empirischen Erhebungen Hinweise, wie dieses Akzeptanzpotenzial ausgeschöpft oder gar vergrößert werden kann.
Dieser Text fasst eine Studie zusammen, die für das Bundesministeriums für Ernährung, Landwirtschaft und Verbraucherschutz verfasst wurde und sich mit dem Kundennutzen von Anlageberatung auseinandersetzt. Das erhebliche Potenzial von interessenskongruenter Anlageberatung wird aufgezeigt und die aktuell geringe Leistungstransparenz im Markt kritisiert. Es wird empfohlen, ein standardisiertes Vokabular für Depotrisiken einzuführen und den Zugang aller Anleger zu leicht verständlichen und vergleichbaren Informationen zu historischem Depotrisiko und historischer Deporendite sicherzustellen. Die Studie fokussiert auf Wertpapierberatung und damit zuvorderst auf jene Teilmenge von Verbrauchern, die über Anlagevermögen verfügen. Die Grundideen zu Leistungstransparenz und standardisiertem Risikovokabular lassen sich jedoch auch z.B. auf den Alterssicherungsmarkt übertragen.
Die Wechselwirkungen von flüchtigen organischen Verbindungen (VOCs) mit Eis in der Atmosphäre sind für viele umweltrelevante Aspekte von Interesse, dennoch gibt es bisher erst wenige Untersuchungen zu dieser Thematik.
Im Rahmen dieser Arbeit wurden die Wechselwirkungen verschiedener VOCs mit Eis durch Kraftfeldrechnungen simuliert. Als Substanzen wurden das Keton Aceton, die Kohlenwasserstoffe Isopren und Mesitylen, die Alkohole Ethanol, tert-Butanol, 2-Methyl-3-buten-2-ol (MBO) und Perillylalkohol, die Ether Methyl-tert-butylether und Ethyl-tert-butylether (ETBE) sowie die Aldehyde Nonanal und Methacrolein ausgewählt.
Hierbei wurden sowohl die Adsorption an verschiedenen Oberflächen von hexagonalen Eis (Eis Ih) und von kubischem Eis (Eis Ic) als auch die Absorption in Eiskristallen und an den darin enthaltenen Linien- und Flächendefekten betrachtet. Für jedes VOC wurden die resultierenden Strukturen sowie die dazu gehörigen Enthalpien ermittelt und mittels Boltzmann-Statistik ausgewertet.
Für die Berechnung der Wechselwirkungen von VOC mit Eis wurde ein Kraftfeld entwickelt, das sowohl die Strukturen von Eis Ih und Eis Ic als auch die Strukturen der organischen Moleküle und ebenso die Wechselwirkungen zwischen Eis und organischem Molekül gut wiedergibt. Es basiert auf dem für organische Moleküle verwendeten DREIDING-Kraftfeld und wurde modifiziert mit Parametern für Wasser aus dem TIP5P-E-Kraftfeld. Das Kraftfeld wurde an Ab-initio-Rechnungen und experimentellen Daten validiert.
Die Simulationen erbrachten folgende Ergebnisse:
– Unpolare Kohlenwasserstoffe werden nur in geringem Maße an den Eisoberflächen adsorbiert; eine Absorption in die Eiskristalle ist energetisch noch wesentlich ungünstiger. Für diese Verbindungen ist der Austrag aus der Atmosphäre durch Wechselwirkungen mit der Eisphase daher nicht relevant.
– Sauerstoffhaltige Verbindungen werden an der Eisoberfläche gut adsorbiert. Zwischen dem VOC-Molekül und der Eisoberfläche bilden sich Wasserstoffbrückenbindungen aus. Ihre Anzahl ist abhängig von der Art des Moleküls (Keton, Aldehyd, Ether oder Alkohol). Die Simulationen zeigen, dass die nasse Deposition durch Wechselwirkungen mit der Eisphase für diese Stoffe ein Austragsweg aus der Atmosphäre ist, der nicht vernachlässigt werden darf.
– Bei einem Einbau von VOC-Molekülen in den Eiskristall wird die Eisstruktur teilweise erheblich verzerrt. Je kleiner die VOC-Moleküle sind, desto geeigneter sind sie für einen Einbau in den Eiskristall; bei größeren Molekülen ist der Einbau aufgrund des sterischen Anspruchs behindert. Zunehmende Größe des Moleküls begünstigt andererseits die Adsorption.
Parallel zu den theoretischen Untersuchungen wurde eine Apparatur entwickelt, mit der sich die Ad- und die Absorption von VOCs beim Wachsen der Eiskristalle experimentell untersuchen lässt. Die Eiskristalle entstehen dabei unter kontrollierten Bedingungen und wachsen, wie in der Atmosphäre, durch Anlagerung von Wasserdampf. Gleichzeitig wird dem Wasserdampf eine definierte Menge an VOC zugegeben. Das entstehende Eis wurde mittels GC analysiert. Als alternatives Analyseverfahren zur Bestimmung von VOCs in Wasser wurde ein NMR-Verfahren entwickelt, das quantitative Messungen im dreistelligen ppm-Bereich erlaubt. Erste Untersuchungen an Eiskristallen, die in Gegenwart von ETBE erzeugt wurden, zeigten, dass dieses VOC − wie auch in den Simulationen vorhergesagt − überwiegend an der Oberfläche von Eis adsorbiert, und nicht in den Eiskristall eingebaut wird.
Für ETBE wurde im Rahmen dieser Arbeit zusätzlich die Kristallstruktur der alpha-Phase aus Röntgenpulverdaten durch Kristallstrukturvorhersage und Realraummethoden bestimmt. ETBE kristallisiert in der für organische Verbindungen sehr seltenen Raumgruppe C 2/m. Die experimentelle Kristallstruktur entspricht der von der Dichte her günstigsten, von der Gitterenergie her zweitgünstigsten vorhergesagten Kristallstruktur. Die Kristallstruktur eines zweiten VOCs, MBO, konnte ebenfalls aus Röntgenpulverdaten bestimmt werden, obwohl die Kristallstruktur drei symmetrieunabhängige Moleküle pro asymmetrischer Einheit enthält. Da sowohl ETBE als auch MBO bei Raumtemperatur flüssig sind, wurden beide für die Messungen bei tiefer Temperatur kristallisiert.
Die Kristallstrukturen dieser beiden VOCs können wiederum zur Simulation von sekundären organischen Aerosolen in der Atmosphäre genutzt werden.
Auch die Kristallstrukturen zweier weiterer Verbindungen konnten aus Röntgenpulverdaten bestimmt werden: zum einen die Strukturen des Trihydrates, des Monohydrates und des Anhydrates von Pigment Red 57:1 (C18H12CaN2O6S), dem wichtigsten industriellen Rotpigment, mit dem weltweit die Mehrheit aller Zeitungen und Zeitschriften gedruckt werden, zum anderen die Struktur des 2-Butanol-Hemisolvats von Methyl-(2R,3R)-2-{3-[amino(imino)methyl]benzyl}-3-{[4-(1-oxido-4-pyridinyl)benzoyl]¬amino}butanoat-hydrochlorid. Mit diesen Arbeiten konnte gezeigt werden, dass Kristallstrukturen organischer Verbindungen aus Röntgenpulverdaten auch dann bestimmt werden können, wenn verschiedene Probleme kombiniert auftreten, z. B. schlecht kristalline Pulver, Textur, Solvate, Hydrate, Fehlordnung, funktionelle Gruppen mit vergleichbarer Streukraft, mehrere symmetrieunabhängige Moleküle, hohe Anzahl von Parametern bei der Strukturlösung etc.
Die Ergebnisse dieser Arbeit zeigen deutlich, dass die Wechselwirkungen zwischen sauerstoffhaltigen VOC-Molekülen und der Eisphase nicht vernachlässigt werden dürfen. Sie sollten in Simulationen der Atmosphäre berücksichtigt werden, um so Aussagen über Auswirkungen auf das Klima und andere umweltrelevante Aspekte zu verbessern.
Minimal invasive Techniken gehören zum chirurgischen Alltag. Sie hinterlassen nur kleine Narben, erfordern aber ein besonderes Geschick des Operateurs. Eine Studie von Ernst Hanisch, Professor an der Goethe-Universität und Chefarzt an der Asklepios Klinik Langen, zur minimal invasiven Entfernung der Gallenblase zeigt: Die Technik ist sicher und verbessert sich mit zunehmender Erfahrung des Chirurgen.
Die Vielfalt der Pilze zu verstehen und nutzbringend anzuwenden, ist das Ziel des LOEWE-Schwerpunkts »Integrative Pilzforschung«. Pilze gehören zu den größtenteils unbekannten Lebewesen unseres Planeten. Schätzungen zufolge sind 90 Prozent ihrer Arten noch unentdeckt. Bedenkt man die große wirtschaftliche Bedeutung einiger Pilzarten, etwa bei der Herstellung von Brot, Käse und Wein, aber auch von Antibiotika, erscheint eine gründliche Erforschung der Pilze überaus lohnend.
Gleich drei Wissenschaftler der Goethe-Universität waren bei der Einwerbung des begehrten »Starting Independant Researcher Grant« des European Research Council (ERC) erfolgreich: der Mikrobiologe Prof. Helge Bode, der Kardiologe Dr. Michael Potente und der Biochemiker Dr. Martin Vabulas. Mit dem 2007 erstmals ausgeschriebenen Programm will die Europäische Union europaweit kreative Wissenschaftler und zukunftsweisende Projekte fördern.
Tuberkulose-Bakterien können über viele Jahre im Körper überleben, weil sie von den Fresszellen des Immunsystems nicht immer abgetötet werden können. Eine wichtige Rolle spielt dabei ein spezifisches Protein, das von den Bakterien freigesetzt wird, um deren Überleben zu sichern. Ein Forscherteam um Prof. Harald Schwalbe hat die Struktur und Dynamik des Proteins aufgeklärt und herausgefunden, warum es bisher nicht durch spezifische Wirkstoffe ausgeschaltet werden konnte.
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
Auch in Film und Fernsehen erleben Märchen eine Renaissance. Filme knüpfen an das an, was Kindern und Erwachsenen aus mündlicher Überlieferung und Lektüre vertraut ist, und beleben den Stoff auf ihre Art neu. Häufig entsteht daraus ein Genre-Mix aus klassischen Märchen, Mythen und Populärkultur verknüpft mit Fantasy-Elementen.
Validierung einer neuen Messmethode zur direkten Bestimmung der Heparin-Konzentration im Blut
(2012)
In dieser Arbeit wurde ein neues Verfahren zur Heparin-Bestimmung (LiSA-H, light scattering assay of heparin) evaluiert. Dieses wurde an der Universität Frankfurt a. M. am Institut für Biophysik entwickelt und ermittelt erstmals die direkte Heparin-Konzentration im Blutplasma. Durch die Analyse der Lichtstreuung einer Plasmaprobe wird die Bildung von Nanopartikeln aus Heparin und Protamin verfolgt. Die Lichtstreuintensität ist dabei proportional zu der in der Probe enthaltenen Heparin-Plasmakonzentration (Heparin-PK). Das Antikoagulans Heparin wird bei Herz-OPs mit Einsatz der Herz-Lungen-Maschine (HLM) verwendet und soll perioperativ eine lutgerinnselbildung in der HLM, sowie Thromboembolien im Patienten verhindern. Am OP-Ende wird die Wirkung durch Protamin antagonisiert, um eine suffiziente Gerinnung wieder herzustellen. Das derzeitige Gerinnungsmanagement basiert auf einem indirekten Messverfahren, der ACT (activated clotting time), welches starken Störeinflüssen, wie z.B. der Hypothermie, Hämodilution und bestimmten Medikamenten unterliegt. Durch die mögliche Falschdosierung der beiden Medikamente, steigt die Gefahr einer Blutung und Thrombose. LiSA-H soll in Zukunft eine zuverlässigere und kostengünstige „point of care― Analyse der Gerinnung und hierdurch eine gezielte Dosierung von Heparin und Protamin ermöglichen, die die Komplikationsrate verringert. In der vorliegenden Studie handelt es sich um eine offene, nicht kontrollierte, prospektive Multicenter-Studie, die mit 50 Patienten am Universitätsklinikum Frankfurt a.M. und 30 Patienten am Kinderherzzentrum Gießen durchgeführt wurde. Es wurde gezeigt, dass die durchschnittliche perioperative Heparin-PK bei Erwachsenen und Kindern bei ca. 5,4 I.E./ml liegt. Es wurde nachgewiesen, dass die Heparin-Clearance bei Kindern (~113 Min.) um das zweifache im Vergleich zu Erwachsenen (~254 Min.), erhöht ist. Besonders hervorzuheben ist die hohe Fehlerquote der ACT-Messung, die bei Erwachsenen in bis zu 1,8 % und bei Kindern in bis zu 20 % der Messungen keinen aussagekräftigen Wert lieferte. Das bedeutet, dass bei Kindern während einer OP bis zu zwei und bei Erwachsenen bis zu drei Stunden keine Information über den aktuellen Gerinnungszustand vorlag. Um eine Validierung der Messergebnisse vorzunehmen, wurden Rückstellproben mit dem Standardlaborverfahren PiCT (Prothrombinase induced clotting time) gemessen. Die Daten aus dem PiCT korrelieren mit den Ergebnissen aus der LiSA-H-Messung wesentlich besser (r² = 0,80), als mit der herkömmlichen ACT-Messmethode (r² = 0,57). Die ermittelten Heparin-PK und die ACT-Werte während einer OP wurden in Chronogrammen dargestellt. Es wurde gezeigt, dass in 30 % der OPs bei Erwachsenen und in 60 % bei Kindern die Messdaten aus der ACT und LiSA-H nur unzureichend synchron bei Nachdosierung mit Heparin anstiegen oder entsprechend der Heparin-Clearance im OP-Verlauf abfielen. Dies zeigte sich besonders kritisch während langandauernder, komplikationsreicher OPs, die einen erhöhten Blutverlust oder sogar Rethorakotomien nach sich zogen, in denen der ACT-Wert eine suffiziente Gerinnung nahe legte, die LiSA-HMessung aber eine noch hohe Heparin-PK nachwies. Erfahrungen aus den klinischen Studien zeigten, dass die Kombination aus der Messung der Heparin-PK und einer Gerinnungsanalyse bei einem ATIII-Mangel von Vorteil ist. Erst die Kombination aus einerseits mehrfach niedrig gemessener ACT-Werte, trotz ggf. Nachdosierungen von Heparin und andererseits ausreichend gemessener Heparin-PK im LiSA-H, kann einen ATIII-Mangelzustand aufdecken. Dadurch können Nach- bzw. Überdosierungen vermieden und damit die Wahrscheinlichkeit für postoperative Komplikationen verringert werden. Der wichtigste Einflussfaktor auf die LiSA-H-Messung ist die Hämodilution, die durch Einbeziehung des Patienten-Blutvolumens (z.B. mit der Nadler-Formel) durch mathematische Korrektur berücksichtigt werden kann. Patientenindividuelle Reaktionen auf gleiche Heparin- und Protamin-Dosierungen sowie eine patientenspezifische Heparin-Clearance zeigten in diesen Studien auf, dass das derzeitige Antikoagulationsmanagement mit den Dosierungsempfehlungen (Körpergewichtsbezogene Dosierung, 1:1 Dosierung von Protamin zur initialen Heparin-Dosis oder der summierten Heparin-Dosis, „pauschale― Nachdosierungen von 5.000 oder 10.000 I.E. Heparin bei ACT < 480) für eine optimale Dosierung der Medikamente unzureichend ist. In Outcome-Studien soll mit der LiSA-H-Messung Dosierungsempfehlungen von Heparin und Protamin ausgearbeitet werden. Außerhalb der Herz-Thorax-Chirurgie eröffnen sich weitere Möglichkeiten, wie z.B. in Dialysezentren und in der Neurochirurgie, für die bereits Studien geplant sind.
In der Art und Weise, wie wir mit Geld umgehen, kommt unsere Persönlichkeit mit allen unbewältigten lebensgeschichtlichen Traumata und Konflikten zum Ausdruck. Und deshalb lässt Geld uns nicht kalt, ganz gleich, wie viel uns davon zur Verfügung steht. Geldstile sind relativ stabil; sie lassen sich auch dann nicht leicht verändern, wenn sie zu negativen Ergebnissen führen. Paare unterschätzen oft, dass über Geld latente Beziehungsprobleme ausgetragen werden.
Verständnisvolle Dozenten haben weniger Fachwissen : Wirkungen der sprachlichen Anpassung an Laien
(2012)
In der Interaktion mit Studierenden ist schriftliche Online-Kommunikation ein wichtiges Arbeitsmedium für jeden Lehrenden geworden. Die Interaktionspartner haben dabei für ihre Urteilsbildung über den jeweils anderen ausschließlich den geschriebenen Text mit seinen lexikalen und grammatikalischen Merkmalen zur Verfügung. Das Ausmaß der lexikalen Anpassung an die Wortwahl eines Studierenden kann daher einen Einfluss auf die studentische Bewertung ihrer Dozenten hinsichtlich unterschiedlicher Persönlichkeitseigenschaften haben. In der vorliegenden Studie beurteilten Studierende jeweils zwei Dozenten hinsichtlich Verständnis, Gewissenhaftigkeit und Intellekt (IPIP, Goldberg, Johnson, Eber et al., 2006) auf Grundlage einer Emailkommunikation. Der Grad der lexikalen Anpassung der Lehrenden wurde dabei variiert. Es zeigte sich, dass Studierende Dozenten mit umgangssprachlicher Wortwahl als verständnisvoller, gewissenhafter aber tendenziell weniger wissend einschätzen.
Weltweit ist der Galoppsport ein kapitalintensiver Wirtschaftszweig, der kontinuierlich
Zuchtbemühungen für optimal erfolgreiche Nachkommenschaft in den Mittelpunkt all seiner
Anstrengungen stellt. Dabei fällt auf, dass ähnlich intensive Bemühungen im
trainingsmethodologischen und -analytischen Bereich im Hinblick auf Leistungsoptimierung
der Vollblut-Rennpferde fast vollständig fehlen.
Die Motivation zur vorliegenden Studie lag einerseits in der langjährigen Beobachtung
„stabiler“ konventioneller Trainingsstrukturen in deutschen und internationalen Rennställen
sowie andererseits in der Dokumentaranalyse weltweit hochklassiger renommierter Rennen,
deren Ergebnisse seit mehr als 90 Jahren keinen Leistungsfortschritt, sondern
Geschwindigkeitsstagnation verzeichnen. ...
Meeting abstract : Deutscher Kongress für Orthopädie und Unfallchirurgie (DKOU 2012), 23.10.-26.10.2012, Berlin.
Fragestellung: Die Behandlung langstreckiger Knochendefekte ist eine große Herausforderung. Die Masquelet-Technik zur Behandlung solcher Defekte ist eine zweizeitige Operationstechnik. Zuerst erfolgt die Insertion eines PMMA (Polymethylmethacrylat)-Zementspacers in den Knochendefekt, der die Bildung einer Membran induziert. Diese Membran enthält Wachstumsfaktoren und regenerative Zellen, die möglicherweise die Knochenheilung unterstützen. Nach einigen Wochen wird der Zementspacer entfernt und der induzierte Membranschlauch mit Beckenkammspongiosa aufgefüllt. Im weiteren Verlauf kommt es zu einer kompletten Knochenheilung. Ziele dieser Untersuchung waren die Etablierung der Masquelettechnik am Rattenmodell und die Definition eines Zeitpunkts, an welchem die Membran eine ausreichende Festigkeit sowie einen signifikanten Gehalt von Vorläuferzellen aufweist.
Methodik: Nach Genehmigung der Experimente wurden die Femura von 24 männlichen SD-Ratten osteotomiert. Die Lücke (10 mm) wurde mit PMMA-Zement aufgefüllt und mittels Miniplatte stabilisiert. Parallel wurden den Versuchstieren gleich große PMMA-Spacer subcutan unter die Rückenhaut implantiert. Nach 2, 4, bzw. 6 Wochen (W) erfolgte die Entnahme der Membranen. Ein Teil der Membran wurde für (immun)histologische Untersuchungen aufbereitet (CD34, vWF, van Giesson), ein Teil für die in vitro Kultur. Auswachsende Vorläuferzellen in vitro wurden über CD34 und STRO-1-Färbung nachgewiesen. Statistik: Mediane, Kruskal-Wallis-Test, p<0,05 ist signifikant.
Ergebnisse und Schlussfolgerungen: Im zeitlichen Verlauf nahmen die Vaskularisierung (vWF-positive Fläche [%]: 2 W: 1,8; 4 W:1.6 vs 6 W: 6,4), die Dicke der Membran ([µm]: 2 W: 350 vs 4W: 517, 6 W: 592) und der Bindegewebsanteil ([µm]: 2W: 201 vs 4W: 324, 6W: 404) signifikant zu. Der Hauptanteil elastischer Fasern war auf der dem Zement zugewandten Seite, Vaskularisierung war eher auf der Weichteil zugewandten Seite zu finden. Der Anteil CD34 positiver Zellen nahm signifikant ab (2W: 5%, 4 W: 4% vs 6 W: 1%). Auswachsende STRO-1 positive Zellen konnten nur in zweiwöchigen Membranen nachgewiesen werden. Ältere Membranen wiesen einen zunehmenden Anteil seneszenter Zellen auf. Subcutan induzierte Membranen waren vergleichbar, wiesen jedoch tendentiell eine geringere Dicke und keine STRO-1 positiven Zellen auf.
Mit dieser Studie wurde erstmalig die Induktion einer Membran nach Masquelet im Rattenmodell etabliert. Es konnte nachgewiesen werden, dass der strukturelle Aufbau sowie die zellulären Komponenten zeitlichen Änderungen unterliegen und der Ort der Induktion Einfluss auf die zellulären Komponenten der Membran hat. Junge Membranen (2W) enthielten CD34 und STRO-1 positive Zellen. 4W-Membranen enthielten nur CD34 positive Zellen wiesen aber einen signifikanten Bindegewebsanteil auf, der für eine erhöhte mechanische Stabilität spricht. Ob 2 bzw. 4 Wochen alte Membranen den Knochenheilungsprozess fördern, muss in weiterführenden Studien untersucht werden.
Mit dem mathematischen Werkzeug zur Filterung von Lärmprozessen, die für die Praktizierung der numerischen Wettervorhersage in ihrer Anfangszeit eine große Rolle gespielt hat, wird an den linearisierten Gleichungen für ein barotropes Flachwassermodell im β-Format die Frage behandelt, wie sich der Rossby-förmige Wellenmodus entwickelt, wenn gleichzeitige Trägheitsschwerewellenmoden infolge von veränderlichen filternden Gleichungen unterdrückt werden.
Zunächst werden einige analytische Grundbeziehungen einer lärmfreien Adjustierung von Anfangsfeldern ausgeführt. Dann richtet sich die Untersuchung auf lärmfilternde prognostische Modellgleichungen (Absch. 5, 6, 7). Aus dieser Analysis in Abhängigkeit von der Filterstufe findet man im Vergleich mit der konventionellen synoptisch-skaligen Rossby-Formel, die der Filterstufe Null entspricht, zum Teil erweiterte Wellengeschwindigkeiten der Rossby-förmigen Physik. Dabei treten sogar unerwartete neue Effekte auf, die wohl primär im Langwellenspektrum zählen.
Der religiöse Pluralismus innerhalb der multikulturellen Gesellschaft erfordert vom Staat das Bemühen, die wechselseitige Achtung nicht nur zwischen Personen mit unterschiedlichen religiösen Glaubensüberzeugungen, sondern auch zwischen Glaubenden und Nicht-Glaubenden sicherzustellen. In diesem Kontext wird es für die vom Staat übernommene Funktion entscheidend sein, rechtzeitig zu beurteilen, ob er eine aktive und positive Rolle als eine Institution spielt, welche dafür sorgt, dass die Religionsfreiheit der Einzelnen und der Gruppen geachtet wird. Im Vorliegenden werden einige Gefahren und Bedrohungen für die Religionsfreiheit in der heutigen Gesellschaft analysiert und eine kritische Betrachtung als Antwort auf diese Krisensituation vorgelegt. Konkret werden die folgenden Punkte erörtert: 1. Der Glaube, daß die Religion nicht mit den Werten einer modernen, liberalen Gesellschaft zu vereinbaren ist. 2. Die Konfessionalisierung des Staates. 3. Der Missbrauch der staatlichen Macht, um die Präferenzen der Bürger durch absichtliche Änderungen im sozialen Kontext zu beeinflussen. 4. Die unnötigen Behinderungen und Beschränkung des Rechts auf Verweigerung aus Gewissengründen, die von einem falschen Verständnisses desselben herrühren. 5. Die Verherrlichung eines falsch verstandenen, radikalen Individualismus. 6. Ein Verständnis des Grundsatzes der Nichtdiskriminierung als ,,Gleichgültigkeit gegenüber den Unterschieden“.
Darstellung der Gründung des Frankfurter Corps Hassia 1949 nebst Mitgliederliste dieser Studentenverbindung. Überarbeitete und mit erläuternden Fußnoten versehene Fassung des Beitrags: Das Corps Hassia zu Frankfurt am Main, in: Einst und Jetzt (= Jahrbuch des Vereins für corpsstudentische Geschichtsforschung), Bd. 44 (1999), 119-122.
In der vorliegenden prospektiven Studie in der neurochirurgischen Klinik an der Johann Wolfgang Goethe-Universität in Frankfurt am Main wurden Oktober 2001 bis August 2006 dreiunddreißig Patienten mit intraduralen Raumforderungen der zervikalen und thorakalen Wirbelsäule unter Betrachtung eines möglichen prädiktiven Wertes der Serumkonzentration des Gliaproteins S100B und des intraoperativen Monitorings untersucht.
Bei jedem Patienten erfolgte das intraoperative Monitoring mittels MEPs und SEPs, außerdem wurde prä- und mehrfach postoperativ die S100B-Serumkonzentration bestimmt. Anschließend wurden die Patienten mindestens 1 Jahr nach dem Eingriff in Bezug auf die noch bestehenden körperlichen Folgen sowie auch die Einschränkungen im alltäglichen Leben und im psychischen Wohlbefinden untersucht.
Der Zusammenhang zwischen dem neurologischen Langzeitoutcome, den Teilergebnissen im intraoperativen Monitoring und im postoperativen S100B-Verlauf zeigte sich deutlich und war statistisch signifikant. Die gemeinsame Betrachtung der Serumkonzentration des Gliaproteins und des IOM unterstrich diese Ergebnisse nochmals, die Spezifität für ein gutes Outcome bei unkompliziertem Monitoring und ausbleibenden Anstieg des S100B lag zum Beispiel bei 100%.
Auch in der Befragung zum alltäglichen Leben anhand des SF-36 zeigte sich ein klarer Zusammenhang zwischen dem klinischen Outcome und den subjektiv aus Patientensicht geschilderten Problemen in der Bewältigung des Alltags. Interessanterweise korrelierte aber die psychische Summenskala des Scores nicht mit dem körperlichen Befund. Die Gruppe des schlechten Outcomes zeigte ein besseres psychisches Wohlbefinden als die Gruppe des guten Outcomes, die aber mit der Normstichprobe vergleichbare Ergebnisse erzielte.
Nordkoreas Moratorium
(2012)
Ein Vierteljahrhundert schwelt nun schon der Atomkonflikt mit Nordkorea. Jetzt hat sich wieder etwas getan – dieses Mal im positiven, hoffnungsvollen Sinne. Der neue Regent in Pjöngjang, Kim Jong-Un, zeigt sich bereit, der Außenwelt teilweise Einblicke in das Atomprogramm seines Landes zu gewähren. Dennoch spricht vieles für Kontinuität – in Bezug auf Nordkoreas zyklisches Taktieren zwischen Kooperation, Konfrontation und nuklearer Fortentwicklung ebenso wie auf die Konfliktlinien, die das diplomatische Auf und Ab seit jeher geprägt haben. Wobei das keineswegs bedeuten muss, dass für die internationale Gemeinschaft jenseits einer vollständigen „Entnuklearisierung“ nichts zu gewinnen wäre....
Goethe lebte auf großem Fuß, das belegen seine akribisch geführten Haushaltsbücher aus der Weimarer Zeit. Großzügig war er, wenn es um die fürstliche Bewirtung seiner Gäste, seine zahlreichen Reisen und die Neuanschaffungen für seine Sammlungen ging. Bescheidener lebte er im engeren Familienkreis. Geprägt von den bürgerlichen Prinzipien seines Frankfurter Elternhauses war ihm die sorgfältige Kostenkontrolle immer ein Anliegen, die Ordnung seiner privaten Finanzwirtschaft stellte für ihn die Basis seines Lebenswerks dar.
Scenegraph LoD-Analyse
(2012)
Level of Detail-Verfahren sind in der Computergrafik alltäglich und allgegenwärtig. Da das Thema seit Jahren ein aktiv bearbeitetes Feld in der Wissenschaft ist, existiert eine extreme Fülle an Verfahren mit unterschiedlichen Ansätzen oder Verfeinerungen. Es ist jedoch sehr schwer, die Unterschiede zwischen den Verfahren zu quantifizieren. Jede Arbeit nutzt ihre eigenen Testfälle und Methoden, wodurch sich selten echte Rückschlüsse auf Vergleiche zu anderen Verfahren ziehen lassen. Um hier einen Ansatz zur Lösung dieses Problems zu präsentieren, wird vorgeschlagen, ein allgemein nutzbares Testframework zu erstellen, das geeignet ist, LOD-Verfahren auf unterschiedliche Aspekte hin zu untersuchen. Es wird eine Reihe von konkreten Tests und ein dazugehöriges Programm als Rahmenwerk vorgestellt werden, das einen solchen Ansatz implementiert. Diese Testimplementierung ist bewusst einfach gehalten, sie wird jedoch einen guten Überblick darüber geben, welche Probleme es zu lösen gilt und worauf dabei geachtet werden muss.
Sportliche Aktivität besitzt in einer von Freizeit geprägten Gesellschaft eine wichtige soziokulturelle Bedeutung und erfreut sich unter anderem wegen der hinreichend bekannten mehrdimensionalen gesundheitlichen und psychophysischen Wirkungen wachsender Akzeptanz mit einem hohen gesellschaftlichen Stellenwert (Rütten et al.2005). Neben chronisch-degenerativen Erkrankungen werden vor allem die Herz- Kreislauf- und Stoffwechselerkrankungen, wie beispielsweise Diabetes mellitus, durch sportliche Aktivität positiv beeinflusst. Für die Bundesrepublik Deutschland wird geschätzt, dass mehr als 6.500 kardiovaskuläre Todesfälle jährlich vermieden werden könnten, wenn nur die Hälfte der körperlich inaktiven Männer im Alter von 40 bis 69 Jahren gemäßigten körperlichen Aktivitäten nachgingen (Mensink 1997). Insgesamt zählen Krankheiten des Muskel- und Skelettsystems zu den häufigsten und kostenträchtigsten Leiden in Deutschland (Hübscher 2007). Auf die Behandlungskosten bezogen nehmen sie nach Angaben des Statistischen Bundesamtes (2006) mit etwa 25 Milliarden Euro (11%) den dritten Rang ein. Zur Aufrechterhaltung von Gesundheit und Vermeidung chronischer Erkrankungen tragen körperlich aktive Lebensstile unumstritten und wissenschaftlich hinreichend belegt bei (Bauman 2004, Kruk 2007). Daneben verhindert sportliche Aktivität aber nicht nur Erkrankungen und Todesfälle, sondern ist ihrerseits auch mit besonderen Risiken verbunden. Über- oder Fehlbelastungen können zu Sportschäden und Sportverletzungen und damit neben funktionellen Einschränkungen zu manifesten Behinderungen des Organismus führen. Quantitativ von besonderer Bedeutung sind dabei die Sportunfälle, in deren Folge sich schwere Verletzungen mit Invalidität bis hin zu Todesfällen ergeben. Die Sportverletzung beschreibt ein akutes Ereignis, das durch eine plötzliche und unerwartete Krafteinwirkung in unmittelbarem Zusammenhang mit Sport zu einer Verletzung führt (Röthig 2003). Hiervon abzugrenzen ist der Sportschaden, der mitunter sportartspezifisch durch Fehl- und Überlastung verursacht und häufig durch Eigennamen wie Werferellenbogen oder Läuferknie beschrieben wird. Sportliche Aktivität ist mit einem ihr eigenen Verletzungsrisiko verbunden, das mit der Intensität der Belastung und der Expositionsdauer steigt (Biener 1975). Jährlich werden in den stationären und ambulanten Krankenversorgungseinrichtungen der Europäischen Union schätzungsweise rund 4,5 Millionen Sportverletzungen behandelt und 40% der Verletzungen sind mit Fußball assoziiert (Kisser und Bauer 2010). Für die Bundesrepublik Deutschland existieren spärliche Daten zu Verletzungsprävalenz und -inzidenz von Verletzungen und Schäden infolge sportlicher Aktivität. Die Jahresberichte des Statistischen Bundesamtes und der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) sind wenig spezifisch und berücksichtigen dabei weder Expositionszeit, Ausmaß und Lokalisation der Verletzung noch differenzieren sie zwischen Sportunfällen und Unfällen aus Heim und Freizeit (Statistisches Bundesamt 1998, Langen 2004, Henter und Neteler 2004). Eine geringe Anzahl relevanter Publikationen, die das Themenfeld Sportverletzungen und Sportschäden betreffen, basieren entweder auf nicht repräsentativen oder vorselektionierten Stichproben, selektiven Daten von Versicherern oder sie betreffen nicht die Bundesrepublik Deutschland (Finch et al. 1998, Hootman et al. 2002, Steinbrück 1999, Seither 2008, Henke et al. 2010). Zudem entstammen die Daten zumeist Gesundheitsberichten oder Sportentwicklungsplänen, in denen Sport nicht eindeutig definiert, sondern nur erhoben wird, ob Sport betrieben wird. Den Vergleichsdaten wird dabei häufig ein abseits wissenschaftlicher Definitionen, populäres Verständnis von Sport zugrunde gelegt (Wiebe 2011). Ziel der vorliegenden Arbeit ist eine aktuelle Betrachtung von Sportverletzungen und Sportschäden unter dem Aspekt von Häufigkeit, Ursachen, Risiken und Prävention mit der erstmaligen Untersuchung der Entität des Polytraumas im Sport und deren Kosten. Die vorgelegte Arbeit basiert auf fünf eigenen Publikationen zu diesem Themenkomplex und einer retrospektiven Registeranalyse polytraumatisierter Sportler der Jahre 2007 bis 2011 am Klinikum der Johann Wolfgang Goethe- Universität Frankfurt am Main.
Im Rahmen dieser Arbeit wurde die Analyse von Dielektronen im Bereich niedriger Massen für zwei unterschiedliche Magnetfeldstärken des ALICE-L3-Magneten untersucht. Hierfür wurden zwei Arten von Simulationen, volle Simulationen und schnelle Simulationen, jeweils für die Magnetfeldeinstellungen 0, 2 T und 0, 5 T erstellt und verglichen. Zunächst wurde die Konsistenz der vollen und schnellen Simulationen anhand von Monte Carlo Truth Spektren überprüft. Es zeigte sich eine gute Übereinstimmung der invarianten Massenspektren mit Ausnahme der f-Resonanz, die in den schnellen Simulationen fast 3-mal höher lag. Dann wurden die vollen Simulationen der Magnetfeldeinstellung 0, 5 T mit ALICEMessdaten desselben Magnetfeldes verglichen. Hierbei zeigte sich, dass die Messdaten im Hinblick auf die Transversalimpulsverteilung der einzelnen Elektronen um einen Faktor 1, 2 bis 2 und im Hinblick auf die Transversalimpulsverteilung der Paare um einen Faktor 2 bis 2, 5 über den Simulationen lagen. Dies konnte zum Teil auf eine Kontamination durch Pionen zurückgeführt werden. Das Signal-Untergrund-Verhältnis war mit 0, 99 für die Simulationen 6-mal größer als das der Messdaten mit 0, 16. Die normierte Signifikanz der Simulationen von 0, 0044 lag 3,5-mal über dem Wert 0, 0012 der Messdaten. Für die schnellen Simulationen wurden die Effizienzen für einzelne Elektronen benötigt. Diese wurden mithilfe von Boxensimulationen erstellt. Es wurde zwischen den Elektronidentifikationsmethoden TOF optional und TOF required und den Magnetfeldstärken 0, 2 T und 0, 5 T unterschieden. Die Boxensimulationen ergaben, dass bei einem Magnetfeld von 0, 2 T insgesamt mehr Elektronen rekonstruiert und identifiziert werden konnten. Außerdem konnte die Analyse zu niedrigeren Transversalimpulsen hin ausgedehnt werden. Die schnellen Simulationen zeigten, dass eine Reduktion des Magnetfeldes von 0, 5 T auf 0, 2 T eine Erhöhung der Anzahl an gemessenen Paaren um einem Faktor 2, 0 für die Elektronidentifikation TOF optional und um einem Faktor 6, 0 für die Elektronidentifikation TOF required zur Folge hat. Die vollen Simulationen der Elektronidentifikation TOF optional ergaben nach Reduktion des Magnetfeldes eine Verbesserung des Signal-zu-Untergrund-Verhältnisses um 11% von 0, 98 auf 1, 11. Die Signifikanz konnte von 0, 0043 auf 0, 0060, d.h. um 40%, verbessert werden. Für die Elektronidentifikation TOF required erhielt man ein Signal-zu-Untergrund-Verhältnis von 16, 5 (0, q 2 T) und 19, 1 (0, 2 T). Jedoch war die normierte Signifikanz (sgn = sqrt((s exp 2)/2*B)* (1/sqrt(NEv)))) für das reduzierte Magnetfeld 100% höher und lag bei 0, 086, während sie für 0, 5 T einen Wert von 0, 0043 hatte. In der vorliegenden Arbeit konnte gezeigt werden, dass eine Reduktion der Magnetfeldstärke des ALICE-L3-Magneten von 0, 5 T auf 0, 2 T zu Verbesserungen in der Messung von Elektron-Positron-Paaren führt. Als Fazit kann angenommen werden, dass eine Datennahme bei einem reduzierten Magnetfeld von 0, 2 T sinnvoll erscheint.
Wassergefiltertes Infrarot A (wIRA) stellt eine spezielle Form der Infrarotstrahlung (Wärmestrahlung) im Bereich von 780–1400 nm dar, die aufgrund ihrer sehr guten Verträglichkeit in der Medizin zur Prävention und Therapie verwendet wird. wIRA entspricht dem Großteil der in gemäßigten Klimazonen die Erdoberfläche wassergefiltert erreichenden Infrarotstrahlung der Sonne (Filterwirkung des Wassers und des Wasserdampfs der Erdatmosphäre). Durch die Wasserfilterung werden die Strahlungsanteile gemindert, die sonst durch Wechselwirkung mit Wassermolekülen in der Haut eine unerwünschte thermische Belastung der obersten Hautschicht hervorrufen würden. Technisch wird wIRA in speziellen Strahlern erzeugt, in denen die gesamte Strahlung eines Halogenstrahlers durch eine Wasser enthaltende Küvette hindurchtritt. wIRA wirkt beim Menschen über thermische und nicht thermische Effekte. Es steigert Temperatur, Sauerstoffpartialdruck und Durchblutung im Gewebe. Wesentliche klinische Wirkungen sind – indikationsübergreifend – eine Minderung von Schmerzen, Entzündung und vermehrter Sekretion sowie eine Verbesserung der Infektabwehr und der Regeneration. wIRA kann eingesetzt werden zur Therapie von akuten und chronischen Wunden, bei verschiedenen Hauterkrankungen (vulgären Warzen, Herpes labialis, Herpes Zoster, Sklerodermie, Morphaea, Akne papulopustulosa), zur Resorptionsverbesserung topisch aufgetragener Substanzen, im Rahmen einer photodynamischen Therapie (PDT; zur Therapie aktinischer Keratosen), bei bewegungssystembezogenen Erkrankungen (muskulären Verspannungen, Myogelosen, Lumbago, rheumatischen Erkrankungen, Morbus Bechterew, Arthrose, Arthritis, Fibromyalgie), zur Regeneration nach Sport, zur lokalen Beeinflussung der Fettverteilung sowie zum Aufrechterhalten oder Erhöhen der Körpertemperatur (z.B. in der Neonatologie) einschließlich Kompensation einer Hypothermie. Außerdem kann wIRA zur lokalen oder systemischen Hyperthermie im Rahmen der Onkologie mit Strahlentherapie oder Chemotherapie kombiniert werden.
Wassergefiltertes Infrarot A (wIRA) stellt eine spezielle Form der Infrarotstrahlung im Bereich von 780–1400 nm dar, die aufgrund ihrer sehr guten Verträglichkeit in der Medizin zur Prävention und Therapie verwendet wird. wIRA steigert Temperatur, Sauerstoffpartialdruck und Durchblutung im Gewebe. wIRA mindert indikationsübergreifend Schmerzen, Entzündung und vermehrte Sekretion und verbessert die Infektabwehr und Regeneration. wIRA hat in den letzten 20 Jahren eine deutliche Verbreitung in der Medizin gefunden. So wird wIRA z. B. in 1045 (ca. 28%) von 3767 erfassten dermatologischen Praxen oder Versorgungszentren in Deutschland genutzt (Stand: Februar 2012). wIRA-Strahler werden auch bei Patienten zu Hause eingesetzt...
Wassergefiltertes Infrarot A (wIRA) stellt eine spezielle Form der Infrarotstrahlung im Bereich von 780–1400 nm dar, die aufgrund ihrer sehr guten Verträglichkeit in der Medizin zur Prävention und Therapie verwendet wird. wIRA entspricht dem Großteil der in gemäßigten Klimazonen die Erdoberfläche wassergefiltert erreichenden Infrarotstrahlung (Wärmestrahlung) der Sonne (Filterung der Infrarotstrahlung der Sonne durch Wasser und Wasserdampf in der Erdatmosphäre). Durch die Wasserfilterung werden die Strahlungsanteile gemindert, die sonst durch Wechselwirkung mit Wassermolekülen in der Haut eine unerwünschte thermische Belastung der obersten Hautschicht hervorrufen würden. Technisch wird wIRA in speziellen Strahlern erzeugt, in denen die gesamte Strahlung eines Halogen-Strahlers durch eine Wasser enthaltende Küvette hindurchtritt. wIRA wirkt beim Menschen über thermische und nicht-thermische Effekte. wIRA steigert Temperatur, Sauerstoffpartialdruck und Durchblutung im Gewebe. wIRA mindert indikationsübergreifend Schmerzen, Entzündung sowie vermehrte Sekretion und verbessert Infektabwehr und Regeneration, insbesondere auch nach sportlicher Belastung. Zudem kann wIRA als kontaktfreies Verfahren simultan mit Bewegung und Training kombiniert werden. Außer zur Regeneration nach sportlicher Belastung kann wIRA eingesetzt werden zur Erwärmung der Muskulatur vor sportlicher Belastung sowie vor und während Massage, bei bewegungssystembezogenen Erkrankungen (muskulären Verspannungen, Myogelosen, Lumbago, rheumatischen Erkrankungen, Arthrose, Arthritis, Morbus Bechterew, Fibromyalgie), zur lokalen Beeinflussung der Fettverteilung, zur Therapie von akuten und chronischen Wunden und Verletzungen, bei verschiedenen Hauterkrankungen (vulgären Warzen, Herpes labialis, Herpes Zoster, Sklerodermie, Morphea, Akne papulopustulosa), zur Resorptionsverbesserung topisch aufgetragener Substanzen, im Rahmen einer photodynamischen Therapie (PDT; zur Therapie aktinischer Keratosen) sowie zum Aufrechterhalten oder Erhöhen der Körpertemperatur einschließlich Kompensation einer Hypothermie.
Wassergefiltertes Infrarot A (wIRA) stellt eine spezielle Form der Infrarotstrahlung im Bereich von 780–1400 nm dar, die aufgrund ihrer sehr guten Verträglichkeit in der Medizin zur Prävention und Therapie verwendet wird. wIRA entspricht dem Großteil der in gemäßigten Klimazonen die Erdoberfläche wassergefiltert erreichenden Infrarotstrahlung (Wärmestrahlung) der Sonne (Filterung der Infrarotstrahlung der Sonne durch Wasser und Wasserdampf in der Erdatmosphäre). Durch die Wasserfilterung werden die Strahlungsanteile gemindert, die sonst durch Wechselwirkung mit Wassermolekülen in der Haut eine unerwünschte thermische Belastung der obersten Hautschicht hervorrufen würden. Technisch wird wIRA in speziellen Strahlern erzeugt, in denen die gesamte Strahlung eines Halogen-Strahlers durch eine Wasser enthaltende Küvette hindurchtritt. wIRA wirkt beim Menschen über thermische und nicht-thermische Effekte. wIRA steigert Temperatur, Sauerstoffpartialdruck und Durchblutung im Gewebe. wIRA mindert indikationsübergreifend Schmerzen, Entzündung sowie vermehrte Sekretion und verbessert Infektabwehr und Regeneration, insbesondere auch nach sportlicher Belastung. Zudem kann wIRA als kontaktfreies Verfahren simultan mit Bewegung und Training kombiniert werden. Außer zur Regeneration nach sportlicher Belastung kann wIRA eingesetzt werden zur Erwärmung der Muskulatur vor sportlicher Belastung sowie vor und während Massage, bei bewegungssystembezogenen Erkrankungen (muskulären Verspannungen, Myogelosen, Lumbago, rheumatischen Erkrankungen, Arthrose, Arthritis, Morbus Bechterew, Fibromyalgie), zur lokalen Beeinflussung der Fettverteilung, zur Therapie von akuten und chronischen Wunden und Verletzungen, bei verschiedenen Hauterkrankungen (vulgären Warzen, Herpes labialis, Herpes Zoster, Sklerodermie, Morphea, Akne papulopustulosa), zur Resorptionsverbesserung topisch aufgetragener Substanzen, im Rahmen einer photodynamischen Therapie (PDT; zur Therapie aktinischer Keratosen) sowie zum Aufrechterhalten oder Erhöhen der Körpertemperatur einschließlich Kompensation einer Hypothermie.
Im ersten Teil der Publikation werden die Bedeutung von Bewegung und Prävention sowie präventionsbezogene Begriffe erläutert.
Im nächsten Abschnitt werden die Auswirkungen von Bewegungsmangel und von körperlicher Aktivität auf verschiedene Organsysteme dargelegt.
Es folgen die hieraus zu ziehenden Konsequenzen für ein präventiv nutzbares Training. Es werden dabei auch zur Motivierung Sporttreibender einsetzbare Faustregeln zur Leistungsfähigkeit und zur Trainierbarkeit (maximale Sauerstoffaufnahme, maximale ergometrische Leistungsfähigkeit und deren Veränderungen mit dem Alter und ihre Trainierbarkeit) erläutert.
Wie uns die Finanzkrise lehrt, leben wir in einem Wirtschaftssystem, in dem das Geldkapital Vorrang hat vor allen anderen Werten wie vor Natur, Mensch, Arbeit und Gemeinwohl. Die dadurch hervorgerufenen Schäden regen die Menschen in unserer Gesellschaft dazu an, Ideen im Interesse
einer zukunftsfähigen Marktwirtschaft zu testen. Die ethisch-ökologische Geldanlage wird dafür als eine Möglichkeit angesehen.
Verteidigungsminister Thomas de Maizière hat jüngst wieder eine verstärkte Sicherheitspolitische Debatte in Deutschland gefordert. Im Anschluss an die jüngste informelle Debatte der UN Generalsversammlung zur Responsibility to Protect (RtoP) am 5. September bietet es sich an Deutschlands Beitrag zur internationalen Schutzverantwortung zu diskutieren. Die Verhinderung von und Reaktion auf Massenverbrechen ist angesichts zweier Maxime deutscher Außenpolitik – nie wieder Krieg und nie wieder Auschwitz – ein notwendiges Thema, dass sich auch in der sicherheitspolitischen Debatte wiederfinden muss, in Deutschland aber bislang wenig thematisiert wird. Will die Bundesrepublik ihrer internationalen Verantwortung gerecht werden, muss hierzulande eine ernsthafte Auseinandersetzung mit der Schutzverantwortung stattfinden.
UN-Konferenz zum Waffenhandelsabkommen gescheitert“ – so waren Ende Juli diesen Jahres von der SZ über die Welt bishin zum Spiegel viele Artikel betitelt, die über das Ende der Konferenz über ein Waffenhandelskontrollabkommen (ArmsTrade Treaty – ATT) berichteten. Es schien, also ob alle Hoffnungen auf ein internationales Abkommen, welches den Handelmit allen konventionellen Waffen – von der Handfeuerwaffe bis hin zum Flugzeugträger – regulieren würde, erstickt wären.Doch kaum beachtet von der Öffentlichkeit konnten sich die Diplomaten im Rahmen des Ersten Komitees derGeneralversammlung der Vereinten Nationen Anfang November auf eine Fortsetzung der Verhandlungen über einen ATTeinigen. Die beeindruckende Zahl von 157 Staaten – bei 18 Enthaltungen und keiner Gegenstimme – stimmten für eine finaleKonferenz über einen ATT im März 2013...
Vierhundert Nachwuchswissenschaftler, einhundert Panels, alle Teilbereiche der Politikwissenschaft sind vertreten – eigentlich die idealen Voraussetzungen, um sich auszutauschen und selbst etwas für die eigene Arbeit zu lernen, oder nicht? Von 4. bis 6. Juli hat in Bremen die vierte ECPR Graduate Konferenz stattgefunden. Ziel der hauptsächlich von Promovierenden unter dem Banner des European Consortium for Political Research vorbereiteten Konferenz ist es Nachwuchswissenschaftler aus ganz Europa zusammenzuführen...
Die deutsche Politikwissenschaft scheint sich seit letzter Woche in einer Identitätskrise zu befinden. In der letzten Wochefand, von 24. Bis 28. September, in Tübingen der Kongress der Deutschen Vereinigung für Politikwissenschaft (DVPW) statt.Die DVPW ist ein wissenschaftlicher Fachverband für Politikwissenschaftlerinnen und Politikwissenschaftler in Deutschland.Eine Woche lang wurden unter dem Titel „Die Versprechen der Demokratie“ Themen wie Freiheit, Gleichheit, politischePartizipation, Wirtschaftskrise, Sicherheit, Legitimität und Frieden und ihr Verhältnis zur Demokratie im 21. Jahrhundertdiskutiert. Beim Kongress ereignete sich aber auch ein Eklat, der zu einem nachhaltigen Streit über die Benennung des imRahmen des Kongresses verliehenen Theodor Eschenburg Preises führte...
Das Nachsorgekonzept nach lumbalen Bandscheiben-Operationen beruht auf biomechanischen Untersuchungen von Nachemson, die bereits 1966 publiziert worden sind. Seine Studien zeigten, dass sich das Sitzen nach Bandscheiben- Operationen und bei Rückenschmerzpatienten ohne Operation ungünstig auf den Rehabilitationsprozess auswirkt. Aufgrund dieser Befunde wurde das Verbot des Sitzens in das Rehabilitationskonzept aufgenommen und ist noch immer weit verbreitet. Häufig entstehen dabei aus einer ängstlichen Vermeidungshaltung muskuläre Dysbalancen. Es habituiert sich ein erhöhter Tonus der Erector trunci-Muskulatur. So können myotendinotische Sekundärbeschwerden auftreten, die zu einer verzögerten beruflichen und sozialen Wiedereingliederung beitragen. Dabei ist vor allem die verzögerte berufliche Reintegration volkswirtschaftlich von großer Relevanz. Neue Untersuchungen, insbesondere von Wilke et al., Rohlmann et al. und Althoff et al., konnten die von Nachemson im Sitzen erhobenen Daten nicht bestätigen. Aufgrund dieser Ergebnisse lässt sich die Arbeitshypothese aufstellen, dass die bisher übliche Empfehlung, das Sitzen zu vermeiden, für Patienten nach lumbalen Bandscheiben-Operationen obsolet ist. Es kann vielmehr davon ausgegangen werden, dass eine Lockerung dieser Richtlinie die Rehabilitation und die berufliche Wiedereingliederung nach lumbalen Bandscheiben-Operationen erleichtern und beschleunigen kann. Weiterhin kann davon ausgegangen werden, dass der Heilungsprozess, durch eine Be- und Entlastung und damit durch eine verbesserte Diffusion beschleunigt werden kann, wenn in der postoperativen Phase ein liberales Regime bezüglich der Körperhaltung eingeführt und die Wahl der Position dem Patienten weitgehend selbst überlassen wird. Der Patient sollte selbst die Körperhaltung wählen, die er als bequem empfindet. Ängste werden reduziert und die myotendinotischen Sekundärbeschwerden dürften abnehmen. Zu diesem Zweck wurde eine klinische Untersuchung durchgeführt, die insgesamt 50 Patienten in zwei Gruppen randomisiert. Eine Gruppe, als liberal bezeichnet, erhielt eine Sitzerlaubnis, die andere, als konventionell definiert, weiterhin Sitzverbot. Anhand von drei klinischen Nachuntersuchung, zwei von den Patienten selbst auszufüllenden Fragebögen (Oswestry -Schmerskala und Allgemeinen Depressionsskala), einem Sitz- und Schmerztagebuch und zum Abschluss eine MRT- Untersuchung der LWS vor und nach Kontrastmittelgabe, sollten die beiden Gruppen miteinander verglichen und die o. g. Hypothesen verifiziert oder falsifiziert werden. Der Vergleich der beiden Gruppen anhand der klinischen Untersuchungen ergab statistisch keinen signifikantern Unterschied im Hinblick auf den postoperativen Verlauf, insbesondere der postoperativen Schmerzen und Beschwerden, bzw. Behinderungen wie z. B. Lähmungen oder Sensibilitätsstörungen. Ebenso verhält es sich bei der Auswertung der Oswestry- Schmerzskala und der ADS- L. Auch hier ergaben alle Befragungen keine signifikanten Unterschiede zwischen den beiden Gruppen, so dass nicht von einer erhöhten Einschränkung der Patienten der liberalen Gruppe im Alltag ausgegangen werden kann. Das Sitz- und Schmerztagebuch zeigt ebenfalls keine signifikanten Unterschiede innerhalb der ersten 28 postoperativen Tage. Deutlich war zu erkennen, dass eine tägliche Steigerung der Sitzdauer nicht mit einer Erhöhung der Schmerzintensität oder einem vergrößerten Beschwerdebild einherging. Auch die Ergebnisse der MRT- Untersuchung der LWS wiesen keine nennenswerten Unterschiede zwischen den beiden Gruppen auf, die möglicherweise gegen eine Sitzerlaubnis gesprochen hätten. Die Erkenntnisse, die aus diesen Resultaten gewonnen werden können, bestätigten die o.g. Vermutungen, dass die Erlaubnis des Sitzens während der postoperativen Phase nicht zu einem verlängerten oder erschwerten Verlauf der Genesung führt oder sich schädlich auf diesen auswirkt. Das Sitzverbot kann als veraltet angesehen werden und, wenn weitere Untersuchungen die Beobachtungen bestätigen, sogar aus dem Therapieregime genommen werden. Eine frühere berufliche Wiedereingliederung erscheint mit einem liberalen postoperativen Regime erreichbar.
Mit einer Prävalenz von rund 5% bildet das Hereditäre Nonpolypöse Kolorektalkarzinom (HNPCC), auch Lynch Syndrom genannt, die häufigste genetische Disposition unter allen Kolorektalkarzinomen in Deutschland. Das Lynch Syndrom wird autosomal-dominant vererbt und tritt im Schnitt bereits ab dem 44. Lebensalter auf, während die Mehrheit der Kolorektalkarzinome erst mit 63 Jahren diagnostiziert wird. Ein wichtiges Merkmal sind sogenannte HNPCC-assoziierte Malignome, welche sich außerhalb des Dickdarms befinden. Die Diagnose gestaltet sich allerdings relativ schwierig, da bei Lynch Syndrom-Patienten kein eindeutiger klinisch auffälliger Phänotyp vorliegt und die Diagnosestellung nur in Zusammenhang mit einer Familienanamnese des Patienten möglich ist.
Mittlerweile ist bekannt, dass für das charakteristische Auftreten von hochgradigen Mikrosatelliteninstabilitäten im Tumorgewebe ein defektes DNA-Mismatch-Reparatursystem verantwortlich ist. Diese Defekte treten vor allem in den Genen MLH1, MSH2, MSH6 oder PMS2 auf und können über die Keimbahn vererbt werden.
Das Fusionsprotein MLH1•ITGA9 wurde im Jahr 2009 publiziert, nachdem es bei einer Familie aus Französisch-Guyana gehäuft identifiziert wurde. Mehrere Familienmitglieder waren an unterschiedlichen Krebsarten erkrankt, und die Tatsache, dass neben Dickdarmtumoren auch synchrones und metachrones extrakolonisches Tumorwachstum auftrat, ließen den Schluss einer positiven Familienanamnese für das Lynch Syndrom zu. Auffällig war jedoch, dass das Spektrum dieser extrakolonischen Tumoren nicht im Einklang mit den typischen HNPCC-assoziierten Malignomen stand. Daher lag die Vermutung nahe, dass das Fusionsprotein MLH1•ITGA9 für diesen Phänotyp verantwortlich ist.
Das dem zugrundeliegende Fusionsgen MLH1•ITGA9 ist das Resultat einer interstitiellen Deletion auf Chromosom 3p21.3. Es kodiert für den N-Terminus des Mismatch-Reparaturgens MLH1 sowie den C-Terminus des rund 400 kb downstream gelegenen Integrin α9. Aufgrund der fehlenden nukleären Lokalisationssequenz und weiterer wichtiger im C-Terminus gelegenen Domänen des MLH1-Proteins ist davon auszugehen, dass es außer Stande ist, Basenfehlpaarungen zu reparieren; ebenso sollte das Fusionsprotein theoretisch keine Funktionen des Wildtyp Integrin α9 mehr ausüben können.
Diese Annahmen konnten durch diverse Versuche wie Zelladhäsions- und Zellmigrationsassays bestätigt werden; das Fusionsprotein hatte dabei keinerlei Einfluß auf das Adhäsions- oder Migrationsverhalten unterschiedlicher Zelllinien.
Bezüglich der Lokalisation von MLH1•ITGA9 wurde über Fluoreszenzmikroskopie aufgrund der fehlenden nuklären Lokalisationssequenz im MLH1-Proteinteil der Nachweis erbracht, dass sowohl das Fusionsprotein als auch seine Variante MLH1∆ (bestehend aus dem MLH1-Teil) lediglich im Zytoplasma, und nicht wie der Wildtyp auch im Zellkern, zu finden ist.
Desweiteren zeigten Co-Immunopräzipitationsexperimente eine Interaktion zwischen dem Fusionsprotein und MLH1∆ mit dem Tumorsuppressor BRCA1. Die Folgen dieser Interaktion wurden auf translationeller und Proteinebene mit dem Ergebnis untersucht, dass Zellen, welche das Fusionsprotein oder seine trunkierte Variante MLH1∆ exprimieren, nach Etoposidstimulierung teilweise in gravierendem Ausmaß einen negativen Einfluss auf die p53-abhängige DNA-Reparaturmaschinerie aufweisen. Dies zeigte sich besonders deutlich auf transkriptioneller Ebene in einer bis zu 96%igen Herunterregulierung wichtiger Zellzyklus- sowie proapoptotischer Gene. Die durchflusszytometrische Analyse dieser Zellen zeigte außerdem eine höhere Apoptoseresistenz nach Etoposidstimulierung im Vergleich zu Wildtyp-MLH1 exprimierenden Zellen.
Die 5-Lipoxygenase (5-LO) ist eines der Schlüsselenzyme der Leukotrienbiosynthese. Sie katalysiert zunächst die Umsetzung der freigesetzten Arachidonsäure(AA) zu 5-Hydroperoxyeicosatetraensäure (5-HpETE), in einem zweiten Reaktionsschritt wandelt sie diese in Leukotrien A4 (LTA4) um. Leukotriene sind potente Entzündungsmediatoren und spielen eine wichtige Rolle bei entzündlichen und allergischen Reaktionen. Außerdem wird die Beteiligung an verschiedenen Krebsarten kontrovers diskutiert.
Sie besteht aus 673AS, ist 78 kDa schwer und gliedert sich wie alle bisher bekannten Lipoxygenasen in eine N-terminale C2-ähnliche, regulatorische Domäne(AS 1–114) (C2ld), die für die Membran- und Calciumbindung sowie die Interaktion mit dem Coactosin-like Protein (CLP) verantwortlich ist, und in eine C-terminale, katalytische Domäne (AS 121–673), die das Nicht-Häm-gebundene Eisen im aktiven Zentrum trägt. Ein weiteres Strukturmerkmal sind zwei ATP-Bindungsregionen, eine befindet sich in der C2ld (AS 73–83), die andere auf der katalytischen Domäne (AS 193–209), das molare Verhältnis von 5-LO zu ATP konnte dabei auf 1:1 festgelegt werden [167].
Bereits 1982 wurde in einer Veröffentlichung von Parker et al. beschrieben, dass 5-LO aus Rattenzellen in Gegenwart von Calcium auf einer Gelfiltration dimerisieren kann [204], 2008 schließlich wurde von Aleem et al. publiziert, dass humane 12-LO aus Thrombozyten Dimere bilden kann [219]. Somit konnte es möglich sein, dass auch die humane 5-LO zur Dimerisierung fähig ist.
Zunächst wurde aufgereinigtes Enzym mit nativer Gelelektrophorese und anschließender Coomassiefärbung oder Western Blot untersucht, dabei konnten mehrere Banden pro Bahn detektiert werden. Um dieses Phänomen weiter zu untersuchen, wurde im Anschluss eine Gelfiltration etabliert; da die C2ld der 5-LO recht hydrophob ist, war es nötig, 0,5% T20 zum Elutionspuffer PBS/EDTA zuzusetzen, da das Enzym ansonsten unspezifisch mit dem Säulenmaterial interagiert und für seine Größe zu spät eluiert hätte. In Anwesenheit von T20 eluierte 5-LO in zwei getrennten Peaks, die exakt zu den vorher mit Referenzproteinen bestimmten Elutionsvolumina des Monomers und Dimers passten. Weiter wurde getestet, ob niedermolekulare Substanzen einen Einfluss auf das Dimerisierungsverhalten haben, allerdings konnte weder durch Ca2+noch durch ATP eine Verstärkung der Dimerisierung beobachtet werden. Dahingegen konnte, nach Vorinkubation mit GSH und Diamid, das alleinige Monomer auf der Gelfiltration nachgewiesen werden, nach Vorinkubation nur mit Diamid, lag das gesamte Protein ausschließlich als Dimer vor. Durch Gelelektrophorese mit oder ohne Zusatz von ß-Mercaptoethanol und LILBID-MS konnte die Ausbildung von intermolekularen Disulfidbrücken bestätigt werden. Ein Bindungsassay mit radioaktivem 35S-GSH konnte die kovalente Bindung des GSH an die 5-LO bestätigen. Quantifizierungsstudien mit Ellmans Reagens zeigten, dass mindestens eins der Oberflächencysteine mit GSH modifiziert wurde. Die von der Gelfiltration erhaltenen Fraktionen wurden auf enzymatische Aktivität getestet und in allen 5-LO-haltigen Fraktionen konnte Aktivität gefunden werden. Leider war es nicht möglich, eine Aussage darüber zu treffen, ob das Mono- oder das Dimer aktiver war. Es liegt offenbar in einem Fließgleichgewicht vor, da erneute Injektion des Monomerpeaks im bekannten Elutionsprofil aus zwei Peaks resultierte. Außerdem führt die Anwesenheit von 0,5% T20 während des Aktivitätstests zu einer Hemmung des Enzyms und weniger detektierbaren 5-LO-Produkten; es fiel vor allem auf, dass so gut wie keinerlei trans- und epitrans-LTB4, die nicht-enzymatischen Zerfallprodukte der 5-HpETE, nachzuweisen waren. Betrachtet man die Struktur der 5-LO, so findet man zehn Cysteine an der Oberfläche; die Cysteine 159, 300, 416 und 418 liegen dabei in einem Interface. Mutiert man diese Cysteine zu Serinen, so verschwindet der Dimer-induzierende Effekt des Diamids, wohingegen die Mutante weiterhin glutathionylierbar bleibt. Interessanterweise zeigt diese Mutante auch eine wesentlich weniger ausgeprägte Hemmung durch T20. Um eine Aussage treffen zu können, ob auch 5-LO aus humanen Zellen Dimere bilden kann, wurde 5-LO-haltiger S100 aus polymorphkernigen Leukozyten (PMNL) untersucht. Dabei konnte mit Western Blot und einem Aktivitätsnachweis gezeigt werden, dass die 5-LO in einem breiten Bereich von der Gelfiltration eluiert. Das deutet darauf hin, dass sie in PMNL ebenfalls dimerisiert vorliegen kann. In Gegenwart von Ca2+kam es zu einer Verschiebung der 5-LO zu höhermolekularen Gewichten, wobei dieses Phänomen nicht bei S100 aus transformierten E.coli auftrat, was auf einen gerichteten Komplex nach Calciuminduktion in PMNL hindeutet.
Außerdem wurde im Rahmen dieser Arbeit der Bindemodus von Sulindac an die 5-LO mittels Crosslinking untersucht. Dabei konnte gezeigt werden, dass konzentrationsabhängig der einfache Komplex aus 5-LO und CLP abnimmt, dafür aber ein hochmolekularer Komplex, der beide Enzyme enthält, entsteht. Weder das Prodrug Sulindac noch der weitere Metabolit Sulindacsulfon oder andere Inhibitoren, die ebenfalls an der C2ld angreifen sollen, zeigten diesen Effekt. Leider konnte nicht weiter geklärt werden, was diesen Effekt verursacht, allerdings liegt die Vermutung nahe, dass es zu einer Aggregation kommt. Weitere Untersuchungen könnten wichtige Hinweise auf das Design von neuen Arzneistoffen bringen, um selektivere und damit nebenwirkungsärmere Inhibitoren zu finden.
Im Rahmen des Bund-Länder-Programms "Qualitätspakt Lehre" hat die Goethe-Universität Frankfurt erfolgreich das Programm "Starker Start ins Studium" eingeworben. Dadurch verfügt das Institut für Psychologie nun über die personellen Möglichkeiten, die fachliche und soziale Integration neuer Psychologiestudierender im sechssemestrigen Bachelorstudiengang Psychologie zu verbessern. Hierzu wurden zwei obligate je zweisemestrige Lehrmodule entwickelt. In dem vorliegenden Beitrag wird das übergeordnete Lehrkonzept beschrieben und dessen Implementierung im Fach Psychologie als Praxisbeispiel illustriert.
Einleitung: In dem vorliegenden Artikel wird die persönliche Studien- und Lebenssituation von Studierenden mit Kindern am Fachbereich Medizin der Goethe-Universität Frankfurt am Main beleuchtet. Der spezielle Fokus liegt auf den Themen "Studium mit Kind" sowie "familiengerechte Hochschule", welche in Deutschland in der letzten Dekade sehr präsent sowohl in der Hochschulforschung als auch im akademischen Alltag sind. Hier versucht die Arbeitsstelle "Individuelle Studienbegleitung" am FB Medizin der Goethe-Universität durch ein neues Beratungs- und Servicekonzept mit wissenschaftlicher Begleitforschung den individuellen Studienverläufen gerecht zu werden und den Studienerfolg zu fördern.
Methoden: In erster Linie stammen die hier beschriebenen Erfahrungen der Medizinstudierenden mit Kind aus qualitativen Leitfadeninterviews (Stand April 2010), die im Rahmen des Modellprojektes Teilzeitstudium Medizin durchgeführt wurden. Ergänzend wurden die Studienergebnisse des Fachbereichs Medizin der Goethe-Universität Frankfurt am Main herangezogen und eine Literaturanalyse einbezogen.
Ergebnisse: Als Ergebnis kann festgehalten werden, dass die bereits seit mehreren Jahren erhobenen Forderungen und gewünschten Unterstützungsleistungen zwar zum Teil umgesetzt, aber noch nicht ausreichend an allen Fachbereichen implementiert wurden. Somit ist die aktuelle Situation von Studierenden mit Kindern in der Medizin nach wie vor schwierig und stellt für alle Beteiligten eine große Herausforderung dar.
Lösungsansatz: Im Rahmen der Arbeitsstelle "Individuelle Studienbegleitung" konnte im November 2009 das "Modellprojekt Teilzeitstudium Medizin" aufgebaut werden. Nur durch neue, unkonventionelle und innovative Ideen kann man die Sicherstellung der medizinischen Ausbildung erreichen und die heutige heterogene Studierendenschaft adäquat ansprechen sowie Studierende erfolgreich durch ihr Studium begleiten.
„In 25 Minuten die Welt retten“ – vermutlich klappt das nicht ganz, aber Änderungen im Unialltag können die Studierenden jetzt selbst mit anschieben – mit ihrer Teilnahme an der ersten uniweiten Studierendenbefragung, die am 26. November startet und noch bis 23. Dezember läuft. Befragt werden alle 43.000 Studierenden aus allen 100 Studiengängen, egal ob am Ende Bachelor, Master, Diplom, Magister oder Lehramts- oder Staatsexamenprüfung stehen. Repräsentativ und aussagekräftig sind die Ergebnisse nur, wenn die Beteiligung hoch ist. Je mehr also mitmachen, desto größer der Effekt!
Wie in der Medizin muss der Therapie die Diagnose vorausgehen. Allzu viele Vorschläge zur Lösung der Krise gehen nicht zuletzt deshalb in die falsche Richtung, weil sie eine adäquate Ursachenanalyse vermissen lassen. Wird der Fiskalpakt Europa aus der Krise führen? Die Europäische Währungsordnung ist ein Produkt politischer Entscheidungen, gegossen in europäisches und nationales Recht. Wie glaubwürdig ist das Versprechen, durch neues Recht, härtere vertragliche Bestimmungen, Fehlverhalten in Zukunft zu verhindern, wenn das geltende Recht so gering geachtet wird?
Großer Beifall
(2012)
Wie kann das Projekt gemeinsame Währung seine Glaubwürdigkeit wiederherstellen? Otmar Issing argumentiert, dass eine gemeinsame Währung ohne politische Union nur mit dem No-bail-out Prinzip funktionieren kann. Er warnt gleichzeitig davor, die politische Union nur als Mittel zur Krisenbewältigung voranzutreiben.
Forschung, die einen unmittelbaren Beitrag zur Lösung drängender gesellschaftlicher Probleme leisten will, muss sich besonderen Qualitätsanforderungen stellen: Sie soll nicht nur gesichertes, sondern auch anwendbares Wissen bereithalten. Dies gilt besonders für Forschung, die darauf zielt, Politik in Fragen nachhaltiger Entwicklung mit spezifischem Wissen zu unterstützen. Für diesen Typ einer „politik-relevanten Nachhaltigkeitsforschung“ präsentiert der vorliegende Wegweiser ein detailliertes Anforderungsprofil.
Der Wegweiser richtet sich an Förderer oder Auftraggeber einer solchen Forschung, an die Forschenden selbst und an Akteure aus der Politik, die sich direkt an Forschungsprozessen beteiligen. Er kann dabei sowohl für den Fall genutzt werden, dass Forschungsförderer oder Auftraggeber und politische Praxispartner verschiedene Institutionen sind, als auch für den Fall, dass sie identisch sind. Politische Beratung durch spezialisierte Agenturen, die keine eigene Forschung leisten, wird dagegen nicht adressiert.
Die im Detail ausgearbeiteten Anforderungen haben zwei Funktionen. Sie sollen zum einen den drei genannten Akteursgruppen als Orientierung dienen, wie sie dazu beitragen können, die Qualität von Forschungsprozessen und Forschungsergebnissen zu erhöhen und zu sichern. Zum anderen sollen sie die reflexive Kommunikation zwischen den Akteuren über Mittel und Zwecke der Forschung verbessern. ...
In der Atom- und Molekülphysik werden häufig Multichannelplate Detektoren mit Delay-Line-Auslese eingesetzt. Um eine große Präzision und eine hohe Reaktionsrate zu erhalten, ist es wichtig, dass alle Daten genau analysiert werden können. Die aktuelle Methode der Datenanalyse stößt dabei auf Probleme, wenn mehrere Teilchen kurz hintereinander auf den Detektor treffen. In dieser Arbeit wird versucht, ein neuronales Netz so zu trainieren, dass es eine bessere Datenanalyse liefert. Hierzu wird im ersten Kapitel der Detektoraufbau beschrieben, um zu verstehen, woher die einzelnen Signale kommen und wie sie zu interpretieren sind. Im zweiten Kapitel wird dann die Theorie vorgestellt, auf der neuronale Netze basieren. Das dritte Kapitel gibt einen kurzen Überblick über die benutzte Technik. Im vierten und fünften Kapitel werden die Ergebnisse dieser Arbeit vorgestellt. Im abschließenden sechsten Kapitel werden die Ergebnisse zusammengefasst und ein Ausblick auf weitere mögliche Projekte gegeben.
„Fragt man hierzulande oder auch im Ausland, wer unter den jüngeren politischen Philosophen in Deutschland der bedeutendste und einflussreichste sei, bekommt man übereinstimmend und ohne Zögern die Antwort: Rainer Forst“, so eröffnete der Präsident der Deutschen Forschungsgemeinschaft, Prof. Dr. Matthias Kleiner, seine Laudatio für den Frankfurter Leibniz-Preisträger. Mit 2,5 Millionen Euro kann Forst in den kommenden sieben Jahren Fragen der Gerechtigkeit jenseits der Nationalstaaten erforschen.
Das Freie Deutsche Hochstift und die Goethe-Universität rücken in der Geburtsstadt des großen Dichters näher zusammen. Im Oktober wurde gefeiert, was schon seit einiger Zeit erfolgreich praktiziert wird: die Vernetzung der beiden Institutionen, die mit der Berufung der Direktorin des Hochstifts, Prof. Anne Bohnenkamp-Renken, an den Fachbereich Neuere Philologien weiter intensiviert wird.
Der Tod beendet das Leben – aber muss dies auch zwangsläufig das Ende der Individualität bedeuten? Wenn Menschen meinen, in traditionellen Ritualen keine Orientierung mehr zu finden, suchen sie auch für den letzten Gang ihrer Angehörigen einen ganz eigenen Weg. Die Bestattungskultur als Seismograf für sozialen Wandel – der Frankfurter Soziologe Dr. Thorsten Benkel ist davon überzeugt, dass Friedhöfe sich bestens eignen, um »Transformationsvorgänge« in der Gesellschaft zu diagnostizieren.
Blog-Probleme und die #rp12
(2012)
Auch wir waren bei der re:publica in Berlin, die vom 2-4 Mai stattfand. Das Themenspektrum war breit gefächert, es ging um Urheberrechte, Netzneutralität, safe spaces (caring spaces) für Aktivisten, aber auch Trolle, Spam und Hackerbrause. Fotos kann man sich hier ansehen, in den nächsten Tagen sollen auch Videos von vielen der über 200 Vorträge hier online gestellt werden. Besonders spannend für uns war das Panel “Wissenschaftliches Bloggen in Deutschland”. Verschiedenste Blog-Formate wurden dort vorgestellt und es wurde diskutiert, was die Probleme der deutschen “Blogosphäre” sind. Wir merkten: Wir sind nicht allein...
Ein Nationalbankchef tätigt private Devisentransaktionen. Er, der die Geldmenge, den Wechselkurs, maßgeblich beeinflusst, scheint sich damit des Insiderhandels strafbar zu machen. Der IT-Mitarbeiter einer Bank, der diese Informationen geleakt hat und sich danach selbst anzeigte, wird nun angeklagt, gegen das Bankgeheimnis verstoßen zu haben. Dem Nationalbankchef hingegen droht kein Verfahren – weil er nicht an der Börse handelte. Logisch? Naja...
12:57 – Das Ende von ACTA
(2012)
Security Times
(2012)
“Cyber-Krieg – der Begriff dringt langsam ins öffentliche Bewusstsein” schreibt Eugene Kaspersky heute in der SZ (offline). Eine recht vorsichtige Umschreibung für eine buzzword-Karriere, die bald Globalisierungs-artige Züge annehmen könnte. Dass der Begriff mehr verschleiert als erhellt, haben wir hier im Blog schon oft thematisiert. Doch mit der Lektüre des Kaspersky-Beitrags wird nicht nur die Bedrohung eines internationalen Cyber-Kriegs vor Augen geführt – nein, es ist ein “Angriff auf den Alltag”. Zumal Kasperskys Aussenansicht im Zusammenhang steht mit einer etwas klandestinen Zusammenkunft in Bonn, dem Cyber Security Summit...
,797,523 …und im Sekundentakt kommen europaweit Unterschriften bei der Online Petititon ACTA: The new threat to the net auf avaaz.org hinzu. Für den 11. Februar sind zudem Demonstrationen in 20 europäischen Staaten geplant. In Polen, Tschechien und der Slowakei wurde die Ratifizierung bereits vorerst ausgesetzt. Nachdem die Aktionen gegen SOPA und PIPA in den USA vorübergehend erfolgreich waren, erhob sich der Protest immer lauter gegen das Anti-Counterfeiting Trade Agreement. „Wir haben Pipa und Sopa erledigt, jetzt seid ihr mit ACTA dran“, so lautet die transatlantische Aufforderung. Wer schließt sich in den Protesten gegen den “‘gold’ standard for the enforcement of intellectual property rights” [EDRI] zusammen?...
My contribution focuses on the relationship between theory and praxis, since the task of a “critical archaeology” is to mediate between these two spheres. Its target audience is the public, not other scholars. Critical archaeology is not part of scientific practice, but rather is part of intellectual reasoning that is both value-laden and that exercises practical critique. Respect for the specific logics of theory and praxis is crucial for its success. A “critical archaeology” that merits its name must steer its way between the Scylla of a technocratic paternalism that limits praxis and the Charybdis of submission to theory under the presumption of the “relevance of praxis.”
Der im Jahr 2004 am IWR Heidelberg entwickelte Neuronen Rekonstruktions-Algorithmus NeuRA extrahiert die Oberflächenmorphologie oder ein Merkmalskelett von Neuronenzellen, die mittels konfokaler oder Zwei-Photon-Mikroskopie als Bildstapel aufgenommen wurden. Hierbei wird zunächst das Signal-zu-Rausch-Verhältnis der Rohdaten durch Anwendung des speziell entwickelten trägheitsbasierten anisotropen Diffusionsfilters verbessert, dann das Bild nach der statistischen Methode von Otsu segmentiert und anschließend das Oberflächengitter der Neuronenzellen durch den Regularisierten Marching-Tetrahedra-Algorithmus rekonstruiert oder das Merkmalskelett mit einer speziellen Thinning-Methode extrahiert. In einschlägigen Vorarbeiten wurde mit Hilfe solcher Rekonstruktionen von Neuronenzellkernen gezeigt, dass diese, entgegen der vorher üblichen Meinung, nicht notwendigerweise rund sind, sondern Einstülpungen, sogenannte Invaginationen, aufweisen können. Der Einfluss der Invaginationen auf die Ausbreitung von Calciumionen innerhalb solcher Zellkerne konnte durch entsprechende numerische Simulationen systematisch untersucht werden.
Um diese Rekonstruktionsmethode auf hochaufgelöste Mikroskopaufnahmen anwenden zu können, wurden im Rahmen der vorliegenden Arbeit, die in NeuRA verwendeten Verfahren auf Basis von Nvidia CUDA auf moderner Grafikhardware parallelisiert und unter dem Namen NeuRA2 optimiert und neu implementiert. Erzielte Beschleunigungen von bis zu einem Faktor 100, bei Verwendung einer Hochleistungsgrafikkarte, zeigen, dass sich die moderne Grafikarchitektur besonders für die Parallelisierung von Bildverarbeitungsoperatoren eignet. Insbesondere das Herzstück des Rekonstruktions-Algorithmus - der sehr rechenintensive trägheitsbasierte anisotrope Diffusionsfilter - wurde durch eine clusterbasierte Implementierung, welche die parallele Verwendung beliebig vieler Grafikkarten ermöglicht, immens beschleunigt.
Darüber hinaus wurde in dieser Arbeit das Konzept von NeuRA verallgemeinert, um nicht nur Neuronenzellen aus konfokalen oder Zwei-Photon-Bildstapeln rekonstruieren zu können, sondern vielmehr die Oberflächenmorphologie oder Merkmalskelette von allgemeinen Objekten aus beliebigen Bildstapeln zu extrahieren. Dabei wird das ursprüngliche Konzept von Rauschreduktion, Bildsegmentierung und Rekonstruktion beibehalten. Für die einzelnen Schritte stehen aber nun eine Vielfalt von Bildverarbeitungs- und Rekonstruktionsmethoden zur Verfügung, die abhängig von der Beschaffenheit der Daten und den Anforderungen an die Rekonstruktion, ausgewählt werden können. Die meisten dieser Verfahren wurden ebenfalls auf Basis moderner Grafikhardware parallelisiert.
Die weiterentwickelten Rekonstruktionsverfahren wurden in mehreren Anwendungen eingesetzt: Einerseits wurden Oberflächen- und Volumengitter aus konfokalen Bildstapeln und Computertomographie-Aufnahmen generiert, die für verschiedene numerische Simulationen eingesetzt wurden oder eingesetzt werden sollen. Des Weiteren wurden über zwanzig antike Keramikgefäße und Fragmente anderer antiker Keramiken rekonstruiert. Hierbei wurde jeweils die Rohdichte und bei den komplett erhaltenen Gefäßen das Füllvolumen berechnet. Es konnte gezeigt werden, dass dieses Verfahren exakter ist als die in der Archäologie üblichen Methoden zur Volumenbestimmung von Gefäßen. Außerdem zeigt sich eine Abhängigkeit der Rohdichte der rekonstruierten Objekte vom jeweils verwendeten Keramiktyp. Eine Analyse, wie genau die Krümmung von Objekten durch die Approximation von Dreiecksgittern dargestellt werden kann, wurde ebenfalls durchgeführt.
Zusätzlich wurde ein Verfahren zur Rekonstruktion der Merkmalskelette lebender Neuronenzellen oder Teilen von Neuronenzellen entwickelt. Bei den damit rekonstruierten Daten wurden einzelne dendritische Dornfortsätze, auch Spines genannt, hochaufgelöst mikroskopiert. Auf Basis dieser Rekonstruktionen kann die Länge von Dendriten oder einzelner Spines, der Winkel zwischen Dendritenverzweigungen, sowie das Volumen einzelner Spines automatisch berechnet werden. Mit Hilfe dieser Daten kann der Einfluss pharmakologischer Präparate und mechanischer Eingriffe in das Nervensystem von lebenden Versuchstieren systematisch untersucht werden.
Eine Adaption der beschriebenen Rekonstruktionsverfahren ist aufgrund deren einfacher Erweiterbarkeit und flexibler Verwendbarkeit für zukünftige Anwendungen leicht möglich.
Spätestens seit einem vielbeachteten Artikel von Außenministerin Clinton in Foreign Policy (November 2011) mit dem Titel „America’s Pacific Century“ rauscht und raunt es im sicherheitspolitischen Blätterwald. Ist Europa nun endgültig der Aufmerksamkeit der USA entzogen? Wird die NATO nur noch zu einem strategisch hohlen Relikt transatlantischer Zuneigungsbekundung und spielt die sicherheitspolitische Musik nun neuerdings im Pazifik? Nein, denn, wie dieser Beitrag argumentiert, handelt es sich bei der aktuellen Politik der Obama-Administration weder um ein Nullsummenspiel noch um einen Bruch mit historischen Kontinuitäten....
Am 7. November 2011 veröffentlichte David Rieff unter dem Titel “R2P, R.I.P.” in der New York Times einen vielbeachteten Nachruf auf die sogenannte “Responsibility to Protect” (R2P), die Schutzverantwortung der Staaten der internationalen Gemeinschaft auf der Basis der menschlichen Sicherheit. Diese durch das Schlussdokument der UN Vollversammlung im Jahr 2005 kodifizierte Norm stellte das vorläufige Ende einer langen Entwicklung dar, mit welcher die internationale Gemeinschaft Lehren aus dem Scheitern in Ruanda und in Srebrenica in den 1990er Jahren ziehen wollte. Zwei fundamentale Prinzipien, das der staatlichen Souveränität und das der internationalen Solidarität, sollten durch einen klaren Kriterienkatalog neu ausbalanciert werden...