Universitätspublikationen
Refine
Year of publication
- 2012 (668) (remove)
Document Type
- Part of Periodical (125)
- Report (95)
- Article (92)
- Doctoral Thesis (84)
- Book (78)
- Review (42)
- Contribution to a Periodical (34)
- Bachelor Thesis (25)
- Working Paper (25)
- Conference Proceeding (24)
Language
- German (668) (remove)
Is part of the Bibliography
- no (668)
Keywords
- Deutschland (10)
- Europa (5)
- Schmerz (5)
- China (4)
- Frankreich (4)
- Gewebedurchblutung (4)
- Gewebetemperatur (4)
- Goethe-Universität Frankfurt am Main. Fachbereich Humanmedizin (4)
- Infrarot (4)
- Recht (4)
Institute
- Präsidium (144)
- Gesellschaftswissenschaften (105)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (74)
- Geschichtswissenschaften (47)
- Medizin (47)
- Rechtswissenschaft (37)
- Physik (31)
- Wirtschaftswissenschaften (30)
- Neuere Philologien (26)
- Biowissenschaften (20)
Als Sohn Therese Alzheimers geb. Busch (1840-1882) und des Notars Eduard Alzheimer (1830-1891) wurde Alois Alzheimer am 14. Juni 1864 in Marktbreit (Landkreis Kitzingen) geboren. Er hatte zwei Schwestern und drei Brüder sowie einen Halbbruder und eine Halbschwester. Als Zehnjähriger kam Alois Alzheimer nach Aschaffenburg und absolvierte bis Juli 1883 das Königliche humanistische Gymnasium, wie bereits sein Vater und dessen fünf Brüder. Nach dem Militärdienst in Aschaffenburg studierte Alois Alzheimer ab dem Wintersemester 1883 Medizin in Berlin, Tübingen und Würzburg. Nach dem Staatsexamen im Juni 1888 in Würzburg wurde er mit der Dissertation „Über die Ohrenschmalzdrüsen“ zum Dr. med. promoviert. Nach einer Assistentenzeit bei seinem Doktorvater Albert von Koelliker (1817-1905) begleitete er eine geisteskranke Dame auf ihren Reisen. Ende 1888 wurde Alois Alzheimer Assistenzarzt und 1895 Oberarzt in Frankfurt a. M. bei Emi Sioli (1852-1922), wo er ab Ende 1901 die erste bekannte Alzheimer-Kranke, Auguste Deter (1850-1906), behandelte.
Alois Alzheimer heiratete 1894 die Witwe Cecilie Geisenheimer geb. Wallerstein (1860-1901). Sie hatten drei Kinder: Gertrud Stertz geb. Alzheimer (1895-1980), Hans Alzheimer (1896-1981) und Maria Finsterwalder geb. Alzheimer (1900-1977). Alois Alzheimer hatte auch zwei Patenkinder: Alois Alzheimer (1892-1892) und Generaldirektor Dr. jur. Alois Alzheimer (1901-1987).
Alois Alzheimer (1864-1915) war ab 1903 Mitarbeiter Emil Kraepelins (1856-1926) in Heidelberg und München. Neben seiner ärztlichen Tätigkeit habilitierte sich alois Alzheimer 1904 mit der Arbeit „Histologische Studien zur Differentialdiagnostik der progressiven Paralyse“ habilitierte. Hierfür erhielt er im Januar 1912 in Leipzig den Paul-Julius-Möbius-Preis. Alois Alzheimer wurde 1904 Privatdozenten und 1909 außerordentlichen Professor in Bayern ernannt. In der im Herbst 1910 publizierten 8. Auflage seines Psychiatrie-Lehrbuchs, das im Herbst 1910 erschien, verwendete Emil Kraepelin erstmals das Eponym „Alzheimersche Krankheit“. Alois Alzheimer verdanken wir wesentlich mehr als diesbezügliche Forschungen und seine beiden Publikationen von 1906 und 1911 zu der später nach ihm benannten Krankheit, wodurch sein Name weltweit bekannt wurde und bis heute ist. Die von ihm bearbeiteten neurologischen und psychiatrischen Gebiete weisen kaum Überschneidungen auf. Er betrat mehrfach wissenschaftliches Neuland oder entwickelte Erkenntnisse weiter. Zu nennen sind hier u. a. seine Publikationen über Schizophrenie, Chorea Huntington, Epilepsie, Encephalitis, Erschöpfungspsychosen, manisch-depressives Irresein, Lumbalpunktion, Fetischismus, Indikationen für eine künstliche Schwangerschaftsunterbrechung bei Geisteskranken, Delirium, „geborene Verbrecher“, Alkoholkrankheit und Kriegsneurosen.
Zusammen mit seinem Chefarzt Emil Kraepelin behandelte Oberarzt Alois Alzheimer auch überegional bekannte Patienten wie den Nobelpreisträger Emil von Behring (1854-1917) und sog. „Wolfsmann“ Sergius Pankejeff (1887-1979) sowie das Vorbild für die „Clarisse in Robert Musils (1880-1942) Roman „Mann ohne Eigenschaften“, Alice Donath geb. Charlemont (1885-1939). Alois Alzheimer genoss schon zu Lebzeiten ein internationales Renommee. Gastärzte und Assistenten waren unter anderem Solomon Carter Fuller (1872-1953), Francesco Bonfiglio (1833-1966), Gaetano Perusini (1879-1915), Alfons Jakob (1884-1931) und Hans-Gerhard Creutzfeldt (1885-1961). Alois Alzheimer war ab 1910 zusammen mit Max Lewandowsky (1876-1918) Schriftleiter der neuen "Zeitschrift für die gesamte Neurologie und Psychiatrie".Im Juli 1912 wurde Alois Alzheimer ordentlicher Professor für Psychiatrie und Neurologie in Breslau und Chefarzt der Universitätsklinik. Er war zu Beginn des Ersten Weltkrieges auch im dortigen Festungslazarett eingesetzt.
Alois Alzheimer starb am 19. Dezember 1915 an Herzmuskelentzündung und Nierenversagen. Er wurde auf dem Hauptfriedhof in Frankfurt a. M. neben seiner Ehefrau beigesetzt.
In einem eigenen Kapitel werden die Geschichte der Alzheimer-Krankheit beleuchtet und aktuelle Erkenntnisse aufgezeigt. Die vorliegende Arbeit wird ergänzt durch relevante Hinweise auf die rechtliche Vorsorge durch eine Patientenverfügung und Vollmacht, ggf. die Errichtung einer Rechtlichen Betreuung, wenn ein/e Alzheimer-Kranke/r seine Angelegenheiten nicht mehr selbst regeln kann und in geistig gesunden Tagen keine schriftlichen Festlegungen getroffen hat. Erläutert werden ebenso Nachteilsausgleiche bei Schwerbehinderung sowie Hilfen bei Krankheit und Pflegebedürftigkeit: häusliche Pflege in Privatwohnungen oder Anlagen für Betreutes Wohnen, Tagespflege, Kurzzeitpflege und vollstationäre Dauerpflege in Seniorenheimen. Aufgezeigt werden auch Leistungen der Krankenkassen und Zuschüsse nach dem Pflegeversicherungsgesetz sowie bei Bedürftigkeit ergänzende Sozialhilfe zu erhalten.
Nach dem für das Instrument zur Verfügung stehenden Gesamtvolumen sollte die Zahl der ausgestellten Qualifizierungsschecks monatlich etwa 133 (165 unter Berücksichtigung der verkürzten Laufzeit) betragen. Diese Anzahl wurde 2011 durchgängig übertroffen. Die im Zeitablauf bereits seit 2010 beobachtete deutlich positive Entwicklung hat sich auch 2011 fortgesetzt bzw. verstärkt. 2011 wurden bis zum 10.12.2011 fast 3.900 Qualifizierungsschecks ausgestellt, das sind über 1.500 mehr als 2010. Immer noch wird eine nicht unerhebliche Anzahl an Qualifizierungsschecks zwar ausge-
stellt, aber von den Teilnehmer/innen nicht fristgereicht eingelöst. Der Anteil an verfallenen Qualifizierungsschecks an allen ausgestellten Schecks liegt inzwischen bei ca. 20%.
Die Ursachen hierfür konnten bislang noch nicht eruiert werden. Die in den ersten Jahren beobachteten starken regionalen Unterschiede bei den quantitativen Teilnehmerzahlen sind zwar noch vorhanden, haben sich aber deutlich reduziert.
Wird die unterschiedliche Größe der Landkreise bzw. kreisfreien Städte berücksichtigt, dann wird das Instrument nach wie vor in den nördlichen Kreisen um die Stadt Kassel
sowie in einigen südhessischen Landkreisen besonders gut angenommen. Unterdurchschnittlich ist – gemessen an den Teilnehmerpotenzialen – die Teilnahme in vielen kreis-
freien Städten, insbesondere in Frankfurt, Wiesbaden und Offenbach. Die Öffnung des Instruments für Teilzeitbeschäftigte mit weniger als 30 Stunden/pro
Woche wurde sehr gut angenommen. Über 40% der 2011 ausgestellten Schecks gingen an Teilzeitbeschäftigte.
Bezüglich der Teilnehmerstruktur ist festzuhalten, dass sich Frauen weiterhin überdurchschnittlich häufig an dem Instrument beteiligen. Ihr Anteil lag 2011 bei ca. 60%. Der Anteil an Beschäftigten mit Migrationshintergrund, die das Instrument nutzen, ist wieder angestiegen nachdem zwischen 2008 und 2010 eine rückläufige Tendenz beobachtbar war. Die Gruppe der Älteren wird nach wie vor in ausreichendem Maße über das Instrument angesprochen. Für Beschäftigte ohne Berufsabschluss trifft dies nicht zu. Die Anteile an Beschäftigten ohne Abschluss oder nur mit einem Schulabschluss sind weiterhin gering. Zudem verfügten 2011 etwa 43% der Teilnehmer über einen anerkannten Abschluss in der ausgeübten Tätigkeit, 2008 lag der Anteil noch bei 25%. Zugangswege und Informationskanäle zum Instrument verlaufen am häufigsten über die Arbeitgeber. Die Bildungsträger, die im Vorjahr noch die wichtigste Informationsquelle waren, haben hingegen an Bedeutung eingebüßt, spielen aber nach wie vor eine bedeu-
tende Rolle. Die Bedeutung der Arbeitgeber als Informationsquelle hat zwar bei nahezu allen Beschäftigtengruppen zugenommen, die Betriebe gehen dabei aber immer noch selektiv vor: Sie informieren überdurchschnittlich häufig Männer und jüngere Beschäftigte. Große Bedeutung haben weiterhin informelle Informationswege über Freunde und Ver-
wandte. Die gilt insbesondere für Frauen und Beschäftigte mit Migrationshintergrund. Rund 46% der Teilnehmer/innen trug 2011 die Kosten für den nicht förderungsfähigen Anteil der Weiterbildungsmaßnahme selbst. Dies ist ein geringerer Wert als 2010 (54%). Die betriebliche Unterstützung hat deutlich zugenommen, bei jedem zweiten Scheck beteiligen sich die Betriebe inzwischen an der Ko-Finanzierung. Die Bereiche der Weiterbildungsmaßnahmen haben sich gegenüber den Vorjahren verändert. Deutlich zugenommen haben Maßnahmen aus den Bereichen soft skills bzw. soziale Qualifikationen. Abgenommen haben dafür Verwaltungs- und rechungswesenschulungen. Die Teilnehmer/innen bewerten das Instrument bezüglich Information, Beratungsqualität, Berücksichtigung der individuellen Situation und auch des organisatorischen Ablaufs
und Aufwands weiter ausgesprochen gut. Zwar sind hier je nach Strukturmerkmal (Geschlecht, Alter, Qualifikation) Unterschiede in der Bewertung feststellbar, jedoch gibt es
keine Beschäftigtengruppe, die zu einer negativen Bewertung kommt. Im Vergleich zum Vorjahr hat sich insbesondere die Bewertung durch ältere Teilnehmer/innen verbessert. Auch die von Teilnehmer/innen mit Migrationshintergrund ist
überdurchschnittlich gut. Die Wirkungsanalyse mittels der telefonischen Nachbefragung zeigt weiterhin sehr posi-
tive Effekte. Die Qualität der Weiterbildungsmaßnahme wird in der Regel als sehr gut oder gut beschrieben. Über 90% der Teilnehmer/innen gab an, dass sich ihre berufliche
Situation (subjektiv oder objektiv) seit der Teilnahme an dem Instrument verbessert habe. Die sehr guten Bewertungen des Instruments und die positiven Wirkungen auf die Er-
werbssituation sind sicherlich sehr erfreuliche Ergebnisse. Dennoch bleibt auch 2011 festzuhalten, dass es eine nicht unerhebliche Anzahl an Mitnahmeeffekten gibt. Viele
Teilnehmer/innen gaben an auch ohne den Scheck an einer Qualifizierungsmaßnahme teilgenommen zu haben. Diese Mitnahmeeffekte sind zwar rückläufig, aber immer noch
von Bedeutung.
In 2011 wurde der Preis für Wirtschaftswissenschaften der schwedischen Reichsbank im Gedenken an Alfred Nobel an die US-Ökonomen Thomas J. Sargent von der New York University und Chistopher A. Sims von Princeton University verliehen. Gerade deutsche Zeitungskommentare kritisierten die Forscher vielfach für die Verwendung „unrealistischer“ Annahmen wie Nutzenmaximierung und rationale Erwartungen. Diese Kritik verkennt den maßgeblichen Beitrag von Sargent und Sims zur Entwicklung der modernen Makroökonomik. Ihre empirischen Methoden sind heute Standardwerkzeuge der akademischen Forschung und werden auch von Ökonomen in Zentralbanken, Finanzministerien und internationalen Organisationen eingesetzt. Sie haben grundlegende neue Erkenntnisse ermöglicht, zum Beispiel über die Wirkungsweise der Geld- und Fiskalpolitik.
An der Goethe Universität in Frankfurt wird ein Konzept für ein magnetostatischen Hochstromspeicherring für Protonen- und Ionenstrahlen entwickelt und untersucht. Zur Zeit stehen dem Experiment zwei Toroidsegmente und eine Volumenionenquelle zur Verfügung. An diesem Aufbau werden Experimente mit dem Ziel die Strahldynamik zu untersuchen und die Strahldiagnose in toroidalen Magnetfeldern zu entwickeln, durchgeführt [Joshi] Für Experimente ist eine Strahldiagnose entlang der starken toroidalen Magnetfelder bis maximal 0, 6T nötig. Dabei sind die zur Verfügung stehenden Strahldiagnoseverfahren zum Einen ein Faraday-Cup und zum Anderen ein entlang des kompletten Aufbaus beweglicher Szintillatordetektor. Der Szintillatordetektor, besteht aus einem Phosphorschirm und einer Kamera, die hinter dem Schirm angebracht ist. [Nonn] Aufgrund der geschlossenen Ringgeometrie und dem Anspruch auf eine hohe Flexibilität des Detektors ist die Konstruktion eines neuen von starken Magnetfeldern unbeeinflussbaren und sehr kompakten Detektors notwendig. Ziel dieser Arbeit ist es, ein allgemeines Strahldiagnoseverfahren zu entwickeln.
Meeting abstract : Deutscher Kongress für Orthopädie und Unfallchirurgie (DKOU 2012), 23.10.-26.10.2012, Berlin.
Fragestellung: Die Behandlung langstreckiger Knochendefekte ist eine große Herausforderung. Die Masquelet-Technik zur Behandlung solcher Defekte ist eine zweizeitige Operationstechnik. Zuerst erfolgt die Insertion eines PMMA (Polymethylmethacrylat)-Zementspacers in den Knochendefekt, der die Bildung einer Membran induziert. Diese Membran enthält Wachstumsfaktoren und regenerative Zellen, die möglicherweise die Knochenheilung unterstützen. Nach einigen Wochen wird der Zementspacer entfernt und der induzierte Membranschlauch mit Beckenkammspongiosa aufgefüllt. Im weiteren Verlauf kommt es zu einer kompletten Knochenheilung. Ziele dieser Untersuchung waren die Etablierung der Masquelettechnik am Rattenmodell und die Definition eines Zeitpunkts, an welchem die Membran eine ausreichende Festigkeit sowie einen signifikanten Gehalt von Vorläuferzellen aufweist.
Methodik: Nach Genehmigung der Experimente wurden die Femura von 24 männlichen SD-Ratten osteotomiert. Die Lücke (10 mm) wurde mit PMMA-Zement aufgefüllt und mittels Miniplatte stabilisiert. Parallel wurden den Versuchstieren gleich große PMMA-Spacer subcutan unter die Rückenhaut implantiert. Nach 2, 4, bzw. 6 Wochen (W) erfolgte die Entnahme der Membranen. Ein Teil der Membran wurde für (immun)histologische Untersuchungen aufbereitet (CD34, vWF, van Giesson), ein Teil für die in vitro Kultur. Auswachsende Vorläuferzellen in vitro wurden über CD34 und STRO-1-Färbung nachgewiesen. Statistik: Mediane, Kruskal-Wallis-Test, p<0,05 ist signifikant.
Ergebnisse und Schlussfolgerungen: Im zeitlichen Verlauf nahmen die Vaskularisierung (vWF-positive Fläche [%]: 2 W: 1,8; 4 W:1.6 vs 6 W: 6,4), die Dicke der Membran ([µm]: 2 W: 350 vs 4W: 517, 6 W: 592) und der Bindegewebsanteil ([µm]: 2W: 201 vs 4W: 324, 6W: 404) signifikant zu. Der Hauptanteil elastischer Fasern war auf der dem Zement zugewandten Seite, Vaskularisierung war eher auf der Weichteil zugewandten Seite zu finden. Der Anteil CD34 positiver Zellen nahm signifikant ab (2W: 5%, 4 W: 4% vs 6 W: 1%). Auswachsende STRO-1 positive Zellen konnten nur in zweiwöchigen Membranen nachgewiesen werden. Ältere Membranen wiesen einen zunehmenden Anteil seneszenter Zellen auf. Subcutan induzierte Membranen waren vergleichbar, wiesen jedoch tendentiell eine geringere Dicke und keine STRO-1 positiven Zellen auf.
Mit dieser Studie wurde erstmalig die Induktion einer Membran nach Masquelet im Rattenmodell etabliert. Es konnte nachgewiesen werden, dass der strukturelle Aufbau sowie die zellulären Komponenten zeitlichen Änderungen unterliegen und der Ort der Induktion Einfluss auf die zellulären Komponenten der Membran hat. Junge Membranen (2W) enthielten CD34 und STRO-1 positive Zellen. 4W-Membranen enthielten nur CD34 positive Zellen wiesen aber einen signifikanten Bindegewebsanteil auf, der für eine erhöhte mechanische Stabilität spricht. Ob 2 bzw. 4 Wochen alte Membranen den Knochenheilungsprozess fördern, muss in weiterführenden Studien untersucht werden.
Zellulare Nichtlineare Netzwerke bzw. Zellulare Neuronale Netzwerke, sogenannte CNN, wurden 1988 von L.O. Chua und L.Yang eingeführt und seither intensiv untersucht. Diese sind als Simulations-Software und als schaltungstechnische Realisierungen, in Hardware, verfügbar.
Als analog arbeitende Hardware Schaltungen können diese Netzwerke erhebliche Rechenleistungen erzielen.
Durch ihren Aufbau ermöglichen sie eine parallele Daten- und Signalverarbeitung.
Eine Einführung in CNN wird gegeben und das EyeRIS 1.1 Systems des Unternehmens ANAFOCUS Ltd. vorgestellt.
Das EyeRIS 1.1 System ist mit einem analog arbeitenden Focal Plane Prozessor (FPP) und einem digitalen Prozessor ausgestattet, wobei der Focal Plane Prozessor auch als Kamera zur Aufnahme von Bildern und Bildsequenzen benutzt werden kann.
Dies ermöglicht es, analoge CNN-Algorithmen zusammen mit digitalen Algorithmen auf einem System zu implementieren und so die Vorteile beider Ansätze zu nutzen. Der Datenaustausch zwischen dem analogen und digitalem Teil des EyeRIS 1.1 Systems geschieht mittels digital/analog und analog/digital Wandlung. Es werden Algorithmen auf dem EyeRIS 1.1 System untersucht und mit Ergebnissen die mittels Simulationen erzeugt wurden verglichen.
In Voruntersuchungen werden die Darstellungsgenauigkeit von Werten im analogen Teil des EyeRIS 1.1 Systems und die Verarbeitungsgeschwindigkeiten des EyeRIS 1.1 Systems untersucht.
Im Weiteren wird besonderes Augenmerk auf medizinische und technische Anwendungsgebiete gelegt werden.
Im medizinischen Anwendungsbereich wird die Implementierung von Algorithmen zur Vorhersage epileptischer Anfälle untersucht.
Hierfür wird ein evolutionär motiviertes Optimierungsverfahren entwicklet und auf dem EyeRIS 1.1-System implementiert.
Hierbei werden Simulationen durchgeführt und mit Ergebnissen, die mittels Verwendung des EyeRIS 1.1 Systems erlangt wurden, verglichen.
Ein zweites Verfahren geht die Signalanalyse für die Vorhersage auf dem EyeRIS 1.1-System mittels Mustererkennung an.
Das Mustererkennungsverfahren wird eingehend beschrieben sowie die hierbei zu beachtenden Randbedingungen erläutert.
Die Ergebnisse zeigen, daß Algorithmen zur Vorhersage von epileptischen Anfällen auf schaltungstechnichen Realisierungen von CNN implementiert werden können.
Im technischen Bereich wird die Anwendbarkeit auf die Problemstellung der Bildverarbeitung gelegt und die Möglichkeit von CNN basierten Algorithmen zur Erkennung von Prozessparametern bei Laserschweißverfahren untersucht. Ein solcher Prozessparameter ist das sogenannte Key-Hole, welches in Bildsequenzen von Laserschweißprozessen als ein Maß für die zu erwartende Qualität einer Schweißnaht herangezogen werden kann. Ein CNN basierter Algorithmus für die Erkennung solcher Key-Holes wird in dieser Arbeit vorgestellt und untersucht.
Für die Überwachung eines Laserschweißverfahrens wird der entwickelte Algorithmius und seine Funktionsweise beschrieben.
Dieser wird in Teilalgorithmen auf die analog bzw. digital arbeitenden Komponenten des EyeRIS 1.1 Systems verteilt.
Die Teilalgorithmen und die möglichen Aufteilungen und deren Laufzeitverhalten werden beschrieben und untersucht.
Die Ergebnisse der Untersuchung zeigen, daß eine Prozessüberwachung mittels CNN möglich ist und heben die Vorteile hervor, welche die Bildaufnahme und -verarbeitung mittels analoger CNN-Hardware bietet.
Eine Untersuchung des Laufzeitverhaltens auf Grafikkarten Prozessoren (GPU's) wird im Anhang vorgestellt.
Nicht allzu häufig wird man in den Schriftverzeichnissen deutscher Althistoriker auf Studien zur Zeitrechnung und zum antiken Kalenderwesen stoßen, wie dies bei Jürgen Malitz der Fall ist. Im Jahr 1987 ist sein viel beachteter Aufsatz zur Kalenderreform Caesars erschienen und jüngst hat er sich unter dem Titel "Die Ordnung der Zeit", wiederum ausgehend von Caesars Reform, verschiedensten Aspekten des antiken Kalenderwesens zugewandt und einen Bogen bis in die Gegenwart gespannt. Dieses Interessengebiet des Geehrten aufgreifend, möchte der vorliegende Beitrag einen wenig erforschten Aspekt dessen beleuchten, wie Zeit in der Antike als ökonomische Ressource begriffen und instrumentalisiert wurde. ...
Wolfgang Schlote : 80 Jahre
(2012)
Wohin steuert China?
(2012)
Von den deutschen Medien nur am Rande berichtet vollzieht sich in der Volksrepublik China ein Machtkampf innerhalb der Kommunistischen Partei (KPCh). Im Mittelpunkt: Bo Xilai, ehemaliger Parteichef in Chinas größter Stadt, Chongqing. Angesichts der wachsenden Macht Chinas ist verwunderlich, dass die Frage nach der personellen wie inhaltlichen Konsequenzen dieses Prozesses bislang weitgehend ausgespart blieb.
Der Beitrag arbeitet d’Alemberts Absicht heraus, durch eine mathematisch begründete Wissensordnung, die einen universellen Geltungsanspruch erhebt, die Dogmatik des religiösen Glaubens genauso wie die Autoritätshörigkeit der ständischen Gesellschaft zu diskreditieren und somit die bestehenden Machtverhältnisse zu destabilisieren. Mit der universalistischen Wissensordnung der Enzyklopädie soll schließlich auch eine neue normative Ordnung etabliert werden. Dabei ist die Rolle der Enzyklopädisten als Aufklärer der unaufgeklärten Gesellschaft Teil der universalistischen Wissensordnung. Obwohl sich die beanspruchte emanzipative Wirkung des enzyklopädischen Universalismus im historischen Kontext von Dogmatismus und Despotismus nachvollziehen lässt, stellt sich die Frage, inwieweit dieser universalistische Anspruch tatsächlich eine ‚kritischen Haltung’, wie sie von Foucault anhand Kants Schrift „Was ist Aufklärung?“ definiert wird, genügt oder doch nur eine ‚Wissenskritik’ bleibt. Die Haltungsfrage verweist auf d’Alemberts ambivalentes Verhältnis zu den politischen Autoritäten seiner Zeit.
Wissenschaftliches "Niedermachen" : Science Slam im Seminar – ein studentischer Erfahrungsbericht
(2012)
Einleitung: Beim allergischen Asthma bronchiale handelt es sich um eine weltweit zunehmende Erkrankung, für die es bislang nur wenige kausale Therapien gibt. In der Therapie chronisch-entzündlicher Erkrankungen wie der chronischen Rhinitis, Sinusitis, Akne vulgaris oder auch dem Asthma bronchiale, werden seit vielen Jahrzehnten autologe Autovaccine eingesetzt und stellen eine effektive Behandlungsoption dar.
Methoden: In einer prospektiven, randomisierten, doppelblinden Studie wurden 31 Probanden mit einem Asthma GINA I° sowie einem positiven Prick-Hauttest und einer positiven bronchialen Allergenprovokation mit Hausstaubmilbe entweder mit einer autologen E. coli Autovaccine (AV) oder einem Placebo über 24 Wochen behandelt, woraufhin eine abschließende Provokationsphase folgte. Als primären Zielparameter bestimmten wir das exhalative Stickstoffmonoxid (eNO) als Marker der bronchialen Entzündung. Die sekundären Zielparameter waren die bronchiale Hyperreagibilität vor und nach Behandlung sowie nach Provokation, das Allergie-Labor (Gesamt-IgE, spezifisches IgE gegen Hausstaubmilbe), die klinische Verträglichkeit sowie die Spätreaktion und der Medikamentenverbrauch in der abschließenden Provokationswoche.
Ergebnisse: Die Patienten der AV-Gruppe (36,7 ppb) fielen unter Behandlung signifikant auf 24,2 ppb ab, während die Placebo-Gruppe (26,8 ppb) mit 30,6 ppb eher angestiegen war. Bezüglich der bronchialen Hyperreagibilität ergab sich in der AV-Gruppe ebenfalls eine deutliche Verbesserung im Vergleich zur Placebo-Gruppe: Placebo 1,17 mg vs. AV 0,51 mg vor Behandlung auf Placebo 1,03 mg vs. AV 0,99 mg nach Behandlung. Sowohl bezüglich der BHR als auch der eNO-Werte konnten diese Ergebnisse unter Provokation nicht bestätigt werden. In beiden Gruppen stieg das eNO unter den abschließenden bronchialen Allergenprovokationen signifikant auf 104,4 ppb in der Placebo-Gruppe und 91,1 ppb in der AV-Gruppe an. Während der abschließenden Provokationsphase zeigten sich in der AV-Gruppe ein signifikant geringerer Salbutamol-Bedarf sowie ein signifikant geringeres Auftreten von Spätreaktionen (LAR) im Vergleich zur Placebo-Gruppe. Es traten nur leichte, selbst limitierende Lokalreaktionen auf.
Diskussion: Die Anwendung einer autologen E. coli Autovaccine war sicher und gut verträglich. Die Ergebnisse zeigten einen positiven Einfluss auf die bronchiale Entzündung und Hyperreagibilität bei leichten Asthmatikern mit Hausstaubmilben-Allergie und stellen so eine neue Behandlungsoption dar. Zum genauen Wirkmechanismus der AV bedarf es weiterer Studien.
Weltweit ist der Galoppsport ein kapitalintensiver Wirtschaftszweig, der kontinuierlich
Zuchtbemühungen für optimal erfolgreiche Nachkommenschaft in den Mittelpunkt all seiner
Anstrengungen stellt. Dabei fällt auf, dass ähnlich intensive Bemühungen im
trainingsmethodologischen und -analytischen Bereich im Hinblick auf Leistungsoptimierung
der Vollblut-Rennpferde fast vollständig fehlen.
Die Motivation zur vorliegenden Studie lag einerseits in der langjährigen Beobachtung
„stabiler“ konventioneller Trainingsstrukturen in deutschen und internationalen Rennställen
sowie andererseits in der Dokumentaranalyse weltweit hochklassiger renommierter Rennen,
deren Ergebnisse seit mehr als 90 Jahren keinen Leistungsfortschritt, sondern
Geschwindigkeitsstagnation verzeichnen. ...
Seit einigen Jahren wird in den IB über die künftige Rolle Chinas in der Weltpolitik diskutiert. Insbesondere seit die Turbulenzen im Weltfinanzsystem Amerika und Europa in die Krise gestürzt haben, zeigen sich große Teile der Öffentlichkeit besorgt über den wachsenden Einfluss der Volksrepublik. Aber wie wird sich China entwickeln? Eine Sammelrezension mehrerer 2011 zu diesem Thema erschienener Bücher.
Wikis in der Hochschullehre
(2012)
Dieser Beitrag gibt einen Überblick über Einsatzszenarien von Wikis in Lern- und Lehrprozessen und deren Eignung für die kollaborative Wissensproduktion, während zugleich Einschränkungen, Bedingungen und Gestaltungsempfehlungen thematisiert werden. Zudem werden Erfahrungen mit verschiedenen Wiki-Anwendungen an der Universität Frankfurt dokumentiert, die vom begleitenden Einsatz im Seminar bis hin zur studentisch initiierten Bereitstellung studienbegleitender Materialien reichen. Die vorher ausgearbeiteten Aspekte werden nochmals anhand der Beispiele aufgegriffen und ihrer Praxisrelevanz verdeutlicht.
Gedächtnisaspekte, die auch mit zunehmendem Alter stabil und zuverlässig bleiben, sind in heutiger Forschung von besonderem Interesse. Studien im Bereich des Gedächtnisses für einfache Handlungen konnten zeigen, dass dieses Itemmaterial besser erinnert wird, wenn es während der Einprägephase motorisch ausgeführt wird (vgl. z.B. Knopf, 1995) im Gegensatz zum rein verbalen Einprägen vergleichbaren Materials. Dieser Gedächtnisvorteil des handelnden Enkodierens, der so genannte Handlungseffekt, ist auch bei älteren Probanden zu beobachten. Da der Handlungseffekt altersübergreifend vergleichbar groß ist, erreichen Ältere auch bei handelndem Enkodieren nicht das Leistungsniveau Jüngerer (Alterseffekt, z.B. Knopf, 2005).
Die vorliegende Arbeit beschäftigte sich vor allen Dingen mit der Frage, ob die Gedächtnisleistung nach handelndem und verbalem Enkodieren bei einer Wiederholung der Lernaufgabe mit jeweils neuem Lernmaterial noch gesteigert werden kann. Dabei wurden mögliche enkodiertypabhängige sowie altersabhängige Leistungsunterschiede untersucht. Weiterhin wurde geprüft, ob eine beobachtete Leistungssteigerung nach wiederholtem Lernen mit jeweils neuem Lernmaterial auch nach einem halben Jahr noch zu beobachten ist. In zwei zusätzlichen Fragestellungen wurde theoretischen Erklärungen des Handlungseffektes nachgegangen, indem die seriellen Positionskurven sowie der zeitliche Verlauf des Abrufes untersucht wurden.
Zur Untersuchung der Fragestellungen wurden verschiedene Studien mit Jüngeren und Älteren durchgeführt. Das Lernmaterial bestand aus Serien von einfachen Handlungsphrasen, welche entweder durch Ausführen oder verbal enkodiert und in unmittelbaren freien Erinnerungstests reproduziert wurden. Zur Untersuchung einer möglichen Leistungssteigerung nach Wiederholung der Lernaufgabe mit jeweils unterschiedlichem Material wurden vier Termine in wöchentlichem Abstand angesetzt. Um die Stabilität der Leistung nach einem halben Jahr zu untersuchen, wurde ein fünfter Messzeitpunkt realisiert.
Die Ergebnisse zeigen eine Replikation von Handlungs- und Alterseffekt (Knopf, 2005). Eine Wiederholung der Aufgabe mit jeweils neuem Lernmaterial führt unabhängig vom Alter der Teilnehmer oder der Enkodierbedingung zu einer ähnlichen Steigerung der Gedächtnisleistung, die auch nach einem halben Jahr noch nachweisbar ist. Die Untersuchungen der seriellen Positionskurven des Abrufes zeigen, dass nach handelndem Enkodieren vor allen Dingen die letzten Items der zu lernenden Itemserie eine erhöhte Erinnerungswahrscheinlichkeit haben. Auch der Alterseffekt scheint eher in den letzteren seriellen Positionen einer Itemserie begründet zu sein, wobei diese Positionen bei verbalem und handelndem Enkodieren unterschiedlich sind. Die Leistungssteigerung zeigt sich bei beiden Enkodierbedingungen in einer signifikanten Steigerung der mittleren Positionen der seriellen Positionskurven, beim verbalen Enkodieren zusätzlich in einer Steigerung der letzen Positionen. Demnach führen bei den beiden Enkodierbedingungen unterschiedliche Veränderungen zum Leistungsanstieg. Bei der Betrachtung des zeitlichen Verlaufes des Abrufes kann zudem gezeigt werden, dass der Abruf nach handelndem Enkodieren schneller abzulaufen scheint.
Die Zukunftsfähigkeit ist ein Thema, dem sich alle Betriebe stellen müssen, besonders angesichts der Auswirkungen des demografischen Wandels. Folglich sollte dieses Thema noch stärker in den Fokus der strategischen Ausrichtung der Betriebe rücken. Gleichzeitig handelt es sich um einen Sachverhalt, der aufgrund seiner Komplexität nicht leicht zu erfassen ist. Dies hängt u.a. damit zusammen, dass er auch langfristige Strategien umfasst, deren Effekte zum Teil erst künftig richtig zum Tragen kommen. Folglich konnte dieses komplexe Konstrukt mit den Daten des IAB-Betriebspanels nur ansatzweise erfasst werden. Wie die Ergebnisse zeigen, sind die rheinland-pfälzischen Betrieben in vielen Bereichen, die für die Zukunftsfähigkeit von besonderer Relevanz sind und die auf Basis des IAB-Betriebspanels dargestellt werden können, recht gut aufgestellt. Dies zeigt sich z.B. in Bereichen wie der Weiterbildung, dem Anteil von Frauen in Führungspositionen, dem Anteil der Frauen in Tätigkeiten, die einen(Fach-) Hochschulabschluss erfordern oder dem technischen Stand der Anlagen.
Dennoch lassen sich auch Bereiche identifizieren, in denen noch ungenutzte Potenziale bestehen und deren Förderung dazu beitragen könnte, die Zukunftsfähigkeit der rheinland-pfälzischen Betriebe zu erhöhen. Da die Ergebnisse neben den generellen Entwicklungen zeigen, dass sich teilweise deutliche Unterschiede zwischen den Sektoren ergeben, erscheint es sinnvoll, Handlungsansätze zum Teil branchenspezifisch auszurichten. Vornehmlich sind die Betriebe gefordert, sich durch ein breites Spektrum an Aktivitäten, wie z.B. innovative Tätigkeiten, organisatorische Veränderung sowie Maßnahmen zur Gesundheit oder Vereinbarkeit von Beruf und Familie bzw. Chancengleichheit sowie durch zahlreiche weitere Strategien nachhaltig auszurichten, um ihre Zukunft zu sichern. Dennoch können die Verbände sowie die Politik durch entsprechende Rahmenbedingungen und Unterstützungsmaßnahmen diesen Prozess fördern und die rheinland-pfälzischen Betriebe bei dieser Entwicklung unterstützen.
Eine Billion ist mathematisch leicht darstellbar. Es ist eine Eins mit 12 Nullen: 1 000 000 000 000, mathematisch kurz und prägnant als 10^12 geschrieben. Aber darstellbar heißt nicht unbedingt vorstellbar. Versuchen wir, diese Anzahlen zu veranschaulichen, entstehen teilweise surreale, aber einprägsame Bilder.
Es ist die Aufgabe der Wissenschaft, richtige, d.h. möglichst vernünftige Entscheidungen anzuleiten. Der wissenschaftliche Geltungsanspruch umfasst immer sowohl einen Wahrheits- wie einen Wert- und einen Gerechtigkeitsanspruch.
Vernunft lässt sich nur in einem sowohl rationalen wie interrationalen Diskurs annähern:
(1) Im rationalen Diskurs wird der Anspruch erhoben, innerhalb einer bestimmten Rationalität richtige Antworten auf ausgewählte Fragen zu finden (meist innerhalb der Grenzen bestimmter institutionalisierter Schulen oder Disziplinen).
(2) Der interrationale Diskurs setzt bei der Relation zwischen verschiedenen Fragen mit unterschiedlicher Rationalität an und versucht,
(a) zwischen diesen Fragen eine wechselseitige Verständigung herzustellen (Diskurs zur Verständlichkeit), bevor er
(b) auf den Diskurs über die Richtigkeit von Antworten verschiedener Fragestellungen im Zusammenhang eintritt (materieller interrationaler Diskurs).
Der interrationale Diskurs bedarf der Verfassung:
(1) Formelle Verfassung des Diskurses
(a) Institutionelle Strukturen und Prozesse (Gleichberechtigung aller Beteiligten, Symmetrie der Strukturen, z.B. die Tagesordnung einer Ratssitzung)
(b) Methodische Argumentationsstrukturen und -abläufe (Wahrheit, Wert und Gerechtigkeit; Fragen- und Antwortdimension).
(2) Materielle Verfassung: Inhaltliches Argumentarium guter Gründe im Diskurs (bewährte Argumente aus bisherigen Diskursen).
Dieser Text fasst eine Studie zusammen, die für das Bundesministeriums für Ernährung, Landwirtschaft und Verbraucherschutz verfasst wurde und sich mit dem Kundennutzen von Anlageberatung auseinandersetzt. Das erhebliche Potenzial von interessenskongruenter Anlageberatung wird aufgezeigt und die aktuell geringe Leistungstransparenz im Markt kritisiert. Es wird empfohlen, ein standardisiertes Vokabular für Depotrisiken einzuführen und den Zugang aller Anleger zu leicht verständlichen und vergleichbaren Informationen zu historischem Depotrisiko und historischer Deporendite sicherzustellen. Die Studie fokussiert auf Wertpapierberatung und damit zuvorderst auf jene Teilmenge von Verbrauchern, die über Anlagevermögen verfügen. Die Grundideen zu Leistungstransparenz und standardisiertem Risikovokabular lassen sich jedoch auch z.B. auf den Alterssicherungsmarkt übertragen.
Rezension zu: Dagmar Stutzinger : Griechen, Etrusker und Römer. Eine Kulturgeschichte der antiken Welt im Spiegel der Sammlungen des Archäologischen Museums Frankfurt Regensburg 2012, Schnell & Steiner, ISBN 978-3-7954-2510-4, 528 Seiten mit 220 Farbabbildungen und 345 Schwarz-Weiß-Abbildungen, 49,95 Euro.
Edda – diesen Namen tragen zwei isländische Werke aus dem 13. Jahrhundert. Gemeinsam überliefern sie, das eine in Liedern, das andere in Prosa, den größten erhaltenen Schatz an nordischer Mythologie und Heldensage. Gern für »germanisch« gehalten sind diese Stoffe seit dem 18. Jahrhundert weit über Island hinaus bekannt. Das spiegelt sich auch in den mehr als 1200 Objekten der Frankfurter Edda-Sammlung, die zeigen, wie die Mythen buchstäblich in jeden Winkel der Kultur vordringen können.
Ein Nationalbankchef tätigt private Devisentransaktionen. Er, der die Geldmenge, den Wechselkurs, maßgeblich beeinflusst, scheint sich damit des Insiderhandels strafbar zu machen. Der IT-Mitarbeiter einer Bank, der diese Informationen geleakt hat und sich danach selbst anzeigte, wird nun angeklagt, gegen das Bankgeheimnis verstoßen zu haben. Dem Nationalbankchef hingegen droht kein Verfahren – weil er nicht an der Börse handelte. Logisch? Naja...
Wer prägte die ersten Münzen? : Die Spur führt nach Ephesos und in die lydische Königsstadt Sardeis
(2012)
Münzen sind eine Spezialform von Geld: Ein Stückchen Metall eines bestimmten Gewichts mit einem aufgeprägten Bild. Die ältesten Münzen stammen aus dem Reich der Lyder an der Westküste der heutigen Türkei. Sie wurden um 600 v. Chr. in einer Legierung von Gold und Silber (Elektron) hergestellt. Die lydischen Könige, allen voran der sagenhaft reiche Kroisos, verfügten in ihren Territorien über Goldvorkommen. Die Funktion der frühen Münzen wird bis heute kontrovers diskutiert.
Der Froschkönig, der eigentlich eine Prinzessin ist, das Schneewittchen, das sich beinahe in einen niedlichen Feenzwerg verliebt, der narzisstische Hänsel, der Klein-Gretel wegen der betörenden Hexe Hildegard im Wald stehen lässt, der Bishônen-Jüngling Rapunzel, der die sportliche Jungfer Eva schwängert – diese Geschichten und einige andere mehr entstammen dem Universum der japanischen Comics des 21. Jahrhunderts. Die Manga haben mittlerweile begeisterte Leser und Nachahmer selbst im Heimatland der Märchenbrüder gefunden.
Jährlich erkranken etwa 80 000 Deutsche an einer Thrombose, die meisten trifft es im höheren Lebensalter, als Folge einer längeren Immobilisation oder der Einnahme von Hormonpräparaten. Bei einigen aber wird das Gerinnsel, das Venen oder Arterien verstopft, durch eine angeborene oder erworbene Thrombophilie verursacht. Manche dieser Gerinnungsneigungen sind häufig, andere sehen selbst die Ärzte im Schwerpunkt Angiologie/Hämostaseologie des Gefäßzentrums der Frankfurter Uniklinik höchstens ein-, zweimal im Monat. Weshalb belastbare Erkenntnisse auch zur Therapie dieser seltenen Thromboseformen fehlen. Dies zu ändern, ist das Ziel des Teams um Professor Edelgard Lindhoff-Last an der Frankfurter Uniklinik.
„Gehört die Stadt überhaupt? Wir wollen mit der Frage die Möglichkeiten, die eine Stadt bietet, ausfindig machen und vor allem die Grenzen, die die gesamte Stadt durchziehen, benennen und angreifen.“ (Wem gehört die Stadt?-Netzwerk 2008)
Die Frage, ob eine Stadt im Allgemeinen und Frankfurt im Besonderen überhaupt gehört, muss eindeutig mit „ja“ beantwortet werden. Unter kapitalistischen Bedingungen und insbesondere im Zuge der globalen Enteignungsökonomie (Zeller 2004) und der Neoliberalisierung des Städtischen (Heeg, Rosol 2007; Mullis 2011) befinden sich städtische Räume – von der Wohnung bis zum öffentlichen Raum – im Privateigentum und sind zunehmend der Profitorientierung unterworfen. Einher gehen damit massive Ausschlüsse von den städtischen Qualitäten all derer, die gemäß dieser Logik nicht als nützlich, kreativ, angepasst – sprich: verwertbar – gelten.
Während diese Ausschlüsse global zu beobachten sind, ist ihre jeweilige Manifestation pfadabhängig von lokalen Kräfteverhältnissen und Entwicklungen. Exemplarisch lassen sich für die Metropolregion Rhein/Main und insbesondere die Kernstadt Frankfurt fünf zentrale Felder skizzieren, auf denen sich Ausgrenzungsprozesse manifestieren. So gehört erstens das Frankfurter Wohnungsangebot zum teuersten der Bundesrepublik. Der komplette Innenstadtbereich ist durchgentrifiziert und erlebt mittlerweile – wie bspw. im Nordend und in Bockenheim– eine „Supergentrifizierung“ (Holm 2010). In der Folge werden subalterne Bevölkerungsschichten aus diesen städtischen Vierteln verdrängt oder müssen mit immer höheren Belastungen kalkulieren. Die Bugwelle der Gentrifizierung pflügt in den letzten Jahren auch durch ehemals noch relativ bezahlbare Stadtteile – Bahnhofsviertel3, Gallus4, Mainfeld5 und Ostend6 sind hier aktuelle und gravierende Beispiele (Schulze 2012; MHM 2010).
Vierhundert Nachwuchswissenschaftler, einhundert Panels, alle Teilbereiche der Politikwissenschaft sind vertreten – eigentlich die idealen Voraussetzungen, um sich auszutauschen und selbst etwas für die eigene Arbeit zu lernen, oder nicht? Von 4. bis 6. Juli hat in Bremen die vierte ECPR Graduate Konferenz stattgefunden. Ziel der hauptsächlich von Promovierenden unter dem Banner des European Consortium for Political Research vorbereiteten Konferenz ist es Nachwuchswissenschaftler aus ganz Europa zusammenzuführen...
Das hier vorgelegte Eckpunktepapier befasst sich mit den Zukunftsperspektiven der deutschen Wasserwirtschaft hinsichtlich ihrer Produkte und Konzepte. Ausgehend von schwierigen Herausforderungen für die globale Wasserwirtschaft legt es dar, wie die deutsche Wasserwirtschaft diesen Herausforderungen gegenübersteht und zeigt auf, welche Maßnahmen zu ergreifen sind, um die wirtschaftlichen Perspektiven der deutschen Wasserwirtschaft dauerhaft zu verbessern. Die Abschnitte 1-5 erläutern die Ausgangslage der deutschen Wasserwirtschaft, beschreiben sich neu stellende Herausforderungen und ordnen in diesen Zusammenhang das BMBF-Verbundprojekt „Wasser 2050“ ein, in dem diese Eckpunkte und Empfehlungen erarbeitet wurden. Die Abschnitte 6-10 wenden sich dann im Einzelnen zu ergreifenden Strategien und Ansätzen zu, die dazu beitragen, die Wettbewerbsposition der deutschen Wasserwirtschaft nachhaltig zu entwickeln. Der abschließende Abschnitt 11 fasst die Empfehlungen des Projekts zusammen.
Das Gesetz zur Änderung des Vormundschafts- und Betreuungsrechts ist am 14. April 2011 vom Deutschen Bundestag beschlossen worden; der Bundesrat hat am 25.05.2011 zugestimmt. Dieses Gesetz trat – mit einigen Ausnahmen, die erst ein Jahr nach der Verkündung des Gesetzes in Kraft treten – am 6.7.2011 in Kraft. Der Schwerpunkt dieses Beitrags soll nicht bei den durch diese Reform bereits erfolgten bzw. demnächst in Kraft tretenden Änderungen und den sich bereits abzeichnenden Schwierigkeiten seiner Umsetzung liegen, vielmehr soll es um die Ziele und Grundsätze einer noch weitergehenden Reform (zweite Stufe) gehen, die die Rechtspolitik im Rahmen der Verabschiedung dieses Gesetzes für erforderlich gehalten und bereits in Aussicht gestellt hat (zweite Stufe). Dennoch sollen zunächst die Essentials dieses ersten wichtigen und richtigen Reformschritts nochmals in Stichworten am Anfang dieses Beitrags stehen. Dieses Gesetz wurde auch schon als "Amtsvormundschaftsverbesserungsgesetz" und als Minimalkompromiss apostrophiert, was angesichts der Fokussierung dieses ersten Reformschrittes nicht überrascht.
Wassergefiltertes Infrarot A (wIRA) stellt eine spezielle Form der Infrarotstrahlung (Wärmestrahlung) im Bereich von 780–1400 nm dar, die aufgrund ihrer sehr guten Verträglichkeit in der Medizin zur Prävention und Therapie verwendet wird. wIRA entspricht dem Großteil der in gemäßigten Klimazonen die Erdoberfläche wassergefiltert erreichenden Infrarotstrahlung der Sonne (Filterwirkung des Wassers und des Wasserdampfs der Erdatmosphäre). Durch die Wasserfilterung werden die Strahlungsanteile gemindert, die sonst durch Wechselwirkung mit Wassermolekülen in der Haut eine unerwünschte thermische Belastung der obersten Hautschicht hervorrufen würden. Technisch wird wIRA in speziellen Strahlern erzeugt, in denen die gesamte Strahlung eines Halogenstrahlers durch eine Wasser enthaltende Küvette hindurchtritt. wIRA wirkt beim Menschen über thermische und nicht thermische Effekte. Es steigert Temperatur, Sauerstoffpartialdruck und Durchblutung im Gewebe. Wesentliche klinische Wirkungen sind – indikationsübergreifend – eine Minderung von Schmerzen, Entzündung und vermehrter Sekretion sowie eine Verbesserung der Infektabwehr und der Regeneration. wIRA kann eingesetzt werden zur Therapie von akuten und chronischen Wunden, bei verschiedenen Hauterkrankungen (vulgären Warzen, Herpes labialis, Herpes Zoster, Sklerodermie, Morphaea, Akne papulopustulosa), zur Resorptionsverbesserung topisch aufgetragener Substanzen, im Rahmen einer photodynamischen Therapie (PDT; zur Therapie aktinischer Keratosen), bei bewegungssystembezogenen Erkrankungen (muskulären Verspannungen, Myogelosen, Lumbago, rheumatischen Erkrankungen, Morbus Bechterew, Arthrose, Arthritis, Fibromyalgie), zur Regeneration nach Sport, zur lokalen Beeinflussung der Fettverteilung sowie zum Aufrechterhalten oder Erhöhen der Körpertemperatur (z.B. in der Neonatologie) einschließlich Kompensation einer Hypothermie. Außerdem kann wIRA zur lokalen oder systemischen Hyperthermie im Rahmen der Onkologie mit Strahlentherapie oder Chemotherapie kombiniert werden.
Wassergefiltertes Infrarot A (wIRA) stellt eine spezielle Form der Infrarotstrahlung im Bereich von 780–1400 nm dar, die aufgrund ihrer sehr guten Verträglichkeit in der Medizin zur Prävention und Therapie verwendet wird. wIRA steigert Temperatur, Sauerstoffpartialdruck und Durchblutung im Gewebe. wIRA mindert indikationsübergreifend Schmerzen, Entzündung und vermehrte Sekretion und verbessert die Infektabwehr und Regeneration. wIRA hat in den letzten 20 Jahren eine deutliche Verbreitung in der Medizin gefunden. So wird wIRA z. B. in 1045 (ca. 28%) von 3767 erfassten dermatologischen Praxen oder Versorgungszentren in Deutschland genutzt (Stand: Februar 2012). wIRA-Strahler werden auch bei Patienten zu Hause eingesetzt...
Wirtschaftliche Umbrüche, wie sie mit der deutschen Wiedervereinigung verbunden waren, sind in industrialisierten Ländern selten. Sie bieten deshalb aus wissenschaftlicher Sicht eine wertvolle Gelegenheit, um Erkenntnisse über das ökonomische Verhalten von Menschen zu gewinnen. Das Sparverhalten der Ostdeutschen nach der deutschen Wiedervereinigung bestätigt, dass Menschen ihre Ersparnis rational planen.
My contribution focuses on the relationship between theory and praxis, since the task of a “critical archaeology” is to mediate between these two spheres. Its target audience is the public, not other scholars. Critical archaeology is not part of scientific practice, but rather is part of intellectual reasoning that is both value-laden and that exercises practical critique. Respect for the specific logics of theory and praxis is crucial for its success. A “critical archaeology” that merits its name must steer its way between the Scylla of a technocratic paternalism that limits praxis and the Charybdis of submission to theory under the presumption of the “relevance of praxis.”
Was diskutiert werden muss
(2012)
Günter Grass hat ein polemisches Gedicht über Israel geschrieben. Inhaltlich ist es fehlerhaft, undifferenziert und einseitig. Aber auch die Reaktionen der deutschen Intellektuellen waren überzogen und teilweise unsachlich. Kurzum: Auf eine Provokation folgten hysterische Entgegnungen. Eine Reflexion über die deutsche Debattenkultur zu einem besonderen Thema.
Die Bedeutung staatlicher Souveränität und die Rolle des Staates werden seit einigen Jahren in Politik und Wissenschaft hitzig diskutiert und die Bedeutung staatlicher Souveränität in Frage gestellt: Die veränderten Problemlagen in Zeiten der Globalisierung hätten politische Bewältigungsstrategien notwendig gemacht, die nicht mehr durch intergouvernementale Kooperation zu lösen sei, argumentieren einige. Hinzu kommt der Ruf nach einer Stärkung kosmopolitischer Herrschaft. Doch es gibt auch Hinweise auf gegenteilige Entwicklungen.
Wie uns die Finanzkrise lehrt, leben wir in einem Wirtschaftssystem, in dem das Geldkapital Vorrang hat vor allen anderen Werten wie vor Natur, Mensch, Arbeit und Gemeinwohl. Die dadurch hervorgerufenen Schäden regen die Menschen in unserer Gesellschaft dazu an, Ideen im Interesse
einer zukunftsfähigen Marktwirtschaft zu testen. Die ethisch-ökologische Geldanlage wird dafür als eine Möglichkeit angesehen.
Die Geschichte von Sklavenhandel und Sklaverei im britischen Einflussgebiet ist in den letzten Jahrzehnten intensiv behandelt worden. Dabei ging es in der öffentlichen Wahrnehmung um das – nicht zuletzt ‚erinnerungspolitische‘ – Problem der Verstrickung britischer Kaufleute und Politiker in den Sklavenhandel, um die Bedeutung der Sklaverei für die britische Wirtschaft und den britischen Aufstieg zur Weltmacht, schließlich um die Motive der Pionierrolle, welche die britische Öffentlichkeit und die britische Regierung für die Kritik an und die Abschaffung von Sklavenhandel und Sklaverei einnahmen. Die vorliegende Dissertation nimmt sich vor, das Bild zu ergänzen, in dem sie nach einer nur auf den ersten Blick marginalen Gruppe fragt: Afrikanerinnen und Afrikanern, die sich weder auf ‚Staatsbesuch‘ noch als Arbeitskräfte in Großbritannien aufhielten, sondern die danach strebten, in England eine britische bzw. europäische Bildung zu erhalten. Die Gruppe erscheint Ries aus zwei Gründen besonders signifikant: Zum einen, weil sie eine entscheidende Funktion für ‚Kulturkontakte‘ zwischen Großbritannien und Afrika hatte, da sie möglicherweise dazu beitragen konnte, britische Bilder und Perzeptionen von Afrika und Afrikanern in anderer Weise zu prägen, als Sklaven oder lokale Potentaten; zum anderen, weil sie die Möglichkeit bietet, die Veränderungen der Haltung(en) der britischen Öffentlichkeit im Allgemeinen und besonders an Afrika interessierter Gruppen im Besonderen abseits der (bereits hinreichend erforschten) Debatten zum Sklavenhandel genauer zu untersuchen.
Die rechtsförmige Bewältigung von Leid, Ungerechtigkeit und Unrecht, die durch die kommunistischen Regime der DDR, Osteuropas und der UdSSR verursacht wurden, ist Gegenstand zahlreicher rechts- und geschichtswissenschaftlicher Studien. Untersucht werden die Aufarbeitung des Unrechts durch Strafrecht und die Regelung von Restitution sowie Entschädigung im Fall von Enteignungen. Oft wird – auch infolge der Spezialisierung der jeweiligen Wissenschaftler – das Genre des Länderberichts gewählt. Untersuchungen, die in vergleichender Absicht auch die Aufarbeitung nationalsozialistischen Unrechts einbeziehen, gehen von einer Vergleichbarkeit aus, ohne dass darüber ein neuer Historikerstreit entbrannt wäre. ...
Die Rechnung kommt immer zum Schluss – und sie zu bezahlen, macht in der Regel keine Freude. Wenn wir aber schon eher ungern bezahlen, soll die Zahlungsmethode selbst wenigstens einfach, überall verfügbar und sehr sicher sein. Insbesondere die Sicherheit ist beim Bezahlen im 21. Jahrhundert ein wichtiges Thema, zu dem es interdisziplinäre Forschungsansätze aus Wirtschaftswissenschaften, Informatik und Recht in einem von dynamischer Entwicklung geprägten Umfeld gibt.
Mit der Europäischen Rechtsgeschichte verfügt die Rechtsgeschichte seit vielen Jahrzehnten über eine Tradition transnationaler rechtshistorischer Forschung. Sie wurde von deutschsprachigen Wissenschaftlern der Vor- und Nachkriegszeit geprägt – Emil Seckel, Paul Koschaker, Franz Wieacker, Helmut Coing – und stand im Kontext des westeuropäischen Nachkriegsprojekts. Noch heute bauen wir auf ihren großen Leistungen auf. Sie war, wie alle Geschichtswissenschaft, Teil eines Prozesses der gesellschaftlichen Selbstverständigung über die eigene Identität und zeichnete das Bild einer distinkten europäischen Rechtskultur.
In den letzten Jahren sind im Zuge der Diskussion um postkoloniale Perspektiven auf die Geschichte, um Transnationale und Globalgeschichte, viele Grundlagen der traditionellen Europahistoriographie kritisiert und massiv erschüttert worden. Das wirft Fragen auch an die Europäische Rechtsgeschichte auf: Welches Europabild liegt ihr zu Grunde? Auf welchen intellektuellen und konzeptionellen Grundlagen beruht sie? Wie antwortet sie auf die Vorwürfe des Eurozentrismus, des epistemischen Kolonialismus, wie auf die Forderung, Europa zu ‘provinzialisieren’? Wie definiert sie das Verhältnis der Europäischen zur Transnationalen und Globalen Rechtsgeschichte? - Diesen und ähnlichen Fragen wenden sich die folgenden Überlegungen zu. Der Schwerpunkt liegt auf einer Auseinandersetzung mit der Tradition, ihren konzeptionellen Grundlagen und deren wissenschaftshistorischem Kontext (1. Teil, 1.-6.). Aus dieser kritischen Bestandsaufnahme und den Ergebnissen der Debatte um Globalgeschichte ergeben sich Ausgangspunkte und Aufgaben einer in vielem auf den Leistungen der Disziplin aufbauenden, doch notwendigerweise auf einer anderen Konzeption beruhenden Rechtsgeschichte Europas in globalhistorischer Perspektive (2. Teil, 7.-11.).
Die Goethe-Universität ist 1914 als erste deutsche Hochschule von Bürgern für Bürger gestiftet worden. Seitdem gibt es ein enges Band zur Frankfurter Bürgerschaft. Dieses Bündnis hat die Universität mit ihrer Umwandlung zu einer Stiftung 2008 bekräftigt. So wendet sie sich an ihre Bürger, um tatkräftige Unterstützung bei der Herausbildung eines international wettbewerbsfähigen Profils in Forschung und Lehre weiter zu schärfen. Wir sind stolz, dass sich viele Persönlichkeiten des gesellschaftlichen und wirtschaftlichen Lebens für die Goethe-Universität engagieren, Professuren stiften, Stipendien geben oder bei der Nachwuchsförderung helfen. Ihr Engagement ist "bürgerliche Ehrensache", von der die gesamte Rhein-Main-Region profitiert. ...
Beim Angriff auf das amerikanische Konsulat in Benghazi starben am 11. September zwei Personenschützer und zwei amerikanische Diplomaten, der amtierende Botschafter für Lybien sowie der IT-Experte Sean Smith. In ihrer Trauerrede zeichnete Außenministerin Clinton zunächst den beruflichen und privaten Werdegang ihres Mitarbeiters nach, um dann einen bemerkenswerten Satz hinterher zu senden: “And that’s just in this world, because in the virtual worlds Sean helped create, he is also being mourned by countless competitors, collaborators and gamers, who shared his passion.”..
„Gallias et Hispanias provincias, item Germaniam qua includit Oceanus a Gadibus ad ostium Albis fluminis pacavi.“ Mit diesen Worten beschreibt Augustus u.a. sein Wirken in Gallien und Germanien und postuliert den Abschluss erfolgreicher Operationen. Auch die Etablierung grundlegender Verwaltungsstrukturen entlang des Rheins, der civitates, fällt in augusteisch-tiberische Zeit. Dazu zählen u.a. die civitas der Treverer, der Ubier, der Vangionen und der Nemeter. Doch fehlen derartige Strukturen im Raum zwischen Vinxtbach und Nahe am Mittelrhein. Dieses Gebiet gehörte vormals zum Stammesgebiet der Treverer. Nach Caesars Sieg über die Treverer und der Neuorganisation innerhalb Galliens unter Augustus wurde dieser Raum ager publicus und somit Eigentum des römischen Staates. Aber auch in den nachfolgenden Jahrzehnten und Jahrhunderten wurden hier keine civitates eingerichtet. "So kennen wir z.B. im nordwestlichen Obergermanien links des Rheins, d.h. nördlich der civitas Vangionum […] und der Caeracaten […] und südlich der Ubier bzw. der colonia Claudia Ara Agrippinensium in der hohen Kaiserzeit keine einzige civitas." Das sieht auch Raepsaet-Charlier so: "[…] son existence [= civitas] ne paraît pas faire de donte mais sa dénomination et sa capitale au moins font difficulté […]."
Doch wie wurde dann in diesen Gebieten Verwaltungsarbeit betrieben und auf welche Strukturen gründete sich diese? In der Forschung wurde und wird bislang angenommen, dass die Verwaltung über die Pachtwirtschaft der Domänen und ihre Großgrundbesitzer erfolgte. Raepsaet-Charlier hält eine Verwaltung über kaiserliche Domänen ohne civitas-Strukturen für eine „hypthèse qui nous paraît peu satisfaisante notament car elle supposerait soit des vici ‚autonomes‘ soit sous l’autorité militaire.“
Doch wären für die Bedürfnisse der römischen Provinzialverwaltung – Erhebung von Steuern und Abgaben, Rekrutierung von Soldaten, etc. – m.E. Zentralorte von Nöten, die wiederum ein sie umgebendes Umland kontrollierten. Am Beispiel des territorium metallum von Mayen, einem Distrikt im ager publicus zwischen Vinxtbach und Nahe, der sich seit der frühen Kaiserzeit auf den Bergbau gründete und in dem seit spätrömischer Zeit auch die Keramikproduktion eine wichtige Rolle spielte, können administrative Strukturen aufgezeigt werden. Das territorium metallum von Mayen dient somit exemplarisch der Darstellung der administrativen Organisation im ager publicus zwischen Vinxtbach und Nahe.
Verständnisvolle Dozenten haben weniger Fachwissen : Wirkungen der sprachlichen Anpassung an Laien
(2012)
In der Interaktion mit Studierenden ist schriftliche Online-Kommunikation ein wichtiges Arbeitsmedium für jeden Lehrenden geworden. Die Interaktionspartner haben dabei für ihre Urteilsbildung über den jeweils anderen ausschließlich den geschriebenen Text mit seinen lexikalen und grammatikalischen Merkmalen zur Verfügung. Das Ausmaß der lexikalen Anpassung an die Wortwahl eines Studierenden kann daher einen Einfluss auf die studentische Bewertung ihrer Dozenten hinsichtlich unterschiedlicher Persönlichkeitseigenschaften haben. In der vorliegenden Studie beurteilten Studierende jeweils zwei Dozenten hinsichtlich Verständnis, Gewissenhaftigkeit und Intellekt (IPIP, Goldberg, Johnson, Eber et al., 2006) auf Grundlage einer Emailkommunikation. Der Grad der lexikalen Anpassung der Lehrenden wurde dabei variiert. Es zeigte sich, dass Studierende Dozenten mit umgangssprachlicher Wortwahl als verständnisvoller, gewissenhafter aber tendenziell weniger wissend einschätzen.
Die Lösung globaler Probleme wie Klimawandel, Umweltzerstörung oder Ernährungssicherung erfordert grundlegende Transformationen unserer Gesellschaft. Um diese neuartigen und existenziellen Herausforderungen bewältigen zu können, brauchen wir neues Wissen – über die Entstehung der Probleme, über anzustrebende Lösungsansätze und über Wege zu deren Umsetzung.
Mit dem Ziel, dieses Wissen zu schaffen, hat sich die transdisziplinäre sozial-ökologische Forschung entwickelt – eine innovative, praxisnahe Forschung entlang der zentralen Motive Verstehen – Bewerten – Gestalten: Komplexe Probleme zu verstehen, die erarbeitete Wissensbasis zu bewerten und Handlungsoptionen zu gestalten greifen bei diesem Forschungstypus ineinander. Die sozialökologische Forschung hat eine Pionierfunktion für die Umwelt- und Nachhaltigkeitsforschung in Deutschland übernommen und wegweisende Arbeiten etwa zur Energie-, Mobilitäts- oder Ernährungswende vorgelegt.
Im Förderschwerpunkt Sozial-ökologische Forschung (SÖF) hat das Bundesministerium für Bildung und Forschung (BMBF) im Jahr 2000 erstmals ein Programm zur Förderung dieses spezifischen Forschungszugangs aufgelegt. Bis zum Jahr 2012 wurden darin Verbünde und Einzelvorhaben unterstützt, etwa zu Themen wie Umwelt - Ernährung - Gesundheit: Langfriststrategien für einen nachhaltigen Konsum oder Soziale Dimensionen von Klimaschutz und Klimawandel. Mit Erfolg: Forschungsvorhaben zur Transformation stehen inzwischen prominent auf der Tagesordnung von Politik und Gesellschaft. Und auch die Wissenschaft selbst öffnet sich immer mehr für die Fragen und Methoden der sozial-ökologischen Forschung.
Dieses Memorandum setzt sich dafür ein, die Basis der sozial-ökologischen Forschung in den kommenden Jahren konsequent zu vertiefen und zu verbreitern – inhaltlich, organisatorisch und institutionell. Dazu gibt das Memorandum Empfehlungen zur Förderung von Themenfeldern und von Maßnahmen der Strukturentwicklung.
Der zweckmäßige Einsatz der Skelettmuskulatur stellt in alltäglichen Bewegungen und im Sport ein zentrales Thema dar. Zur Ausführung unterschiedlicher Bewegungsziele verfügt die Muskulatur über verschiedene Arbeitsweisen, welche wiederum durch einzigartige neuronale Aktivierungsmuster realisiert werden. Bei der negativen Arbeitsweise, der Exzentrik, ist die innere Kraft der Muskulatur kleiner als die äußere Kraft des Widerstandes, wodurch die aktivierte Muskulatur in die Länge gezogen wird. Da hierbei durch das neuromuskuläre System die höchsten Kraftwerte erzielt werden, wird die Muskulatur unter exzentrischen Bedingungen einer sehr hohen Spannung ausgesetzt. Dies stellt eine wesentliche Voraussetzung für die Kraftsteigerung und Muskelhypertrophie dar. Deshalb befürworten Trainer und Autoren vielfach den Einsatz maximaler und supramaximaler exzentrischer Trainingsmethoden, um das Kraftvermögen in verschiedenen leistungssportlichen Disziplinen zu steigern. Ebenso wird diese Form des Trainings in präventiven und rehabilitativen Bereichen eingesetzt, um vor allem das Muskel-Sehnen-System zu kräftigen.
Ziel der vorliegenden Untersuchung war es, die Kontraktionsbedingungen und Effektivität des exzentrischen und konventionellen Krafttrainings zu vergleichen. Gleichermaßen war der Leistungstransfer auf eine funktionale mehrgelenkige Übung von besonderem Interesse. An der dazu durchgeführten Untersuchung nahmen 56 Probanden teil, wovon fünf aufgrund unerwarteter zeitlicher sowie verletzungsbedingter Ausfälle nicht das Ende der Untersuchung erreichten. In die Auswertung gelangten demnach 51 Probanden, davon 19 der exzentrischen Trainingsgruppe (ETG), 17 der konventionellen Trainingsgruppe (KTG) und 15 der Kontrollgruppe (KON). Letztere absolviert lediglich die Ein- und Ausgangstests. Vor, während und nach einem sechswöchigen Trainingszyklus am Beinstrecker wurden die exzentrische und konzentrische Maximalkraft sowie das Dreier-Wiederholungsmaximum an der Beinpresse ermittelt. Zur weiteren Analyse wurden bei diesen Tests die mittlere myoelektrische Aktivität (ARV) und Medianfrequenz (MDF) aus dem Oberflächen-EMG des m. vastus lateralis, m. vastus medialis und des m. rectus femoris aufgezeichnet. Von einer Teilgruppe aller Trainingsgruppen wurden zudem Veränderungen der Sprunghöhen aus Countermovement Jump (CMJ) und Squat Jump (SJ) ermittelt.
Beide Interventionsgruppen trainierten zweimal wöchentlich mit 5 Sätzen zu je 8 Wiederholungen am Beinstrecker. Der ETG wurde das Gewicht manuell angereicht, welches nach erfolgter Übergabe langsam und kontrolliert (maximal 25 °/Sekunde) von der gestreckten in die gebeugte Position geführt werden sollte. Die KTG führte das Gewicht ohne weitere Beschränkungen von der gebeugten in eine vordefinierte gestreckte Position und wieder zurück. Zur statistischen Auswertung wurden die Daten der Kontraktionsbedingungen des Eingangstests mittels t-Test für abhängige Stichproben analysiert. Zum Vergleich der Trainingsanpassungen wurde eine zweifaktorielle Varianzanalyse mit Messwiederholung und bei signifikantem F-Wert der post-hoc Test nach Scheffé durchgeführt. Dabei wurden die Steigerungsraten der Trainingsgruppen an den Veränderungen der KON relativiert. Das Signifikanzniveau wurde auf p ≤ 0,05 gesetzt.
Vor der Trainingsintervention lag die exzentrische Maximalkraft aller Probanden durchschnittlich 35,63 % über der konzentrischen und wurde begleitet von einer geringeren ARV und MDF. Durch beide Trainingsformen wurde die exzentrische Maximalkraft erhöht, jedoch fiel der Anstieg der ETG (35,41 %) signifikant größer aus als jener der KTG (24,48 %). Im Gegensatz dazu konnte die konzentrische Maximalkraft jedoch nur von der KTG signifikant gesteigert werden (19,92 %). Zum Vergleich ETG: 8,10 %. Das Dreier-Wiederholungsmaximum an der Beinpresse wurde in beiden Gruppen im ähnlichen Ausmaß signifikant erhöht (ETG 19,92 % vs. KTG 16,08 %). Die Analyse der Sprungkraftsteigerungen im CMJ (KTG 4,54 % vs. ETG 3,21 %) sowie im SJ (KTG 5,14 % vs. ETG 2,70 %) hingegen erbrachte keine signifikanten Steigerungen oder Unterschiede zwischen den Gruppen. Die festgestellten Entwicklungen der Kraftwerte lassen sich auf Grund der relativ kurzen Interventionsdauer überwiegend auf Anpassungen der intramuskulären Koordination zurückführen, welche durch einen Anstieg der ARV kenntlich wird. Dieser ARV-Anstieg fiel besonders bei der exzentrischen Maximalkraft auf, was auf einen trainingsbedingten Rückgang der Inhibition schließen lässt. Einen signifikanten Rückgang der MDF in allen Tests erzielte lediglich die ETG, dies jedoch nur für den m. rectus femoris. Signifikante Veränderungen der KTG oder Unterschiede zwischen den Trainingsgruppen blieben hier aus.
So führten beide Trainingsprogramme zu spezifischen Anpassungen der Kraft und myoelektrischen Aktivitätsmuster. Bezüglich der kumulierten Kraftsteigerung, des Leistungstransfers und der Veränderung der myoelektrischen Aktivität konnte jedoch keine Überlegenheit der exzentrischen Trainingsform herausgestellt werden. Aus ökonomischer Sicht bietet die exzentrische Methode allein keine genügende Vorbereitung auf primär konzentrische Bewegungsaufgaben. Die Ergebnisse legen jedoch nahe, dass das exzentrische Training zu äußerst spezifischen Anpassungen führt, welche bei der Trainingsplanung zielgerichtet Berücksichtigung finden sollten.
Die Hauptthese dieses Papers geht von dem Konzept der normativen Verfassung der Nachkriegzeit aus und setzt sich kritisch mit dem Konzept des 19. Jahrhunderts „Verfassungswandlung“ auseinander. Das Konzept des Verfassungswandels ist mit der Verfassungsdemokratie inkompatibel. Statt von einem Verfassungswandel zu sprechen, sollte man die Entwicklung des Sinns der Normen in der Zeit als dynamische Interpretation bezeichnen.
Im Rahmen des Bund-Länder-Programms "Qualitätspakt Lehre" hat die Goethe-Universität Frankfurt erfolgreich das Programm "Starker Start ins Studium" eingeworben. Dadurch verfügt das Institut für Psychologie nun über die personellen Möglichkeiten, die fachliche und soziale Integration neuer Psychologiestudierender im sechssemestrigen Bachelorstudiengang Psychologie zu verbessern. Hierzu wurden zwei obligate je zweisemestrige Lehrmodule entwickelt. In dem vorliegenden Beitrag wird das übergeordnete Lehrkonzept beschrieben und dessen Implementierung im Fach Psychologie als Praxisbeispiel illustriert.
Validierung einer neuen Messmethode zur direkten Bestimmung der Heparin-Konzentration im Blut
(2012)
In dieser Arbeit wurde ein neues Verfahren zur Heparin-Bestimmung (LiSA-H, light scattering assay of heparin) evaluiert. Dieses wurde an der Universität Frankfurt a. M. am Institut für Biophysik entwickelt und ermittelt erstmals die direkte Heparin-Konzentration im Blutplasma. Durch die Analyse der Lichtstreuung einer Plasmaprobe wird die Bildung von Nanopartikeln aus Heparin und Protamin verfolgt. Die Lichtstreuintensität ist dabei proportional zu der in der Probe enthaltenen Heparin-Plasmakonzentration (Heparin-PK). Das Antikoagulans Heparin wird bei Herz-OPs mit Einsatz der Herz-Lungen-Maschine (HLM) verwendet und soll perioperativ eine lutgerinnselbildung in der HLM, sowie Thromboembolien im Patienten verhindern. Am OP-Ende wird die Wirkung durch Protamin antagonisiert, um eine suffiziente Gerinnung wieder herzustellen. Das derzeitige Gerinnungsmanagement basiert auf einem indirekten Messverfahren, der ACT (activated clotting time), welches starken Störeinflüssen, wie z.B. der Hypothermie, Hämodilution und bestimmten Medikamenten unterliegt. Durch die mögliche Falschdosierung der beiden Medikamente, steigt die Gefahr einer Blutung und Thrombose. LiSA-H soll in Zukunft eine zuverlässigere und kostengünstige „point of care― Analyse der Gerinnung und hierdurch eine gezielte Dosierung von Heparin und Protamin ermöglichen, die die Komplikationsrate verringert. In der vorliegenden Studie handelt es sich um eine offene, nicht kontrollierte, prospektive Multicenter-Studie, die mit 50 Patienten am Universitätsklinikum Frankfurt a.M. und 30 Patienten am Kinderherzzentrum Gießen durchgeführt wurde. Es wurde gezeigt, dass die durchschnittliche perioperative Heparin-PK bei Erwachsenen und Kindern bei ca. 5,4 I.E./ml liegt. Es wurde nachgewiesen, dass die Heparin-Clearance bei Kindern (~113 Min.) um das zweifache im Vergleich zu Erwachsenen (~254 Min.), erhöht ist. Besonders hervorzuheben ist die hohe Fehlerquote der ACT-Messung, die bei Erwachsenen in bis zu 1,8 % und bei Kindern in bis zu 20 % der Messungen keinen aussagekräftigen Wert lieferte. Das bedeutet, dass bei Kindern während einer OP bis zu zwei und bei Erwachsenen bis zu drei Stunden keine Information über den aktuellen Gerinnungszustand vorlag. Um eine Validierung der Messergebnisse vorzunehmen, wurden Rückstellproben mit dem Standardlaborverfahren PiCT (Prothrombinase induced clotting time) gemessen. Die Daten aus dem PiCT korrelieren mit den Ergebnissen aus der LiSA-H-Messung wesentlich besser (r² = 0,80), als mit der herkömmlichen ACT-Messmethode (r² = 0,57). Die ermittelten Heparin-PK und die ACT-Werte während einer OP wurden in Chronogrammen dargestellt. Es wurde gezeigt, dass in 30 % der OPs bei Erwachsenen und in 60 % bei Kindern die Messdaten aus der ACT und LiSA-H nur unzureichend synchron bei Nachdosierung mit Heparin anstiegen oder entsprechend der Heparin-Clearance im OP-Verlauf abfielen. Dies zeigte sich besonders kritisch während langandauernder, komplikationsreicher OPs, die einen erhöhten Blutverlust oder sogar Rethorakotomien nach sich zogen, in denen der ACT-Wert eine suffiziente Gerinnung nahe legte, die LiSA-HMessung aber eine noch hohe Heparin-PK nachwies. Erfahrungen aus den klinischen Studien zeigten, dass die Kombination aus der Messung der Heparin-PK und einer Gerinnungsanalyse bei einem ATIII-Mangel von Vorteil ist. Erst die Kombination aus einerseits mehrfach niedrig gemessener ACT-Werte, trotz ggf. Nachdosierungen von Heparin und andererseits ausreichend gemessener Heparin-PK im LiSA-H, kann einen ATIII-Mangelzustand aufdecken. Dadurch können Nach- bzw. Überdosierungen vermieden und damit die Wahrscheinlichkeit für postoperative Komplikationen verringert werden. Der wichtigste Einflussfaktor auf die LiSA-H-Messung ist die Hämodilution, die durch Einbeziehung des Patienten-Blutvolumens (z.B. mit der Nadler-Formel) durch mathematische Korrektur berücksichtigt werden kann. Patientenindividuelle Reaktionen auf gleiche Heparin- und Protamin-Dosierungen sowie eine patientenspezifische Heparin-Clearance zeigten in diesen Studien auf, dass das derzeitige Antikoagulationsmanagement mit den Dosierungsempfehlungen (Körpergewichtsbezogene Dosierung, 1:1 Dosierung von Protamin zur initialen Heparin-Dosis oder der summierten Heparin-Dosis, „pauschale― Nachdosierungen von 5.000 oder 10.000 I.E. Heparin bei ACT < 480) für eine optimale Dosierung der Medikamente unzureichend ist. In Outcome-Studien soll mit der LiSA-H-Messung Dosierungsempfehlungen von Heparin und Protamin ausgearbeitet werden. Außerhalb der Herz-Thorax-Chirurgie eröffnen sich weitere Möglichkeiten, wie z.B. in Dialysezentren und in der Neurochirurgie, für die bereits Studien geplant sind.
Sowohl die Gifte der Kegel- (Conidae) als auch die der Schraubenschnecken (Terebridae) enthalten eine Vielzahl pharmakologisch aktiver Peptide. Vor allem die Conopeptide bzw. Conotoxine aus den Giften der Kegelschnecken werden aufgrund ihrer Selektivität für Ionenkanäle und Rezeptoren seit langem als Werkzeuge in der neuropharmakologischen Forschung eingesetzt. Hier rücken gerade neuronale nikotinische Acetylcholinrezeptoren immer mehr in den Fokus der medizinischen Forschung, da sie vermutlich an der Entwicklung neurodegenerativer Erkrankungen wie Alzheimer, Parkinson, Demenz, Schizophrenie und Epilepsie beteiligt sind. Ziel dieser Dissertation war es daher, neue Inhibitoren in den Giften Kegelschnecken (Conidae) und der Schraubenschnecken (Terebridae) für nikotinische Acetylcholinrezeptoren, vor allem der neuronalen Subtypen, zu identifizieren. Es erfolgte die:
1. Identifizierung neuer αD-Conotoxine
Aus den Giften von Conus capitaneus und C. mustelinus konnten zwei native αDConotoxine (αD-CAP und αD-MUS) isoliert und charakterisiert werden. Beide Toxine sind Homodimere mit Molekulargewichten von 11 kDa und inhibieren nikotinische ACh-Rezeptoren. Sie blockieren die Subtypen α7>α3β2>α4β2, wobei sich αD-MUS als potenter als αD-CAP erweist (IC50-Werte von αD-MUS: α7 0,12 nM, α3β2 1,08 nM, α4β2 4,5 nM; IC50-Werte von αD-CAP α7 0,25 nM, α3β2 2,8 nM, α4β2 28,6 nM). Hingegen haben die αD-Conotoxine auf die Rezeptorsubtypen α3β4, α4β4 und α1β1γδ keinen hemmenden Einfluss. Zusätzlich konnten drei weitere αD-Conotoxine mit Hilfe der cDNA von C. vexillum und C. betulinus identifiziert werden. Eine Besonderheit hierbei war, dass innerhalb der Familie der αD-Conotoxine zwei unterschiedliche Signalsequenzen vorkommen und somit diese Sequenzen nicht stark konserviert sind.
2. Charakterisierung des α-Conotoxins SI aus dem Gift von C. striatus
Im Gift der Kegelschnecke Conus striatus wurde ein Peptid mit inhibierender Wirkung an α7-Rezeptoren nachgewiesen. Molekulare Masse (1.352,5 Da) und Aminosäuresequenz entsprachen dem α-Conotoxin SI, das als Antagonist muskulärer nACh-Rezeptoren bekannt ist. Da die Ergebnisse mehrere Jahre zurück lagen und bisher keine Analysen im Oozytenexpressions-System durchgeführt wurden, wurdeeine mögliche Aktivität sowohl an neuronalen als auch an muskulären nACh-Rezeptoren vermutet. Voltage Clamp-Messungen bestätigten die spezifische Wirkung am Muskeltyp, wodurch die Aktivität am α7-Rezeptorsubtyp einem anderen Conopeptid, zugewiesen werden muss, das als Beiprodukt isoliert wurde.
3. Identifizierung neuer Conotoxine der A-Superfamilie Mit molekularbiologischen Methoden unter Nutzung von cDNA-Bibliotheken gelang es, 27 Conotoxine (17 neue und 10 bekannte) aus der A-Superfamilie zu identifizieren: drei α- und zwei κA-Conotoxine aus Conus striatus, zwei α-Conotoxine aus C. betulinus, zwei α- und zwei κA-Conotoxine aus C. carinatus, drei α-Conotoxine aus C. catus, drei α- und zwei κA-Conotoxine aus C. circumcisus, ein α-Conotoxin aus. C. geographus, zwei aus C. imperialis, jeweils eines aus C. lividus, C. quercinus, C. sponsalis sowie zwei aus C. terebra Die Vielzahl der identifizierten α-Conotoxine belegt die hohe Diversität dieser Toxine in den Giften der Kegelschecken. Anhand von Vergleichen mit bereits bekannten Toxinen werden die möglichen Wirkungsweisen einiger neuer α-Conotoxine diskutiert. Für einen Teil der α-Conotoxine wurden 3D-Strukturmodelle erstellt, die Einblicke in die Bindung der Toxine an den Rezeptor geben können.
4. Untersuchung der Gifte der Terebridae
Die inhibierende Aktivität einiger Gifte (Terebra consobrina, T. argus, Myurella affinis, Acus felina, A. chlorata, A. maculata und Hastulopsis pertusa) an nACh-Rezeptoren (α7, α3β2, α4β2, α3β4, α4β4 und α1β1γδ) wurde erstmals nachgewiesen. An Kalium- und Natriumkanälen zeigten die Giftextrakte keine Wirkung. Die Giftextrakte von Myurella affinis und Acus maculata waren am potentesten und blockierten alle untersuchten nACh-Rezeptoren. Dies ist besonders ungewöhnlich, da diese Terebriden-Arten nach der Literatur (Puillandre & Holford, 2010) keinen Giftapparat besitzen sollen. Eine weitere Auffälligkeit aller Terebriden-Giftextrakte war neben der Selektivität für a7-Rezeptorsubtypen, eine hohe Aktivität gegenüber α4-enthaltenden Rezeptoren. In den Giften und mit Hilfe von cDNA-Bibliotheken von Kegelschnecken konnte eine Vielzahl neuer Inhibitoren für neuronale nikotinische Acetylcholinrezeptoren identifiziert werden. Sie zeigen ein breites Wirkungsspektrum, das die unterschiedlichsten nAChRSubtypen einschließt, was ihre Verwendung als pharmaklogische Werkzeuge begrenzt. Hingegen zeigen die Gifte der Schraubenschnecken ein Selektivitätsspektrum, das die Analyse ihrer Peptide als vielversprechend erscheinen lässt.
Die soziale Arbeitsteilung bei Honigbienen ist ein komplexes selbstorganisatorisches System, welches auf zwei Ebenen der biologischen Organisation zu verorten ist: dem Individuum und der Kolonie. Die Regulation der Bruttemperatur ist ebenfalls diesen Gesetzmäßigkeiten unterworfen. Die Arbeits-bereitschaft einzelner Bienen bildet die Grundlage für die Temperaturregulierung des kolonialen Brutnestes.
In dieser Arbeit wird dieses Zusammenspiel aus individuellen Beteiligungen der Arbeiterinnen sowie der erbrachten Gesamtleistung der Kolonie während des Brutwärmens untersucht. Dazu wird eine kleine Bienengruppe auf einer Brutwabe einer thermischen Belastung ausgesetzt. Ein speziell für diese Untersuchungen entwickelter Versuchsaufbau integriert erstmals die Infrarot-Thermografie mit den Temperaturmessungen einer Brutfläche. Somit ist es möglich, die Thoraxtemperaturen der einzelnen, am Brutwärmen beteiligten Arbeiterinnen störungsfrei zu messen und gleichzeitig das erzeugte räumliche und zeitliche Temperaturmuster der Brutwabe zu ermitteln. Zusätzlich wird der Temperaturverlauf der Außentemperatur sowie der zellumgebenden Luft untersucht.
Es kann gezeigt werden, dass die Lufttemperatur im Innenraum eines Bienenstocks ein wichtiger Faktor in der Temperaturregulierung des Brutnestes ist, da sie die untere Temperaturgrenze im Bienenstock bildet. Weiterhin wird der Einfluss der brutwärmenden Arbeiterinnen auf die Temperaturentwicklung einer Brutfläche sichtbar. Durch das flexible Verhalten der Arbeiterinnen kann einer Brutfläche bei thermischer Belastung durch lokal wechselndes Brutwärmen optimal Wärme zugeführt werden. Es gibt es Hinweise auf eine zyklische Periodizität im zeitlichen Temperaturverlauf der Brutzellen, welche auf einen Brutwärmrhythmus durch die Bienen schließen lässt. Durch den Einsatz zweier Unterarten (Apis mellifera carnica & Apis mellifera mellifera) wird sichtbar, dass es zwischen den Gruppen Unterschiede in der Aufrechterhaltung der Lufttemperatur über der Wabe gibt.
Untersuchungen zur Bedeutung von Superoxid-Dismutasen für die Alterung von Podospora anserina
(2012)
Im Rahmen dieser vorliegenden Doktorarbeit sollte die Bedeutung von Superoxid-Dismutasen für das Resistenzverhalten und den Alterungsprozess bei P. anserina untersucht werden. Folgende Befunde aus den Analysen konnten erhalten werden:
1. Lokalisationsstudien der drei PaSods: Aus den biochemischen und fluoreszenzmikroskopischen Untersuchungen der drei verschiedenen PaSODs geht hervor, dass PaSOD1, eine Cu/ZnSOD, überwiegend im Cytosol und zu einem geringen Anteil im mitochondrialen Intermembranraum lokalisiert ist. Eine der beiden MnSODs, PaSOD2, wird vermutlich zur Abwehr von exogenem Superoxid sekretiert. Bei PaSOD3 handelt es sich um eine mitochondriale MnSOD.
2. Generierung von verschiedenen PaSod-Mutanten: Im Rahmen dieser Arbeit wurden von jeder PaSod mindestens drei unabhängige Überexpressionsstämme, ein GFP-Stamm- und ein Deletionsstamm hergestellt. Weiterhin wurden alle möglichen Doppel-Deletionsstämme und die Dreifach-Deletionsmutante erzeugt. Alle Stämme wurden auf DNA-Ebene verifiziert, zusätzlich wurde die Proteinmenge bzw. –Aktivität überprüft.
3. Einfluss der PaSODs auf die ROS-Toleranz: Die Analysen der ROS-Resistenzen haben gezeigt, dass PaSODs eine wichtige Rolle in der Entgiftung von Superoxiden spielt. So ließ sich bei den Deletionsstämmen der PaSods eine gesteigerte Sensitivität gegenüber Paraquat feststellen. Eine Aufsummierung der Sensitivität gegenüber Paraquat ist bei der PaSod-Tripelmutante (ΔPaSod1/2/3) zu erkennen.
Überraschenderweise kann durch die gesteigerten Mengen an aktiver PaSOD in den Überexpressionsstämmen (PaSod1-3_OEx) keine verbesserte Resistenz gegenüber Paraquat erzielt werden. Darüber hinaus führt die Überexpression des Gens für die mitochondriale SOD, PaSOD3, zu massiven negativen Effekten.
4. Einfluss auf die Lebensspanne: Durch eine fehlende Entgiftung von Superoxid in den PaSod-Deletionsmutanten ist eine Verminderung der Lebensspanne nicht festzustellen. Bei PaSod-Mutantenstämme, die eine erhöhte PaSOD-Aktivität und damit eine gesteigerte Abbaurate des Superoxids aufweisen, kann bei den PaSod1- und PaSod2-Überexpressionsstämmen keine verbesserte Lebensspanne unter den gewählten Standardbedingungen erzielt werden. Vielmehr noch ist die Lebensspanne der PaSod3-Überexpressionsstämme stark reduziert.
5. Einfluss der PaSod-Modulation auf andere Komponenten des ROS-Abbausystems: Die PaSOD-Aktivitäten scheinen miteinander co-reguliert zu werden. Des Weiteren scheint es ein Zusammenhang zwischen den beiden sekretierten Enzymen PaSOD2 und PaCATB zu geben. Deutlich wird auch, dass die Modulation der Superoxid-Dismutasen eine weitreichende Auswirkung auf andere Schutzsysteme hat. Beispielweise konnte gezeigt werden, dass Komponenten des mitochondrialen ROS-Schutzsystems und der Protein-Qualitätskontrolle in den PaSod3-Überexpressionsstämmen verändert sind.
Zusammenfassend lassen die Analysen der PaSod-modulierten Stämme den Schluss zu, dass die Superoxid-Dismutase in P. anserina ein wichtiges Enzym zum Abbau des schädlichen Superoxids darstellt, welches aber nur eine untergeordnete Rolle bei der Kontrolle der Lebensspanne unter den gewählten Wachstumsbedingungen im Labor ausübt. Des Weiteren haben die Analysen gezeigt, dass es durch die Modulation der PaSod-Gene zu weitreichenden Änderungen, die das ROS-Schutzsystem (PaSOD, PaCATB und PaPRX1) sowie die Protein-Qualitätskontrolle (PaHSP60, PaLON und PaCLPP) betreffen, kommt. Welche Auswirkung dabei diese Veränderungen in Bezug auf die Lebensspanne hat, kann nur schwer abgeschätzt werden und muss mit weiteren Untersuchungen geklärt werden.
Ziel dieser Arbeit war die Untersuchung der Rolle der i-AAA Protease in P. anserina, besonders während des Alterns des Ascomyceten. Die dazu durchgeführten Untersuchungen führten zu folgenden Ergebnissen:
1. Unter Standardbedingungen ist der PaIap-Deletionsstamm langlebiger als der Wildstamm, ohne feststellbare physiologische Beeinträchtigungen aufzuweisen. Dass dies auf den Verlust von PaIap zurückzuführen ist, bestätigen die PaIap-Revertantenstämme, in denen das Gen wieder eingeführt wurde, wodurch deren Lebensspanne wieder Wildtyp-artig ist. Dies zeigt, dass PaIAP zelluläre Prozesse beeinflusst, die die Lebensspanne kontrollieren.
2. Bei Hitzestress weist der PaIap-Deletionsstamm dagegen eine höhere Hitzesensitivität auf als der Wildstamm, was sich in einer verkürzten Lebensspanne und der Störung vitaler Funktionen äußert. Dies deutet auf eine mögliche Rolle von PaIAP bei der Hitzestressantwort hin.
3. Im Einklang mit dem hitzesensitiven Phänotyp des PaIap-Deletionsstamms konnte in mitochondrialen Extrakten des Wildtyps gezeigt werden, dass die Proteinmenge von PaIAP durch Hitzestress signifikant zunimmt. Gleichzeitig weisen mitochondriale Proteinextrakte von PaIap-Deletionsstämmen nach Hitzestress signifikant geringere Mengen an PaHSP60 und PaCLPP auf, zwei weiteren Komponenten der mitochondrialen Proteinqualitätskontrolle. Dies unterstreicht die Beteiligung von PaIAP an der Hitzestressantwort von P. anserina.
4. Darüber hinaus beeinflusst der Verlust von PaIap die Zusammensetzung der mitochondrialen Atmungskette und führt bei 27°C zu einer vermehrten Organisation der Komplexe in stabilere Superkomplexe. Dieser Mechanismus wird beim Wildstamm erst nach Hitzestress beobachtet, wogegen der PaIap-Deletionsstamm die Superkomplexmenge nicht mehr weiter steigern kann.
5. Die Genexpression von proteolytisch inaktiven Varianten von PaIAP (PaIAPE540Q bzw. PaIAPE540QG) kann den Phänotyp des PaIap-Deletionsstamms bei 27°C nicht komplementieren und führt ebenfalls zu einer Verlängerung der Lebensspanne von P. anserina. Dies liefert wichtige Informationen über den Mechanismus wie PaIAP die Lebensspanne von P. anserina beeinflusst, da dazu die proteolytische Aktivität von PaIAP benötigt wird.
6. Darüber hinaus zeigt die Analyse des PaIap/PaClpP-Deletionsstamms, dass sich die Mechanismen, wie PaIAP und PaCLPP die Lebensspanne von P. anserina beeinflussen, unterscheiden. Die unterschiedlichen zellulären Aufgaben werden auch bei Hitzestress deutlich, wovon der PaIap/PaClpP-Deletionsstamm noch stärker betroffen ist als durch die Deletion von PaIap bzw. PaClpP. Dies verdeutlicht, dass sich die Effekte der Deletionen der beiden Gene addieren.
Insgesamt konnte in dieser Arbeit gezeigt werden, dass die i-AAA Protease PaIAP auch bei P. anserina wichtige zelluläre Funktionen besitzt, die sich auf den Alterungsprozess des Ascomyceten auswirken. Dabei war es möglich verschiedene neue Mechanismen zu identifizieren, wie die i-AAA Protease diese Funktionen ausübt. Dazu gehören z.B. der Einfluss der proteolytischen Aktivität auf die Lebensspanne, die durch die Abwesenheit der i-AAA Protease ausgelöste Reorganisation der Atmungskettenkomplexe in stabile Superkomplexe, und die Induktion der Hitzestressantwort durch PaIAP. Diese Befunde tragen zum besseren Verständnis der zellulären Funktion der i-AAA Protease bei und stellen einen entscheidenden Ausgangspunkt für weiterführende Analysen der bislang wenig verstandenen Aufgaben der Protease dar.
Sportliche Aktivität besitzt in einer von Freizeit geprägten Gesellschaft eine wichtige soziokulturelle Bedeutung und erfreut sich unter anderem wegen der hinreichend bekannten mehrdimensionalen gesundheitlichen und psychophysischen Wirkungen wachsender Akzeptanz mit einem hohen gesellschaftlichen Stellenwert (Rütten et al.2005). Neben chronisch-degenerativen Erkrankungen werden vor allem die Herz- Kreislauf- und Stoffwechselerkrankungen, wie beispielsweise Diabetes mellitus, durch sportliche Aktivität positiv beeinflusst. Für die Bundesrepublik Deutschland wird geschätzt, dass mehr als 6.500 kardiovaskuläre Todesfälle jährlich vermieden werden könnten, wenn nur die Hälfte der körperlich inaktiven Männer im Alter von 40 bis 69 Jahren gemäßigten körperlichen Aktivitäten nachgingen (Mensink 1997). Insgesamt zählen Krankheiten des Muskel- und Skelettsystems zu den häufigsten und kostenträchtigsten Leiden in Deutschland (Hübscher 2007). Auf die Behandlungskosten bezogen nehmen sie nach Angaben des Statistischen Bundesamtes (2006) mit etwa 25 Milliarden Euro (11%) den dritten Rang ein. Zur Aufrechterhaltung von Gesundheit und Vermeidung chronischer Erkrankungen tragen körperlich aktive Lebensstile unumstritten und wissenschaftlich hinreichend belegt bei (Bauman 2004, Kruk 2007). Daneben verhindert sportliche Aktivität aber nicht nur Erkrankungen und Todesfälle, sondern ist ihrerseits auch mit besonderen Risiken verbunden. Über- oder Fehlbelastungen können zu Sportschäden und Sportverletzungen und damit neben funktionellen Einschränkungen zu manifesten Behinderungen des Organismus führen. Quantitativ von besonderer Bedeutung sind dabei die Sportunfälle, in deren Folge sich schwere Verletzungen mit Invalidität bis hin zu Todesfällen ergeben. Die Sportverletzung beschreibt ein akutes Ereignis, das durch eine plötzliche und unerwartete Krafteinwirkung in unmittelbarem Zusammenhang mit Sport zu einer Verletzung führt (Röthig 2003). Hiervon abzugrenzen ist der Sportschaden, der mitunter sportartspezifisch durch Fehl- und Überlastung verursacht und häufig durch Eigennamen wie Werferellenbogen oder Läuferknie beschrieben wird. Sportliche Aktivität ist mit einem ihr eigenen Verletzungsrisiko verbunden, das mit der Intensität der Belastung und der Expositionsdauer steigt (Biener 1975). Jährlich werden in den stationären und ambulanten Krankenversorgungseinrichtungen der Europäischen Union schätzungsweise rund 4,5 Millionen Sportverletzungen behandelt und 40% der Verletzungen sind mit Fußball assoziiert (Kisser und Bauer 2010). Für die Bundesrepublik Deutschland existieren spärliche Daten zu Verletzungsprävalenz und -inzidenz von Verletzungen und Schäden infolge sportlicher Aktivität. Die Jahresberichte des Statistischen Bundesamtes und der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) sind wenig spezifisch und berücksichtigen dabei weder Expositionszeit, Ausmaß und Lokalisation der Verletzung noch differenzieren sie zwischen Sportunfällen und Unfällen aus Heim und Freizeit (Statistisches Bundesamt 1998, Langen 2004, Henter und Neteler 2004). Eine geringe Anzahl relevanter Publikationen, die das Themenfeld Sportverletzungen und Sportschäden betreffen, basieren entweder auf nicht repräsentativen oder vorselektionierten Stichproben, selektiven Daten von Versicherern oder sie betreffen nicht die Bundesrepublik Deutschland (Finch et al. 1998, Hootman et al. 2002, Steinbrück 1999, Seither 2008, Henke et al. 2010). Zudem entstammen die Daten zumeist Gesundheitsberichten oder Sportentwicklungsplänen, in denen Sport nicht eindeutig definiert, sondern nur erhoben wird, ob Sport betrieben wird. Den Vergleichsdaten wird dabei häufig ein abseits wissenschaftlicher Definitionen, populäres Verständnis von Sport zugrunde gelegt (Wiebe 2011). Ziel der vorliegenden Arbeit ist eine aktuelle Betrachtung von Sportverletzungen und Sportschäden unter dem Aspekt von Häufigkeit, Ursachen, Risiken und Prävention mit der erstmaligen Untersuchung der Entität des Polytraumas im Sport und deren Kosten. Die vorgelegte Arbeit basiert auf fünf eigenen Publikationen zu diesem Themenkomplex und einer retrospektiven Registeranalyse polytraumatisierter Sportler der Jahre 2007 bis 2011 am Klinikum der Johann Wolfgang Goethe- Universität Frankfurt am Main.
In den letzten Jahren haben die Forschungsaktivitäten im Bereich Thermoelektrik stetig zugenommen. Das neu erweckte Interesse an der Thermoelektrik ist zurückzuführen auf neue nanostrukturierte Materialien, Quantenschicht-Strukturen und Nanodrähte, welche
eine wesentliche Steigerung der thermoelektrischen Effektivität Z im Vergleich zum Massivmaterial versprechen. Für Nanodrähte ist die größte Steigerung der thermoelektrischen Effektivität zu erwarten. Zur Bestätigung der Theorie bedarf es neuer Messmethoden zur Bestimmung des Seebeck-Koeffizienten S, der elektrischen Leitfähigkeit σ und der Wärmeleitfähigkeit λ, um hieraus eine Steigerung der thermoelektrischen Effektivität Z = (Sexp2)σ/λ experimentell zu bestätigen.
Der Schwerpunkt der Doktorarbeit lag in der Untersuchung thermoelektrischer Eigenschaften von Nanodrähten. Hierzu wurden neueMessmethoden zur Bestimmung der elektrischen und thermischen Leitfähigkeit von Nanodrähten entwickelt.
Die elektrische und thermische Leitfähigkeit von Pt-Nanodrähten wurden mit dem in dieser Arbeit entwickelten λ-Chip gemessen. Die elektrische Leitfähigkeit der Pt-Nanodrähte ist im Vergleich zum Massivmaterial entsprechend der klassischen Size-Effekt-Theorie reduziert. Ebenso wurde eine Abnahme der Wärmeleitfähigkeit beobachtet. Die Ergebnisse stimmen mit den im Rahmen der klassischen Size-Effekt-Theorie zu erwartenden Resultaten gut überein, jedoch bedarf die Reduzierung der Lorenz-Zahl noch einer theoretischen Erklärung.
Im Weiteren wurde die elektrische Leitfähigkeit von BixTe1-x und BixSb1-x-Nanodrähten mit dem λ-Chip bestimmt. Hierzu wurden zunächst unterschiedliche Kontaktmaterialien getestet, um die Diffusion des Kontaktmaterials in den Nanodraht auszuschließen. Als bewährtes Kontaktmaterial stellte sich ein Schichtsystem aus Titan und Gold heraus. Die Ti-Schicht wirkt hierbei als Diffusionsbarriere und Haftvermittler-Schicht. Die Wärmeleitfähigkeit der Bi-haltigen Nanodrähte konnte mit dem λ-Chip nicht gemessen werden, da die Unterätzung der Nanodrähte mittels reaktivem Ionenätzen die Nanodrähte angriff. Als Alternative können die Nanodrähte auf dem λ-Chip mit einem fokusierten Ionenstrahl unterätzt werden. Der Aufwand hierzu ist jedoch relativ hoch und diese Alternative wurde deshalb nicht weiter verfolgt. Als weitere Alternative wurde der Z-Chip entwickelt. Hierbei werden die Nanodrähte auf den fertigen Chip aufgebracht und mittels Elektronenstrahl-induzierter Deposition an den elektrischen Kontakten fixiert. Der Chip ermöglicht die Messung der elektrische Leitfähigkeit in 4-Punkt-Anordnung, der Wärmeleitfähigkeit und des Seebeck-Koeffizienten an
einem einzelnen Nanodraht. Somit ist die Bestimmung der thermoelektrischen Effektivität an einem Nanodraht möglich. DesWeiteren wurden die theoretischen Grundlagen zur Bestimmung der Wärmekapazität an einzelnen Nanodrähten mit dem Z-Chip präsentiert. Zum Zeitpunkt der Durchführung dieser Arbeit fehlte jedoch das notwendige Equipment zur Ausführung der Wärmekapazitätsmessung an einzelnen Nanodrähten.
Des Weiteren wurde die Cross-Plane Methode zur Bestimmung der Wärmeleitfähigkeit an eingebetteten Nanodrähten entwickelt. Analog der Messmethode, welche für die Einzeldrahtmessungen verwendet wird, handelt es sich hierbei um eine stationäre „Joule-Heating“ Methode. Die Temperaturdifferenz wird aus der Widerstandsänderung einer auf die eingebetteten Nanodrähte aufgebrachten Heizschicht bestimmt.Mit derMethode wurde die Wärmeleitfähigkeit von BixTe1-x-Nanodrähten ermittelt.
Die elektrische Leitfähigkeit wurde von BixTe1-x-Nanodrähten unterschiedlicher Zusammensetzung und Herstellungsparameter mit dem λ- und dem Z-Chip bestimmt. Die gemessenen Nanodrähte zeigen sowohl intrinsisches wie extrinsisches Leitungsverhalten verbunden mit einer, im Vergleich zum Volumenmaterial, reduzierten Temperaturabhängigkeit der elektrischen Leitfähigkeit infolge von Oberflächen- und Korngrenzenstreuung der Ladungsträger. Die elektrischen Leitfähigkeitsmessungen stimmen mit Beobachtungen anderer Gruppen gut überein.
Die Wärmeleitfähigkeit konnte an einem einzelnen BixTe1-x-Nanodraht und an eingebetteten BixTe1-x-Nanodrähten gemessen werden. Die Wärmeleitfähigkeit ist gegenüber dem Massivmaterial reduziert. Die Ergebnisse sind in guter Übereinstimmung mit bisher publizierten Ergebnissen von Bismuttellurid-Nanodrähten.
Untersuchung von Korrelationseffekten in der Doppelphotoemission von normal- und supraleitendem Blei
(2012)
Im Rahmen dieser Arbeit wurde für die erstmalige Untersuchung der Doppelphotoemission von supraleitenden Materialien eine neue Messapparatur aufgebaut. Mit ihr lassen sich auf eine neue Weise Korrelationseffekte zwischen zwei Elektronen untersuchen, denn beide werden für jedes Reaktionsereignis mit ihrem vollständigen Impulsvektor aufgezeichnet. Die Apparatur kann daher für einen direkten Nachweis der Cooperpaarung in Supraleitern verwendet werden. Dazu wurden ein speziell für diesen Zweck angepasstes Spektrometer, Vakuumsystem und Probenhalter konstruiert. Ein mehrfach verbessertes Vakuumsystem sorgte dafür, dass eine Bleioberfläche über einen Zeitraum von mindestens 15 Stunden nach einer Reinigung gemessen werden konnte. Das Spektrometer erlaubte die koinzidente Messung von Elektronen über einen großen Raumwinkelbereich mit ausschließlich elektrischen Feldern. Dadurch war es auch im supraleitenden Zustand möglich, die Trajektorien der Elektronen zu berechnen. Die Energieauflösung für jedes Elektron lag zwischen 1/30 und 1/50, je nach untersuchtem Emissionswinkel. Ein eigens entwickelter Probenhalter erlaubte es, eine nur von einer Seite thermisch abgeschirmte Probe auf eine Temperatur von 4,5 K zu kühlen. Die Experimente wurden an einer Beamline des Berliner Synchrotrons BESSY durchgeführt.
Von entscheidender Bedeutung für die Auswertung der Daten ist die Qualität der Pulserkennungsroutine. Sie bestimmt die Totzeit der Messapparatur, das heisst wie nahe zwei Elektronen zeitlich und räumlich beieinander liegen dürfen, um noch detektiert zu werden. Sie beeinflusst somit die Beobachtung erheblich. In den als digitalisierte Pulse aufgenommen Rohdaten besteht die Schwierigkeit darin, zwei übereinander liegende Signale als solche zu erkennen und die richtige Zeit beider Signale zu bestimmten. Dies wurde erheblich verbessert, indem ein in Vorabeiten simulierter Doppelpulsalgorithmus modifiziert und erstmalig verwendet wurde. In der Folge konnte die Totzeit deutlich verringert und daher bis zu 20% mehr Doppelereignisse gefunden werden. Darüber hinaus ließen sich Fehler bei der Zeiterkennung nahe aufeinander folgender Pulse korrigieren. Ein in diesem Zusammenhang entwickeltes Programm erzeugte durch die Addition von gemessenen Einzelpulsen künstliche Doppelereignisse mit beliebiger Abstandsverteilung und erlaubte so erstmals eine exakte Simulation der Detektortotzeit mit verschiedenen Pulserkennungsalgorithmen.
Neben den Koinzidenzereignissen wurden auch die Ergebnisse der gewöhnlichen Photoemission untersucht und mit Bandstrukturrechnungen verglichen. Aufgrund der Messmethode wurde keine Vorauswahl bezüglich des Emissionswinkels oder der kinetischen Energie getroffen. Die Ergebnisse der Fermiflächen stimmen innerhalb der erreichten Auflösung mit den theoretischen Vorhersagen überein. Ebenso konnten die Strukturen in den Parallelimpulsspektren der Elektronen, die aus lokalisierten Energieniveaus emittiert wurden, mit der Interferenz der ausgehenden Wellenfunktionen erklärt werden. Eine Simulation dieses Effekts lieferte trotz der vergleichsweise sehr niedrigen Elektronenenergien eine gute Übereinstimmung der wesentlichen Merkmale.
Es wurden Doppelphotoemissionspektren von Blei bei verschiedenen Photonenenergien im Bereich von 21,22 eV bis 40 aufgenommen. Dabei konnten verschiedene Emissionskanäle identifiziert werden. Das Korrelationsloch ist ein sehr grundlegender Effekt, der aufgrund der Coulombabstoßung und des Pauli-Prinzips auftritt und daher bei allen Metallen vorkommt. Betrachtet man das Korrelationsloch im Impulsraum, so führt es dazu, dass zwei gleichzeitig emittierte Elektronen keine ähnlichen Impulsvektoren besitzen dürfen. Durch die verbesserten Pulserkennungsalgorithmen war es möglich, das Korrelationsloch zu untersuchen und über einen weiten Energiebereich zu vermessen. Es zeigte sich wie erwartet als Verarmungszone in der Impulsverteilung eines Elektrons um den Impuls eines zweiten. Ein solcher Effekt ist mit einem einzelnen Detektor sehr schwer zu messen, da die Totzeit die gleiche Auswirkung auf die Spektren hat. Durch eine Simulation konnte ihr Einfluss in jedem Spektrum herausgefunden und so beide Effekte voneinander getrennt werden. Sie stehen damit für einen Vergleich mit einer noch zu entwickelnden theoretischen Vorhersage zur Verfügung.
Aufgrund der bei Blei sehr nahe an der Fermikante liegenden, lokalisierten Energieniveaus konnte der Augerzerfall aus dem Valenzband identifiziert und untersucht werden. Korrelationseffekte zwischen den beiden Elektronen spielten aufgrund des sehr breiten Valenzbandes wie erwartet eine untergeordnete Rolle. Dies ließ sich nachweisen, indem die Energieverteilung durch eine Selbstfaltung der Valenzbandzustandsdichte beschrieben wurde und die Winkelverteilung der Augerelektronen keine Beeinflussung durch die Emissionsrichtung der Photoelektronen zeigte. Beide Beobachtungen deuten auf einen vollständig unabhängigen Emissionsprozess der beiden Elektronen hin. Überraschenderweise zeigte sich aber eine Energieverschiebung des Photoelektrons, abhängig von der kinetischen Energie des Augerelektrons. Dieser in der Gasphase als Post-Collision-Interaction bekannte Effekt sollte aufgrund der schnellen Abschirmung der im Festkörper zurückbleibenden Löcher nicht auftauchen. Die Ursache für die Energieverschiebung ist noch unbekannt.
Für die Identifizierung der Emission von Cooperpaaren wurden Messungen oberhalb und unterhalb der Sprungtemperatur bei verschiedenen Photonenenergien zwischen 20 eV und 40 eV durchgeführt. Verschiedene Spektren wurde nach der Signatur des Prozesses untersucht. Aufgrund der geringen Statistik konnte er nicht identifiziert werden. Demnach konnte auch die theoretische Vorhersage nicht widerlegt werden. Da dieses Experiment aus technischer Sicht äußerst herausfordernd ist, war die Untersuchung von Blei, als einfach zu präparierendes Material mit hoher Sprungtemperatur, naheliegend. Es stellte sich jedoch durch die Auswertung heraus, dass es im Hinblick auf die untersuchte Fragestellung einen wesentlichen Nachteil besitzt. Die Hauptintensität befindet sich im Gegensatz zu Kupfer für alle hier verwendeten Photonenenergien bei niedrigen Elektronenenergien, so dass nur wenige Ereignisse in dem für die Cooperpaaremission interessanten Energiefenster liegen.
Die Arbeit entstand im Rahmen des Förderprogramms ”Profil NT” und war Bestandteil des BMBF–Projektes ”NANOTHERM” (FKZ17PNT005). Dabei sollte die Möglichkeit der Integration und Verwendung von Nanodrähten als funktionsbestimmende Komponente im thermoelektrischen Sensorelement untersucht werden. Eine wichtige Aufgabe bestand darin die thermoelektrischen Eigenschaften der einzelnen Nanodrähte, insbesondere den Seebeck–Koeffizienten, zu untersuchen. Im Hinblick auf die weitere Entwicklung der Nanotechnologie ist es sehr wichtig, geeignete Messplattformen zu generieren und der Wissenschaftlichen Gemeinschaft zur Verfügung zu stellen für die Charakterisierung von Nanostrukturen. Für die Forschung bedeutet dies, dass man immer präziser die ”Physik im kleinen” studieren kann. Im Bezug auf die Anwendungen stellen die ausgeführten Untersuchungen eine wesentliche Basis für die Bauelemente–Optimierung und ihren späteren industriellen Einsatz dar.
In dieser Arbeit werden zwei Chipdesigns vorgestellt für die Bestimmung des Seebeck–Koeffizienten, die eine ausreichend hohe Temperaturdifferenz in Nanostrukturen erzeugen. Für beide Chips wird die mikromechanische Fertigung im einzelnen erläutert. Zusätzlich wurden die Chips in FEM–Simulationen analysiert. Eine messtechnische Charakterisierung der Chips bestätigt die Simulationen und die Funktionsweise der Chips für Untersuchungen des Seebeck–Koeffizienten an Nanostrukturen. Erstmals wurden Wolfram bzw. Platin FEBID–Deponate hinsichtlich des Seebeck–Koeffizienten untersucht. Für die Wolfram–Deponate ergab sich ein negativer Seebeck–Koeffizient. Der gemessenen Seebeck–Koeffizient war über mehrere Tage stabil. Als Ergebnis temperaturabhängiger Messungen des Seebeck–Koeffizienten konnte eine Wurzel-T Abhängigkeit beobachtet werden, die in der Theorie beschrieben wird.
Eine Untersuchung des Seebeck–Koeffizienten an Pt–FEBID–Deponaten zeigt einen Vorzeichenwechsel für Proben mit geringer elektrischer Leitfähigkeit (isolierender Charakter, schwache Kopplung). In der Literatur wird dieser Vorzeichenwechsel allerdings für Proben mit metallischer elektrischer Leitfähigkeit beschrieben. Aufgrund der Messergebnisse ist zu prüfen inwiefern die Theorie des Seebeck–Koeffizienten auf Proben mit schwacher Kopplung zu übertragen ist. Da die gemessenen Seebeck–Koeffizienten bei einigen nanoskaligen Proben sehr klein waren, wurde der Seebeck–Koeffizient des Kontaktmaterials in separaten Versuchen untersucht. Für das hier verwendete Schichtsystem Ti(40nm)/Au(120nm) kann ein Seebeck–Koeffizient von -0,22µV/K angegeben werden. Bei der Charakterisierung der Pt–FEBID–Deponaten wurde dieser Beitrag des Kontaktschichtsystems zur Thermospannung berücksichtigt.
Untersuchungen an BiTe–Nanodrähten mit dem Seebeck–Chip ergaben einen negativen Seebeck–Koeffizienten. Die ersten Untersuchungen wurden mit Kupfer als Kontaktmaterial durchgeführt, weil dieses sehr gute Lift–Off Eigenschaften besaß. Trotz der Kupferdiffusion in den Nanodraht hinein, wird der negative Seebeck–Koeffizient einem Tellur–Überschuss zugeschrieben, denn an Proben mit einer geeigneten Diffusionsbarriere war in nachfolgenden Untersuchungen ebenso ein negativer Seebeck–Koeffizient zu messen. Die ermittelten Beweglichkeiten sind niedriger als die von Bulkmaterial und können durch klassische Size–Effekte erklärt werden. Die gemessenen Ladungsträgerkonzentrationen liegen in typischen Bereichen für Halbmetalle. Die Charakterisierung des Seebeck–Koeffizienten mit Hilfe des hier vorgestellten Z–Chip ergab einen negativen Seebeck–Koeffizienten für die BiTe–Nanodrähte, die wie oben erläutert auf einen Tellur–Überschuss zurückzuführen sind. Eine Abschätzung eines mit Nanodrähten aufgebauten Sensors zeigt, dass im Vergleich zu konventionellen Dünnschicht–Thermopiles deutlich höhere Empfindlichkeiten zu erzielen sind. Erste technologische Konzepte für den Aufbau von Nanodraht–Arrays wurden erarbeitet und durch entsprechende Untersuchungen verifiziert.
Grundsätzlich ist der Z–Chip für die Charakterisierung aller drei Transportkoeffizienten geeignet und bietet die Option, anderen Arbeitsgruppen eine universelle thermoelektrische Messplattform zur Verfügung zu stellen.
Zur Erforschung des Strahlstransports durch zwei Toroidsegmente wurden im Rahmen dieser Arbeit theoretische Betrachtungen, Simulationen und experimentelle Untersuchungen durchgeführt. Dazu wurde ein toroidaler Teststand, bestehend aus zwei 30 Grad Toroidsegmenten mit einer magnetischen Feldstärke von 0,6 T und einer Driftsektion zwischen diesen beiden Magneten von 400 mm Länge, verwendet. Von einer Volumenionenquelle wurde ein Wasserstoffionenstrahl erzeugt und dieser mittels eines Solenoids angepasst und in das erste Toroidsegment eingeschossen. Mit Hilfe eines beweglichen Detektors konnte der Ionenstrahl an jeder Position im Rezipienten beim Transport durch den toroidalen Aufbau experimentell untersucht und vermessen werden.
Bei den Experimenten mit dem vorhandenen Detektor konnten auf den Aufnahmen der Leuchtdichteverteilung starke Sekundärelektroneneffekte beobachtet werden, welche die Untersuchung des Ionenstrahls mit dem Detektor erschwerten oder teilweise ganz unmöglich machten. Aus diesem Grund wurde zur Unterdrückung dieser Elektronen eine Wasserstoffatmosphäre im Rezipienten aufgebaut, welche die Elektronen stärker absorbiert als die Ionen und damit die Beobachtung des Ionenstrahls ermöglichen sollte. Auf diesem Wege lässt sich das transversale Verhalten des Strahls beim Strahltransport durch die toroidalen Magnetfelder mit dem vorhandenen Detektor untersuchen. Die Auswirkungen des Wasserstoffgases auf die geladenen Teilchen wurden dabei theoretisch und experimentell untersucht und analysiert. Die Auswirkung von Helium-, Stickstoff- und Argongas auf den Ionenstrahl und die Elektronen wurde in diesem Zusammenhang experimentell betrachtet.
Des Weiteren wurde mit Hilfe des Computerprogramms TBT der Strahltransport durch die zwei toroidalen Magnetfeldsegmente unter Verwendung von Referenzeinstellungen simuliert und die Ergebnisse mit den theoretischen und experimentellen Daten des Strahltransports verglichen. Bei diesen Simulationen konnten die Gyrationsbewegungen sowie die Transmission des Ionenstrahls durch die Driftsektion genauer untersucht werden.
Da die Magnetfelder der Toroidsegmente auch in der Driftsektion als Führungsfelder dienen sollen, sind die im experimentellen Aufbau verwendeten Toroidsegmente nicht magnetisch geschirmt. Dies hat zur Folge, dass das von den Magneten erzeugte Feld Auswirkungen auf andere Komponenten des toroidalen Teststandes besitzt. Aus diesem Grund wurden die Auswirkungen dieser Magnetfelder auf die Ionenquelle sowie auf das Druckmesssystem des Teststands genauer betrachtet.