Universitätspublikationen
Refine
Year of publication
- 2012 (668) (remove)
Document Type
- Part of Periodical (125)
- Report (95)
- Article (92)
- Doctoral Thesis (84)
- Book (78)
- Review (42)
- Contribution to a Periodical (34)
- Bachelor Thesis (25)
- Working Paper (25)
- Conference Proceeding (24)
- Part of a Book (13)
- magisterthesis (10)
- Master's Thesis (9)
- Periodical (5)
- Preprint (4)
- Diploma Thesis (1)
- diplomthesis (1)
- Magister's Thesis (1)
Language
- German (668) (remove)
Is part of the Bibliography
- no (668)
Keywords
- Deutschland (10)
- Europa (5)
- Schmerz (5)
- China (4)
- Frankreich (4)
- Gewebedurchblutung (4)
- Gewebetemperatur (4)
- Goethe-Universität Frankfurt am Main. Fachbereich Humanmedizin (4)
- Infrarot (4)
- Recht (4)
Institute
- Präsidium (144)
- Gesellschaftswissenschaften (105)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (74)
- Geschichtswissenschaften (47)
- Medizin (47)
- Rechtswissenschaft (37)
- Physik (31)
- Wirtschaftswissenschaften (30)
- Neuere Philologien (26)
- Biowissenschaften (20)
Mobilität ist Kultur“ – mit diesem Motto wird seit mehreren Jahren für das Verkehrs- und Mobilitätskonzept der Stadt Zürich geworben. Das Ziel dieses Züricher Konzepts ist die lang-fristige Etablierung einer nachhaltigen Mobilitätskultur. Eine wesentliche Teilstrategie bei der Umsetzung des Konzepts ist dabei neben verkehrsplanerischen Aspekten (z.B. die gezielte Förderung bzw. der Ausbau des ÖPNV sowie des Fuß- und Radverkehrs) die umfassende und frühzeitige Information der Bevölkerung über Verkehrsplanungsverfahren und die Beteili-gung an den entsprechenden Entscheidungen. Weiterhin wird hervorgehoben, dass bereits die Mobilitätsstrategie selbst das Ergebnis eines gemeinsamen Meinungsbildungsprozesses von Bevölkerung, Planung, Politik und Wirtschaft ist. In Zürich wird nachhaltige Mobilitätskultur demnach nicht nur als neues Leitbild der Verkehrsplanung, sondern als umfassender Pla-nungs-, Kommunikations- und Kooperationsansatz verstanden (Ott 2008: 1ff.; Schreier 2005: 127ff.; Tiefbau- und Entsorgungsdepartment der Stadt Zürich 2005: 1ff.).
Gerade im Zusammenhang mit Konzepten zu nachhaltiger Mobilität wird die Notwendig-keit der Kommunikation mit den Bürgern nicht nur in Planungen einzelner Kommunen, son-dern auch in theoretischen Beiträgen häufig thematisiert. So hebt beispielsweise Banister (2008: 80) hervor, dass bei Verkehrsplanungsmaßnahmen die Kommunikation – also die In-formation und Beteiligung der Bevölkerung – aber auch ein entsprechendes Marketing we-sentliche Elemente zur Steigerung der Akzeptanz nachhaltiger Mobilitätspolitik sind. Auch Beckmann (2005: 10, 16f.) betont die Notwendigkeit der Kommunikation mit den Bürgern und zivilgesellschaftlichen Gruppen, um die Akzeptanz und Wirksamkeit verkehrsplane-rischer Maßnahmen, aber auch soziale Lernprozesse im Bereich der Mobilität zu fördern. Bedingt durch die besondere Stellung direktdemokratischer Elemente im politischen Sys-tem der Schweiz hatte die Bevölkerung dort bereits lange vor der Einführung solch moderner Planungsansätze weitreichende Möglichkeiten zur Einflussnahme auf politische Entscheidun-gen (Linder 2009: 574ff.). So hebt z.B. Bratzel (1999: 183ff.) die Ablehnung der städtischen U-Bahn-Planung durch die Züricher Bevölkerung als wegweisende Richtungsänderung hervor und bewertet die Möglichkeiten zur Interessenartikulation und auch deren Durchsetzung sei-tens der Bürger als wichtigen Einflussfaktor der Entwicklung des städtischen Verkehrs. Dabei stellt sich die Frage, ob der Einfluss der Züricher Bevölkerung auf die städtische Verkehrspolitik und damit auch auf die Entwicklung der lokalen Mobilitätskultur eher einen Sonderfall darstellt, oder ob auch in anderen Städten die Bürger in ähnlicher Weise die Mobi-litätskultur mit geprägt haben. Im Rahmen dieser Arbeit wurde deshalb näher untersucht, welchen Einfluss die Bevölke-rung einer Stadt über ihr eigenes Verkehrsverhalten hinaus auf die Herausbildung der jeweili-gen Mobilitätskultur hat. Für die Analyse wurde ein Vergleich der Entwicklung der Mobili-tätskulturen in Zürich und Frankfurt am Main vorgenommen, wobei der Einfluss der Bevölke-rung auf zentrale Debatten und Entscheidungen im Mittelpunkt stand. Frankfurt ist als Ver-gleichsstadt in besonderer Weise geeignet, da Frankfurt einerseits im Hinblick auf die Stadt- und Wirtschaftsstruktur sowie die Herausforderungen im Verkehrsbereich teilweise große Ähnlichkeiten zu Zürich aufweist (Langhagen-Rohrbach 2003: 40, 44ff., 60ff.). Andererseits bestehen im Hinblick auf das politische System bzw. die politische Kultur aber auch charakte-ristische Unterschiede (Linder 2009: 567ff.; Dreßler 2010: 165ff.). Von Interesse bei der Un-tersuchung war insbesondere auch die Frage nach den Motiven für die Beteiligung der Bevöl-kerung, d.h. ob die eigentliche Intention bei der Beeinflussung städtischer Verkehrspolitik durch die Bürger die bewusste Gestaltung von Verkehr und Mobilität in der Stadt war, oder ob andere Beweggründe im Vordergrund standen. Dabei galt es ebenso herauszuarbeiten, in-wiefern die Entwicklung der Mobilitätskultur einer Stadt auch mit einer bestimmten politi-schen Kultur der Beteiligung oder einem speziellen gesellschaftlichen Kontext verknüpft ist.
Für die Untersuchung wurde, aufbauend auf einer eingehenden Analyse des Begriffs „Mobilitätskultur“ selbst und möglicher Einflussfaktoren auf die urbane Mobilitätskultur, zunächst ein Vergleich der aktuellen Mobilitätskulturen in Zürich und Frankfurt vorgenom-men. Im Anschluss an eine Gegenüberstellung der jeweiligen Rahmenbedingungen der Ent-wicklung wurde dann abschließend eine vergleichende Analyse des Einflusses der Bevölke-rung auf zentrale Debatten und Ereignisse bei der Entwicklung der lokalen Mobilitätskultur durchgeführt. Bei der Analyse der Züricher Mobilitätskultur im Rahmen der Vergleiche wur-de lediglich auf die bereits vorhandene theoretische Literatur und statistische Erhebungen zurückgegriffen. Für die Untersuchung der Frankfurter Mobilitätskultur wurden zur Ergän-zung dieser Quellen zwei Experteninterviews und eine fallbezogene Analyse einschlägiger Artikel einer Frankfurter Tageszeitung durchgeführt.
Die Stellung der Grundrechte im europäischen Rechtsraum zeichnet eine tiefe Ambivalenz aus. Einerseits haben sie ihr Schattendasein im Unionsrecht hinter sich gelassen: Man denke an die Grundrechtecharta, den bevorstehenden Beitritt zur EMRK, das Bekenntnis zu einer grundrechtsorientierten Außenpolitik (Art. 21 Abs. 2 lit. b) EUV) und die strenge Überprüfung von Beitrittskandidaten. Andererseits gibt die Grundrechtslage in einigen Mitgliedstaaten Anlass zu erheblicher Sorge. Traurige Bekanntheit genießt die Situation von Minderheiten und Migranten. Maßgebliche Institutionen, wie der Europarat und die OSZE, sehen aber auch die Freiheit der Medien stark gefährdet. Ranglisten zur Pressefreiheit verzeichnen einen signifikanten Abstieg einiger EU-Mitgliedstaaten wegen Medienkonzentration, offener politischer Einflussnahme, unverhältnismäßiger Sanktionen, der Zweckentfremdung von Antiterrorgesetzgebung, unzureichenden Quellenschutzes und nicht aufgeklärter Gewaltakte gegen Journalisten. ...
Entwicklung und Untersuchung verschiedener Elektrodenkonfigurationen eines gepulsten Plasmajets
(2012)
Aus wertlosen Zetteln wird kaufkräftiges Geld, die öffentliche Finanzkrise scheint abgewendet, das Volk nimmt die Papierscheine mit Freude auf – nicht ohne Verluste! Die Papiergeldszene in Goethes »Faust« gehört zu den Schlüsselszenen jeder ökonomischen Deutung des Dramas, das an Aktualität bis heute nichts eingebüßt hat. Hellsichtig beschreibt Goethe die anbrechende Moderne, in der alle Lebensbereiche immer stärker von Abstraktion und Virtualisierung durchdrungen werden.
1993 stellte die Entdeckung winziger Stückchen von Ribonukleinsäuren, heute als microRNAs bekannt, die Wissenschaftler vor ein Rätsel. Erstmals beobachtet wurden sie in dem Fadenwurm C. elegans, einem einfachen, vergleichsweise leicht durchschaubaren Organismus. Was die Wissenschaftler verwirrte, war die Tatsache, dass diese microRNAs ganz offensichtlich nicht für Proteine kodierten. Welche Funktion haben sie dann? Inzwischen weiß man, dass sie eine wichtige Rolle bei der Genregulation spielen. Und das nicht nur im Fadenwurm: MicroRNAs sind evolutionär hoch konserviert, sie kommen auch in höheren Organismen vor. Im Menschen sind mehr als 1500 microRNAs beschrieben, und man geht davon aus, dass mindestens 30 Prozent der Gene direkt durch microRNAs reguliert werden. Das lässt sich auch für therapeutische Zwecke nutzen. In unserer Arbeitsgruppe erforschen wir insbesondere die Rolle der microRNAs bei Herz- und Gefäß-Erkrankungen.
An der Goethe-Universität Frankfurt/Main wurde ein Seminarkonzept zur Förderung von Kommunikations-, Arbeits- und Präsentationstechniken bei Studierenden entwickelt, dessen Einfluss auf die Präsentationsfertigkeit der Teilnehmenden im Vergleich zu einer Kontrollgruppe, die kein entsprechendes Treatment erhielt, untersucht wurde. Die Präsentationsfertigkeit wurde dabei multimethodal über Selbsteinschätzung sowie Fremdeinschätzung der jeweiligen Präsentation und über einen Wissensfragebogen erfasst. In einer multivariaten Varianzanalyse zeigte sich eine signifikante Überlegenheit der Experimentalgruppe über alle Aspekte der Präsentationsfertigkeit hinweg. Von einer höheren Präsentationsfertigkeit unter den Teilnehmenden des untersuchten Seminars kann dementsprechend ausgegangen werden, wobei eine weitere Untersuchung unter Berücksichtigung langfristiger Auswirkungen durchaus empfehlenswert erscheint.
Die Rolle von NO und cGMP in der Schmerzverarbeitung im Rückenmark ist in den letzten Jahren durch viele Berichte untermauert worden. Nicht vollständig bekannt sind hingegen die Mechanismen, derer sich cGMP bedient, um die Transmission von Schmerzen zu beeinflussen. In der vorliegenden Arbeit wurde deshalb untersucht, welche cGMPabhängigen Phosphodiesterasen (PDEs) hierbei eine Rolle spielen könnten und wie sich diese Beteiligung funktionell äußert. Dazu wurden immunhistochemische Färbungen von Rückenmarkschnitten angefertigt und Western-Blot-Analysen von Rückenmarkgewebe durchgeführt. Beide Methoden lieferten Hinweise dafür, dass die PDEs 1A, 1B, 3A,3B, 5A und 11A keine Rolle in der Verarbeitung von Schmerzen spielen. Demgegenüber scheinen die PDE1C, 2A und 10A in schmerzrelevanten Gebieten des Rückenmarks lokalisiert zu sein. Die funktionelle Relevanz der PDE2A und PDE10A im Rahmen der Schmerzverarbeitung wurde mit Hilfe des PDE2A-Inhibitors BAY 60-7550 und des PDE-10A-Inhibitors Papaverin in nozizeptiven Tiermodellen untersucht. Dabei bewirkte, im Modell der Complete Freund’s Adjuvant (CFA)-induzierten mechanischen Hyperalgesie, die i.p. Applikation von BAY 60-7550 oder Papaverin eine Verstärkung der Hyperalgesie. Weiterhin war die Leckzeit in der 2. Phase des Formalin-Modells bei einer Inhibition von PDE10A signifikant verlängert. Insgesamt bestätigen die Ergebnisse der vorliegenden Arbeit frühere Berichte, dass cGMP an der Schmerzsensibilisierung im Hinterhorn des Rückenmarks beteiligt ist und deuten auf eine Rolle insbesondere von PDE2A und 10A im Rahmen der Schmerzsensibilisierung hin.
Schutz oder Schaden für die Gefäße? : Bei Sauerstoffradikalen kommt es auf das Gleichgewicht an
(2012)
Sauerstoffradikale werden für Alterung, Krebs und Herz-Kreislauf-Erkrankungen verantwortlich gemacht. Von diesem schlechten Image profitiert der große Markt der Nahrungszusatzstoffe wie Vitamine, die Radikale im Körper einfangen. Doch in klinischen Studien können keine positiven Effekte durch die Einnahme von Vitaminpräparaten nachgewiesen werden. Warum? Weil Sauerstoffradikale nicht nur schädliche Nebenprodukte des Stoffwechsels sind, sondern auch lebensnotwendige Funktionen wie die Abwehr von Krankheitserregern übernehmen. Sie werden daher im Körper in einem eng regulierten Bereich aktiv produziert. Unsere Arbeitsgruppe am Institut für Kardiovaskuläre Physiologie untersucht Mechanismen der Radikalproduktion durch Nox-Enzyme und erforscht ihre physiologische Bedeutung im Herz-Kreislauf-System.
Wikis in der Hochschullehre
(2012)
Dieser Beitrag gibt einen Überblick über Einsatzszenarien von Wikis in Lern- und Lehrprozessen und deren Eignung für die kollaborative Wissensproduktion, während zugleich Einschränkungen, Bedingungen und Gestaltungsempfehlungen thematisiert werden. Zudem werden Erfahrungen mit verschiedenen Wiki-Anwendungen an der Universität Frankfurt dokumentiert, die vom begleitenden Einsatz im Seminar bis hin zur studentisch initiierten Bereitstellung studienbegleitender Materialien reichen. Die vorher ausgearbeiteten Aspekte werden nochmals anhand der Beispiele aufgegriffen und ihrer Praxisrelevanz verdeutlicht.
Open Online Courses als Kursformat? Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
2011 starteten studiumdigitale, die zentrale eLearning-Einrichtung der Universität Frankfurt/M, und der Weiterbildungsblogger Jochen Robes den ersten deutschsprachigen Open Online Course unter dem Titel „Die Zukunft des Lernens“1. In 14 Wochen wurden in wöchentlichem Rhythmus 14 Themen behandelt, die sich rund um den Einsatz verschiedener Technologien in Bildungsprozessen und auch das Kursformat selbst drehten. Dieser Beitrag stellt die Bezüge des Open Online Courses zu seiner Herkunft und den ersten Kursen dieser Art in Kanada und USA her, bezieht sich auf die theoretischen und konzeptionellen Fundierungen dieses Ansatzes und stellt die Ergebnisse aus dem Kursverlauf und der abschließenden Befragung der Teilnehmenden vor.
Open Online Course als Kursformat? : Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
Basierend auf dem Konzept des Connectivismus entwickelte sich in den letzten fünf bis sechs Jahren ein neues offenes Kursformat: die Open Online Courses, die als so genannte MOOCs (Massive Open Online Courses) teilweise bis über 100.000 Teilnehmende anzogen. In dem Beitrag wird mit Bezug auf die konzeptionellen Ursprünge im Connectivismus das Format der Open Online Courses erläutert und Erfahrungen aus dem ersten deutschsprachigen Kurs dieser Art beschrieben, dem Kurs „Zukunft des Lernens“, den im Sommer 2011 studiumdigitale, die zentrale E-Learning-Einrichtung der Universität Frankfurt, der Weiterbildungsblogger Jochen Robes in Kooperation mit der GMW und dem Zentrum für Lehrerbildung der Universität durchführten. Der Kurs zog ca. 900 Interessierte an, die sich in verschiedenen online Medien beteiligten. Der Beitrag beschreibt den Kursverlauf, gibt einen Überblick über technische Umsetzung und Betreuungsformen und stellt neben Betrachtungen zum Transfer die Ergebnisse aus der Teilnehmerbefragung vor.
A. Einleitung
B. Die Rechtsgrundlagen der Compliance in Aktiengesellschaft und Aktienkonzern
I. Normierung der Compliance im Bank- und Versicherungsaufsichtsrecht
II. Deutscher Corporate Governance Kodex
III. Bestandteil des aktienrechtlichen Früherkennungssystems
IV. Organisationspflichten des Vorstands im Innenverhältnis
1. Legalitätspflicht
2. Legalitätskontrollpflicht
a. Residualpflichten bei vertikaler Delegation
b. Schadenabwendungspflicht
3. Zwischenergebnis
V. Organisationspflichten der Gesellschaft im Außenverhältnis
1. Aufsichtsmaßnahmen nach § 130 OWiG
a. Aufsichtsmaßnahmen
b. Begrenzte Reichweite
c. Geltung im Konzern
2. Haftung für Verrichtungsgehilfen nach § 831 BGB
a. Pflichtenumfang
aa. Eignungsaufsicht
bb. Einweisung und Anleitung
b. Begrenzte Reichweite
aa. Dezentralisierter Entlastungsbeweis
bb. Pointilistisches Konzept
c. Geltung im Konzern
3. Betriebliche Organisationspflichten gemäß § 823 BGB
a. Inhalt
b. Entstehung durch Delegation von Verkehrspflichten
c. Entstehung durch Arbeitsteilung d. Geltung im Konzern
aa. Delegation von Verkehrspflichten
bb. Ausgliederung einer gefährlichen Tätigkeit
cc. Verkehrspflicht aus Arbeitsteilung
C. Schluss
Der Deutsche Coprporate Governance Kodex soll das deutsche Corporate Governance System transparent und nachvollziehbar machen. Der Kodex stellt gesetzliche Vorschriften zur Leitung und Überwachung deutscher börsennotierter Gesellschaften dar und enthält international anerkannte Standards guter und verantwortungsvoller Unternehmensführung. Die Stellungnahme befasst sich mit von der Regierungskommission Deutscher Corporate Governance Kodex vorgebrachten Änderungsvorschlägen.
In seiner Entscheidung in Sachen Fresenius - Der Konzern 2012, 420 - hat der Bundesgerichtshof entschieden, der Vorstand einer Aktiengesellschaft handele pflichtwidrig, wenn er einem Aufsichtsratsmitglied die vereinbarte Vergütung für Beratungsleistungen zahle, noch bevor der Aufsichtsrat dem Vertrag zugestimmt habe. In diesem Zusammenhang hat er die bereits zuvor herrschende Lehre bestätigt, der zufolge § 114 AktG auch Beratungsverträge zwischen einem Aufsichtsratsmitglied und einem von der Aktiengesellschaft abhängigen Unternehmen erfasst. Schließlich hat der Bundesgerichtshof seine Rechtsprechung konkretisiert, nach der § 114 AktG auch dann Anwendung findet, wenn die Beratungsleistung nicht von einem Aufsichtsratsmitglied, sondern von einer Gesellschaft erbracht wird, an der das Aufsichtsratsmitglied beteiligt ist, sofern es nur in nicht unerheblichem Umfang an der Vergütung partizipiert. Der vorliegende Beitrag nimmt kritisch zu allen vorgenannten Aspekten des Fresenius-Urteils Stellung.
Fazit
1. Aufgrund der Regelungen über Produktinterventionen nach Artt. 31, 32 MiFIR-E könnte den mitgliedstaatlichen Behörden und – subsidiär – ESMA künftig ein scharfes Schwert zur Abwehr von Gefahren für den Anlegerschutz, die Finanzmärkte und die Finanzstabilität im Rahmen der Wertpapieraufsicht zur Verfügung stehen. Da die Eingriffsvoraussetzungen vage formuliert und noch durch delegierte Rechtsakte der Kommission zu konkretisieren sind, lässt sich die künftige Bedeutung dieser Aufsichtsbefugnisse zum jetzigen Zeitpunkt noch nicht abschließend einschätzen. Insbesondere ist unklar, welche Anforderungen an eine zu Eingriffen berechtigende Gefahr für den Anlegerschutz zu stellen sind.
2. Der Vorstand eines als Aktiengesellschaft verfassten Wertpapierdienstleistungsunternehmens muss seine Entscheidungen künftig auch daran ausrichten, dass weder die von der Gesellschaft entwickelten und vertriebenen Finanzinstrumente noch ihre Finanztätigkeiten oder Finanzpraktiken eine Gefahr für den Anlegerschutz, die Integrität und das Funktionieren der Finanzmärkte oder die Stabilität des Finanzsystems darstellen, die Anlass für eine Intervention sein könnte.
3. Ist die Gesellschaft Adressat eines auf der Grundlage von Artt. 31, 32 MiFIR-E erlassenen Verbots oder einer Beschränkung, muss der Vorstand die Entscheidung über das Einlegen von Rechtsmitteln nach den allgemeinen aktienrechtlichen Grundsätzen an der Förderlichkeit für das Unternehmensinteresse ausrichten.
4. Schließlich wird sich künftig die Frage nach der Haftung der Gesellschaft gegenüber den Anlegern stellen, wenn Finanzinstrumente entgegen einem im Interesse des Anlegerschutzes ergangenen Verbot vertrieben werden. Sofern der Gesetzgeber keine abweichende Entscheidung trifft, ist anzunehmen, dass die abgeschlossenen Verträge nicht nach § 134 BGB nichtig, sondern allenfalls anfechtbar sind. Darüber hinaus können vertragliche oder deliktische Schadensersatzansprüche der Anleger bestehen.
Evaluation der SSRI-Medikation bei Kindern und Jugendlichen bezüglich ansteigender Suizidalität
(2012)
Zielsetzung dieser Arbeit war die Klärung der Frage, inwieweit eine SSRI-Medikation
bei Kindern und Jugendlichen mit dem Ansteigen der Suizidalität in Zusammenhang
steht. Es sollte untersucht werden, ob Suizidgedanken und Suizidverhalten im
Verlauf eines stationären Aufenthaltes allgemein ansteigen, diese nur bei
vorliegender Medikation mit SSRI ansteigen, etwa nur bei bereits vorliegender
Suizidalität ansteigen, oder ob suizidales Gedankengut allein unter einer
Wechselwirkung der Faktoren „SSRI-Medikation“ und „vorliegende Suizidalität“
entsteht.
Zur Klärung der Fragen wurden im Rahmen einer klinischen Studie Patienten
zwischen 12 und 19 Jahren über ein Fragebogeninventar befragt. Die Stichprobe
wurde konsekutiv im Zeitraum von Juni 2004 bis Dezember 2006 aus den
aufgenommen Patienten im Zentrum der Kinder- und Jugendpsychiatrie des
Klinikums der Johann Wolfgang Goethe-Universität in Frankfurt am Main rekrutiert.
Sie umfasste 44 Patienten. Ausgeschlossen wurden hierbei hochgradig geistig
retardierte Patienten, Patienten mit ausgeprägter Lese- und Rechtschreibschwäche,
sowie psychotisch erkrankte Patienten. Zur Teilnahme an der Studie war eine
Einverständniserklärung von Seiten der Eltern nötig. Zur Untersuchung der
Fragestellung wurde ein spezielles Fragebogeninventar erstellt zu dem der SBQ,
BSI, JTCI 12-18, YSR, EWL, die Achse V und die wöchentliche Erhebung externaler
Stressoren gehört. Die Suizidalität wurde so hinsichtlich eines Zusammenhangs mit
Depressivität, Impulsivität, Ängstlichkeit, Aggressivität, externalen sozialen Faktoren
und einer SSRI-Medikation in einem Gesamtzeitraum von fünf Wochen untersucht.
Das Gesamtkollektiv teilte sich in 14 männliche und 30 weibliche Patienten. Der
jüngste Patient war 12 Jahre, der älteste 19 Jahre (mittleres Alter 15,68).
Anhand des SBQ (d = 1,83) und des BSI (d = 2,09) Fragebogeninventars konnten
Suizidgedanken und -verhaltensweisen (Erhängen, Vergiften, etc.) sehr gut zwischen
„Suizidalen“ und „Nicht-Suizidalen“ trennen.
Die SSRI haben keinen signifikanten Effekt auf die Befindlichkeit (EWL), auf die
pathologiebezogene Aggressivität und Ängstlichkeit (YSR) und die
persönlichkeitsbezogene „Impulsivität“ und „Ängstlichkeit“ (unter 1%- Niveau).
Abschließend kann somit geschlossen werden, dass kein signifikanter
Zusammenhang zwischen der Gabe von SSRI und Suizidalität besteht.
Nach muslimischer Auffassung kommt der Mensch mit bestimmten gottgegebenen Anlagen ausgestattet auf die Welt. Diese Anlagen entwickeln sich unter vielfältigen Umwelteinflüssen fort. Diese Weiterentwicklung sollte adäquat zur natürlichen Veranlagung geschehen, um eine gesunde Entwicklung zu sichern (positive Erziehung) und eine Fehlentwicklung zu unterbinden (negative Erziehung). Um eine gute und gesunde Entwicklung zu gewährleisten, sollte dem Individuum natürliche positive Bildung und Erziehung zugänglich sein. Dies geschieht meist in der Kindheit und Jugend und ist Aufgabe der Erwachsenen. Die wichtigsten Erwachsenen für ein/en Kind/Jugendlichen sind die Erwachsenen der Familie und der Lehrer. Gemeinsam mit der Familie ist der Lehrer verantwortlich für die Fortentwicklung der natürlichen Anlagen des Zöglings. Im Gegensatz zur Familie ist die Verantwortung des Lehrers professioneller Art. Er wirkt ab dem ersten Kontakt des Schülers mit der Schule sichtbar auf ihn ein. Um am Ende dieser Einwirkung ein positives Ergebnis zu erzielen, ist der Lehrer angehalten die Problemstellungen seiner Aufgabe und ihre Lösungen zu kennen. Denn sowohl die Bildung als auch die Erziehung sind dynamischveränderlich und wie alles auf dieser Welt ständig in Veränderung. Der Lehrer spielt in der islamischen Bildungs- und Erziehungstradition eine große Rolle, weil der Prophet Muhammad als solcher gilt. Demgemäß genießt der Lehrerberuf als der „Beruf des Propheten“ ein hohes Ansehen. Die folgenden Kapitel eruieren die Rolle des Lehrers aus dieser Ausgangslage heraus.
Innerhalb der vorliegenden Arbeit wurden verschiedene Teilaspekte des S1P-Signalsystems näher untersucht. Der erste Teil der Arbeit geht der Frage nach, welche Störungen das Ausschalten der S1P-Lyase in der Ca2+-Homöostase verursacht. Die Messung der zellulären Lipidkonzentrationen ergab in Sgpl1-/--MEFs einen sechsfach höherer Wert für S1P und einen doppelt so hohen Wert für Sphingosin als in den Sgpl1+/+-MEFs. [Ca2+]i wurde an Einzelzellen mit Hilfe des Proteinfarbstoffs Cameleon untersucht, wobei [Ca2+]i-Anstiege durch den SERCA-Inhibitor Thapsigargin induziert wurden. So konnte gezeigt werden, dass sowohl in Sgpl1+/+-MEFs als auch in Sgpl1-/--MEFs zwei verschiedene Subtypen existieren, die sich hinsichtlich Geschwindigkeit und Ausmaß des [Ca2+]i-Anstiegs unterscheiden. Die basale [Ca2+]i war im Subtyp der Sgpl1-/--MEFs mit einem schnellen und kurzen [Ca2+]i-Anstieg signifikant erhöht, während das Maximum des Thapsigargin-induzierten [Ca2+]i-Anstiegs im Subtyp der Sgpl1-/--MEFs mit einem langsamen und langen [Ca2+]i-Anstieg signifikant erhöht war. Die AUC des Zeitverlaufs nach der Stimulation mit Thapsigargin war in beiden Subtypen der Sgpl1-/--MEFs signifikant erhöht, was bedeutet, dass der Ca2+-Gehalt der Thapsigargin-sensitiven Speicher in Sgpl1-/--MEFs höher als in Wildtyp-MEFs war.
Im zweiten Teil der Arbeit wurden Aspekte der Modulation des S1P-Signalsystems durch das Sphingosin-Analogon cis-4-Methylsphingosin näher untersucht. Die Messung der Lipidkonzentrationen von cis-4-Methylsphingosin und dem Phosphorylierungsprodukt cis-4-Methyl-S1P erfolgte dabei in HEK-293-Zellen und deren Überständen mittels LC-MS/MS. Hierbei wurde erstmals cis-4-Methyl-S1P im Zellkulturüberstand nachgewiesen, was bedeutet, dass cis-4-Methylsphingosin nach der intrazellulären Phosphorylierung sezerniert werden kann. Dieser Mechanismus bildet die Grundlage dafür, dass cis-4-Methylsphingosin nicht nur intrazellulär wirken, sondern ebenso wie FTY720 als S1P-Rezeptor-Modulator fungieren kann. Der dritte und umfangreichste Teil der Arbeit befasst sich mit der Regulation der SK1 durch G-Protein-gekoppelte Rezeptoren. Um die Rolle von Gαq/11-Proteinen bei der Ansteuerung der SK1 durch G-Protein-gekoppelte Rezeptoren weiter zu analysieren, wurde zunächst die Rezeptor-induzierte Translokation der SK1 in MEFs untersucht, die sowohl in Gαq als auch in seinem Homolog Gα11 doppelt defizient waren (Gαq/11 -/--MEFs). Die SK1-Translokation war nur nach Transfektion mit Gαq möglich. Um Hinweise auf die strukturellen Erfordernisse für die SK1-Ansteuerung durch Gαq zu erhalten, wurde der Einfluss verschiedener Gαq-Mutanten auf die Translokationshalbwertszeit der SK1 untersucht. So waren alle untersuchten Mutanten in der Lage, die SK1-Translokation in Gαq/11-/--MEFs zu vermitteln. Die Expression der Gαq-W263D-Mutante führte dabei zu einer signifikant verlangsamten SK1-Translokation. Die durch Gαq-T257E-vermittelte Translokation war erst nach mehreren Minuten feststellbar. Die Abhängigkeit der SK1-Translokation von Gαq wurde auf zellulärer Ebene durch Coexpression einer katalytisch inaktiven Mutante der G-Protein gekoppelter Rezeptorkinase 2 (GRK2) als Gαq-scavenger in HEK3-Zellen nachgewiesen. Dies führte zu einer vollständigen Inhibierung der Carbachol-induzierten SK1-Translokation. Hingegen führte die Überexpression der SK1 in den M3-Rezeptor exprimierenden HEK-293-Zellen zu einer reduzierten Carbachol-induzierten Aktivierung der PLCβ. Dieser Effekt war unabhängig von der katalytischen Aktivität der SK1. Daraus lässt sich schlussfolgern, dass die SK1 mit den Effektoren GRK2 und PLCβ um gemeinsame Bindungsstellen der aktivierten G-Protein Untereinheit Gαq konkurriert. Zusätzlich wurde die direkte Interaktion zwischen Gαq und SK1 auf Proteinebene mittels optischer Thermophorese nachgewiesen. Dazu wurde die humane SK1 als N-terminal getaggtes His6-MBP-Fusionsprotein exprimiert, aufgereinigt und charakterisiert. So konnte gezeigt werden, dass die mit dem Fluoreszenzfarbstoff NT647-markierte hSK1 (hSK1*) mit dem TNF Rezeptor-assoziiertem Faktor 2 (TRAF2), nicht jedoch mit dem N-terminalen Fragment des TRAF family member-associated NF-kappa-B activator (TANK) interagierte. Sowohl inaktives Gαq als auch [AlF4]--aktiviertes Gαq interagierten mit der hSK1* mit einem vergleichbaren kD-Wert. Auch mit NT-647-markiertes Gαq interagierte mit der hSK1 sowohl in der inaktiven als auch in der [AlF4]--aktivierten Form, wohingegen es nicht mit TANK oder TRAF2 interagierte.
Insgesamt zeigen die erhaltenen Daten, dass die SK1 ein direktes Target von Gαq ist und sie an genau dieselben Gαq-Reste bindet, an die auch die klassischen Effektoren PLCβ, p63RhoGEF und GRK2 binden.
In dieser Arbeit wurde der Entwurf eines Rebunchers für die Ionenstrahltherapieanlage MedAustron mit Hilfe des Simulationsprogramms Microwave Studio entwickelt. Es wurde ein neues Design in Anlehnung an einen Spiralresonator gewählt, wobei der Spiralarm aus einem wassergekühlten induktiven Teil und einem aus massivem Kupfer gefertigten kapazitiven Teil besteht.
Die Frequenz der ersten Eigenmode liegt zwischen 217,8 MHz (ohne Keramik) und 217,3 MHz (mit Keramik). In der Realität könnte die Frequenz von diesem Wert etwas abweichen (bis zu 0,5 MHz), da einerseits Details wie Ein- und Auskopplung und andererseits reale Effekte wie Oberflächenverunreinigung oder kleinste Abweichungen in der Geometrie in Microwave Studio nicht berücksichtigt werden können. Außerdem wird die Genauigkeit der Simulationen durch die Anzahl Gitterpunkte limitiert. Um diese Eekte kompensieren zu können, wurden die Auswirkungen eines Tuners auf die Frequenz untersucht. Hierbei ergab sich für eine Tunerhöhe von 40 mm eine Frequenzveränderung von 220 kHz, bei 70 mm sind es schon 1,224 MHz.
Da sich bei dieser Frequenz und Geometrie ein Laufzeitfaktor von nur 0,66 auf der Strahlachse ergibt und die Spannung dort zusätzlich um den Faktor 0,983 niedriger ist als am Spaltrand, muss bei einer effektiven Shuntimpedanz von 13,4 M Ω/m eine Leistung von 2,46 kW aufgebracht werden. Nähere Untersuchungen der elektrischen Felder fürten zu dem Ergebnis, dass der Grund für den niedrigen Laufzeitfaktor dynamische Eekte sein müssen. Die "statischen Felder" verhalten sich wie erwartet.
Aber auch die reale Shuntimpedanz und somit auch die reale Verlustleistung können beträchtlich von den berechneten Werten abweichen. Es wird erwartet, dass die Shuntimpedanz im ungünstigsten Fall nur 60% der simulierten Impedanz beträgt, weswegen man mit einer Verlustleistung von 4,09 KW rechnen muss.
Der Rebuncher soll zusammen mit der Beschleunigeranlage in Österreich im Jahr 2013 in Betrieb gehen, aber bereits in 2012 zu Strahlexperimenten am CERN zur Verfügung stehen.
"Selbstverwaltung" war das Thema der Hofgeismarer Tagung der Vereinigung für Verfassungsgeschichte 2008. So interessant die einzelnen Referate auch waren, ihre unterschiedlichen Zugriffe und inhaltlichen Ausrichtungen gebieten es doch, nicht die einzelnen Aufsätze des Tagungsbandes zu referieren, sondern den Versuch zu unternehmen, aus der Vielfalt der Beiträge strukturierende Überlegungen herauszuarbeiten. Daher sei nur kurz auf die Themen der einzelnen Referate verwiesen. Gerhard Dilcher sprach über die mittelalterliche Stadt, Ludwig Elle über die Selbstverwaltung(sbestrebungen) der Sorben; Matthias Asche trug zur Autonomie der Hugenotten und Waldenser vor und J. Friedrich Battenberg zu der der jüdischen Gemeinden und Landjudenschaften im Heiligen Römischen Reich. Christoph Schönberger befasste sich mit französischen Parlamenten (vor der Revolution), Jörg-Detlef Kühne mit den Selbstverwaltungsvorstellung von Steins. Hans-Christof Kraus referierte zur englischen Selbstverwaltung und deren deutscher Rezeption, Thomas Simon behandelte die Föderalisierung Österreichs. Und schließlich trug Dieter Kugelmann zum Stellenwert des Selbstverwaltungsgedankens in der europäischen Kooperation und Integration vor. – Die folgenden Ausführungen beschränken sich darauf, diejenigen Aussagen herauszustellen, die sich in grundsätzlicher Weise zu Selbstverwaltungsverständnissen (1), zu den Realisierungsformen von Selbstverwaltung (2), zu den Ursachen von Selbstverwaltung (3) und zu Konzeptualisierungen von Selbstverwaltung (4) äußern. ...
Spätestens seit den 1980er Jahren ist Partizipation ein mächtiges Schlagwort. In neuerer Zeit kann man damit sogar Wahlen gewinnen. Wo herkömmliche Legitimationsmodi der repräsentativen Demokratie an Kraft verlieren oder zu verlieren scheinen, sucht man nach Ersatz. Das Prinzip der Legitimation durch allgemeine Wahl der Vertretungskörperschaften funktioniert da nicht, wo es solche Vertretungskörperschaften nicht gibt – bzw. diese, wie in der EU, auf weiten Gebieten nicht über die Entscheidungsprärogative verfügen – oder sie als verkrustet angesehen werden und/oder dort, wo die Mobilisierung des Bürgers zwischen den Wahlterminen nötig erscheint. Bürgerschaftliche Partizipation hat einen ambivalenten Charakter. Sie kann Belebung oder Gefährdung von Demokratie sein, wobei dies auch vom jeweils zugrundegelegten Demokratieverständnis abhängt. ...
Der vorliegende Beitrag leitete das Programm des Workshops „Schlichten und Richten – Differenzierung und Hybridisierung” (Frankfurt/Main, 9./10. Februar 2012) ein. Mit diesem Workshop begann das Arbeitsprogramm des LOEWE–Schwerpunkts „Außergerichtliche und gerichtliche Konfliktlösung“, der am 1. Januar 2012 seine Tätigkeit aufgenommen hatte (siehe hierzu www.konfliktloesung.eu; eine leicht veränderte Fassung des Beitrags in englischer Sprache wird in Kürze abrufbar sein unter: http://www.ssrn.com/link/Max-Planck-Legal-History-RES.html ). Der Ausgangspunkt des Workshops ist eine deutsche Debattentradition, die die Alternativität von gerichtlichen und nichtgerichtlichen, kontradiktorischen oder konsensualen sowie mehr formalisierten und mehr informalisierten Konfliktlösungsformen unter dem Schlagwort „Schlichten oder Richten“ (auch „Schlichten statt Richten“ oder „Schlichten oder Richten“) thematisierte.
Der Beitrag problematisiert zunächst die bisherige mangelnde rechtshistorische Aufmerksamkeit, die Alternativen zur gerichtlichen Konfliktlösung zugewandt wurde. Er weist daraufhin, dass auch die heutige Diskussion über gelungenes Konfliktlösungsmanagement oft explizit oder implizit von – zuweilen nicht ausreichend reflektierten – historischen Vorannahmen geprägt ist und – damit verbunden – von Vorstellungen über rechtskulturelle Fremdheit und Nähe.
Im zweiten und dritten Abschnitt skizziert der Beitrag kurz den historischen Gang der deutschen Diskussion über „Schlichten und Richten“ seit dem Aufkommen auch rechtswissenschaftlich anerkannter Schlichtungsinstitutionen zu Beginn des 20. Jahrhunderts. Er versucht, deren wechselnde zeitgenössische Kontexte sichtbar zu machen und zeigt, wie sich in diesen Diskussionen (zuweilen utopisch scheinende) rechtspolitische Verheißungen ansiedeln konnten, welch fruchtbaren Boden diese Diskussionen aber auch für neue Kategorienbildungen und multidisziplinäre Zugänge bot.
Im vierten Abschnitt wird versucht, Verknüpfungen mit der gegenwärtigen ADR-Diskussionen herzustellen, während im fünften Abschnitt in analytischer Absicht Konfigurationen des Wortpaars „Schlichten“ und „Richten“ vorgestellt werden: „Schlichten“ und „Richten“ als Alternative, als Abhängigkeitsverhältnis und als Abfolge. Der fünfte Abschnitt schließlich fragt nach Funktionselementen und den Funktionsbedingungen von Schlichten und Richten, d.h.: Welche Leitrationalitäten, Partizipationsmechanismen, Legitimationsnarrative und Reflexionsformen lassen sich jeweils der einen oder anderen Form der Konfliktlösung zuordnen.
All diese Überlegungen sind eher tentativer Art und vermitteln nur erste umrisshafte Vorstellungen. Sie dienen in erster Linie dem Diskussionsanstoß und sollen erste Schneisen in dieses komplexe Forschungsfeld schlagen. Die Vortragsform ist beibehalten und der Fußnotenapparat ist auf das nötige Minimum reduziert.
Der Beitrag arbeitet d’Alemberts Absicht heraus, durch eine mathematisch begründete Wissensordnung, die einen universellen Geltungsanspruch erhebt, die Dogmatik des religiösen Glaubens genauso wie die Autoritätshörigkeit der ständischen Gesellschaft zu diskreditieren und somit die bestehenden Machtverhältnisse zu destabilisieren. Mit der universalistischen Wissensordnung der Enzyklopädie soll schließlich auch eine neue normative Ordnung etabliert werden. Dabei ist die Rolle der Enzyklopädisten als Aufklärer der unaufgeklärten Gesellschaft Teil der universalistischen Wissensordnung. Obwohl sich die beanspruchte emanzipative Wirkung des enzyklopädischen Universalismus im historischen Kontext von Dogmatismus und Despotismus nachvollziehen lässt, stellt sich die Frage, inwieweit dieser universalistische Anspruch tatsächlich eine ‚kritischen Haltung’, wie sie von Foucault anhand Kants Schrift „Was ist Aufklärung?“ definiert wird, genügt oder doch nur eine ‚Wissenskritik’ bleibt. Die Haltungsfrage verweist auf d’Alemberts ambivalentes Verhältnis zu den politischen Autoritäten seiner Zeit.
Typ I Interferone sind bekannt für die durch sie vermittelten immunaktivierenden bzw. antiviralen Effekte. Nach ihrer Induktion, im Rahmen der angeborenen Immunantwort, vermitteln Interferone nicht nur einen systemischen anti-viralen Status, sondern können auch wichtige Effektormechanismen der adaptiven Immunität dahingehend beeinflussen, dass sie diese verstärken bzw. ermöglichen. Im Allgemeinen kann diese Eigenschaft als pro-inflammatorische Aktivität der Interferone bezeichnet werden. Allerdings gehört es ebenfalls zu den Eigenschaften der Interferone eine Verminderung der adaptiven Immunität bewirken zu können, was als anti-inflammatorische Aktivität verstanden werden kann. Insgesamt kann man die durch Interferone induzierten Effekte also als ambivalent bezeichnen.
Die Leber als Immunorgan besitzt, ähnlich wie die Interferone, eine zentrale Rolle in der Immunität und sollte in ihrer Funktion als Vermittler zwischen Immunaktivierung und Immuntoleranz nicht unterschätzt werden. Die Aufgaben der Leber können ebenfalls als ambivalent bezeichnet werden, da sie zum einen eine unnötige Aktivierung des Immunsystems verhindern muss um eine Schädigung der Leberzellen zu vermeiden (Immuntoleranz). Zum anderen muss auch in der Leber eine Immunaktivierung stattfinden können, um den Schutz vor Pathogenen zu gewährleisten.
In einem Leberschadenmodell, das künstliche Doppelstrang-RNA (poly(I:C)) zur Induktion von Typ I Interferonen verwendet, sollen im Rahmen der vorliegenden Arbeit Immunmodulationen, insbesondere in der Leber, untersucht werden. Hierbei liegt das Hauptaugenmerk auf den Interferon-vermittelten Effekten, die eine Schädigung der Leber verhindern.
Werden Interferonrezeptor-defiziente Tiere (IFNAR-/-) intraperitoneal mit poly(I:C) behandelt kann eine ausgeprägte Schädigung der Leber sowie Hepatitis in diesen Tieren beobachtet werden. Wildtyp (WT) Mäuse zeigen hingegen keinerlei Schädigungen der Leber, was für einen protektiven bzw. anti-inflammatorischen Effekt spricht, der über den IFNAR und damit über Typ I Interferone vermittelt wird. Unter Verwendung von Mäusen, die eine selektive Deletion des IFNAR auf bestimmten Immunzellen tragen (alle anderen Zellen der Maus exprimieren jedoch weiterhin den IFNAR), konnte der Immunzelltyp ermittelt werden, der beim IFNAR-vermittelten Schutz der Leber eine Schlüsselrolle übernimmt. Aus diesen Experimenten wird deutlich, dass es myeloide Zellen sind, die über den IFNAR durch Typ I Interferone stimuliert werden müssen, um im poly(I:C)-induzierten Leberschadenmodell einen Schutz der Leber zu bewirken. Ergänzend dazu konnte gezeigt werden, dass CD11b- und F4/80-doppelt positive Makrophagen nach poly(I:C)-Behandlung in die Leber von WT Mäusen infiltrieren. Zudem wurde in Experimenten mit Interferon-Reporter Mäusen deutlich, dass diese infiltrierenden Makrophagen über den IFNAR durch Typ I Interferone stimuliert sind. Nach poly(I:C)-Behandlung konnte gezeigt werden, dass Leber-infiltrierende Zellen in WT Mäusen anti-inflammatorischen Interleukin-1 Rezeptor Antagonisten (IL-1RA) sekretieren. In Abwesenheit eines funktionalen Interferonsystems hingegen (in IFNAR-/- Mäusen) konnte eine gestörte IL-1beta- und IL-1RA-Balance festgestellt werden. Für diese Zytokine, die sich gegenseitig regulieren, indem der anti-inflammatorische IL-1RA mit dem pro-inflammatorischen IL-1beta um die Bindung an den IL-1 Rezeptor konkurriert, konnte gezeigt werden, dass ihre Expression in der Leber Interferon-abhängig reguliert wird. In IFNAR-/- Mäusen und in Mäusen, deren IFNAR selektiv auf myeloiden Zellen deletiert war, konnte keine IL-1RA-Expression durch infiltrierende Zellen detektiert werden. Da in diesen Tieren nach poly(I:C)-Behandlung massive Leberschäden beobachtet wurden, kann vermutet werden, dass das Vorhandensein des anti-inflammatorischen IL-1RA unerlässlich für den Schutz der Leber ist.
Abschließend kann zusammengefasst werden, dass die Interferon-vermittelten Effekte, die eine Schädigung der Leber verhindern, zum einen auf der Stimulation und Rekrutierung von Makrophagen beruhen. Zum anderen beruhen diese Effekte auf der Induktion des anti-inflammatorischen Zytokins IL-1RA, und der dadurch blockierten Wirkung des pro-inflammatorischen IL-1beta.
Durch diese Ergebnisse werden neue Einblicke in die Interferon-vermittelte Hemmung von Virus- und Autoimmun-induzierten Erkrankungen der Leber ermöglicht. Genutzt werden könnten diese für die Optimierung IFN-basierter Therapien. Beispielsweise kann durch die gezielte Induktion anti-inflammatorischer Zytokine über IFNAR-induzierte Signalwege oder die direkte Gabe anti-inflammatorischer Zytokine (z.B. IL-1RA) eine Therapie entwickelt werden, die neben den vorteilhaften Eigenschaften der Zytokine eine verbesserte Aktivierung von Immunzellen ermöglicht.
Einfluss des Transkriptionsfaktors Tal1 auf die Osteoklastogenese durch Regulation von DC-STAMP
(2012)
Das menschliche Knochengewebe unterliegt einem ständigen Auf- und Abbau. Der Knochenumbau, die so genannte Knochenremodellierung, findet stetig statt und etwa 10 % des gesamten Knochengewebes werden innerhalb eines Jahres erneuert (Lerner UH, 2006). Während der Knochenremodellierung befindet sich die Zellaktivität der Knochenaufbauenden Osteoblasten und der Knochen-abbauenden Osteoklasten in einem empfindlichen Gleichgewicht (Karsenty G und Wagner EF, 2002; Teitelbaum SL, 2000).
Durch Störung des Gleichgewichts zwischen Osteoblasten und Osteoklasten kann es zu Knochen-assoziierten Krankheiten wie Osteoporose oder Osteopetrose kommen (Helfrich MH, 2003; Sambrook P und Cooper C, 2006). Osteoklasten sind multinukleäre Zellen, die in der Lage sind die Knochenmatrix zu resorbieren (Teitelbaum SL, 2000). Sie entstehen aus pluripotenten, hämatopoetischen Stammzellen durch Differenzierung und Zellfusion von Monozyten/Makrophagen-Vorläuferzellen (Menaa C et al., 2000, Yavropoulou MP und Yovos JG, 2008). Die Osteoklasten-Differenzierung wird hauptsächlich durch die Zytokine M-CSF (macrophage colony stimulating factor) und RANKL (receptor activator of nuclear factor k b ligand) induziert. Sie initiieren ein spezifisches Expressionsmuster Osteoklasten-spezifischer Gene und aktivieren die Zellfusion in Osteoklasten-Vorläuferzellen zur Bildung reifer Osteoklasten (Boyle WJ et al., 2003; Asagiri M und Takayanagi H, 2007). Die RANKL-vermittelte Induktion der Osteoklastogenese beruht auf der Initiierung eines streng regulierten Netzwerks aus Transkriptionsfaktoren (Yang X und Karsenty G, 2002). Einige Transkriptionsfaktoren, die während der Osteoklasten-Differenzierung induziert und exprimiert werden, sind nicht auf Osteoklasten beschränkt. Sie erfüllen auch Aufgaben in anderen hämatopoetischen Differenzierungsprozessen (Engel I und Murre C et al., 1999), so dass vermutlich die Kombination der Transkriptionsfaktoren entscheidend für die Osteoklastogenese ist.
Der basic helix-loop-helix-Transkriptionsfaktor Tal1 (T-cell acute lymphocytic leukemia 1, auch Scl1, stem cell leukemia 1) ist ein entscheidender Faktor in der primitiven und der definitiven Hämatopoese (Bloor AJ et al., 2002; Shivdasani RA et al., 1996). Die Expression von Tal1 konnte bisher in verschiedenen hämatopoetischen Zelllinien gezeigt werden, u.a. in monozytischen Zellen (Elefanty AG et al., 1998; Green AR et al., 1992; Pulford K et al., 1995; Dey S et al., 2010).
In der vorliegenden Arbeit wurde der Einfluss des Transkriptionsfaktors Tal1 in Monozyten und reifen Osteoklasten, vor allem in Bezug auf genregulatorische Prozesse während der Osteoklasten-Differenzierung, untersucht. Der Transkriptionsfaktor Tal1 wird in vitro und in vivo in Osteoklasten-Vorläuferzellen und reifen Osteoklasten exprimiert. Die Proteinexpression von Tal1 wird durch die Inkubation der Zellen mit RANKL induziert, jedoch wurde dies in Bezug auf die mRNA-Expression von Tal1 nicht beobachtet, so dass vermutlich eine posttranskriptionelle Regulation von Tal1 vorliegt.
Die Überexpression von Tal1 sorgte für eine Blockade der Differenzierung von Osteoklasten-Vorläuferzellen in reife Osteoklasten. Der Verlust von Tal1 in primären Monozyten/Makrophagen-Zellen führte zur veränderten Expression von über 1200 Genen, wobei jeweils etwa 600 Gene herauf- bzw. herabreguliert waren. Dies verdeutlicht, dass Tal1 sowohl an der Aktivierung als auch an der Reprimierung der Genexpression in Osteoklasten-Vorläuferzellen beteiligt ist. Die Liste der herabregulierten Gene beinhaltete u.a. das Osteoklasten-spezifische Enzym Acp5 (auch TRAP, tartrate resistant acid phosphatase), die Liste der herauf regulierten Gene beinhaltete u.a. DC-STAMP (dendritic cell specific transmembrane protein) und ATP6V0D2 (d2 isoform of vascuolar ATPase V0 domain), beide werden im Zusammenhang mit der Zellfusion während der Osteoklasten-Differenzierung beschrieben (Kim K et al., 2008; Kim T et al., 2010; Yagi M et al., 2005). Der Promotor von DC-STAMP beinhaltet mehrere potentielle Bindestellen für Tal1 und Osteoklastenspezifische Transkriptionsfaktoren. Es konnte gezeigt werden, dass Tal1, PU.1 und MITF im Bereich um 343 bp vor dem Transkriptionsstartpunkt des DC-STAMP-Promotors binden und dass Tal1 mit den Osteoklasten-spezifischen Transkriptionsfaktoren PU.1 und MITF interagiert. Der inhibitorische Effekt von Tal1 auf die Osteoklasten-Differenzierung kommt durch die Reprimierung der Aktivität der Osteoklasten-spezifischen Transkriptionsfaktoren PU.1 und MITF auf dem DC-STAMP-Promotor in Osteoklasten-Vorläuferzellen zustande. Während der Osteoklastogenese kommt es zu einer verringerten Tal1-Bindung auf dem DCSTAMP-Promotor, wodurch die Tal1-vermittelte Inhibierung der Expression aufgehoben wird.
Die Bindung von PU.1 und MITF auf dem Promotor von DC-STAMP nimmt während der Osteoklasten-Differenzierung zu. Die Expression von DC-STAMP wird im Verlauf der Osteoklastogenese induziert, wodurch es zur Zell-Zell-Fusion kommt.
Die Analyse des transkriptionellen Netzwerks, das die Fusion mononukleärer Zellen in reife Osteoklasten reguliert, vertieft das molekulare Verständnis der Osteoklasten-Differenzierung und kann zur Entwicklung neuer therapeutischer Ansätze beitragen, die in der Behandlung von Osteoporose, Riesenzelltumoren und anderen Osteoklastenassoziierten Krankheiten verwendet werden können.
Dass es mit der parlamentarischen Kontrolle in Deutschland nicht weit her ist, hat Andreas Voßkuhle, oberster deutscher Verfassungsrichter, erst jüngst in seiner Urteilsbegründung zu Fiskalpakt und Euro-Rettungsschirm der Politik ins Stammbuch geschrieben. Nirgends aber wird das dieser Tage so deutlich wie im Bereich der Sicherheitspolitik. Die Tatsache, dass der Militärische Abschirm-Dienst (MAD) über Monate wichtige Dokumente im Zusammenhang mit den NSU-Morden dem parlamentarischen Untersuchungsausschuss vorenthielt, ist schon an sich bedenklich. Dass dieser Umstand vom verantwortlichen Minister, der die Papiere kannte, als “unsensibel” entschuldigt wird, zeigt zusätzlich, welche Geringschätzung dem Parlament und seiner Kontrollfunktion von Seiten der Sicherheitsbehörden entgegengebracht wird...
Johannes Hoffmann : 75 Jahre
(2012)
Bei der Information und Sensibilisierung von Eigenheimbesitzer/innen für das Thema
Energie und CO2-Einsparung im Gebäudesektor stehen bislang vor allem breitenwirksame
Instrumente zur Verfügung. Dialogische Kommunikationsangebote, die in anderen
Bereichen des Nachhaltigkeitsmarketing eingesetzt werden, sind bislang nur wenig
verbreitet.
In dem vorliegenden Arbeitspapier werden die Bausteine einer integrierten Kommunikationsstrategie
für eine energetische Gebäudesanierung beleuchtet. Nach dem Verständnis
der Autor/innen umfasst eine solche Strategie monologisches und dialogisches
Marketing, Energieberatung sowie Markenbildung. Gestützt auf konzeptionelle
Überlegungen und empirische Ergebnisse werden im ersten Teil grundlegende Ziele
und Elemente einer dialogischen Kommunikationsstrategie für eine energetische Sanierung
erläutert. Im zweiten Teil illustrieren konkrete Beispiele, wie unter anderem
eine dialogische Kommunikation für unterschiedliche Sanierungsanlässe in der Praxis
gestaltet werden kann.
Geld allein macht nicht (un)glücklich : was Mitarbeiter der Goethe-Universität zufrieden macht
(2012)
Die soziale Arbeitsteilung bei Honigbienen ist ein komplexes selbstorganisatorisches System, welches auf zwei Ebenen der biologischen Organisation zu verorten ist: dem Individuum und der Kolonie. Die Regulation der Bruttemperatur ist ebenfalls diesen Gesetzmäßigkeiten unterworfen. Die Arbeits-bereitschaft einzelner Bienen bildet die Grundlage für die Temperaturregulierung des kolonialen Brutnestes.
In dieser Arbeit wird dieses Zusammenspiel aus individuellen Beteiligungen der Arbeiterinnen sowie der erbrachten Gesamtleistung der Kolonie während des Brutwärmens untersucht. Dazu wird eine kleine Bienengruppe auf einer Brutwabe einer thermischen Belastung ausgesetzt. Ein speziell für diese Untersuchungen entwickelter Versuchsaufbau integriert erstmals die Infrarot-Thermografie mit den Temperaturmessungen einer Brutfläche. Somit ist es möglich, die Thoraxtemperaturen der einzelnen, am Brutwärmen beteiligten Arbeiterinnen störungsfrei zu messen und gleichzeitig das erzeugte räumliche und zeitliche Temperaturmuster der Brutwabe zu ermitteln. Zusätzlich wird der Temperaturverlauf der Außentemperatur sowie der zellumgebenden Luft untersucht.
Es kann gezeigt werden, dass die Lufttemperatur im Innenraum eines Bienenstocks ein wichtiger Faktor in der Temperaturregulierung des Brutnestes ist, da sie die untere Temperaturgrenze im Bienenstock bildet. Weiterhin wird der Einfluss der brutwärmenden Arbeiterinnen auf die Temperaturentwicklung einer Brutfläche sichtbar. Durch das flexible Verhalten der Arbeiterinnen kann einer Brutfläche bei thermischer Belastung durch lokal wechselndes Brutwärmen optimal Wärme zugeführt werden. Es gibt es Hinweise auf eine zyklische Periodizität im zeitlichen Temperaturverlauf der Brutzellen, welche auf einen Brutwärmrhythmus durch die Bienen schließen lässt. Durch den Einsatz zweier Unterarten (Apis mellifera carnica & Apis mellifera mellifera) wird sichtbar, dass es zwischen den Gruppen Unterschiede in der Aufrechterhaltung der Lufttemperatur über der Wabe gibt.
Protestantismus im Territorium : Heinrich Steitz (1907 - 1998): Biographie als Zeitgeschichte
(2012)
Ziel dieser Bachelorarbeit war die Vorstellung und die Untersuchung eines effektiven, mesonischen Drei-Flavor-Modells der Quantenchromodynamik und dessen Phänomenologie. Dazu wurden zunächst die Kopplungskonstanten a und b des Modells durch die Berechnung dominanter Zerfallsbreiten der im Modell enthaltenen Axialvektor- und Pseudovektor-Mesonen festgelegt. Dabei wurde für die Festlegung der Kopplungskonstanten a der Zerfall von f1 (1420) in KK*(892) verwendet. Die so berechnete Kopplungskonstante wurde anschließend unter Verwendung des ρπ-Zerfalls von a1 (1260) auf Konsistenz geprüft. Das dadurch erhaltene Resultat von Γa1--> ρπ= (443:962 ± 13:456) MeV liegt sehr gut in dem von der particle data group angegebenen Wertebereich der Gesamtbreite von a1 (1260). Die Festlegung und Berechnung der Kopplungskonstante b des Pseudovektor-Sektors war Gegenstand der Bachelorarbeit von Lisa Olbrich, so dass in dieser Arbeit nur die Resultate dieser Rechnung präsentiert wurden. Jedoch passen die dort erzielten Resultate auch mit guter Genauigkeit zu den experimentell bestimmten Werten der particle data group.
Das zweite Ziel dieser Bachelorarbeit war die Untersuchung der im Modell enthaltenen Mischungseffekte der Kaonen-Felder von K1 (1270) und K1 (1400). Zunächst waren im Axialvektor- und Pseudovektor-Nonet dieses Modells nur unphysikalische Kaonen-Felder K1;A und K1;B enthalten. Durch den Mischungsterm Lmix der Lagrange-Dichte des Modells existieren allerdings Mischterme beider Felder. Diese Mischterme wurden durch die Einführung der physikalischen Felder K1 (1270) und K1 (1400), welche durch eine SU(2)-Drehung aus den unphysikalischen Feldern hervorgehen, zum Verschwinden gebracht. Dies hat allerdings zur Folge, dass die Wechselwirkungsterme der physikalischen Felder K1 (1270) und K1 (1400) nun über eine gedrehte Kopplungskonstante koppeln. Diese gedrehte Kopplungskonstante ist eine Funktion der ursprünglich bestimmten Kopplungskonstanten a; b und eines Mischwinkels Φ. Dieser Mischungswinkel wurde von uns über den K? (892) π-Zerfall von K1 (1270) festgelegt. Anschließend konnten wir unter Verwendung des so berechneten Mischungswinkels Φ die Zerfallsbreite von K1 (1400) berechnen und mit den experimentell festgelegten Daten der particle data group vergleichen. Auch hier konnten wir eine gute Übereinstimmung unserer durch das Modell vorhergesagten Daten mit den experimentell bestimmten Werten erzielen.
Sucht man nach einer populären Ikone, die Generationen übergreifend und in internationalem Maßstab Besitzstreben, Reichtum und die Macht der Finanzwelt verkörpert, so muss man sich nicht lange umsehen, um fündig zu werden. Nicht nur in der Welt der Comics und in der Disney’schen Entensippe
der Ducks spielt Onkel Dagobert eine markante Rolle.
Der Froschkönig, der eigentlich eine Prinzessin ist, das Schneewittchen, das sich beinahe in einen niedlichen Feenzwerg verliebt, der narzisstische Hänsel, der Klein-Gretel wegen der betörenden Hexe Hildegard im Wald stehen lässt, der Bishônen-Jüngling Rapunzel, der die sportliche Jungfer Eva schwängert – diese Geschichten und einige andere mehr entstammen dem Universum der japanischen Comics des 21. Jahrhunderts. Die Manga haben mittlerweile begeisterte Leser und Nachahmer selbst im Heimatland der Märchenbrüder gefunden.
Warum ist ein Produkt auch über seinen reinen Gebrauchswert hinaus für uns von Bedeutung und welches Echo findet die alltägliche Warenwelt in verschiedenen Kunstformen und Medien? Diese Fragen stehen im Mittelpunkt des Verbundprojekts „Konsumästhetik – Formen des Umgangs mit käuflichen Dingen“, das ab Januar 2013 für drei Jahre von der Volkswagen-Stiftung gefördert wird. Zu den Kooperationspartnern gehört die Goethe-Universität, die gleich mit mehreren Themenstellungen beteiligt ist: Prof. Birgit Richard vom Institut für Kunstpädagogik untersucht mit Blick auf das Web 2.0 „Konsum-Objekte im bewegten Bild, Bildkonsum und Bildproduktion“. Unter der Federführung von Prof. Heinz Drügh, Institut für Deutsche Literatur und ihre Didaktik, geht es um „Künstlerische Verhandlungsformen des Konsums“. Drügh selbst analysiert dabei die „Darstellung des Supermarkts als Ort der Moderne in Film und Literatur“. Der Professor für Neuere Deutsche Literatur und Ästhetik ist Mitherausgeber des Sammelbandes „Warenästhetik – Neue Perspektiven auf Konsum, Kultur und Kunst“. An der Goethe-Universität (2008) und am Forschungskolleg Humanwissenschaften (2010) hat er einschlägige internationale Veranstaltungen konzipiert und durchgeführt.
Mit der Europäischen Rechtsgeschichte verfügt die Rechtsgeschichte seit vielen Jahrzehnten über eine Tradition transnationaler rechtshistorischer Forschung. Sie wurde von deutschsprachigen Wissenschaftlern der Vor- und Nachkriegszeit geprägt – Emil Seckel, Paul Koschaker, Franz Wieacker, Helmut Coing – und stand im Kontext des westeuropäischen Nachkriegsprojekts. Noch heute bauen wir auf ihren großen Leistungen auf. Sie war, wie alle Geschichtswissenschaft, Teil eines Prozesses der gesellschaftlichen Selbstverständigung über die eigene Identität und zeichnete das Bild einer distinkten europäischen Rechtskultur.
In den letzten Jahren sind im Zuge der Diskussion um postkoloniale Perspektiven auf die Geschichte, um Transnationale und Globalgeschichte, viele Grundlagen der traditionellen Europahistoriographie kritisiert und massiv erschüttert worden. Das wirft Fragen auch an die Europäische Rechtsgeschichte auf: Welches Europabild liegt ihr zu Grunde? Auf welchen intellektuellen und konzeptionellen Grundlagen beruht sie? Wie antwortet sie auf die Vorwürfe des Eurozentrismus, des epistemischen Kolonialismus, wie auf die Forderung, Europa zu ‘provinzialisieren’? Wie definiert sie das Verhältnis der Europäischen zur Transnationalen und Globalen Rechtsgeschichte? - Diesen und ähnlichen Fragen wenden sich die folgenden Überlegungen zu. Der Schwerpunkt liegt auf einer Auseinandersetzung mit der Tradition, ihren konzeptionellen Grundlagen und deren wissenschaftshistorischem Kontext (1. Teil, 1.-6.). Aus dieser kritischen Bestandsaufnahme und den Ergebnissen der Debatte um Globalgeschichte ergeben sich Ausgangspunkte und Aufgaben einer in vielem auf den Leistungen der Disziplin aufbauenden, doch notwendigerweise auf einer anderen Konzeption beruhenden Rechtsgeschichte Europas in globalhistorischer Perspektive (2. Teil, 7.-11.).
Die Schizophrenie stellt eine sehr vielfältige und schwere psychische Erkrankung dar, die fundamentale Bereiche, wie Denken, Fühlen, Wahrnehmen, Willensbildung und Handeln beeinträchtigt (Kircher & Gauggel, 2008). Neben der Störung der Kognition und der Wahrnehmung sind es die Störungen der Emotionen, die das Krankheitsbild der Schizophrenie prägen. Eine Emotion ist Grundlage eines informativen Bedeutungssystems einer Person. Sie informiert über die Relevanz einer Situation sowie über Wohlbefinden, Wünsche und Bedürfnisse. Sie ermöglicht eine bedürfnis- und situationsgerechte Auswahl von Ver-haltensweisen, beeinflusst kognitive Prozesse, prägt die Entscheidungsfindung und Problemlösung. Durch den mimischen Ausdruck, der aus einer Emotion resultiert, bekommt sie eine kommunikative bzw. interpersonelle Funktion. Damit stellen Emotionen zentrale Phänomene des alltäglichen Lebens dar, die einen großen Einfluss auf Ver-halten, Lernen, Wahrnehmung und Gedächtnis haben.
Nicht immer ist es sinnvoll und funktional, Emotionen auszuagieren. Um adäquat mit Emotionen umgehen zu können, bedarf es der Emotionsregulation. Hierbei handelt es sich um einen Prozess, bei dem beeinflusst wird, welche Emotionen wann und wie erlebt und ausgedrückt werden (Gross, 1998), um flexibel auf Umwelteinflüsse und den sozialen Kontext eingehen zu können (Thompson, 1994)...
Es wurde die Photodynamik freier kolloidaler CdSe Quantenpunkte sowie die Elektronentransfer(ET)-Dynamik im System bestehend aus CdSe Quantenpunkten und adsorbiertem Methylviologen mit Hilfe der Femtosekunden-Laserspektroskopie im sichtbaren Spektralbereich untersucht. Die freien CdSe Quantenpunkte wiesen eine multiphasische Rekombinationsdynamik der photoinduzierten Exzitonen auf, was durch das Vorhandensein von Quantenpunkten mit unterschiedlichem Passivierungsgrad innerhalb einer Quantenpunktprobe erklärt wurde. Sowohl die Rekombinationsdynamik des Exzitons als auch die Intraband-Relaxation von Elektron und Loch besaßen eine Abhängigkeit von der Partikelgröße. Die 1P-1S-Relaxationzeit des Elektrons betrug in Partikeln mit Durchmessern von 3 nm und 6,3 nm 0,12 ps bzw. 0,24 ps, woraus sich Energieverlustraten von 1,0 eV/ps und 3,8 eV/ps berechnen ließen. Die sehr schnelle Natur der 1P-1S-Relaxation und die gefundene Größenabhängigkeit stehen im Einklang mit dem vermuteten Auger-artigen Energietransfer vom hochangeregten Elektron auf das Loch. Durch diesen Prozess kann das theoretisch vorhergesagte „phonon bottleneck“ effizient umgangen werden. Zudem konnte eine größenabhängige Biexziton-Bindungsenergie zwischen 40 meV und 28 meV ermittelt werden. Die Untersuchung von Multiexzitonen in CdSe Quantenpunkten zeigte einen schnellen Zerfallskanal. Es handelt es sich um die Auger-Rekombination. Die Rekombination nach 1P-Anregung wurde in Form von sequenziellen Schritten N, N-1, N-2,..., 1 interpretiert. Für das System bestehend aus CdSe Quantenpunkten und adsorbiertem Methylviologen wurde war eine Zunahme der ET-Rate bei steigender Akzeptorkonzentration zu beobachten, die mit der Zunahme von Akzeptorzuständen erklärt werden kann. Ferner wurde eine maximale ET-Rate erreicht, die bei einer weiteren Erhöhung der Akzeptorkonzentration nicht überschritten wird. In weiteren Versuchsreihen konnte gezeigt werden, dass die Größe der Partikel einen Einfluss auf den ET-Prozess zwischen Quantenpunkt und Methylviologen hat. Eine kombinierte Studie, in der sowohl das Quantenpunkt/Methylviologen-Verhältnis als auch die Quantenpunktgröße variiert wurde, verdeutlichte, dass eine Verkleinerung der Partikel zu einem Anstieg der ET-Rate führt. Die Variation der Partikelgröße geht mit einer Veränderung der Triebkraft der ET-Reaktion im gekoppelten System einher. Der gefundene Zusammenhang zwischen der Triebkraft der Reaktion und der ET-Rate ist gut mit der Marcus-Theorie vereinbar. In einer Serie von Experimenten am Quantenpunkt/Methylviologen ET-System wurde die Anregpulsenergie variiert, um den Einfluss von Multiexzitonen auf den Elektronentransfer zu untersuchen. Es zeigte sich, dass nach Mehrfachanregung der Quantenpunkte die Separation von bis zu vier Elektron-Loch-Paaren möglich ist. Für den Elektronentransfer im untersuchten ET-System wurde eine ET-Zeit von ca. 200 fs ermittelt. Diese ist deutlich kürzer als die gefundenen Auger-Rekombinationszeiten, die sich zwischen 1,5 ps und 5 ps bewegen. In einer Studie an CdSe/CdS Kern/Schale Partikeln wurde der Einfluss einer passivierenden anorganischen Schale auf den ET-Prozess untersucht. Bei der gewählten Heterostruktur handelte es sich um Typ I Kern/Schale Partikel, in denen sowohl Elektron und Loch hauptsächlich im Kern eingeschlossen sind. Es wurde ein exponentieller Abfall der ET-Rate mit wachsender Schalendicke beobachtet, weshalb davon auszugehen ist, dass die CdS-Schale als elektronische Barriere wirkt, durch die das photoangeregte Elektron tunneln muss, um mit dem Akzeptor reagieren zu können. Schließlich wurde der Einfluss des Elektronentransfers im ET-System auf die Entstehung von Phononen untersucht. Sowohl in freien Quantenpunkten als auch im gekoppelten System konnte das LO sowie das LA Phonon beobachtet werden, wobei das LA Phonon im gekoppelten System stark unterdrückt ist. Im Falle der freien Quantenpunkte sind die beobachteten Oszillationen eine Folge der Frequenzmodulation der Absorption des angeregten Zustandes. Mit Hilfe des Huang-Rhys-Parameters ließ sich ermitteln, wie stark in freien Quantenpunkten das LO Phonon an das Exziton gekoppelt ist. Der berechnete Huang-Rhys-Parameter betrug 0,012. Im Falle des gekoppelten Systems weist die spektrale Signatur der kohärenten Oszillationen darauf hin, dass diese durch die Frequenzmodulation der linearen QP-Absorption verursacht werden. Im Falle des gekoppelten Systems sind die beobachteten Phononen nicht an das Exziton sondern an die ET-Reaktion gekoppelt, d. h. der ET selbst induziert Gitterschwingungen im Reaktionsprodukt. Der berechnete Huang-Rhys-Parameter, der die ET-Phonon-Kopplung beschreibt, berechnete sich ebenfalls zu 0,012, was verdeutlicht, dass die ET-Phonon-Kopplung ähnlich stark wie die Exziton-Phonon-Kopplung ist. Mit Hilfe der spektralen Abhängigkeit der Oszillationen in freien Quantenpunkten und im gekoppelten System ließ sich eine Biexziton-Bindungsenergie von 35 meV berechnen.
Im Rahmen dieser Arbeit konnte die Regiospezifität und Spaltungsausbeute von 5’-modifizierten Trisbenzimidazolkonjugaten wie 53 unter Verwendung von Helfer-Sequenzen verbessert werden (S.74 ff). Mit dieser Technik gelang es, Turnover zu erzielen und so eine echte katalytische Aktivität der DNA-Konjugate nachzuweisen. Die verwendeten Helfer-DNA-Sequenzen sind günstig zu erwerben oder mit einem DNA-Synthesizer leicht selbst herzustellen und können so der jeweiligen Aufgabe perfekt angepasst werden.
Weiterhin wurden verschiedene Versuche unternommen, ein 5’-modifiziertes Konjugat maßzuschneidern, so dass es durch interne bulge-Bildung mit seinem Substrat ebenfalls Turnover erreichen könnte und so katalytische Aktivität zeigte (S.59 ff). Diese Projekte wurden in Anlehnung an Arbeiten von Häner [91] durchgeführt, der damit Turnover erzielte, da das Konjugat nach Spaltung des bulges wieder in den katalytischen Zyklus eingegliedert werden konnte. Leider waren diese Versuche nicht von Erfolg gekrönt, obwohl man sich bei der Konzipierung der Substrat-Konjugat-Hybriden an die Sequenzen von Häner et.al. hielt. Statt dessen beobachtete man im Falle von Konjugat 51 bei der Hybridisierung die Ausbildung einer Helix; ein bulge konnte nicht erhalten werden (S. 61). Dieser Unterschied könnte auf die große, planare Spaltereinheit mit Europium(III) von Häner et. al. zurück zu führen sein, die im Falle der von uns untersuchten Konjugat-Substrat-Hybride fehlte, denn die 2-Aminobenzimidazol-Einheiten von Trisbenzimidazol 15 waren im Vergleich als klein anzusehen.
Diese Vermutung führte schließlich zu zwei unterschiedlichen Ansätzen. Einer davon war es, eine größere intercalationsfähige Teilstruktur in das Konjugat einzuführen. Man versuchte deshalb ein Konjugat zu synthetisieren, welches zwischen der katalytischen Einheit und dem sequenzerkennenden Teil die Pyrenaminosäure 56 von Dr. M. Suhartono trug (S. 69 ff).
Dieses sollte den großen, Häner’schen Rest imitieren und so einen bulge erzeugen. Leider gelang die Synthese dieses Konjugates nicht. Wie sich heraus stellte, war das kommerziell erworbene DNA-Material nicht geeignet für die angewendete Synthese. Eine Basen-Schutzgruppe bzw. das Anhydrid derselben, welches bei der Festphasensynthese als Capping-Reagenz verwendet wurde, führte zu einer irreversiblen Reaktion mit der 5'-NH2-Funktion an der DNA und machten das Material daher für eine Kupplung unbrauchbar.
Eine andere Herangehensweise war es, die Faltung des Konjugat-Substrat-Hybrides voraus zu berechnen und so ein Hybrid zu erhalten, welches einen bulge ausbildete (S. 65 ff). Konjugat 55 und Substrat 54 wurden nach dieser Strukturvorhersage synthetisiert bzw. erworben und entsprachen genau den Erwartungen, ein interner bulge wurde ausgebildet. Dennoch konnte man auch mit diesem System keinen Turnover erreichen.
Ein weiteres großes Teilgebiet dieser Arbeit war die Untersuchung kleiner Moleküle als unspezifische RNA-Spalter. Im Rahmen dieser Arbeit wurden speziell Guanidiniumanaloga auf ihre RNA-Spaltungsfähigkeit untersucht. In der Vergangenheit hatte man als Gütekriterium dieser Verbindungen das Augenmerk auf ihre pKa-Werte gerichtet. Sofern sich diese annähernd im physiologischen Bereich befanden, konnten häufig gute bis sehr gute RNA-Spaltungsausbeuten erzielt werden.
Erstmals kam das Konzept der Energiedifferenz zwischen den tautomeren Formen eines guanidiniumtragenden Moleküls als Werkzeug zur Vorhersage der Güte eines RNA-Spalters zum Einsatz (S.113 ff). Sofern die beiden Strukturen (Amino- und Iminotautomer) sehr geringe Energieunterschiede aufwiesen, sollten sie sich besser als „Protonen-Shuttle“ eignen und so die Phosphosäuretransesterifikation katalytisch besser unterstützen. Zusammen mit dem pKa-Wert der Verbindungen wurde untersucht, ob dieses Konzept als Vorhersagemethode tragfähig ist.
Unter den mit diesen Methoden gefundenen sowie kommerziell erhältlichen Molekülen konnte 2-Aminoperimidin 67 als sehr guter Spalter identifiziert werden. Verglichen mit Trisbenzimidazol 15 erreichte es ebenso gute Spaltungsraten wie letzteres, wobei 67 nur über eine einzige Guanidiniumeinheit verfügt. Dieser so identifizierte neue Kandidat für den Einbau in DNA-Konjugate enttäuschte auch nach Untersuchungen seines N-Methyl-Aminoderivates 80 nicht: Das Derivat zeigte eine ausreichend hohe Spaltungsaktivität, um es in Zukunft als Baustein für antisense-Konjugate in Frage kommen zu lassen.
Es gab allerdings auch Schwierigkeiten bei der Untersuchung der kleinen Moleküle. Problematisch gestaltete sich ihre Löslichkeit in hohen Konzentrationen. Man ging deshalb dazu über, Co-Solventien wie Methanol oder DMSO zu verwenden, um auch während des Experimentes eine ausreichende Löslichkeit der Verbindungen zu gewährleisten. Ein Volumenanteil von 20% Co-Solvens stellte sich als ideal heraus, das Experiment wurde dadurch nicht negativ beeinflusst.
Außerdem kam es zu Präzipitation einiger Substanzen (u.a. 2-Aminoperimidin 67) beim Auftragen auf das Sequenzierergel, welche die Auswertbarkeit dieser Experimente einschränkte. Die Verwendung eines neuen Harnstoffladepuffers beim Auftragen der Proben auf das Gel und das Senken der Substanzkonzentration (von mM auf μM) im Experiment verbesserten diese Situation deutlich. Häufig beobachtete Präzipitationseffekte waren danach größtenteils verschwunden, was die Auswertung der Spaltungsexperimente mit kleinen Molekülen erleichterte (S. 129 ff). Einige Verbindungen konnten mit der Kombination von ΔHf-Wertbestimmung und pKa-Wert-Bestimmung als schlechte RNA-Spalter korrekt vorhergesagt werden (z.B. 2-Aminopyridin 69, 2- Aminopyrimidin 68).
Nicht ganz klar ist das mittelmäßige Abschneiden von Imidazoimidazol 71 als RNA-Spalter (S.136 ff). Durch seine Symmetrie liegt sein ΔHf-Wert bei 0 und auch sein pKa-Wert liegt mit 7.4 perfekt im physiologischen Bereich. Dennoch konnte es nur Spaltungsausbeuten von unter 10% bei Konzentrationen im höheren mM-Bereich erreichen. Es ist aber auch die einzige untersuchte Verbindung, die signifikant RNA schneidet, ohne diese gleichzeitig zu aggregieren oder zu denaturieren.
Untersuchungen des Aggregationsverhaltens der kleinen Moleküle mittels FCS-Messungen (S. 139 ff) zeigten, dass fast alle bei hohen Konzentrationen – etwa im mM- oder hohem μMBereich – Aggregate bilden, und das auch bei Verwendung von Co-Solventien, wie es im Rahmen dieser Arbeit etabliert wurde. Man kann also bei den kleinen Katalysatoren nicht davon ausgehen, dass isolierte Moleküle für die beobachteten Effekte verantwortlich sind. Vielmehr agieren diese Moleküle bei solchen Konzentrationen als große oder kleine Aggregate, die durch die Vielzahl ihrer katalytischen Einheiten an der Oberfläche ihr Potential vervielfachen. Erst bei niedrigen Konzentrationen lösen sich die Aggregate auf, man kann hier wieder von einem Ein-Molekül-ein-Substrat-Mechanismus ausgehen (s. Schema 3 S. 110).
Dies wird allerdings nicht als Ausschlusskriterium gesehen, diese Moleküle auch weiterhin als potentielle Kandidaten für antisense-Konjugatbausteine zu betrachten. In Konjugaten verhalten sie sich wie Einzelmoleküle, bei denen man streng mechanistische Betrachtungen anstellen kann und darf.
Thema der vorliegenden Dissertation sind Einflussfaktoren und individuelle Unterschiede im akademische Selbstkonzept von Grundschülern. Das erste Kapitel thematisiert die Bestimmung des Selbstkonzepts, gibt einen Überblick über die theoretischen Wurzeln und beleuchtet unterschiedliche Selbstkonzeptmodelle. Das zweite Kapitel geht auf die Selbstkonzeptentwicklung ein und hebt dabei insbesondere das Internal/External-Frame-of-Reference Modell (I/E-Modell; Marsh, 1986) hervor, welches das Zusammenwirken von externalen (sozialen) und internalen (dimensionalen) Vergleichsprozessen bei der Selbsteinschätzung beschreibt. Auf Basis des I/E-Models werden in Studie 1 das akademische Selbstkonzept und die Schulleistung von Schülern der 1. bis 3. Klassenstufe miteinander in Beziehung gesetzt. Im Zentrum steht dabei die Frage, ab welcher Klassenstufe dimensionale Kontrasteffekte auftreten und welchen Einfluss die Lese-, Rechtschreib- und Mathematikleistung auf die korrespondierenden und nicht korrespondierenden Selbstkonzeptfaktoren haben. Es zeigen sich signifikant negative Pfade von der mathematischen Leistung auf das verbale Selbstkonzept und negative Pfade von der Leseleistung auf das mathematische Selbstkonzept ab der 3. Klasse. Ein Kontrasteffekt innerhalb der verbalen Domäne (Lesen und Schreiben) kann hingegen bei keiner der untersuchten Klassenstufen aufgezeigt werden.
Die zweite und dritte empirische Studie fokussieren mögliche Gruppenunterschiede im akademischen Selbstkonzept anhand bestimmter Schülermerkmale. In Studie 2 wird dabei geprüft, ob sich zwischen Jungen und Mädchen mit und ohne Migrationshintergrund Unterschiede im verbalen und mathematischen Selbstkonzept finden lassen. Kinder mit Migrationshintergrund zeigen trotz schlechterer schulischer Leistungen im Lesen und in Mathematik in diesen Bereichen ein höheres Selbstkonzept als Kinder ohne Migrationshintergrund.
Auch findet sich bereits in der ersten Klasse unter Jungen ein optimistischeres mathematisches und unter Mädchen ein optimistischeres verbales Selbstkonzept. Dies spiegelt sich auch in den tatsächlichen Leistungen der Kinder sowie den Lehrereinschätzungen wider. In Studie 3 wird geprüft, ob Kinder mit ADHS-Symptomen ein positiv illusorisches akademisches Selbstkonzept (Positive Illusory Bias, Hoza et al., 2002) haben. Es zeigt sich, dass zwar Kinder mit ADHS-Symptomen im Vergleich zu Kindern ohne ADHS-Symptome ihre Leistungen deutlich stärker überschätzen, allerdings nur, wenn keine Kontrolle des Schulleistungsniveaus erfolgt. Zudem schätzen sich Kinder mit ADHS-Symptomen in dem Leistungsbereich am besten ein, in dem sie auch am besten abschneiden. Der Positive Illusory Bias scheint also nicht spezifisch für die ADHS zu sein.
Im westfälischen Münster tobt seit Monaten ein Streit, der die Bürger der Stadt in zwei Lager spaltet: Es geht um die Frage, ob man heute einen Platz nach dem ehemaligen Reichspräsidenten und Generalfeldmarschall Paul von Hindenburg benennen sollte. Was vordergründig wie eine Provinzposse erscheint, offenbart auf den zweiten Blick erstaunliche Einblicke in das ambivalente Verhältnis der deutschen Gesellschaft zu ihrer eigenen Geschichte...
Am letzten Freitag ist die zweite Jahreskonferenz des Forschungsprojekts „Sicherheitskultur im Wandel“ erfolgreich zu Ende gegangen. Diesmal standen die Folgen des Wandels von Sicherheitskultur im Mittelpunkt, also die Frage, welche Auswirkungen die gestiegenen und immer weiter diversifizierten Ansprüche der Staatsbürger nach „mehr Sicherheit“ auf den Staat, also die Regierung und die Administration, in Zeiten der Globalisierung haben. Ist der Staat mit der Aufgabe, alle vor jedem erdenklichen Risiko zu schützen, überfordert? Ist das überhaupt seine Aufgabe bzw. geht sie wirklich so weit? Wie könnte eine effektive, aber immer noch legitime und transparente Neugestaltung der Sicherheitspolitik aussehen?
Drohnen lügen nicht
(2012)
Im Dezember des Jahres 1812 erschien der erste Band der "Kinder- und Hausmärchen. Gesammelt durch die Brüder Grimm", so der Wortlaut des Titels. Doch was Jacob und Wilhelm Grimm als reine "Volkspoesie" darboten, war ihr literarisches Kunstwerk. Warum entfalteten diese Märchen in der Epoche des Biedermeier so eine enorme Anziehungskraft für Erwachsene? Warum lagen die reich illustrierten Bücher bald unter jedem Weihnachtsbaum?
Der für diese Arbeit entwickelte Prototyp zur Neutronenproduktion hat sich bereits während der ersten Tests bewährt, womit schnell festgestellt wurde, dass sich das Grunddesign des Prototypen für die späteren Experimente am FRANZ eignet. Wie man gesehen hat, entstand die verwendete Revision in mehreren Schritten, da immer wieder aus gemachten Planungsfehlern gelernt werden musste. Zusätzlich gab es bei der Planung mehrere Beschränkungen, die beachtet werden mussten, dazu zählt unter anderem die Form des Prototypen, um ohne Probleme den Bedampfungstand des FZK verwenden zu können.
Das neue Kühlsystem verlangte während der Planung besonderer Aufmerksamkeit. Bei Experimenten wie am IRMM oder FZK kann aufgrund der geringen Leistung des Beschleunigers mit einer Luftkühlung oder einfachen Wasserkühlung gearbeitet werden. Diese Arten der Kühlung beeinflussen den Neutronenfluss nicht. Bei FRANZ muss aufgrund der im Vergleich zu den vorher genannten Experimenten viel höheren Leistung von 4 kW, ein gänzlich neuer Kühlungsansatz verwendet werden. Um die Leistung vom Target abzuführen, muss nun ein viel größerer Bereich gekühlt werden, um die entstehenden Temperaturen unter Kontrolle zu halten. Auch das Vorhersagen der entstehenden Temperaturen war nur unter Annahme mehrerer Parameter möglich. Durch die komplexe Struktur des Prototypen stieß die Berechnung des Temperaturprofis mit einfachen analytischen Mitteln schnell an ihre Grenzen. Aus diesem Grund wurden für diese Arbeit jeweils nach der Einführung der Wärmeleitung vereinfachte Annahmen gemacht, um dennoch Berechnungen durchführen zu können. Dass dies nicht immer zu exakten Ergebnissen führt, wurde während des Prozesses mehrfach festgestellt. Dennoch konnten so die Größenordnungen der Temperaturen bestimmt werden, was letztlich zur Auslegung des Kühlsystems beitrug.
Die Lösung, für die sich entschieden wurde, war die Kühlung der Rückseite des Target mit Wasser. Der große Nachteil dieser neuen, aber notwendigen Kühllösung, sind die Materialien, die nun den Neutronenfluss aus der Li(p,n) Reaktion beeinflussen. Wichtig war es eine Balance zwischen Schichtdicken von Kupfer und Wasser, die für die mechanische und thermische Stabilität notwendig waren, und der Qualität des erhaltenen Spektrums zu finden. Hierfür wurden zahlreiche Simulationen mit GEANT 3 angefertigt, um die Einflüsse beider Stoffe abschätzen zu können, wobei sich schließlich herausstellte, dass die Schichtdicke von Wasser die Neutronen am meisten beeinflusst. Da Wasser stark moderierend auf Neutronen wirkt, stellte man fest, dass man bei Experimenten vor allem hochenergetische Neutronen verliert. Konsequenz war die strikte Kontrolle der Wasserdicke.
Welche gesellschaftlichen Zwänge wirken auf die Medizin und ihre Anwender ein? Wie ist das Verhältnis von Ökonomie und medizinisch Gebotenem? Wie steht es mit der Finanzierung der nicht evidenzbasierten Behandlung? Stellen Rationierung und Rationalisierung die möglichen Prinzipien der Priorisierung dar? Führt die Priorisierung zur Qualitätsminderung oder gar Sorgfaltsverletzung? Diese Fragen behandelte der 4. Ärztetag am Dom in Frankfurt am Main. ...
Fettleibigkeit, Bluthochdruck, erhöhte Blutfettwerte und Insulin-Resistenz – diese als »Metabolisches Syndrom« bezeichnete Kombination von Risikofaktoren ist auch als »tödliches Quartett« bekannt. Typ-II-Diabetes und Herz-Kreislauf-Erkrankungen sind die Folge. Doch wie hängen diese auf den ersten Blick recht unterschiedlichen Phänomene zusammen? Neuere Untersuchungen zeigen, dass Diabetes und ein gestörter Fettstoffwechsel mehr gemeinsam haben, als man bisher annahm.
Rezension zu: Mojtaba, Masoud u. Milad Sadinam: Unerwünscht. Drei Brüder aus dem Iran erzählen ihre deutsche Geschichte Berlin: Bloomsbury 2012.
Mit ihrem Buch »Unerwünscht« haben drei iranischstämmige Brüder aufhorchen lassen: eine ungewöhnliche Erfolgsgeschichte, die von Flucht, Asyl und einer steilen Bildungskarriere handelt, aber nicht mit Kritik an der Integrationspraxis und dem Bildungssystem spart.
Eine der Funktionen einer Verfassung sei, eine neue politische Ordnung zu etablieren. Doch welche Veranlassung gibt es hierzu, wer zeigt welches Interesse, welcher Zustand soll durch diese Neuordnung erreicht werden und insbesondere: wer hatte die Macht, diese neue Ordnung zu bestimmen? Nach Auflösung des Alten Reiches und Wegfall der Reichsverfassung hatten im Rahmen von Gesamtreformen die Länder teilweise auch begonnen, ihre inner-staatliche Verfassung neu zu bestimmen und diese aus unterschiedlichen Beweggründen und Zielsetzungen in einer Urkunde zu fassen. Durch Auflösung des Rheinbundes und der vertraglich gesicherten Souveränität ergab sich eine neue Situation, insbesondere durch die im Rahmen des Wiener Kongresses getroffene Vereinbarung des Artikels 13 der Bundesakte, in den Ländern landständische Verfassungen einzuführen. In der kurzen Periode zwischen dem Wiener Kongress mit der Deutschen Bundesakte 1815 und der Wiener Schlussakte 1820 entstanden u. a. die Verfassungen des Königreichs Bayern, des Großherzogtums Baden und des Königreichs Württemberg. Es soll in dieser Untersuchung ihre Entwicklung nachgezeichnet werden mit ihren Entstehungsbedingungen und Entstehungsursachen und hierbei aufgezeigt werden, welchen Einflüssen die Entwicklung unterworfen war, welche Ziele die Verfassungsgebung verfolgte und zu welchen Ergebnissen sie in den drei Ländern führte. Ausgehend von der Darstellung der Verfassungsarbeiten als Fortführung der in der Rheinbundzeit begonnenen Reformen und als dessen krönender Abschluss werden die Ausgangsbedingungen unter der Fragestellung beschrieben, ob es sich bei der Verfassungsarbeit um eine kontinuierliche Fortführung bereits früher bestehender Regelungen handelt. Die Entstehung der Verfassungen soll unter der Hauptüberlegung erfolgen, welche geistigen und empirischen Grundlagen zu dieser Form der Verfassung führten. Welche staatstheoretischen Überlegungen waren maßgeblich und wie wirkten diese auf die praktische Verfassungsgebung ein. In welcher Weise haben die Verfassungen Englands, Nordamerikas, Frankreichs und der anderen deutschen Staaten, in welchen es bereits zu Verfassungen gekommen ist, auf die Form der süddeutschen Verfassungen eingewirkt.
Der umfangreiche Aufsatzband fokussiert die historischen Zäsuren, die die Zerstörungen der beiden Weltkriege im Bereich von Architektur und Städtebau in Europa veranlasst haben. Die Verwüstungen von historischen, identitätsstiftenden urbanen Entitäten hatten unterschiedlichste Wiederaufbaudiskurse und -maßnahmen zur Folge, die prägend für das Erscheinungsbild und die funktionalen Strukturen zahlreicher europäischer Kommunen jeden Größenmaßstabs – vom nordfranzösischen Dorf Gerbéviller bis zur niederländischen Metropole Rotterdam – geworden sind. Das wesentliche Kriterium des Wiederaufbaus stellte nicht eine als außerhalb von Ort und Zeit gedachte architektonische und urbanistische Innovation dar, deren Hauptanliegen es war, Stadträume gewandelten Lebensbedingungen anzupassen. Im Gegensatz zu dieser landläufigen Auffassung betonen die Herausgeber zu Recht, dass beim Wiederaufbau immer und notwendigerweise Geschichte und Zukunft in je unterschiedlicher Weise vermittelt wurden. ...
Indonesien, der Bevölkerung nach viertgrößtes Land der Erde, ist ein Land, dass in ewiger Wiederkehr als kommende wirtschaftliche Großmacht gefeiert wird. In der Tat scheint Indonesien alle Voraussetzungen für eine positive wirtschaftliche Entwicklung zu erfüllen: Jahrzehntelange politische Stabilität, eine junge, vergleichsweise gut ausgebildete Bevölkerung, eine vorteilhafte geopolitische Lage zwischen der boomenden ASEAN-Region und Australien und ein Überfluss an Arbeitskräften, Land sowie Ressourcen. Kein anderes Land der Region wies bereits in den 1970er Jahren konstante BIP-Wachstumsraten von jährlich um die acht Prozent auf. Während China durch Maßnahmen wie den „Großen Sprung nach vorn“ und der „Großen Proletarischen Kulturrevolution“ im wirtschaftlichen Chaos zu versinken drohte, wurde Indonesien zu Investors Liebling. Indonesien wurde als das nächste Japan gefeiert, dass selbst externe wirtschaftliche Krisen wie den Ölpreisschock wegstecken konnte. Es dauerte beispielsweise bis in die Mitte der 1990er Jahre, bis Chinas BIP das indonesische wieder überflügelte. Bis klar wurde, dass Indonesien mittelfristig nicht den Weg einer wirtschaftlichen Großmacht wie China gehen konnte.
Die Ausgangsfrage diese Magisterarbeit ist nun, warum Indonesien keine vergleichbare wirtschaftliche Entwicklung zu China nehmen konnte? Es scheint paradox, dass ein Land, dessen Modernisierung jahrzehntelang von einer radikalen Interpretation des Sozialismus geprägt wurde, langfristig mehr wirtschaftlichen Erfolg hat als ein Land, dessen Wirtschaftspolitik der wirtschaftlichen Entwicklung alles andere unterordnete. Aber ist dies tatsächlich ein Paradox, oder steckt eine eigentümliche Rationalität im indonesischen Kapitalismus, die das Auseinanderdriften der bevölkerungsmäßig größten Wirtschaften Ost- und Südostasiens erklären kann?
Wirtschaftliche Umbrüche, wie sie mit der deutschen Wiedervereinigung verbunden waren, sind in industrialisierten Ländern selten. Sie bieten deshalb aus wissenschaftlicher Sicht eine wertvolle Gelegenheit, um Erkenntnisse über das ökonomische Verhalten von Menschen zu gewinnen. Das Sparverhalten der Ostdeutschen nach der deutschen Wiedervereinigung bestätigt, dass Menschen ihre Ersparnis rational planen.
Nicht allzu häufig wird man in den Schriftverzeichnissen deutscher Althistoriker auf Studien zur Zeitrechnung und zum antiken Kalenderwesen stoßen, wie dies bei Jürgen Malitz der Fall ist. Im Jahr 1987 ist sein viel beachteter Aufsatz zur Kalenderreform Caesars erschienen und jüngst hat er sich unter dem Titel "Die Ordnung der Zeit", wiederum ausgehend von Caesars Reform, verschiedensten Aspekten des antiken Kalenderwesens zugewandt und einen Bogen bis in die Gegenwart gespannt. Dieses Interessengebiet des Geehrten aufgreifend, möchte der vorliegende Beitrag einen wenig erforschten Aspekt dessen beleuchten, wie Zeit in der Antike als ökonomische Ressource begriffen und instrumentalisiert wurde. ...
Sedimentbilanzen haben sich als Methode zur Quantifizierung von Sedimentflüssen in Raum und Zeit in den Geowissenschaften etabliert. Sie eröffnen die Möglichkeit, differenzierte Aus¬sagen über die Erosions- und Sedimentationsdynamik von Einzugsgebieten zu treffen. Ziel der vorliegenden Arbeit ist es, die holozäne Erosions- und Sedimentationsentwicklung im mesoskaligen Mittelgebirgseinzugsgebiet des Speyerbachs im Pfälzerwald zu erfassen, und räumlich und zeitlich möglichst differenziert darzulegen. Um Langzeit-Sedimentbilanzen für den Speyerbach zu berechnen wurden verfügbare Daten zum Boden, eine eigene Kartierung der Erosion und Sedimentation sowie eine intensive (OSL und 14C-) Datierung zweier Stand¬orte durchgeführt. Die Sedimente wurden durch eine direkte Kartierung erfasst. Die Erosions¬tiefe errechnet sich aus der Subtraktion der aktuellen Mächtigkeit der Hauptlagen und der Parabraunerden vom initialen Zustand (= Berechnungsgrundlage).
Die Sedimentbilanz I basiert auf öffentlich zugänglichen bodenkundlichen Punkt- und Flächendaten und hat eine Erosion von ~27 Mio. m³ mit einem Einzugsgebiets-Sedimentaus¬tragsverhältnis (CSDR) von 31,5 % ergeben. Die Sensitivitätsanalyse belegt eine hohe Abhängigkeit des Ergebnisses von der Wahl der Berechnungsgrundlage. Aufgrund fehlender Daten sind eine höhere räumliche Auflösung sowie Aussagen zur zeitlichen Entwicklung nicht möglich.
Die Berechnung der Sedimentbilanz II erfolgte auf der Grundlage eigens erhobener Punkt- und Flächendaten, womit die Anwendung eines nested approach möglich wurde: Neben der Gesamtbilanz für den Speyerbach (sechste Strahler-Ordnung) wurden Bilanzen für Teilein¬zugsgebiete erster und vierter Strahler-Ordnung erstellt, anhand derer die Skalenabhängigkeit der Sedimentdynamik diskutiert werden konnte. Es wurden ~109 Mio. m³ und ein CSDR von 5 % errechnet und ebenfalls eine hohe Sensitivität gegenüber der Änderung der Erosionstiefen festgestellt.
Die erfolgreiche Datierung von periglazialen Deckschichten zweier Bodenprofile unterstützt die Ergebnisse der Landnutzungsrekonstruktion aus Literaturdaten und historischen Karten und zeigt, dass in den Tälchen erster Ordnung Erosion verstärkt in der Neuzeit stattfand. Nur in den lösslehmbeeinflussten Gebieten hat sich die Besiedlung im Frühmittelalter in der Ablagerung von Bodensedimenten abgebildet. Es wurden frühholozäne Umlagerungsprozesse am Hang identifiziert. Aufgrund der guten Datierungseigenschaften der sandigen periglazia¬len Lagen wäre das Untersuchungsgebiet geeignet, der Frage nach der Parallelisierung der frühholozänen Umlagerungen von Hangsedimenten mit Klimaschwankungen nachzugehen.
Die vorliegende Arbeit liefert mit den erstellten Sedimentbilanzen und der Darlegung der Landnutzungsverhältnisse ein regionales Beispiel für Mittelgebirgsräume im Rhein-Einzugs¬gebiet. Die mikro- bis mesoskaligen Ergebnisse folgen der generellen Tendenz anderer welt¬weiter Studien, wonach die Sedimentaustragsverhältnisse mit steigender Einzugsgebietsgröße abnehmen. Die Werte der Sedimentbilanz II liegen jedoch deutlich unter denen der Lössge¬biete und belegen, dass sich die Zwischenspeicherung in der Mittelgebirgsregion höher ist. Die räumliche Differenzierung zeigt regionale Unterschiede, die auf der Zugänglichkeit, der administrativen Zugehörigkeit und die naturräumliche Ausstattung zurückzuführen sind. Arbeiten in anderen Sandsteinregionen Deutschlands sind derzeit im Gange und werden in Zukunft eine Einschätzung der vorliegenden Untersuchung zulassen.
Arbeitslosigkeit und gesundheitlicher Status sind eng miteinander verbunden. Verlust sozialer Bindungen, Verschlechterung mentaler und physiologischer Gesundheit und damit einhergehend der Verlust an Lebensqualität lassen Morbidität und Mortalität in der Gruppe der Arbeitslosen im Vergleich zur erwerbstätigen Bevölkerung deutlich ansteigen [13, 15 – 21]. Körperliche Aktivität entsprechend internationaler Bewegungsempfehlungen [157] ist nachweislich dazu in der Lage positive gesundheitliche Effekte auf der individuellen Ebene zu erzielen [52, 55]. Dennoch zeigen arbeitslose im Vergleich zum Durchschnitt der bundesdeutschen Bevölkerung ein noch höheres Maß an körperlicher Inaktivität [24, 176] und nehmen Sport- und Bewegungsangebote sowie Präventionsangebote der Krankenkassen deutlich seltener wahr [10]. Programme zur Gesundheitsförderung bei Langzeitarbeitslosen sind generell noch selten und wenn solche Programme durchgeführt wurden mangelt es bisher meist an entsprechenden Evaluationskonzepten zur Wirksamkeit dieser Angebote [13]. Werden Angebote für die Zielgruppe initiiert, beinhaltet dies überwiegend die Einrichtung separater, zeitlich beschränkter Gruppenkurse ohne Folgeangebot. Die Durchführung solcher Angebote obliegt größtenteils zusätzlich qualifizierten Mitarbeitern der Jobcenter und nicht Fachkräften aus der Gesundheitsförderung [116, 117]. Bewegungsbezogene Programme zur Gesundheitsförderung bei Arbeitslosen sind insgesamt noch selten und objektive Daten zum Bewegungsverhalten der Teilnehmer bislang noch nicht verfügbar. Mögliche, aber bisher nur vereinzelt praktizierte Ansätze stellen Konzepte zur Bewegungsberatung (physical activity counseling) bzw. Vermittlung in Bewegungsangebote (exercise referral) dar. Vor diesem Hintergrund besitzen Erkenntnisbeiträge zur Qualitätssicherung und zur Entwicklung spezifischer Beratungs- und Vermittlungskonzepte zur bewegungsbezogenen Gesundheitsförderung bei speziellen Zielgruppen eine hohe Relevanz für das Forschungsfeld. In der vorliegenden Dissertationsschrift wurde aufbauend auf dem dargelegten Forschungsdefizit ein theoriegeleitetes Beratungs- und Vermittlungskonzept (AGILer) zur Steigerung körperlicher Aktivität entsprechend internationalen Standards und Empfehlungen [14, 122, 123] entwickelt und in Kooperation mit regionalen Jobcentern der Rhein-Main Region auf die Zielgruppe älterer Langzeitarbeitsloser übertragen. Ziel des Beratungs- und Vermittlungsansatzes ist es Langzeitarbeitslose für das Thema gesundheitsförderliche körperliche Aktivität (HEPA) im Alltag zu sensibilisieren und so den Umfang körperlicher Aktivität entsprechend den Leitlinien [157] auf ein gesundheitsförderliches Maß zu erhöhen sowie diese bisher schwer zu erreichende Personengruppe an bestehende Bewegungsangebote örtlicher Anbieter (Sportvereine, Volkshochschulen, etc.) anzubinden. Die Intervention wurde anhand zweier separater Studien hinsichtlich der Erreichbarkeit der Zielgruppe sowie deren Wirksamkeit auf das Bewegungsverhalten der Teilnehmer evaluiert. Primärzielparameter der ersten Querschnittsstudie zur Erreichbarkeit war die Teilnahmerate an Angeboten des Gesundheitssports in Abhängigkeit gesundheitlicher Parameter und des Geschlechts. Insgesamt 741 Langzeitarbeitslose (54,3 ± 3,6 Jahre, 4,5 ± 4,4 Jahre arbeitslos) hatten nach einem ersten Gruppeninformationsangebot die Möglichkeit sich weiterführend individuell durch ein Expertenteam gesundheitlich beraten und in bestehende Bewegungsangebote vermitteln zu lassen. Erfasst wurden der BMI, das Bewegungsverhalten (IPAQ – 7-Tage-Kurzversion) [130] und die selbsteingeschätzte Gesundheit (VAS 1-100) [132, 133] der Teilnehmer. Es konnte auf Grundlage berechneter Häufigkeitsverteilungen (Chi²-Test) eine signifikant höhere Teilnahmerate an gesundheitssportlicher Aktivität in der Gruppe der Frauen gegenüber der Gruppe der Männer detektiert werden (p=.038). Insgesamt 28,2% der Frauen und 21,7% der Männer begannen im Anschluss an die Beratung eine gesundheitssportliche Aktivität. Unterschiede zwischen aktiven und nichtaktiven Teilnehmern hinsichtlich bewegungs- und gesundheitsbezogener Kennwerte bestanden gemäß berechneter Mittelwertsunterschiede nur für die Gruppe der Männer. Männer mit einem erhöhten gesundheitlichen Risiko aufgrund von Bewegungsmangel (<150 Min. körperliche Aktivität/Woche), erhöhtem BMI(>30 kg/m²) und unterdurchschnittlichem Gesundheitsempfinden (VAS <50) begannen signifikant häufiger mit Gesundheitssport (p< .001) als die übrigen Männer der Stichprobe. Ihre Vermittlungschance in ein gesundheitssportliches Angebot war gemäß beobachteter Häufigkeitsverteilung um das 2,8 fache erhöht (95% CI 1,8 – 4,3). Die zweite Längsschnittstudie zur Wirksamkeit des Beratungsansatzes evaluiert erstmalig anhand objektiver Messgrößen die Effekte einer strukturierten Bewegungsberatung hinsichtlich der Veränderbarkeit des Bewegungsverhaltens in der Zielgruppe. Hierzu wurde eine Stichprobe 51 älterer Langzeitarbeitsloser (54,3 ± 3,6 Jahre, 4,8 ± 3,2 Jahre arbeitslos) ohne manifeste gesundheitliche Einschränkungen (attestiert durch den Hausarzt) mit dem Ziel einer Erhöhung körperlicher Aktivität im Alltag und der Möglichkeit zur Aufnahme eines strukturierten Bewegungsprogramms sportmedizinisch beraten. Weitere 21 langzeitarbeitslose (56,1 ± 2,8 Jahre, 4,8 ± 3,0 Jahre arbeitslos) und 17 erwerbstätige Personen (56,4 ± 3,4 Jahre) ohne Beratungs- oder Vermittlungsangebot bildeten die Kontrollgruppen. Die Umfänge körperlicher Aktivität aller 89 Probanden wurden vor und 12 Wochen nach der Beratung jeweils für 7 Tage mittels zweiachsiger Akzelerometrie (ActiGraph GT1M) gemessen. Im Ergebnis absolvierten insgesamt 58 Personen die Eingangs- und Ausgangsmessung. Zur Eingangsmessung zeigte die erwerbstätige Kontrollgruppe signifikant höhere Umfänge körperlicher Aktivität als die erwerbslosen Studienteilnehmer. Für Personen, die nach der Beratung in eine strukturierte Bewegungsaktivität vermittelt wurden, zeigte die mehrfaktorielle ANOVA eine signifikante Steigerung sowohl des Umfangs moderater bis intensiver körperlicher Aktivität (MVPA) von 26 ± 14 auf 35 ± 25 Min./Tag als auch des Gesamtumfanges körperlicher Aktivität von 207 ± 86 auf 288 ± 126 cpm. Personen die nur das Beratungsangebot wahrnahmen sowie die Kontrollgruppen zeigten keine Steigerungsraten körperlicher Aktivität. Schlussfolgernd zeigen die Untersuchungsergebnisse, dass bereits bei anderen Zielgruppen etablierte und evaluierte Beratungskonzepte entsprechend internationaler Empfehlungen zur Bewegungsförderung ebenso auf bisher weniger beachtete Zielgruppen wie beispielsweise Arbeitslose übertragen werden können. Die im Rahmen der vorliegenden Untersuchung erhöhte Erreichbarkeit gesundheitlich besonders gefährdeter Studienteilnehmer erscheint vor dem Hintergrund steigender Gesundheitskosten und der Zunahme vor allem chronischer Erkrankungen [177, 178] von besonderer Bedeutung und ist höher als in vergleichbaren Untersuchungen [11]. Es konnte gezeigt werden, dass der Beratungs- und Vermittlungsansatz geeignet ist, das Bewegungsverhalten Langzeitarbeitsloser nachweislich zu verbessern und den Umfang körperlicher Aktivitäten entsprechend den Leitlinien [157] zu erhöhen. Allerdings scheint, anders als bei anderen Zielgruppen [147, 149, 150], ein alleiniges Beratungsangebot nicht auszureichen um das Bewegungsverhalten in der Zielgruppe positiv zu beeinflussen. Dieses Ergebnis könnte allerdings auch auf dem nichtrandomisierten Studiendesign und daraus resultierenden Selektionseffekten beruhen. Insgesamt kann die vorliegende Arbeit einen wichtigen Beitrag zum Erkenntnisgewinn zur Effektivität spezifischer Beratungskonzepte bei bisher schwer zu erreichenden Zielgruppen beitragen. Weiterer Forschungsbedarf wird hinsichtlich der Nachhaltigkeit der Interventionseffekte gesehen.
Zellulare Nichtlineare Netzwerke bzw. Zellulare Neuronale Netzwerke, sogenannte CNN, wurden 1988 von L.O. Chua und L.Yang eingeführt und seither intensiv untersucht. Diese sind als Simulations-Software und als schaltungstechnische Realisierungen, in Hardware, verfügbar.
Als analog arbeitende Hardware Schaltungen können diese Netzwerke erhebliche Rechenleistungen erzielen.
Durch ihren Aufbau ermöglichen sie eine parallele Daten- und Signalverarbeitung.
Eine Einführung in CNN wird gegeben und das EyeRIS 1.1 Systems des Unternehmens ANAFOCUS Ltd. vorgestellt.
Das EyeRIS 1.1 System ist mit einem analog arbeitenden Focal Plane Prozessor (FPP) und einem digitalen Prozessor ausgestattet, wobei der Focal Plane Prozessor auch als Kamera zur Aufnahme von Bildern und Bildsequenzen benutzt werden kann.
Dies ermöglicht es, analoge CNN-Algorithmen zusammen mit digitalen Algorithmen auf einem System zu implementieren und so die Vorteile beider Ansätze zu nutzen. Der Datenaustausch zwischen dem analogen und digitalem Teil des EyeRIS 1.1 Systems geschieht mittels digital/analog und analog/digital Wandlung. Es werden Algorithmen auf dem EyeRIS 1.1 System untersucht und mit Ergebnissen die mittels Simulationen erzeugt wurden verglichen.
In Voruntersuchungen werden die Darstellungsgenauigkeit von Werten im analogen Teil des EyeRIS 1.1 Systems und die Verarbeitungsgeschwindigkeiten des EyeRIS 1.1 Systems untersucht.
Im Weiteren wird besonderes Augenmerk auf medizinische und technische Anwendungsgebiete gelegt werden.
Im medizinischen Anwendungsbereich wird die Implementierung von Algorithmen zur Vorhersage epileptischer Anfälle untersucht.
Hierfür wird ein evolutionär motiviertes Optimierungsverfahren entwicklet und auf dem EyeRIS 1.1-System implementiert.
Hierbei werden Simulationen durchgeführt und mit Ergebnissen, die mittels Verwendung des EyeRIS 1.1 Systems erlangt wurden, verglichen.
Ein zweites Verfahren geht die Signalanalyse für die Vorhersage auf dem EyeRIS 1.1-System mittels Mustererkennung an.
Das Mustererkennungsverfahren wird eingehend beschrieben sowie die hierbei zu beachtenden Randbedingungen erläutert.
Die Ergebnisse zeigen, daß Algorithmen zur Vorhersage von epileptischen Anfällen auf schaltungstechnichen Realisierungen von CNN implementiert werden können.
Im technischen Bereich wird die Anwendbarkeit auf die Problemstellung der Bildverarbeitung gelegt und die Möglichkeit von CNN basierten Algorithmen zur Erkennung von Prozessparametern bei Laserschweißverfahren untersucht. Ein solcher Prozessparameter ist das sogenannte Key-Hole, welches in Bildsequenzen von Laserschweißprozessen als ein Maß für die zu erwartende Qualität einer Schweißnaht herangezogen werden kann. Ein CNN basierter Algorithmus für die Erkennung solcher Key-Holes wird in dieser Arbeit vorgestellt und untersucht.
Für die Überwachung eines Laserschweißverfahrens wird der entwickelte Algorithmius und seine Funktionsweise beschrieben.
Dieser wird in Teilalgorithmen auf die analog bzw. digital arbeitenden Komponenten des EyeRIS 1.1 Systems verteilt.
Die Teilalgorithmen und die möglichen Aufteilungen und deren Laufzeitverhalten werden beschrieben und untersucht.
Die Ergebnisse der Untersuchung zeigen, daß eine Prozessüberwachung mittels CNN möglich ist und heben die Vorteile hervor, welche die Bildaufnahme und -verarbeitung mittels analoger CNN-Hardware bietet.
Eine Untersuchung des Laufzeitverhaltens auf Grafikkarten Prozessoren (GPU's) wird im Anhang vorgestellt.
Die Soziale Phobie ist eine weit verbreitete Störung, die ohne geeignete Therapie einen chronischen Verlauf annimmt und bei den Betroffenen zu einem hohen Leidensdruck führt. Für die Behandlung stehen sowohl pharmakologische als auch psychotherapeutische Therapieansätze zur Auswahl (siehe Heinrichs, Stangier, Gerlach, Willutzki, & Fydrich, 2011). Eine Reihe von randomisierten kontrollierten Studien belegen, dass die kognitive Therapie zu den effektivsten Behandlungsmethoden zählt. Die vorliegende Dissertation konzentriert sich auf unterschiedliche Aspekte, die die Dissemination dieses Ansatzes verbessern sollen. In einer Übersichtsarbeit (Ginzburg & Stangier, im Druck) wird zunächst ein Überblick über den aktuellen Forschungsstand zur Diagnostik und Therapie der Sozialen Phobie gegeben. Die Ergebnisse aktueller Metaanalysen zur Behandlung werden kritisch diskutiert. Besondere Beachtung wird dem kognitiven Therapieansatz nach Clark und Wells (1995) geschenkt, der mit sehr hohen Effektstärken beeindruckt. Diese Therapie wurde in mehreren randomisiert-kontrollierten Studien untersucht und zeigte sich Therapieformen wie der Interpersonellen Therapie (Stangier, Schramm, Heidenreich, Berger, & Clark, 2011; Mörtberg, Clark, Sundin, & Aberg, 2007), medikamentöser Therapie (Clark et al., 2003) oder Entspannungsverfahren (Clark et al., 2006) deutlich überlegen. Neueste Forschungsbefunde zu den einzelnen Komponenten dieser Therapie werden im Hinblick auf ihre aufrechterhaltende Funktion sozialer Ängste und ihrer Effektivität diskutiert.
In einer zweiten Publikation (Ginzburg, Bohn, Stangier & Steil 2011) wird der kognitive Ansatz nach Clark und Wells auf eine komplexe, mit starker körperlicher Symptomatik verbundene Form der Sozialen Phobie, angewendet und evaluiert. Paruresis (Williams & Degenhardt, 1954) bezeichnet die Angst, auf öffentlichen Toiletten zu urinieren, und geht mit einem psychogenen Harnverhalt (Hammelstein, Pietrowsky, Merbach, & Brahler, 2005; Soifer, Nicaise, Chancellor, & Gordon, 2009) einher. Publikation dokumentiert, wie das kognitive Modell nach Clark und Wells (1995) bei Betroffenen mit starken körperlichen Symptomen angewendet werden kann. In dem theoretischen Teil der Arbeit wird auf die Notwendigkeit einer genauen Operationalisierung der mit dem Störungsmodell verknüpften Interventionen hingewiesen und anhand einer Falldarstellung veranschaulicht. Für die Praxis ergibt sich die Konsequenz, dass das kognitive Modell einen flexible Fallkonzeption und Behandlungsplanung ermöglicht und auch auf untypische Behandlungsfälle übertragbar ist.
Die flexible und kompetente Umsetzung von Interventionen spielt allerdings nicht nur bei komplexen Fällen eine Rolle. Im Rahmen der Psychotherapieprozessforschung ist der Therapeutenfaktor bei der Umsetzung der Therapiemethode und ihrer Interventionen von
großer Bedeutung und beeinflusst maßgeblich die Effektivität der Behandlung (Perepletchikova & Kazdin, 2005). In randomisiert-kontrollierten klinischen Studien wird ein großes Augenmerk auf die Behandlungsintegrität, d.h. die Umsetzung von Behandlungsvorgaben durch den Therapeuten (Waltz, Addis, Koerner, & Jacobson, 1993; Weck, Bohn, Ginzburg, & Stangier, 2011), gelegt. Bislang liegen jedoch noch keine gesicherten Hinweise vor, ob die manualgetreue Durchführung der Interventionen an sich (Adhärenz), oder auch die kompetente Anpassung dieser Interventionen an den jeweiligen Behandlungskontext (Kompetenz), zu besseren Ergebnissen in der kognitiven Therapie sozialer Phobien führt. In Studie 3 (Ginzburg, Bohn, Weck, Clark und Stangier, submitted) wird der Einfluss von Adhärenz und Kompetenz auf das Therapieergebniss bei Patienten mit Sozialer Phobie überprüft. Die Ergebnisse zeigen, dass eine höhere Kompetenz, nicht jedoch Adhärenz, bei der Anwendung der vorgesehenen Interventionen auch mit einem besseren Behandlungserfolg einhergeht. Von besonderer Bedeutung für die Vorhersage des Therapieerfolges waren spezifisch verhaltenstherapeutische Kompetenzen.
Obwohl Adhärenz und Kompetenz des Therapeuten die Effektivität von
Psychotherapie signifikant beeinflussen, gehen vergleichsweise nur wenige Studien dieser Fragestellung nach (Perepletchikova, Treat, & Kazdin, 2007). Der hierfür notwendige hoher Zeit- und Kostenaufwand ist eine der wesentlichen Ursachen hierfür (Perepletchikova, Hilt, Chereji, & Kazdin, 2009). Um Adhärenz und Kompetenz reliabel und valide einschätzen zu können, sind Audio- bzw. Videoanalysen von Therapiesitzungen durch unabhängige und trainierte Beurteiler die Methode der Wahl. Die Reduktion des Zeitaufwandes durch die Konzentration auf relevante Videoausschnitte könnte zu einer Verbesserung der Rahmenbedingungen für die Psychotherapieforschung darstellen. In Studie 3 (Weck, Bohn, Ginzburg und Stangier, 2011) wird untersucht, ob therapeutische Adhärenz und Kompetenz auch auf der Grundlage von Sitzungsausschnitten reliabel erfaßt werden kann und den Therapieerfolg vorhersagen kann. Beim Vergleich von zwei Ratingmethoden zeigte sich, dass die genauesten Aussagen anhand der Analyse einer ganzen Sitzung getroffen werden konnten.
Zusätzlich zeigten jedoch auch die Kompetenz- und Adhärenz-Einschätzungen des mittleren Sitzungsausschnittes einen hohen Zusammenhang zu den Ratings der Gesamtsitzung. Hieraus kann die Schlußfolgerung gezogen werden, dass die Analyse von Sitzungsausschnitten eine ökonomische Alternative zu der bisherigen Forschungspraxis darstellen kann, vollständige Sitzungen zu untersuchen.
Kaum eine andere Industrie wurde in den vergangenen beiden Jahrzehnten so massiv durch den Einzug der Informationstechnologie geprägt wie der Wertpapierhandel. Traditionelle Geschäftsmodelle haben sich grundlegend verändert. Das klassische Börsenparkett ist nahezu vollständig elektronischen Handelsplattformen gewichen.
Die Hauptthese dieses Papers geht von dem Konzept der normativen Verfassung der Nachkriegzeit aus und setzt sich kritisch mit dem Konzept des 19. Jahrhunderts „Verfassungswandlung“ auseinander. Das Konzept des Verfassungswandels ist mit der Verfassungsdemokratie inkompatibel. Statt von einem Verfassungswandel zu sprechen, sollte man die Entwicklung des Sinns der Normen in der Zeit als dynamische Interpretation bezeichnen.
»Ohne Fleiß kein Preis«, heißt es. Und der nachfolgende Beitrag wäre zumindest teilweise entbehrlich, wenn dieses Sprichwort uneingeschränkt stimmen würde. Aber auch wenn man die Redewendung beim Wort nimmt, bleibt Erklärungsbedarf: Für »Preis« kann man wohl ohne Weiteres Geld oder Einkommen einsetzen. Was aber meint »Fleiß« genau? Man kann auch durch Erbschaft, Spezialbegabungen oder pures Glück zu viel Geld kommen, ohne sich sonderlich anzustrengen. Und in einer freien Marktwirtschaft scheinen ohnehin vor allem Angebot und Nachfrage den Preis zu bestimmen. So direkt und gerecht scheint der Zusammenhang vom Fleiß zum Preis also nicht zu sein.
Schädigungen des Zentralnervensystems führen häufig zu schweren irreversiblen Schäden, die die Betroffenen vor große körperlichen und psychischen Herausforderungen stellen. Auf zellulärer Ebene ist bekannt, dass das Gehirn über protektive Mechanismen verfügt, die zwar nach der Schädigung aktiviert werden deren Potential jedoch nicht ausreicht, um den Schaden einzudämmen. Das Endocannabinoidsystem wurde mehrfach als ein solches protektives System bei ZNS Läsionen beschrieben. Zu den klassischen und gut untersuchten Endocannabinoiden (eCBs) wie Anandamid oder 2-AG kommen im Gehirn mehrere eCBs vor, deren physiologische und pathologische Bedeutung schwer einzuordnen ist. Das N-Arachidonyl-Dopamin (NADA) gehört zu dieser Gruppe und wirkt über bereits bekannte Cannabinoid Rezeptoren.
Im Rahmen dieser Arbeit wurde die Wirkung von NADA auf das Überleben der Körnerzellen im Gyrus dentatus im Modell der organotypischen hippokampalen Schnittkulturen (OHSC) untersucht. Weiterhin wurden die beteiligten Rezeptoren und die intrazellulären Signalkaskaden an neuronalen und gliösen Primärkulturen sowie Zelllinien analysiert. Nach der NMDA Schädigung kam es zum massiven Absterben der Neurone und einer deutlichen Zunahme der Zahl von Mikrogliazellen. NADA (100 pM-10 μM) hemmte den Prozess der neuronalen Schädigung und führte bei 1 nM und 1 μM zum Rückgang der Mikrogliaanzahl in geschädigten OHSC. Weiterführende Analysen ergaben, dass NADA Effekte über den Cannabinoid (CB)1 Rezeptor mediiert. Sowohl die abnCBD, CB2, TRPV1 und TRPA1 Rezeptoren als auch -als struktureller Bestandteil des NADA waren an den Wirkungen nicht beteiligt. Es ist bekannt, dass der TRPV1 Rezeptor eine große Rolle bei NADA mediierten Effekten in der Peripherie spielt. Das Vorkommen bzw. die funktionelle Aktivität des TRPV1 im ZNS ist Gegenstand kontroverser Diskussionen. TRPV1 konnte auf mRNA Ebene in organotypischen hippokampalen Schnittkulturen (OHSC), Astrozyten, hippokampalen Neuronen und DRG (Spinalganglien) nachgewiesen werden. Mittels Calcium Imaging und Elektrophysiologie konnte an HEK293-TRPV1 Zellen NADA als Agonist des TRPV1 bestätigt werden. In allen untersuchten Zellen war jedoch die Funktionstüchtigkeit des TRPV1 Rezeptors mittels Calcium Imaging Messungen nicht nachweibar.
Im nächsten Schritt wurde geprüft, welche der klassischen mit dem Endocannabinoidsystem assoziierten Signalkaskaden an der NADA vermittelten Protektion teilnehmen. Die Signalkaskaden p38 und p44/42 MAPK wurden in den stimulierten und nichtstimulierten Zellen durch NADA nicht beeinflusst.
NADA gehört somit zur Gruppe der neuroprotektiv wirkenden Endocannabinoide, welches seine Effekte über den CB1 Rezeptor vermittelt. Im Schädigungsmodell des OHSC spielt der TRPV1 Rezeptor keine Rolle. Weitere intrazelluläre Signalkaskaden, wie der PLC Weg, bedürfen einer weitergehenden Analyse bezüglich ihrer Involvierung in NADA-vermittelte Effekte.
Werte sind zentraler Bestandteil der persönlichen wie sozialen Identität und spielen eine wichtige Rolle für das menschliche Erleben und Verhalten. Bisher wurden Werte aber immer nur als normative Richtlinien oder motivationale Grundlagen verstanden, an denen sich Personen bewusst orientieren oder auf die sie sich zu bewegen. Erste Forschungsergebnisse konnten nachweisen, dass Personen unabhängig davon auch von Unwerten geleitet werden, an denen sie sich bewusst nicht orientieren oder von denen sie sich wegbewegen (Van Quaquebeke, Kerschreiter, Buxton, & van Dick, 2010). Vor diesem Hintergrund stellen die zentralen Ziele dieser Dissertation die theoretische Herleitung der Trennung von Werten und Unwerten und der praktische Nachweis des Einflusses beider Werteorientierungen auf das menschliche Erleben und Verhalten dar. In dem ersten Manuskript, das dieser Dissertation zugrunde liegt, erfolgte die konzeptionelle Herleitung und Trennung von Werten und Unwerten. Durch das Aufzeigen des theoretischen Ursprungs beider Werteorientierungen konnten explizite Hypothesen zu ihrer Trennung und unabhängigen Wirkung, vor allem in organisationalen- und Führungs-Kontexten, hergeleitet und aufgestellt werden. In dem zweiten Manuskript konnte in zwei Feldstudien (N1 = 131 und N2 = 136) aufgezeigt werden, dass sich Werte und Unwerte empirisch tatsächlich voneinander unterscheiden lassen und unterschiedliche Einflüsse auf die Wahrnehmung ihrer Mitarbeiter und die Ausmaße an Identifikation und Respekt haben. In dem dritten Manuskript konnte in einer Feldstudie (N1 = 95) und einer Szenariostudie (N2 = 137) nachgewiesen werden, dass ideale Werte, die durch Führungskräfte verkörpert werden, darüber hinaus die Wahrnehmung ihrer Mitarbeiter und die Ausmaße an Identifikation und Anerkennung positiv beeinflussen. Das gilt besonders für interne Führungskräfte, die die Mitarbeiter schon länger führen und als Teil der Arbeitsgruppe angesehen werden. Insgesamt weist diese Dissertation auf die Bedeutung einer differenzierten Darstellung und Betrachtung von Werteorientierungen und Wertesystemen hin und liefert mit der Einführung von Unwerten in die (organisationale) Forschung einen wichtigen Beitrag zur Erforschung ihres Einflusses auf das Erleben und Verhalten von Führungskräften und Mitarbeitern.
Die Lösung globaler Probleme wie Klimawandel, Umweltzerstörung oder Ernährungssicherung erfordert grundlegende Transformationen unserer Gesellschaft. Um diese neuartigen und existenziellen Herausforderungen bewältigen zu können, brauchen wir neues Wissen – über die Entstehung der Probleme, über anzustrebende Lösungsansätze und über Wege zu deren Umsetzung.
Mit dem Ziel, dieses Wissen zu schaffen, hat sich die transdisziplinäre sozial-ökologische Forschung entwickelt – eine innovative, praxisnahe Forschung entlang der zentralen Motive Verstehen – Bewerten – Gestalten: Komplexe Probleme zu verstehen, die erarbeitete Wissensbasis zu bewerten und Handlungsoptionen zu gestalten greifen bei diesem Forschungstypus ineinander. Die sozialökologische Forschung hat eine Pionierfunktion für die Umwelt- und Nachhaltigkeitsforschung in Deutschland übernommen und wegweisende Arbeiten etwa zur Energie-, Mobilitäts- oder Ernährungswende vorgelegt.
Im Förderschwerpunkt Sozial-ökologische Forschung (SÖF) hat das Bundesministerium für Bildung und Forschung (BMBF) im Jahr 2000 erstmals ein Programm zur Förderung dieses spezifischen Forschungszugangs aufgelegt. Bis zum Jahr 2012 wurden darin Verbünde und Einzelvorhaben unterstützt, etwa zu Themen wie Umwelt - Ernährung - Gesundheit: Langfriststrategien für einen nachhaltigen Konsum oder Soziale Dimensionen von Klimaschutz und Klimawandel. Mit Erfolg: Forschungsvorhaben zur Transformation stehen inzwischen prominent auf der Tagesordnung von Politik und Gesellschaft. Und auch die Wissenschaft selbst öffnet sich immer mehr für die Fragen und Methoden der sozial-ökologischen Forschung.
Dieses Memorandum setzt sich dafür ein, die Basis der sozial-ökologischen Forschung in den kommenden Jahren konsequent zu vertiefen und zu verbreitern – inhaltlich, organisatorisch und institutionell. Dazu gibt das Memorandum Empfehlungen zur Förderung von Themenfeldern und von Maßnahmen der Strukturentwicklung.
Einer der zahlreichen Vorträge von Gertrude Lübbe-Wolff beginnt folgendermaßen: "Herr Gerhardt hat mich eingeladen, etwas über die aktuelle Bedeutung von Hegels Rechtsphilosophie zu sagen. Nichts lieber als das. An der Aktualität der Hegelschen Rechtsphilosophie leide ich geradezu, und über das, woran man leidet, spricht man ja gern. Die Aktualität der Hegelschen Rechtsphilosophie zeigt sich mir darin, dass ich öfter an Hegel denken muss, als mir lieb ist. Ich muss so oft an ihn denken, weil in unserer öffentlichen Kultur das Hegelwidrige so präsent ist." ...
Dieter Grimm im Interview: Welche Hürden das Grundgesetz vor einem NPD-Verbot errichtet, wie andere Demokratien mit verfassungsfeindlichen Parteien fertigwerden, und warum eine NPD-Klage gegen ein Verbot vor dem Europäischen Gerichtshof für Menschenrechte in Strassburg durchaus Erfolgschancen besäße.
Gestern hat sich hier im Blog eine interessante Kontroverse entsponnen über meine These, dass der Anruf des Bundespräsidenten bei Kai Diekmann die Pressefreiheit desselben und seiner Bildzeitung unangetastet gelassen hat. Wir haben Dieter Grimm, den ehemaligen BVerfG-Richter und Rektor des Wissenschaftskollegs, um ein klärendes Wort gebeten und die Gelegenheit genutzt, ihm auch noch einige weitere Fragen zur Affäre um den Bundespräsidenten zu stellen.
95% unseres weltweiten Datenverkehrs werden von Unterseekabeln transportiert, nur ein Bruchteil über Satelliten (~5%). Das macht sie zu einer zentralen, kritischen Infrastruktur. Die Kabel verbinden Menschen und Regierungen, ermöglichen eine globale Datenkommunikation und damit auch unsere moderne und vernetzte Gesellschaft. Das derzeitige, alltägliche Leben vieler Menschen wäre ohne diese Kabel nicht möglich. Ein moderner Staat und seine Armee wären nicht handlungsfähig...
Das Burkitt Lymphom ist ein aggressives B-Zelllymphom, das in tropischen Regionen Afrikas und in Neu Guinea endemisch auftritt und vor allem bei Kindern vorkommt. Die sporadische Form des Burkitt Lymphoms tritt weltweit in geringerer Häufigkeit auf und betrifft alle Altersschichten. In nahezu allen endemischen Fällen ist das Epstein-Barr Virus in den Tumorzellen nachweisbar, jedoch nur in ca. 20 % der sporadischen Fälle. Der Beitrag von EBV zur Entstehung EBV-positiver Burkitt Lymphome ist seit über 50 Jahren EBV-Forschung ungeklärt. Im Jahr 2004 wurden im Genom des Epstein-Barr Virus eine Reihe von microRNAs entdeckt, die potentiell für die Pathogenese des EBV-positiven Burkitt Lymphoms relevant sein könnten. Da die Expression der viralen microRNAs seither für das Burkitt Lymphom nur unvollständig beschrieben worden sind, wurden sie in dieser Arbeit systematisch analysiert und dadurch ein vollständiges Expressionsprofil erstellt. Es konnte dabei keine Unterscheidung zwischen endemischen und sporadischen Fällen erreicht werden, jedoch wurden hierbei erstmals Fälle identifiziert, die trotz nachgewiesener EBV-Assoziation keine viralen microRNAs enthielten. Neben den viralen microRNAs könnten im Burkitt Lymphom auch die zellulären microRNAs für die Tumorentstehung von Bedeutung sein. Deshalb wurde in dieser Arbeit auch die Expression der zellulären microRNAs aus Burkitt Lymphom-Biopsien charakterisiert. Durch hierarchisches „Clustering“ bildeten sich drei Gruppen, die hauptsächlich durch An- und Abwesenheit von zwei microRNAs (miR21 und miR92a) definiert wurden, denen onkogenes Potential zugeschrieben wird. Die Expressionsmuster der einzelnen Gruppen weisen auf zelluläre Mechanismen der Pathogenese des Burkitt Lymphoms hin.
Die genetische Charakteristik des Burkitt Lymphoms ist eine Chromosomentranslokation, welche das Protoonkogen c MYC unter die Kontrolle von regulatorischen Elementen der Immunglobulingene bringt. Durch die somit erhöhte Transkription von c-MYC entfaltet das Genprodukt sein onkogenes Potential. Mutationen im offenen Leserahmen können dieses Potential zusätzlich verstärken. Da c MYC ein pleiotroper Transkriptionsfaktor ist und somit auf eine ganze Reihe zellulärer Prozesse Einfluss hat, bewirkt die Translokation massive Veränderungen in der Zelle. Vorangegangene Untersuchungen der Arbeitsgruppe zeigten, dass die antivirale Interferonantwort durch hohe c MYC-Expression unterdrückt wird. Diese Beobachtung liefert eine mögliche Erklärung für die Immunevasion von Burkitt Lymphom-Zellen, trotz Anwesenheit des EBV-Genoms. In Zelllinien, die aus Burkitt Lymphom-Biopsien generiert wurden, konnte gezeigt werden, dass EBV eine Interferoninduktion auslöst, die durch c-MYC unterdrückt wird. In dieser Arbeit konnte auch gezeigt werden, dass Epstein-Barr-virale Nukleinsäureprodukte durch den zytosolischen Rezeptor RIG-I Interferon induzieren, dieser aber durch die hohe c-MYC-Expression transkriptionell gehemmt wird. Neben RIG-I wurden weitere Rezeptoren und Mediatoren der Interferoninduktionskaskade identifiziert, die ebenfalls transkriptionell von c-MYC unterdrückt werden. Diese Ergebnisse stützen die Hypothese, dass c-MYC durch Unterdrückung der angeborenen Immunität die Immunevasion von Burkitt Lymphom-Zellen ermöglicht.
Der 1723 in Schottland geborene und 1794 in Princeton, New Jersey, verstorbene John Witherspoon hat eine Sonderstellung in der amerikanischen Kulturgeschichte, denn er gilt als Urheber der "ersten umfassenden amerikanischen Rhetorik". Diese konstituiert sich im Wesentlichen in seinen Lectures on Eloquence, seinen Lectures on Moral Philosophy sowie seiner politischen und homiletischen Redepraxis im Kontext der amerikanischen Revolution (1763-1789). Die vorliegende Studie untersucht die historiographisch-kulturwissenschaftliche Bedeutung dieses einflussreichen, fast vergessenen Gründervaters und seiner produktiven Rezeption (imitatio atque aemulatio) ciceronianisch-republikanischer Rhetorik.
Im Zentrum steht die Frage nach Witherspoons imitatio Ciceronis und inwieweit diese für den Calvinisten mit der imitatio Christi im revolutionären Prozess vereinbar war. Tatsächlich zeigt sich bei der Untersuchung ein fundamentaler Habitus-Konflikt zwischen dem ursprünglich polytheistisch und republikanisch orientierten Ciceronianus und dem monotheistischen zur Monarchie tendierenden Christianus. Dieser Konflikt erklärt zum Teil die erheblichen Diskrepanzen zwischen Witherspoons rhetorischer Praxis und Lehre. Diese beziehen sich insbesondere auf die rhetorische inventio, die Witherspoon in seinen Vorlesungen als der Lehre nicht würdig erachtet. In seinen Reden nutzt er jedoch inventive Techniken wie die Status- und Chrienlehre zur effektiven Strukturierung. Dies wird anhand von drei bedeutsamen Reden verdeutlicht (The Dominion of Providence Over the Passions of Men, "Speech on the Convention with Burgoyne" und "Sermon Delivered at a Public Thanksgiving After Peace").
Von großer Bedeutung ist die dezidierte Hochschätzung des agonistischen ciceronianischen Rednerideals. Dieses Leitbild spielt im Prozess der Konstituierung der jungen amerikanischen Republik eine vitale Rolle und taucht insbesondere als republikanische Leidenschaft auf, die Witherspoons Anverwandlung der Catilinarien Ciceros zugrunde liegt. Andererseits findet sich das Festhalten an streng konservativ-calvinistischen Prinzipien. Auch im Bereich der Rhetorik bestätigt sich daher das als "doppelköpfig" erkannte Antlitz Amerikas, insofern heidnische und christliche Tradition eine besondere Verbindung eingehen. Witherspoon konnte, als erster akademischer Vertreter des Common-Sense-Realismus in Amerika, die sich ergebenden Spannungen zwar nicht lösen, aber offenbar mit seiner proto-pragmatistischen Philosophie verdecken.
Um ein besseres Verständnis der Stellung der ciceronianischen Rhetorik bei Witherspoon zu ermöglichen, wird sie auf dem Hintergrund tiefgreifender neuzeitlicher Humanismen wie des christlichen Humanismus und des Bürgerhumanismus rekonstruiert und im Bildungshorizont der "Neuen Rhetorik" des 18. Jahrhunderts gesehen. Mit diesen Paradigmen lässt sich die Rhetorik des Princetoner Professors als zivistisch-theistische Variante gegenüber der belletristisch-theistischen Ausprägung des Schotten Hugh Blair und der zivistisch-deistischen Entwicklung Thomas Jeffersons abgrenzen.