Refine
Year of publication
- 2013 (65) (remove)
Document Type
- Doctoral Thesis (65) (remove)
Language
- German (65) (remove)
Has Fulltext
- yes (65)
Is part of the Bibliography
- no (65) (remove)
Keywords
- Agent (1)
- Akustik (1)
- Anisotropie (1)
- Armenien (1)
- Augmented Reality (1)
- Autorensystem (1)
- Bewältigung (1)
- Bilderwelten (1)
- Bildverarbeitung (1)
- Buchgeschichte (1)
Institute
- Biowissenschaften (11)
- Biochemie und Chemie (9)
- Medizin (7)
- Pharmazie (6)
- Physik (6)
- Geschichtswissenschaften (3)
- Psychologie (3)
- Sportwissenschaften (3)
- Gesellschaftswissenschaften (2)
- Informatik (2)
Im Rahmen dieser Arbeit wurden astrophysikalisch relevante, kernphysikalische Raten, die zum Verständnis der beobachteten Häufigkeit des langlebigen Isotopes 60Fe wichtig sind, am GSI Helmholtzzentrum für Schwerionenforschung GmbH und am Forschungsreaktor TRIGA in Mainz gemessen.
Zunächst wurde der Coulombaufbruch von 59Fe und 60Fe am GSI Helmholtzzentrum für Schwerionenforschung GmbH untersucht. Zur Produktion der radioaktiven Strahlen wurde ein 64Ni-Primärstrahl auf ein Spallationstarget geleitet. Im Fragmentseparator wurden die Isotope nach deren magnetischen Steifigkeit separiert und nur die gewünschte Spezies im LAND/R3B-Aufbau untersucht. Die Bestimmung von Impuls und Ladung der eingehenden Ionen erlaubte eine individuelle Identifikation. Der Coulombaufbruchwirkungsquerschnitt wurde mit einer Bleiprobe bestimmt. Die verschiedenen Untergrundkomponenten ergaben sich aus einer begleitenden Leermessung, sowie einer Messung mit einer Kohlenstoffprobe. Der Wirkungsquerschnitt der Reaktion Pb(60Fe,n+59Fe)Pb bei (530±5) MeV/u wurde zu σ(60Fe,n+59Fe) COULEX = (298±11stat±31syst) mb (0.1) bestimmt und für die Reaktion Pb(59Fe,n+58Fe)Pb ergab sich σ(59Fe,n+58Fe) COULEX = (410±11stat±41syst) mb. (0.2)
Außerdem konnten für beide einkommenden Strahlsorten die Wahrscheinlichkeiten für die Produktion von zwei Neutronen bestimmt werden.
Anschließend wurde der Neutroneneinfangsquerschnitt von 60Fe bei kT = 25,3 meV am Forschungsreaktor TRIGA in Mainz bestimmt. Hierfür wurde eine 60Fe Probe zunächst anhand des Anstieges der Aktivität der 60Co-Tochterkerne charakterisiert und anschließend im Reaktor bestrahlt. Die frisch erzeugte Aktivität des 61Fe wurde mit einem HPGe-Detektor nachgewiesen. Mit Hilfe der Cadmiumdifferenzmethode konnte daraus erstmals der thermische Neutroneneinfangsquerschnitt von 60Fe zu σ60Fe(n,γ) th = 0,22±0,02stat±0,02syst b. (0.3) bestimmt werden. Für das Resonanzintegral ergab sich die obere Schranke von I 60Fe(n,γ) res = 0,61 b. (0.4)
Es wird allgemein vermutet, dass Klassenfahrten bei den Schülern nachhaltige Veränderungen bewirken können und nur wenige empirische Befunde belegen die Wirksamkeit von Klassenfahrten. Diese defizitäre Forschungslage aufgreifend, beschäftigt sich die vorliegende Arbeit mit der sozial-integrativen Wirkung einer sportbezogenen Klassenfahrt (Skifahrt) auf empirischer Grundlage.
Mit Hilfe der Desintegrationstheorie von Anhut & Heitmeyer (2000) lässt sich das Konstrukt „Integration“ in allgemeinerer Form über das antinomische Begriffspaar „Anerkennung vs. Ablehnung“ operationalisieren, wobei zwischen positionaler, moralischer und emotionaler Anerkennung bzw. Ablehnung unterschieden werden kann. Neben individuellen Merkmalen erfolgt die Vergabe und Verweigerung von Anerkennung über kollektive Merkmale, die auf Zugehörigkeit zu einer Gruppe beruht. Im pädagogischen Kontext der Schulklasse ist daher von besonderem Interesse, wie sich die Anerkennungsverhältnisse zwischen Gruppen verändern, denen besondere Potenziale für heterogenitätsbedingte Ablehnung zugeschrieben wird (vgl. Gerecke, 2010). Hypothetisch sind dies Mädchen „vs.“ Jungen, Jugendliche mit „vs.“ Jugendliche ohne Migrationshintergrund und bezüglich Klassenfahrten die Gruppe der Schüler, die nicht teilnehmen konnten „vs.“ der Gruppe derer, die teilgenommen haben. Auf dieser Grundlage beschäftigt sich die vorliegende Arbeit mit den Effekten sportbezogenen Klassenfahrten auf die soziale Integration operationalisiert in Anerkennungsverhältnissen.
Mittels eines soziometrischen Wahlverfahrens wurden die Anerkennungs- und Ablehnungsverhältnisse von vier Schulklassen (N=95) zu drei Messzeitpunkten (Eingangs-, Ausgangs- und Behaltenstest nach sechs Wochen) computergestützt erhoben.
Die Betrachtung der Gesamtgruppe zeigt eine Steigerung der positiven Wahlen (eta²=0,210) bei einer gleichzeitigen Reduktion der negativen Wahlen (eta²=0,167). Diese Entwicklung ist über Post-hoc-Einzelvergleiche auf eine signifikante Veränderung innerhalb des Treatmentzeitraumes (ET AT) zurückzuführen. Das Intervall AT-BT nach Abschluss der Klassenfahrt ist nicht signifikant, so dass auf eine zeitliche Stabilität der Ergebnisse geschlossen werden kann. Allerdings sind große Unterschiede zwischen den einzelnen Klassen festzustellen, die nicht teilweise nicht mit dem Gesamtergebnis übereinstimmen. In der differenzierten Betrachtung der heterogenitätsbedingten Unterschiede ist in erster Linie ein Geschlechtereffekt zu erkennen. Insbesondere die positiven und negativen Wahlen zwischen Schülern verschiedenen Geschlechts verändern sich signifikant. Aber auch hier zeigen sie die bereits dargestellten klassenspezifischen Differenzen.
Während der Teilnahmestatus keinen Einfluss auf die Vergabe von negativen und positiven Wahlen besitzt, beeinflusst der Migrationsstatus hingegen die positiven Wahlen signifikant.
Mit Blick auf die theoretischen Grundlagen dieser Arbeit kann der Anstieg der positiven Wahlen als Zuwachs von Anerkennung und der Rückgang negativer Wahlen als eine Reduktion von Ablehnung interpretiert werden, wobei sich kein einheitliches Bild auf Klassenebene ergibt.
Anhut, R. & Heitmeyer, W. (2000). Desintegration, Konflikt und Ethnisierung. Eine Problemanalyse und theoretische Rahmenkonzeption. In W. Heitmeyer (Hrsg.), Bedrohte Stadtgesellschaft. Soziale Desintegrationsprozesse und ethnisch-kulturelle Konfliktkonstellationen (S. 17–73). Weinheim: Juventa-Verlag.
Gerecke, P. (2010). Heterogenitätsbedingte Unterschiede zwischen Ingroup- und Outgroup-Anerkennung bzw. -Ablehnung im Sportunterricht. Eine empirische Studie zum integrativen Einfluss des Kooperativen Lernens. Dissertation. Frankfurt am Main: Johann-Wolfgang Goethe Universität.
Ziel meiner Dissertation ist die empirische Analyse von Auswirkungen der sozialen Interaktion zwischen Akteuren auf Finanzmärkten. Die folgenden Aufsätze sind Bestandteil dieser kumulativen Dissertation:
1. Frederik König (2012): Does Social Interaction destabilise Financial Markets?
2. Frederik König (2012) : Analyst Behaviour: the Geography of Social Interaction
3. Frederik König (2012) : Fluctuations of Social Influence: Evidence from the Behaviour of Mutual Fund Managers during the Economic Crisis 2008/09
In meinem ersten Aufsatz stelle ich ein Marktpreismodell vor, welches dem Einfluss durch soziale Interaktion Rechnung trägt. Mit Hilfe dieses Modells gehe ich der Fragestellung nach, ob soziale Interaktion zwischen Marktteilnehmern eine stabilisierende oder eine destabilisierende Wirkung auf Finanzmärkte hat. Mit meinem zweiten Aufsatz untersuche ich das Verhalten von Aktienanalysten, die als wesentlicher Impulsgeber für Finanzmärkte gelten. Konkret stelle ich heraus, ob Analysten stärker von anderen Analysten beeinflusst werden, wenn diese im gleichen Land bzw. in der gleichen Stadt arbeiten oder wenn sogar ein regelmäßiger Meinungsaustausch erfolgt. Beides setzte ich ins Verhältnis zum vorherrschenden Marktumfeld. In meinem dritten Aufsatz beschäftige ich mich mit der sozialen Interaktion zwischen Fondsmanagern. Diese verwalten in etwa ein Drittel des frei handelbaren Aktienvermögens und haben folglich einen nennenswerten Einfluss auf Finanzmärkte. Mit Hilfe einer neuartigen Schätzmethode bestimme ich die Größe des sozialen Einflusses und untersuche auch hier temporale Variationen im Verhältnis zum zu Grunde liegenden Marktumfeld. Des Weiteren zerlege ich die Gesamtgröße des sozialen Einflusses in zwei Komponenten, die zum einen den Einfluss im Rahmen der reinen Beobachtung und zum anderen den Einfluss durch Kommunikation reflektieren.
In zahlreichen, in der Einleitung bereits näher beschriebenen Studien konnte anxiolytische Wirksamkeit des patentierten ätherischen Öls Silexan sowohl im Tiermodell, als auch am Menschen zur Therapie subsyndromaler und generalisierter Angsterkrankungen demonstriert werden.
Das Ziel der vorliegenden Dissertation war es, den zugrunde liegenden pharmakologischen Wirkmechanismus zu untersuchen. Nach eingehender Analyse der Targets klassischer Anxiolytika, richtete sich der Fokus auf spannungsabhängige Calciumkanäle, die die Bindungsstelle des Gabapentinoids Pregabalin enthalten. Die mögliche Modulation der Kanäle wurde an PC-Zellen, einem Modell neuronaler Vorläuferzellen, murinen Synaptosomen, aber auch in primären Neuronen der für die Genese der Angsterkrankungen relevanten Hirnareale Hippocampus und Cortex untersucht. Die Kanalexpression, sowie - distribution in den unterschiedlichen Geweben wurde charakterisiert und die Frage erörtert, ob Silexan spezifische Modulation eines bestimmten Kanalsubtyps vermittelt oder unspezifisch alle Kanäle dieser Gattung inhibiert. Um dies näher zu beleuchten wurden elektrophysiologische Messungen an transfizierten Zellen durchgeführt, die jeweils nur einen Subtyp der Familie spannungsabhängiger Calciumkanäle exprimieren. Zur weiteren Aufklärung des Wirkmechanismus wurde auch die mögliche Involvierung G-Protein gekoppelter Rezeptoren ermittelt.
Der zweite Teil der vorliegenden Untersuchung widmet sich der Klärung potentieller antidepressiver Wirkungen durch mögliche neurotrophe Effekte. Primäre hippocampale Neurone und PC12-Zellen wurden hierzu u.a. auf prä- und postsynaptische Marker, Ausdifferenzierungsmarker, sowie Neuritenwachstum hin analysiert.
Strukturgleichungsmodelle (SEM) werden in den letzten Jahren vermehrt zur Aufdeckung von nichtlinearen Effekten wie Interaktionseffekten oder quadratischen Effekten in der empirischen Forschung verwendet. Daher kommt der Bereitstellung von effizienten und robusten Schätzverfahren für die Analyse von nichtlinearen SEM, die simultan multiple nichtlineare Effekte schätzen können, eine wichtige Bedeutung in der methodologischen Forschung zu. Bisher wurde jedoch nur ungenügend die Problematik untersucht, dass zwar die üblicherweise verwendeten Schätzverfahren aus der Klasse der Produktindikator-(PI)-Ansätze (z.B. der Unconstrained-Ansatz; Kelava & Brandt, 2009; Marsh, Wen & Hau, 2004) und der Klasse der verteilungsanalytischen Verfahren (z.B. LMS oder QML; Klein & Moosbrugger, 2000; Klein & Muthén, 2007) auf der Annahme einer multivariaten Normalverteilung für einen Großteil der im Modell enthaltenen Variablen beruhen, diese jedoch in der Empirie fast nie gegeben ist. Andere Ansätze, wie die momentbasierten Verfahren des 2SMM- oder des MM-Ansatzes (Wall & Amemiya, 2000, 2003; Mooijaart & Bentler, 2010), die die Normalitätsannahme deutlich abschwächen können, finden in der Literatur hingegen nur geringe Berücksichtigung. Im ersten Teil dieser Arbeit werden diese momentbasierten Verfahren zur Schätzung von multiplen nichtlinearen Effekten erweitert und hinsichtlich ihrer Schätzeigenschaften bei nicht-normalverteilten Daten im Vergleich zu den PI- und den verteilungsanalytischen Ansätzen sowohl theoretisch als auch anhand einer umfangreichen Simulationsstudie untersucht (Brandt, Kelava & Klein, in press).
Zusammenfassend zeigt sich, dass LMS und QML bei normalverteilten Indikatoren die effizientesten Schätzungen liefern und in diesem Fall eingesetzt werden sollten. Bei nicht-normalverteilten Daten ist jedoch ein Parameterbias zu beobachten. Der erweiterte Unconstrained-Ansatz liefert zwar sowohl für normalverteilte als auch für nicht-normalverteilte Indikatoren erwartungstreue Parameterschätzungen, die Standardfehler werden jedoch stets unterschätzt (auch bei der Verwendung eines robusten Schätzers für die Standardfehler), was sich in einem erhöhten alpha-Fehler widerspiegelt. Der 2SMM-Ansatz liefert sehr gute Schätzergebnisse für normalverteilte und nicht-normalverteilte Indikatoren und kann insbesondere bei nicht-normalverteilten Indikatoren verwendet werden; bei normalverteilten Indikatoren ist das Verfahren etwas weniger effizient als LMS. Ein Nachteil des Verfahrens ist jedoch seine schwierige Erweiterung für andere als das hier untersuchte Querschnittsmodell (z.B. für Latente Wachstumskurvenmodelle). Der MM-Ansatz zeigt deutliche Schwächen in seinen Schätzungen, die sowohl bei einer simultanen Schätzung von mehr als einem nichtlinearen Effekt als auch bei nicht-normalverteilten Indikatoren auftreten, und stellt daher keine Alternative zu den anderen Schätzverfahren dar.
Um ein Verfahren bereitzustellen, das bei nicht-normalverteilten Daten zuverlässige und effiziente Schätzungen für nichtlineare Effekte liefern kann, wurde der NSEMM-Ansatz entwickelt (Kelava, Nagengast & Brandt, in press). Der NSEMM-Ansatz ist ein allgemeinerer Ansatz als der 2SMM-Ansatz und kann flexibler auch für andere Modelle genutzt werden, da er direkt in Mplus spezifizierbar ist. Der NSEMM-Ansatz verwendet zur Approximation der Verteilung der (latenten) Prädiktoren ein Mischverteilungsmodell, und stellt damit eine Erweiterung der SEMM (Structural Equation Mixture Models) dar. Im Gegensatz zu den SEMM, die nichtlineare Effekte semi-parametrisch modellieren, d.h. keine Funktion für die Nichtlinearität annehmen, verwendet der NSEMM-Ansatz eine parametrische Funktion für die nichtlinearen Effekte (z.B. einen quadratischen Effekt), wodurch eine Aussage über die Effektstärke des nichtlinearen Effekts möglich ist. Neben einer Darstellung des Konzepts der Mischverteilungsmodelle und des NSEMM-Ansatzes werden auch erste Ergebnisse zu den Schätzeigenschaften des NSEMM-Ansatzes im Vergleich zu LMS und dem erweiterten Unconstrained-Ansatz berichtet.
Im letzten Teil der Arbeit wird auf Interaktionseffekte in Längsschnittstudien eingegangen. Hierbei wird das Problem von heterogenen Entwicklungs- und Wachstumsprozessen aufgegriffen, das in der Empirie häufig auftritt, wenn die Streuung der Entwicklungsverläufe von den Ausgangsbedingungen abhängt. Wird diese Heterogenität nicht adäquat berücksichtigt, wie es der Fall bei latenten Wachstumskurvenmodellen (LGM) ist, sind Prognosen basierend auf den Ausgangsbedingungen einer Person nicht akkurat, da die Konfidenzintervalle für die Prognose auf einer fehlspezifizierten Varianz beruhen. Das heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006) erweitert das Standard-LGM um eine heterogene Varianzkomponente, die mit einem spezifischen Interaktionseffekt modelliert wird. Das HGM stellt eine Alternative zu den Growth Curve Mixture Modellen (GMM) dar, wenn keine Annahme über diskrete Klassen getroffen werden soll, sondern eine feinstufigere, kontinuierliche Modellierung der Heterogenität von Interesse ist. In dieser Arbeit wird für das HGM eine Implementierung in Mplus basierend auf dem LMS-Schätzer entwickelt, deren Anwendung und Interpretation an einem empirischen Datensatz aus der AIDS-Forschung demonstriert wird (Brandt, Klein & Gäde, under revision). Die Implementierung ermöglicht eine anwenderfreundliche Verwendung des Verfahrens und erlaubt die Berücksichtigung von Kovariaten zur Erklärung der Heterogenität in den Entwicklungsverläufen. Die Ergebnisse einer Simulationsstudie zeigen, dass das Verfahren auch bei moderater Verletzung der Verteilungsannahmen eine zuverlässige Parameterschätzung liefert.
Gegenstand dieser Arbeit ist die Untersuchung der Genexpression der axonalen wachstumsassoziierten Proteine NAP-22, GAP-43 und CAP-23 in den dopaminergen Neuronen der Substantia nigra pars compacta (SNc), einer im Mesencephalon gelegenen Zellregion, relativ zu der Genexpression eines Referenzgens. Als Versuchstiere dienten sechs Monate alte, männliche CB6F1 Wildtypmäuse sowie sechs Monate alte, männliche CAP-23 transgene (CAP-23tg) Tiere, die das wachstumsassoziierte Protein CAP-23 überexprimieren. Die dopaminergen Zellen der SNc wurden zunächst morphologisch charakterisiert und ihre Ausdehnung im Mittelhirn durch alternierende Immunfärbungen der Tyrosinhydroxylase, einem Schlüsselenzym der Dopaminsynthese, sowie Toluidinblaufärbungen ermittelt. Anschließend wurden die Neurone durch die Methode der Lasermikrodissektion (LMD) im Zellverband isoliert. Hierfür war die Optimierung der Toluidinblaufärbung erforderlich, mit dem Ziel, sowohl eine gute Färbung der Neurone als auch eine hohe RNA-Nativität zu erzielen. Die RNA wurde isoliert und nach Integritätsprüfung in cDNA umgeschrieben. Daraufhin erfolgte die Analyse der Genexpression der beschriebenen Gene durch die quantitative Echtzeit-Polymerase-Kettenreaktion (qRT-PCR). Dabei war feststellbar, dass das Transgen Cap-23 in den transgenen Tieren stärker exprimiert wird als das Endogen Nap-22. Es zeigte sich jedoch kein signifikanter Unterschied der Expression von endogenem Nap-22 und endogenem Gap-43 in den CAP-23tg Tieren im Vergleich zu der Expression in den Wildtypmäusen. Das bedeutet, dass die Überexpression von Cap-23 in den transgenen Tieren die Expression der mRNA der beiden endogenen wachstumsassoziierten Proteine NAP-22 und GAP-43 nicht beeinflusst. Auf Grundlage der in dieser Arbeit vorgelegten Ergebnisse soll in Folgeexperimenten untersucht werden, inwieweit die Überexpression von CAP-23 die Reorganisationsfähigkeit dopaminerger Neuronen der SNc nach einer Schädigung beeinflusst, wie sie zum Beispiel beim Menschen im Verlauf des Morbus Parkinson beobachtet wird.
Pharmakologische Charakterisierung zentraler cholinerger Dysfunktionen in transgenen Mausmodellen
(2013)
Die cholinerge Dysfunktion steht in Zusammenhang mit der Ätiologie der Alzheimer-Krankheit (AD). Das Absterben cholinerger Neurone führt zu einer verminderten cholinergen Neurotransmission im Gehirn. Die Abnahme der Acetylcholinesterase-(AChE)-Aktivität und eine leichte Zunahme der Butyrylcholinesterase-(BChE)-Aktivität zählen zu den charakteristischen Merkmalen der AD. Acetylcholinesterase-Inhibitoren (AChEI) sollen Acetylcholin (ACh)-Konzentrationen im Gehirn steigern, um cholinerge Defizite auszugleichen. Allerdings zeigen AChEI in der Klinik nur einen mäßigen Erfolg. Zur Optimierung der Therapie mit Esterasehemmern, wurden im Rahmen dieser Arbeit drei transgene Mausmodelle mit cholinergen Veränderungen untersucht.
Zunächst wurde die AChE-heterozygote (AChE +/-) Maus analysiert. Die Maus weist bei einer 60-prozentigen AChE-Restaktivität (60,6 U/mg in AChE +/- versus 100,0 U/mg in WT-Mäusen) nur sehr leicht erhöhte ACh-Konzentrationen im Gehirn (9,0±5,1 fmol/5 µl in AChE+/- versus 5,0±3,6 fmol/5 µl in der WT-Maus) auf, die mithilfe der in vivo Mikrodialyse bestimmt wurden. PET-Studien haben gezeigt, dass die zerebrale AChE-Restaktivität in AD-Patienten, die mit Donepezil behandelt wurden, immer noch 70 bis 90% beträgt. Vom AChE +/- Modell kann abgeleitet werden, dass eine bis zu 50-prozentige AChE-Hemmung durch AChEI nicht genügt, um ACh-Konzentrationen im Gehirn von Patienten deutlich zu erhöhen. Leider ist eine Dosiserhöhung der AChEI durch das Auftreten von unerwünschten Wirkungen (Diarrhö, Übelkeit, Erbrechen) begrenzt.
Hippocampale ACh-Konzentrationen in der AChE +/- Maus steigen nach intrazerebraler und intraperitonealer Gabe von selektiven AChEI signifikant stärker an als in WT Mäusen. AChEI können ACh-Konzentrationen also auch noch bei einer verminderten AChE-Aktivität steigern. Die Cholinacetyltransferase-Aktivität ist in AChE +/- Mäusen unverändert, während der hochaffine Cholintransport signifikant um 58% erhöht ist. Veränderungen der kognitiven Leistungsfähigkeit der AChE +/- Maus sind in Verhaltenstests nicht zu erkennen. Es folgte die Untersuchung der PRiMA (Prolin-reicher Membrananker) defizienten Maus und der AChE del5 6-Maus. PRiMA ist ein transmembranäres Protein, das zur Prozessierung der AChE und ihrer Verankerung in der Membran verantwortlich ist. PRiMA kommt hauptsächlich im Gehirn vor, daher kann die PRiMA-KO-Maus dort keine AChE-Verankerung ausbilden. Die AChEdel5 6-Maus kann weder im Gehirn noch in der Peripherie AChE-Verankerungen formen, da eine Domäne fehlt, die essentiell für die Wechselwirkung mit Anker-Proteinen ist. Beide Mausmodelle weisen geringe AChE-Restaktivitäten (< 10 %) und drastisch erhöhte ACh-Konzentrationen im Gehirn auf. Die ACh-Konzentrationen im Striatum der PRiMA-KO-Maus sind circa 350 fach erhöht (4±3 fmol/5 µl in WT-Mäusen versus 1450±700 fmol/5 µl in PRiMA-KO-Mäusen). Allerdings zeigt die PRiMA-KO-Maus keinen Phänotyp, während die AChE del5 6 Maus krank aussieht (Tremor, geringes Körpergewicht, stumpfes Fell). Beide Modelle bestätigen, dass ACh-Spiegel im Gehirn nur dann stark ansteigen, wenn die AChE immens gehemmt ist. Ferner kann aus der PRIMA-KO-Maus gefolgert werden, dass die Interaktion zwischen AChE und PRiMA ein geeignetes Target für die Therapie der cholinergen Dysfunktion darstellen könnte.
Nach intrazerebraler Applikation eines selektiven AChE-Inhibitors (BW284c51 1 µM), steigen die ACh-Spiegel im Gehirn beider transgener Mäuse signifikant an. Eine Veränderung der ACh-Konzentrationen nach BChEI Gabe ist weder bei der AChE +/-, der PRiMA-KO, noch bei der AChE del5 6 Maus zu sehen. Die BChE trägt bei einer AChE-Restaktivität (10 bis 40 %) nicht zum hydrolytischen Abbau von ACh bei. Daraus lässt sich ableiten, dass bei stark verminderten AChE-Aktivitäten, der Einsatz von BChEI vermutlich keinen weiteren Nutzen erbringt. Um die Adaptionsmechanismen der PRiMA-KO-Maus aufzuklären, wurde die M2-Rezeptor Funktion (negativer Feedback-Mechanismus) getestet. Da die striatalen ACh-Konzentrationen in der PRiMA-KO-Maus nach Behandlung (lokal und i.p.) mit M2-Agonisten und -Antagonisten kaum verändert sind, lässt dies einen nicht-funktionalen M2 vermuten.
Aus den Ergebnissen können wichtige Erkenntnisse über die Therapie der Alzheimer-Krankheit gewonnen werden. Die Bestimmung der ACh-Konzentrationen, in Gegenwart unterschiedlicher AChE-Aktivitäten der verschiedenen Mausmodelle, zeigt den Zusammenhang zwischen ACh und AChE im Säugerhirn und erklärt die limitierte klinische Wirksamkeit der AChE-Inhibitoren. Die Hemmung der Interaktion zwischen PRiMA und der AChE stellt eine denkbare Interventionsmöglichkeit dar, um ACh-Konzentrationen im Gehirn zu steigern, ohne dabei periphere Nebenwirkungen auszulösen. Ziel der weiteren Forschung sollte sein, PRiMA bzw. die Interaktion zwischen PRiMA und AChE als Target für die Therapie der Alzheimer-Krankheit weiter zu erforschen.
In vier aufeinander aufbauenden Studien wird den Fragen nachgegangen „Was sind Nicht-Ereignisse?“ und „Welche Verarbeitungshilfen sind effektiv für den Bewältigungsprozess?“. Am Beispiel der ungewollten Kinderlosigkeit wird aus gesundheitspsychologischer Sicht nach zwei Aspekten von psychosozialem Wohlbefinden gefragt: „globaler Lebenszufriedenheit“ und „negativen Emotionen“ (z.B. Scham und Schmerz).
Es werden Bewältigungsstrategien und Bewältigungsstile unterschieden. Die Bewältigungsstile „religiöses Coping“ sowie „hartnäckige Zielverfolgung“ und „flexible Zielanpassung“ werden als andauernde Einflussfaktoren im Bewältigungsprozess betrachtet. Die entwickelten Bewältigungsstrategien „planendes Problemlösen“, „Unterstützung durch Freunde“, „regenerative Strategien“ und „kognitive Umdeutung zur Akzeptanz“ sind erlernbare Vorgehensweisen.
In der Pilotstudie 1 wurden 22 Menschen interviewt, die sich im Nicht-Ereignis-Prozess befinden. In Studie 2 wurden qualitativ und quantitativ 76 Männer und Frauen mit ungewollter Kinderlosigkeit befragt. Studie 3 erhob online mit 216 Teilnehmern die Häufigkeit und eingeschätzte Effektivität von Verarbeitungshilfen. Studie 4 erfasste zu zwei Messzeitpunkten (n = 732, n = 409) vier Bewältigungsstrategien, vier Bewältigungsstile, „globale Lebenszufriedenheit“, „negative Emotionen“ und kinderwunschspezifische Antworten von Menschen mit Kinderwunsch.
Für eine gewünschte Schwangerschaft kann geschlussfolgert werden, dass ein bedeutsamer Prädiktor für die Eintrittswahrscheinlichkeit im frühen Prozess fertility awareness ist. Das Alter der Frau dagegen leistet keinen Beitrag zur Vorhersage. Die Prädiktoren „negatives religiöses Coping“ und „planendes Problemlösen“ im fortgeschrittenen Nicht-Ereignis-Prozess stellen Risikofaktoren für das psychosoziale Wohlbefinden dar. Die Schutzfaktoren „Unterstützung durch Freunde“, „kognitive Umdeutung zur Akzeptanz“ und „flexible Zielanpassung“ sind signifikante Prädiktoren für psychosoziales Wohlbefinden. Interaktionseffekte von „Flexibler Zielanpassung“ und „Hartnäckiger Zielverfolgung“ konnten nicht identifiziert werden.
Im Rahmen dieser Arbeit wurde die Rolle des Proteins S100B in humanen Neuroblastomzellen und primären hippokampalen Neurone der Ratte beim apoptotischen Zelltod untersucht. Hierfür wurden verschiedene zelltodinduzierende Agentien und Stresskonditionen verwendet. Für den exzitotoxischen, glutamatabhängigen Zelltod wurde eine NMDA-induzierte Zellschädigung sowie eine Hypoxieinduktion in einer Hypoxiekammer benutzt. Hier konnte für beide Apoptosemodelle und in beiden Zellarten eine signifikante Neuroprotektion in Anwesenheit von S100B gezeigt werden. Besonders in Hinblick auf bereits gezeigte aktive Sezernierung von S100B nach metabolomischem Stress in Astrozyten sollten die weiteren Signalwege und Effekte dieses Proteins erforscht werden. Im Zuge der Untersuchung eines möglichen Wirkungsmechanismus von S100B zeigte sich zunächst eine signifikante Aktivierung des Zellrezeptors RAGE. Weiterhin zeigte sich in primären hippokampalen Neuronen eine Aktivierung des RAF/MEK/MAPKERK-Signalwegs zumindest partiell verantwortlich für die Vermittlung der neuoprotektiven Wirkung von S100B bei NMDA-induzierter Apoptose. Durch Experimente unserer Arbeitsgruppe wurde bereits zuvor eine S100B abhängige Aktivierung von NFκB beobachtet. In dieser Arbeit konnte mit VEGF ein evtl. NFκB-abhängig aktiviertes Zielgen für die neuroprotektive Wirkung von S100B bei hypoxieinduzierter Apotpose gefunden werden. Demnach erklärt sich ein möglicher neuroprotektiver Wirkmechanismus von S100B beim exzitotoxischen Zelltod durch Aktivierung des Rezeptors RAGE an der Zelloberfläche, mit anschließender Aktivierung des MEK-Erk Signalwegs. Dieses kann seinerseits zu einer Aktivierung von NFκB in der Zelle mit Hochregulierung des VEGF-Gens führen.
Ein weiteres untersuchtes Apoptosemodell für die Rolle von S100B war die direkte DNA-Schädigung durch UV-Bestrahlung und Etoposid sowie die Schädigung durch den Proteasom-Inhibitor und p53 Aktivator Epoxomicin in humanen SHSY5Y Neuroblastoma-Zellen und primären hippokampalen Neuronen der Ratte. Auch hier zeigte sich in allen drei Modellen eine signifikante Neuroprotektion in Anwesenheit von S100B.
Da es einige Hinweise (unter anderem noch nicht publizierte Daten unserer eigenen Arbeitsgruppe) für eine Aufnahme von S100B in die Zelle gibt, wurde eine evtl. Wechselwirkung von S100B mit dem, nach DNA-Schädigung hochreguliertem, apoptoseinduzierenden Protein p53 untersucht. Hier zeigte sich, dass S100B sowohl nach DNA-Schädigung durch UV-Bestrahlung, als auch nach Etoposid-Behandlung die Hochregulierung von p53 auf Proteinebene signifikant reduziert und eine Translokation zum Zellkern verhindert. In Zusammenschau dieser Daten und den aktuellen Literaturdaten über direkte Wechselwirkungen von S100B und p53 kann man davon ausgehen, dass S100B seine Wirkung nicht nur über den Zelloberflächenrezeptor RAGE ausübt, sondern nach einem noch nicht vollständig erforschten Aufnahmemechanismus in die Zelle durch direkte Proteininteraktionen, z. B. wie hier mit dem Protein p53, in den Zellprozess insbesondere im Apoptoseprozess eingreift. Abgesehen von der in dieser Arbeit beschriebenen Herunterregulierung des p53-Proteinlevels in Anwesenheit von S100B, welche die Folge einer proteasomalen Degradation nach Formationsänderung sein kann, sollten die weiteren p53-abhängigen Apoptoseinduktionswege wie eine Veränderung von dessen Transkriptionsaktiviät, Hemmung proapoptotischer Proteine und ein evtl. Einfluss auf die Translokation von sog. Todesrezeptoren an die Zellmembran in Anwesenheit von S100B als evtl. Ursachen des neuroprotektiven Effekts von S100B weiter erforscht werden.
Im Rahmen dieser Arbeit bereits durchgeführte Untersuchungen auf Veränderungen der Expressionsrate von möglichen p53-Zielgenen haben noch keine endgültigen Ergebnisse geliefert. Zum einen ist evtl. die Auswahl der ausgewählten Zielgene nicht ausreichend gewesen und zum anderen besteht eine evtl. Limitation der semiquantitativen RT-PCR Methode gegenüber neueren Methoden wie die quantitative Real-Time-PCR in der Detektion auch kleinerer Expressionsunterschiede (siehe oben). Der Mechanismus der Neuroprotektion kann in diesem Modell abschließend noch nicht vollständig geklärt werden. Weiterführende Untersuchungen sollten den genauen Aufnahmemechanismus von S100B in die Zelle untersuchen, und die neuroprotektiven Schritte nach einer Blockierung/Herunterregulierung von p53 weiter klären.
C-Typ Lektin-ähnliche Rezeptoren (CTLRs) auf Lymphozyten des Immunsystems modulieren deren Effektorfunktionen wie Zytotoxizität oder Zytokinsekretion. Die Gene dieser Immunrezeptoren befinden sich in einer definierten genomischen Region, dem Natürlichen Killer Genkomplex (NKC), welcher im Menschen auf Chromosom 12 und in der Maus auf Chromosom 6 lokalisiert ist. Namensgebend für diesen Gencluster ist die erste Beschreibung von CTLRs auf Natürlichen Killerzellen (NK-Zellen), den Effektorlymphozyten des angeborenen Immunsystems. Einige NKC-kodierte CTLR, insbesondere Vertreter der C-Typ Lektin Familie 2 (CLEC2)-Rezeptorfamilie, werden jedoch auch in nicht-lymphozytären Zellen (z.B. humanes KACL in Keratinozyten, Maus Clr-f in Darmepithelzellen) vorgefunden und in Zusammenhang mit einer gewebsspezifischen Immunüberwachung gebracht. Bemerkenswerterweise sind die Lymphozytenassoziierten Rezeptoren dieser CLEC2-Proteine ebenso CTLRs, welche zudem eng benachbart zu den CLEC2-Proteinen im NKC kodiert sind, sodass es sich um genetisch gekoppelte Rezeptor-Liganden-Paare mit immunologischer Funktion handelt.
Zu Beginn der vorliegenden Arbeit richtete sich das Interesse auf ein bislang uncharakterisiertes Mitglied der CLEC2-Proteinfamilie (CLEC2L), das jedoch außerhalb des NKC und in unmittelbarer Nachbarschaft zu einem weiteren und ebenso uncharakterisierten CTLR (KLRG2) kodiert ist. Im Unterschied zu anderen Mitgliedern der CLEC2-Familie ist CLEC2L (wie auch KLRG2) in Säugetieren hochkonserviert. Im Rahmen dieser Arbeit wurde der Frage nachgegangen, ob CLEC2L wie andere Mitglieder der CLEC2-Proteinfamilie eine gewebsspezifische Expression aufweist, mit einem genetisch gekoppelten CTLR, d. h. mit KLRG2, interagiert und funktionell in Verbindung mit dem Immunsystem gebracht werden kann. Ziel dieser Arbeit war es somit, eine detaillierte Expressions- und Funktionsstudie zu CLEC2L durchzuführen.
Mittels quantitativer Echtzeit-PCR und in situ Hybridisierung konnte CLEC2L-RNA im humanen und Maus-Gehirn nachgewiesen werden. Da die Mengen dort das Expressionsniveau in anderen Organen bei Weitem überstiegen, wurde das CLEC2L-kodierte Protein als BACL (engl. Brain-Associated C-type Lectin) neu benannt. Ektop exprimiertes BACL bildet ähnlich wie viele andere CLEC2-Mitglieder ein disulfid-verknüpftes Homodimer auf der Zellmembran von Säugetierzellen. Um die endogene Proteinexpression dieses gehirnassoziierten „Waisen"-Rezeptors zu charakterisieren, wurde die BACL-Ektodomäne rekombinant produziert und als Immunogen zur Herstellung BACLspezifischer Antikörper eingesetzt. Mit diesen Antikörpern und einer Kombination immunologischer Techniken wie Immunhistochemie, Immunfluoreszenz und Immunpräzipitation konnte die Präsenz von BACL auf humanen und Maus-Neuronen des Gehirns mit einer besonders ausgeprägten Expression in Purkinje-Zellen zum ersten Mal gezeigt werden. Neben dem Gehirn wurden andere Bereiche des Nervensystems, darunter Spinalganglien und Retina, auf die Expression des BACL-Proteins untersucht. Hierbei konnte mittels Immunfluoreszenz und hochauflösender konfokaler Mikroskopie gezeigt werden, dass BACL mit Neuronenmembranen assoziiert ist. Die durchflusszytometrische Analyse von in vitro kultivierten Neurosphären untermauerte die Expression von endogenem BACL als membranständiges Oberflächenprotein.
Diverse Ansätze zur Identifizierung von Interaktionspartnern von BACL erbrachten letztlich keine eindeutigen Ergebnisse. KLRG2 wurde ursprünglich aufgrund seiner benachbarten genomischen Lokalisation als möglicher Rezeptor von BACL favorisiert, jedoch konnten weder Reporterassays noch durchflusszytometriebasierte Bindungsanalysen eine Interaktion dieser beiden Proteine aufzeigen. Auch die aus den massenspektrometrischen Analysen von humanen und Maus BACL-Immunpräzipitaten erhaltenen Kandidatenproteine konnten letztendlich nicht als Interaktionspartner von BACL eindeutig verifiziert werden.
Eine mögliche immunologische Bedeutung von BACL in vivo wurde im Rahmen von Tumorimplantationsexperimenten mit BACL-exprimierenden Tumorzellen untersucht. Hierbei wurde das Tumorwachstum von BACL- mit Kontroll-Transfektanten in C57BL/6 Mäusen verglichen. Der beobachtete Effekt des verlangsamten Tumorwachstums nach BACL-Überexpression war jedoch nicht auf BACL-Erkennung durch Lymphozyten zurückzuführen, wie anhand von immundefizienten Rag1-k.o. und NOD-SCID-gammak.o. Mäusen gezeigt werden konnte.
Insgesamt liefert diese Arbeit die Erstbeschreibung des bislang uncharakterisierten CTLRs BACL. Das Protein teilt strukturelle Merkmale mit Mitgliedern der CLEC2-Familie, unterscheidet sich jedoch deutlich durch (i) seine hohe Konservierung in Säugetieren, (ii) seine Kodierung außerhalb des NKC und (iii) seine pan-neuronale Expression. Die Erkenntnis, dass BACL in Maus- und in humanen Neuronen exprimiert wird, wirft die Frage nach seiner funktionellen Relevanz auf. Als Membranprotein könnte es eine wichtige Rolle in der neuronalen Kommunikation und bei zellulären Kontakten spielen. Die Frage nach der Funktion von BACL wird in zukünftigen Forschungsarbeiten zu klären sein.
Das Ziel der vorliegenden Arbeit war, die systematischen Anfangsverluste im SIS18 zu minimieren. Das SIS18 soll als Injektor für das SIS100 in der neuen geplanten FAIR-Anlage eingesetzt werden und dafür die Strahlintensität erhöht werden. Eine wesentliche Rolle spielen das dynamische Vakuum im SIS18 und die anfänglichen Strahlverluste, verursacht durch Multiturn-Injektions- (MTI) oder HF-Einfangsverluste. Um den dynamischen Restgasdruck im SIS18 zu stabilisieren, müssen diese systematischen Anfangsverluste minimiert werden. Strahlteilchen, welche auf der Vakuumkammerwand verloren gehen, führen durch ionenstimulierte Desorption zu einem lokalen Druckanstieg. Dies wiederum erhöht die Wahrscheinlichkeit für Stöße zwischen Restgasteilchen und Strahlionen, wodurch diese umgeladen werden können und nach einem dispersiven Element (Dipol) auf der Vakuumkammer verloren gehen. Dies produziert einen weiteren lokalen Druckanstieg und verursacht eine massive Erhöhung der Umladungsraten. Eine Möglichkeit, die anfänglichen Verluste zu minimieren bzw. zu kontrollieren, ist die MTI-Verluste auf den Transferkanal (TK) zu verlagern, da dort ein Druckanstieg den umlaufenden Strahl im SIS18 nicht stört. Im Transferkanal werden die Strahlränder mit Hilfe von Schlitzen beschnitten und somit eine scharf definierte Phasenraumfläche erzeugt. ...
Die Proteomforschung wurde die letzten beiden Dekaden maßgeblich durch die Massenspektrometrie geprägt und vorangetrieben. Ohne die Ionisationstechniken MALDI und ESI wäre die Analyse von Peptiden und Proteinen nicht in dem Maße möglich. Durch das Zusammenspiel zwischen Probenvorbereitung und effektiven Trennmethoden mit hochauflösenden Massenspektrometern und Auswertungssoftware können heute problemlos komplexe Proteinmischungen oder ganze Proteome untersucht werden.
Um Proteine in Peptide zu schneiden, wird in den allermeisten Fällen die Protease Trypsin verwendet, deren Eigenschaften in vielerlei Hinsicht die bestmögliche Lösung für die nachfolgende Analyse mit Massenspektrometern bieten. Allerdings stößt die Anwendbarkeit dieses Enzyms bei der Analyse von einigen Proteinen oder Proteinklassen wie Membranproteinen an ihre Grenzen, da nur sehr wenige potentielle Schnittstellen vorhanden sind. In solchen Fällen wurden eine Reihe von weniger spezifischen Enzymen wie Chymotrypsin, Proteinase K oder Elastase in den vergangenen Jahren genutzt, die Proteine auch in für Trypsin weniger gut zugänglichen Bereichen wie Transmembranhelices, in massenspektrometrisch analysierbare Peptide spalten können.
Allerdings stellen die wenig spezifischen Enzyme und die von ihnen generierten Peptide die Massenspektrometrie vor neue Herausforderungen. Für eine Identifizierung benötigen die Peptide eine sehr hohe Massengenauigkeit, daneben sind insbesondere bei der Verwendung von MALDI-Massenspektrometern neutrale und sehr saure Peptide schwerer ionisierbar und analysierbar als basische.
Genügte es bis vor einigen Jahren, nur die Identität einzelner Proteine in komplexen Proben zu bestimmen, hat sich die Fragestellung mittlerweile einem Wandel unterzogen. Heute ist man daran interessiert, wie viel eines bestimmten Proteins vorliegt, besonders im Vergleich mit anderen, unterschiedlich behandelten Proben ist die Regulation von Proteinen von Interesse. Zum Quantifizieren stehen viele unterschiedliche Methoden zur Verfügung. Eine solche stellen die isobaren Derivatisierungsreagenzien TMT und iTRAQ dar, mit denen unterschiedliche Proben nach Peptidfragmentierung quantifiziert werden können.
Fast alle Arbeiten zur Quantifizierung in der Vergangenheit benutzten Trypsin als Protease.
Im Zuge dieser Arbeit sollten die Vorteile, die durch die Verwendung von Elastase bei der Identifizierung von Membranproteinen bereits gezeigt werden konnten, auf die Quantifizierung mit TMT erweitert werden.Wurde in der Vergangenheit noch in manchen Publikationen davon abgeraten, Elastase zu verwenden,weil die Nutzbarkeit der dabei gebildeten komplexen Peptidmischungen in Frage gestellt wurde, konnte in dieser Arbeit gezeigt werden, dass Elastase wie auch Trypsin sich eignen, als Enzym für Quantifizierungsexperimente verwendet zu werden. Dies wurde an Modellproteinen evaluiert und dann auf komplexe Membranproben von Hefezellen erweitert.
Bei Vorexperimenten zur Derivatisierung mit TMT wurde desweiteren festgestellt, dass Peptidklassen, die zuvor nur mit ESI als Ionisationsmethode identifiziert werden konnten, durch die Derivatisierung nun auch mit MALDI zugänglich waren. Die dadurch analysierten kleinen, hydrophoben und sehr sauren Peptide lieferten bei der Kombination mit der underivatisierten Probe einen deutlichen Zugewinn in der Sequenzabdeckung der identifizierten Proteine.
Ein weiterer Teil der Arbeit beschäftigt sich mit der nachträglichen Korrektur von gemessenen Peptidmassen über selbst geschriebene Softwarelösungen für verschiedene Massenspektrometer. Es wurde das Ziel verfolgt, eine möglichst hohe Massengenauigkeit und damit hohe Anzahl an Identifizierungen von Proteinen nach Verdau mit wenig spezifischen Proteasen zu erreichen. Weitere Computerprogramme wurden mit dem Ziel geschrieben, den Arbeitsablauf zu erleichtern und zu verbessern.
Für die früher schon beschriebene Kombination zweier Massenspektrometer mit hoher Massengenauigkeit und Auflösung auf der einen Seite und effizienter Peptidfragmentierung auf der anderen Seite konnte durch Veränderung der Instrumentierung und Software nun eine Automatisierbarkeit geschaffen werden, die es ermöglicht, die Methode standardmäßig bei Routineanalysen zu verwenden.
So ergeben sich viele neue Möglichkeiten neben den oft gewählten Standardprotokollen mit der Analyse tryptischer Verdauansätze mittels LC-ESI-MS/MS, die häufig nur der Einfachheit halber und ohne Anpassung an die eigene Zielsetzung gewählt werden.
Die Arbeit zeigt aber auch auf, dass die Verwendung weniger spezifischer Enzyme sowohl eine Optimierung des Arbeitsablaufs als auch eine Datenauswertung benötigt, die die Besonderheiten der Proteasen berücksichtigt. Wenn dies gewährleistet wird, kann vor allem mit dem Zugewinn durch die Derivatisierung mit TMT eine wertvolle Alternative zu Trypsin genutzt werden.
Hintergrund und Fragestellung: Patientensicherheit ist in den letzten Jahren zum intensiv diskutierten Thema geworden. Zudem rückt als potenzielle Basis der Patientensicherheit die Patientensicherheitskultur von Einrichtungen des Gesundheitswesens in den Fokus, bislang wurde dahingehend vor allem der stationäre Bereich untersucht. Ziel dieser Arbeit ist es, einen Einblick in den aktuellen Stand der Patientensicherheitskultur in Hausarztpraxen zu geben, und diesbezügliche Einflussfaktoren und Zusammenhänge aufzuzeigen. Dabei wurden insbesondere zwei Fragestellungen untersucht: 1. Lässt sich ein Zusammenhang aufzeigen zwischen einzelnen Praxis- und Teammerkmalen einerseits und den Ergebnissen in den Bereichen Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement andererseits? 2. Lassen sich durch einzelne Praxis- und Teammerkmale bzw. Sicherheitsklimafaktoren die Ausprägungen einer Praxis in bestimmten Patientensicherheitsindikatoren und dem Fehlermanagement einer Praxis vorhersagen?
Material und Methoden: In 60 allgemeinärztlich tätigen Praxen aus Hessen wurde die Patientensicherheitskultur anhand von drei Methoden gemessen. Dies waren 1. der auf Selbstauskunft beruhende „Fragebogen zum Sicherheitsklima“, 2. durch Praxisbegehungen und Interviews erfasste Patientensicherheitsindikatoren, sowie 3. detailliert analysierte Fehlerberichte. Die statistische Auswertung umfasste u.a. Korrelationsanalysen (Mann-Whitney-U, Wilcoxon-W, Spearman-Rangkorrelation) sowie multivariate schrittweise Regressionsanalysen.
Ergebnisse: Die Beurteilung des Sicherheitsklimas fiel über alle Praxen hinweg homogen positiv aus (acht von neun Sicherheitsklimafaktoren mit Mittelwerten von mind. vier von fünf Punkten). Bei den 12 Patientensicherheitsindikatoren ergaben sich differenziertere Werte (niedrigster Mittelwert: Indikator „Marcumartherapie“ mit 0,43 von 1, höchster Mittelwert: Indikator „Allergiehinweis“ mit 0,75 von 1). Es gingen 24 Berichte kritischer Ereignisse ein, die zu 79% als „Kein Fehlermanagement“ oder „Unbefriedigendes Fehlermanagement“ beurteilt wurden. Die Korrelations- und Regressionsanalysen zeigten Zusammenhänge auf, z.B. erzielten größere Praxisteams niedrigere Werte beim Patientensicherheitsklima und höhere Werte bei den Patientensicherheitsindikatoren im Vergleich zum Durchschnitt.
Diskussion: Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement sind in einer Hausarztpraxis mit den verwendeten Instrumenten messbar. Jedes der drei Instrumente misst einen anderen, wichtigen Bereich der Sicherheitskultur, wodurch jeweils unterschiedliche Einstellungen und Prozesse beleuchtet und anschließend auch beurteilt und verbessert werden können. In den Analysen zur Beantwortung der beiden Fragestellungen konnten Zusammenhänge und Vorhersagevariablen herausgearbeitet werden, allerdings waren diese Zusammenhänge zum Teil entgegengesetzt. Daraus ergibt sich die Hypothese, dass Praxis- und Teammerkmale als Voraussetzungen zu unterschiedlichen Ausprägungen von Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement führen können. Insgesamt könnte die Qualität der hausärztlichen Arbeit und die Sicherheit der Versorgung durch eine regelmäßige Reflektion der Praxisabläufe anhand der drei Messmethoden gesteigert werden.
Die Idee photolabile Schutzgruppen zur temporären Inaktivierung von Biomolekülen zu verwenden, um deren Funktion dann in einem biologischen System präzise orts- und zeitaufgelöst wieder zu aktivieren und so biologische Prozesse genau steuern zu können, wurde erstmals Ende der 1970er Jahre von J. W. Engels und von J. F. Hoffman verfolgt. Seit diesen ersten Arbeiten im Bereich des „Cagings“ wurde in den vergangenen Jahrzehnten eine Vielzahl von Arbeiten auf diesem Gebiet veröffentlicht und mit nahezu alle wichtigen Klassen von Biomolekülen wurden Caging-Experimente durchgeführt. Das Caging von Nukleinsäuren ist noch ein recht neues Feld. Es gab aber aufgrund der Beteiligung von Nukleinsäuren an vielen zentralen zellulären Prozessen im letzten Jahrzehnt ein enorm gesteigertes Interesse an lichtinduzierbaren Nukleinsäuren, vornehmlich zur lichtgesteuertem Genregulation. Der Arbeitskreis von Prof. Heckel befasst sich unter anderem mit dem Caging von Nukleinsäuren, wobei die zentrale Strategie im Anbringen der photolabilen Schutzgruppen an den Nukleobasen besteht. Dies hat den Hintergrund, dass auf diese Art und Weise die Wechselwirkung mit anderen Strängen durch Störung der Watson-Crick-Basenpaarung verhindert werden kann. Die Watson-Crick-Basenpaarung ist das zentrale Element für die Funktionalität nahezu aller Nukleinsäure-vermittelter Prozesse. In den vergangenen Jahren konnte mit dieser Strategie unter anderem erfolgreich die Aktivität von siRNAs und Aptameren mit Licht kontrolliert werden. Alle vier Projekte, welche in dieser Arbeit verfolgt wurden, befassten sich mit dem Caging von Nukleinsäuren. ...
In der modernen Hochschullehre haben sich eLearning-Elemente als ein Teil des Lehrrepertoires etabliert. Der Einsatz interaktiver webbasierter Selbstlernmodule (Web Based Trainings (WBT)) ist dabei eine Option. Hochschulen und Unternehmen versprechen sich dadurch neue Möglichkeiten des Lehrens und Lernens, um z. B. einen Ausgleich heterogener Vorerfahrungen sowie eine stärkere aktive Beteiligung der Lernenden zu bewirken. Damit die Erstellung und Strukturierung dieser Inhalte mit möglichst geringem Aufwand erfolgen kann, bieten Autorensysteme Unterstützung.
Zu den Grundfunktionen von Autorensystemen gehören unter anderem, das Einbinden gebräuchlicher Medienformate, die einfache Erstellung von Fragen sowie verschiedene Auswertungs- und Feedbackmöglichkeiten. Obwohl Autorensysteme schon vor vielen Jahren ihre erste praktische Anwendung fanden, gibt es nach wie vor Schwachstellen, die sich auf den gesamten Erstellungsprozess wie auch auf einzelne Funktionen beziehen. Im Detail wird bemängelt, dass die Werkzeuge zu komplex und unflexibel sind. Darüber hinaus fehlt häufig eine zufriedenstellende Verknüpfung der vielen Werkzeuge entlang der Prozesskette zu einer Gesamtlösung.
Des Weiteren wird die Konzentration auf die Produktionsphase kritisiert, wodurch andere wichtige Prozesse in den Hintergrund treten bzw. außer Acht gelassen werden.
Im Rahmen der Zusammenarbeit mit einem Automobilhersteller, für den die erste Version des Autorensystems LernBar weiterentwickelt wurde, spielte der Begriff „Lean Production“ inhaltlich in der Umsetzung der WBTs eine wesentliche Rolle. Die Lean Production, die über viele Jahre für die Automobilindustrie entwickelt, verbessert und angepasst wurde, liefert Optimierungsansätze für den Produktionsbereich. Ein wirtschaftlicher Nutzen des Lean-Ansatzes wird auch in anderen Bereichen gesehen wie z. B. in der Softwareentwicklung („Lean Software Development“) oder im Management („Lean Management“). Dabei bietet die Wertschöpfungsorientierung Lösungen für die widersprüchlichen Ziele mehr Leistungen zu geringeren Kosten, schneller und in höherer Qualität zugleich zu liefern. Aus der Grundidee der Lean Production entwickelte sich vorliegendes Dissertationsthema in Bezug darauf, inwiefern sich diese Prinzipien auf den WBT-Produktionsprozess übertragen lassen und die LernBar (das hierfür weiterentwickelnde Autorensystem) dabei Unterstützung bieten kann.
Zunächst wurde analysiert, welche Werkzeuge und Hilfestellungen benötigt werden, um unter dem Aspekt der Lean Production WBTs im universitären Umfeld erstellen zu können. In diesem Zusammenhang wurden Merkmale einer „Lean Media Production“ definiert sowie konzeptionell und technisch umgesetzt. Zur Verbesserung der Prozesse flossen Ergebnisse aus empirischer und praktischer Forschung ein. Im Vergleich zu anderen Entwicklungen bei denen häufig das Hauptziel eine umfangreiche Funktionalität ist, werden u.a. folgende übertragbare Ziele bei der Umsetzung verfolgt: Verschwendung vermeiden, eine starke Einbeziehung der Kunden, Werkzeuge die nahtlos ineinandergreifen, eine hohe Flexibilität und eine stetige Qualitätsverbesserung.
Zur Erreichung dieser Zielsetzungen wurden alle Prozesse kontinuierlich verbessert, sich auf das Wesentliche und die Wertschöpfung konzentriert sowie überflüssige Schritte eliminiert. Demnach ist unter dem Begriff „Lean Media Production“ ein skalierbarer, effizienter und effektiver Produktionsprozess zu verstehen, in dem alle Werkzeuge ineinandergreifen.
Die Realisierung der „Lean Media Production“ erfolgte anhand des Autorensystems LernBar, wobei die typischen Softwareentwicklungsphasen Entwurf, Implementierung und Evaluierung mehrfach durchlaufen wurden. Ausschlaggebend dabei war, dass der „Lean“-Aspekt berücksichtigt wurde und dies somit eine neue Vorgehensweise bei der Umsetzung eines Autorensystems darstellt. Im Verlauf der Entwicklungen ergaben sich, durch eine formative Evaluation, den Einsatz in Projekten und eine empirische Begleitforschung, neue Anforderungen an das System. Ein Vergleich der zwei Produktionssysteme, Automobil vs. WBT-Produktion, zeigt und bestätigt die Erwartung, dass nicht alle Prinzipien der Lean Production übertragbar sind.
Dennoch war diese Untersuchung notwendig, da sie Denkanstöße zur Entwicklung und Optimierung des Erstellungsprozesses eines WBTs gab. Auch die Ergebnisse der abschließenden Online-Befragung ergaben, dass die Ziele der Arbeit erreicht wurden, dass aber weiterer Optimierungsbedarf besteht. Die LernBar Release 3 bietet für alle Produktionsphasen Werkzeuge an, durch die eine effektive und effiziente Erstellung von WBTs von der Idee bis zur Distribution möglich ist.
Stand noch vor fünf Jahren zu Beginn dieser Arbeit das Endprodukt bei der LernBar Entwicklung im Vordergrund, verlagerte sich durch den Einfluss dieser Dissertation der Schwerpunkt auf den gesamten Produktionsprozess. Unter Berücksichtigung der in diesem Zusammenhang entwickelten Prinzipien einer „Lean Media Production“, nehmen bspw. die Wirtschaftlichkeit und die starke Kundenorientierung während des Produktionsprozesses einen wichtigen Stellenwert ein. Dieser Ansatz ist eine neue Vorgehensweise im Bereich der Entwicklung von Autorensystemen, der seine Anerkennung und Professionalität durch die Ergebnisse des selbstentwickelten Evaluationsbogens sowie dem stetig wachsenden Einsatz in Schulen, Hochschulen und Unternehmen belegen kann.
In weiteren Forschungsarbeiten ist zu untersuchen, welche Lean Production Prinzipien zu verwenden oder anzupassen sind, wenn z. B. in größeren Teams oder mobil produziert wird. Des Weiteren sollte überprüft werden, inwieweit die Lernenden mit dem Endprodukt zufrieden sind und in ihrem Lernprozess unterstützt werden. Durch diese Forschungsarbeit wurde ein Beitrag dazu geleistet, die Lehre und Ausbildung zu optimieren, indem die Autoren/Lehrende in der Erstellung ihrer digitalen Lerninhalte im gesamten Prozess von aufeinander abgestimmten Werkzeugen unterstützt werden.
Kunsthistorische oder betriebswirtschaftliche Arbeiten der letzten fünfzehn Jahre zur Kunstförderung in deutschen Wirtschaftsunternehmen konzentrieren sich auf die Beschreibung einer Firmenkunstsammlung oder Sammlerpersönlichkeit in Unternehmen. Die aktuellen Formen der Kunstförderung sind bislang nicht eingehend dargestellt worden, auch die Gründe für eine Kunstförderung wurden eher ansatzweise betrachtet. Meine Dissertation untersucht die Motive und Zielsetzungen für ein Kunst-Engagement unter Berücksichtigung innovativer Kunstkonzepte, die über tradierte Formen hinausgehen. Die Dissertation setzt sich damit zugleich ein theoretisches Ziel: Sie will ausgehend von vier Fallbeispieluntersuchungen und unter kritischer Auseinandersetzung mit aktuellen Studien und Literatur ein Modell für ein effektives und zukunftsgerichtetes Kunst-Engagement entwickeln.
Ausgangspunkt ist die Überlegung, dass sich Motive und Zielsetzungen für Kunst-Engagements aus Ideen und Wertvorstellungen ableiten lassen, die durch Begriffe im Zusammenhang mit Kunst-Engagements ausgedrückt werden. Um diese Begriffe zu ermitteln, wurden offene, qualitative Experteninterviews geführt und in qualitativer Inhaltsanalyse ausgewertet.
Anhand der Beschreibung der aktuellen Kunstkonzepte der untersuchten Unternehmen werden die identifizierten Motive überprüft. Interdisziplinäre Recherche zahlreicher Literatur diente zur Erweiterung und Vertiefung der Untersuchung. Dabei setzt sich die Dissertation mit kritischen Einwänden gegenüber Kunst-Engagements in Unternehmen auseinander.
Aktuelle Kunstförderung ist unternehmensstrategisch eingebunden und zielgruppenorientiert.
Der Fokus liegt auf zeitgenössische Kunst unter Anwendung innovativer, mediengestützter Vermittlungsformen. Innovative Kunst-Engagments unterscheiden sich von tradierten Konzepten des Corporate Collecting auch durch den Kontext, insbesondere durch ihren Einsatz im Bereich der Unternehmenskommunikation. Bei relevanten gesellschaftlichen Interessengruppen (stakeholder) sollen durch Kunst positive Assoziationen mit den Unternehmen verankert werden. Anhand der Fallbeispiele der Arbeit hat sich gezeigt, dass ein positiver Einfluss auf das Unternehmensimage durch Kunst-Engagements anzunehmen ist. Die Ergebnisse der Untersuchung legen nahe, dass durch diese imagefördernde Wirkung auch der Markenwert des Unternehmens gestärkt werden kann. Mit Kunst werden ferner Anlässe für Gespräche geschaffen, die unter Mitarbeitern oder mit Kunden über weitergehende, geschäftsbezogene Themen oder aber im politischen Kreis zur Kontaktpflege stattfinden.
Zeitgemäße Kunstkonzepte dienen unternehmensintern dazu, sowohl Mitarbeiter an das Unternehmen zu binden, als auch zukunftsfähiges Denken bei Mitarbeitern zu fördern und dadurch die Innovationsfähigkeit des Wirtschaftsunternehmens zu begünstigen. Indem Unternehmen mit Kunstförderung so genannte „gesellschaftliche Verantwortung“ übernehmen, beabsichtigen sie, sich in einem globalen, kompetitiven Wirtschaftsumfeld von Wettbewerbern abzugrenzen. Die Übernahme „gesellschaftlicher Verantwortung“ im Bereich der Kunst ist überwiegend nicht altruistisch motiviert, sondern ist im besten Fall für das Unternehmen ökonomisch sinnvoll. Allerdings übernimmt die Wirtschaft einen Teil der Kulturförderung, die von staatlicher Seite nicht mehr geleistet werden kann, und setzt als Initiator eigene kulturelle Impulse. Die Untersuchung hat gezeigt, dass Kunst in der Verknüpfung mit unternehmerischen Zielen für Firmenzwecke genutzt, also instrumentalisiert wird. Die Kooperation von Kunstwelt und Wirtschaft kann dessen ungeachtet für beide Seiten vorteilhaft sein, insbesondere wenn die Glaubwürdigkeit eines Kunst-Engagements gewährleistet ist.
Die phylogenetisch hochkonservierte Jak/Stat‐Signaltransduktionskaskade repräsentiert eines der zentralen Säulen zellulärer Signalübertragung eukaryotischer Organismen. Ubiquitär im Organismus exprimiert und über eine Vielzahl von Zytokinen, Hormonen und Wachstumsfaktoren aktiviert, sind Stat‐Transkriptionsfaktoren maßgeblich an dem Erhalt der Physiologie und Homöostase von Organen und Geweben beteiligt. So sind die Mitglieder Stat5A und Stat5B (als homologe Proteine im Verbund als Stat5 bezeichnet) entscheidende Regulatoren des Immunsystems und der Hämatopoese, der Funktion und Entwicklung des Prostata‐ und Brustdrüsengewebes (Mammogenese) oder bestimmter Funktionen der Leber. Wie auch Stat3, konnten Stat5 Proteine in aberrant aktiver Form in verschiedensten Typen und Stadien humaner Tumore nachgewiesen werden, wo sie über die Expression ihrer Zielgene sowie über weitere nicht‐kanonische Funktionen im Zytoplasma und im Zellkern einer fortschreitend malignen Entartung entscheidend beitragen. Als Folge der Unterstützung essentieller Tumorgenese‐
Mechanismen, wie gesteigertes Zellwachstum, Apoptosehemmung, Migration und Metastasierung, Sauerstoff‐unabhängiger Energiestoffwechsel, Angiogenese oder Umgehung der Immunabwehr, entwickeln Tumore häufig eine Abhängigkeit gegenüber der gesteigerten Aktivität dieser Vertreter der Stat‐Proteinfamilie und reagieren mit einem Wachstumsstopp und Apoptoseinduktion auf ihre Inhibierung. Perspektivisch stellt die gezielte Interferenz mit aberranten, Tumortyp‐spezifischen Stat5‐Aktivitäten einen relevanten Ansatz in der personalisierten Therapie Stat5‐abhängiger Tumore, vorrangig leukämischen Ursprungs, dar. ...