Refine
Year of publication
- 2013 (65) (remove)
Document Type
- Doctoral Thesis (65) (remove)
Language
- German (65) (remove)
Has Fulltext
- yes (65)
Is part of the Bibliography
- no (65) (remove)
Keywords
- Agent (1)
- Akustik (1)
- Anisotropie (1)
- Armenien (1)
- Augmented Reality (1)
- Autorensystem (1)
- Bewältigung (1)
- Bilderwelten (1)
- Bildverarbeitung (1)
- Buchgeschichte (1)
Institute
- Biowissenschaften (11)
- Biochemie und Chemie (9)
- Medizin (7)
- Pharmazie (6)
- Physik (6)
- Geschichtswissenschaften (3)
- Psychologie (3)
- Sportwissenschaften (3)
- Gesellschaftswissenschaften (2)
- Informatik (2)
Im Rahmen dieser Arbeit wurde die Rolle des Proteins S100B in humanen Neuroblastomzellen und primären hippokampalen Neurone der Ratte beim apoptotischen Zelltod untersucht. Hierfür wurden verschiedene zelltodinduzierende Agentien und Stresskonditionen verwendet. Für den exzitotoxischen, glutamatabhängigen Zelltod wurde eine NMDA-induzierte Zellschädigung sowie eine Hypoxieinduktion in einer Hypoxiekammer benutzt. Hier konnte für beide Apoptosemodelle und in beiden Zellarten eine signifikante Neuroprotektion in Anwesenheit von S100B gezeigt werden. Besonders in Hinblick auf bereits gezeigte aktive Sezernierung von S100B nach metabolomischem Stress in Astrozyten sollten die weiteren Signalwege und Effekte dieses Proteins erforscht werden. Im Zuge der Untersuchung eines möglichen Wirkungsmechanismus von S100B zeigte sich zunächst eine signifikante Aktivierung des Zellrezeptors RAGE. Weiterhin zeigte sich in primären hippokampalen Neuronen eine Aktivierung des RAF/MEK/MAPKERK-Signalwegs zumindest partiell verantwortlich für die Vermittlung der neuoprotektiven Wirkung von S100B bei NMDA-induzierter Apoptose. Durch Experimente unserer Arbeitsgruppe wurde bereits zuvor eine S100B abhängige Aktivierung von NFκB beobachtet. In dieser Arbeit konnte mit VEGF ein evtl. NFκB-abhängig aktiviertes Zielgen für die neuroprotektive Wirkung von S100B bei hypoxieinduzierter Apotpose gefunden werden. Demnach erklärt sich ein möglicher neuroprotektiver Wirkmechanismus von S100B beim exzitotoxischen Zelltod durch Aktivierung des Rezeptors RAGE an der Zelloberfläche, mit anschließender Aktivierung des MEK-Erk Signalwegs. Dieses kann seinerseits zu einer Aktivierung von NFκB in der Zelle mit Hochregulierung des VEGF-Gens führen.
Ein weiteres untersuchtes Apoptosemodell für die Rolle von S100B war die direkte DNA-Schädigung durch UV-Bestrahlung und Etoposid sowie die Schädigung durch den Proteasom-Inhibitor und p53 Aktivator Epoxomicin in humanen SHSY5Y Neuroblastoma-Zellen und primären hippokampalen Neuronen der Ratte. Auch hier zeigte sich in allen drei Modellen eine signifikante Neuroprotektion in Anwesenheit von S100B.
Da es einige Hinweise (unter anderem noch nicht publizierte Daten unserer eigenen Arbeitsgruppe) für eine Aufnahme von S100B in die Zelle gibt, wurde eine evtl. Wechselwirkung von S100B mit dem, nach DNA-Schädigung hochreguliertem, apoptoseinduzierenden Protein p53 untersucht. Hier zeigte sich, dass S100B sowohl nach DNA-Schädigung durch UV-Bestrahlung, als auch nach Etoposid-Behandlung die Hochregulierung von p53 auf Proteinebene signifikant reduziert und eine Translokation zum Zellkern verhindert. In Zusammenschau dieser Daten und den aktuellen Literaturdaten über direkte Wechselwirkungen von S100B und p53 kann man davon ausgehen, dass S100B seine Wirkung nicht nur über den Zelloberflächenrezeptor RAGE ausübt, sondern nach einem noch nicht vollständig erforschten Aufnahmemechanismus in die Zelle durch direkte Proteininteraktionen, z. B. wie hier mit dem Protein p53, in den Zellprozess insbesondere im Apoptoseprozess eingreift. Abgesehen von der in dieser Arbeit beschriebenen Herunterregulierung des p53-Proteinlevels in Anwesenheit von S100B, welche die Folge einer proteasomalen Degradation nach Formationsänderung sein kann, sollten die weiteren p53-abhängigen Apoptoseinduktionswege wie eine Veränderung von dessen Transkriptionsaktiviät, Hemmung proapoptotischer Proteine und ein evtl. Einfluss auf die Translokation von sog. Todesrezeptoren an die Zellmembran in Anwesenheit von S100B als evtl. Ursachen des neuroprotektiven Effekts von S100B weiter erforscht werden.
Im Rahmen dieser Arbeit bereits durchgeführte Untersuchungen auf Veränderungen der Expressionsrate von möglichen p53-Zielgenen haben noch keine endgültigen Ergebnisse geliefert. Zum einen ist evtl. die Auswahl der ausgewählten Zielgene nicht ausreichend gewesen und zum anderen besteht eine evtl. Limitation der semiquantitativen RT-PCR Methode gegenüber neueren Methoden wie die quantitative Real-Time-PCR in der Detektion auch kleinerer Expressionsunterschiede (siehe oben). Der Mechanismus der Neuroprotektion kann in diesem Modell abschließend noch nicht vollständig geklärt werden. Weiterführende Untersuchungen sollten den genauen Aufnahmemechanismus von S100B in die Zelle untersuchen, und die neuroprotektiven Schritte nach einer Blockierung/Herunterregulierung von p53 weiter klären.
C-Typ Lektin-ähnliche Rezeptoren (CTLRs) auf Lymphozyten des Immunsystems modulieren deren Effektorfunktionen wie Zytotoxizität oder Zytokinsekretion. Die Gene dieser Immunrezeptoren befinden sich in einer definierten genomischen Region, dem Natürlichen Killer Genkomplex (NKC), welcher im Menschen auf Chromosom 12 und in der Maus auf Chromosom 6 lokalisiert ist. Namensgebend für diesen Gencluster ist die erste Beschreibung von CTLRs auf Natürlichen Killerzellen (NK-Zellen), den Effektorlymphozyten des angeborenen Immunsystems. Einige NKC-kodierte CTLR, insbesondere Vertreter der C-Typ Lektin Familie 2 (CLEC2)-Rezeptorfamilie, werden jedoch auch in nicht-lymphozytären Zellen (z.B. humanes KACL in Keratinozyten, Maus Clr-f in Darmepithelzellen) vorgefunden und in Zusammenhang mit einer gewebsspezifischen Immunüberwachung gebracht. Bemerkenswerterweise sind die Lymphozytenassoziierten Rezeptoren dieser CLEC2-Proteine ebenso CTLRs, welche zudem eng benachbart zu den CLEC2-Proteinen im NKC kodiert sind, sodass es sich um genetisch gekoppelte Rezeptor-Liganden-Paare mit immunologischer Funktion handelt.
Zu Beginn der vorliegenden Arbeit richtete sich das Interesse auf ein bislang uncharakterisiertes Mitglied der CLEC2-Proteinfamilie (CLEC2L), das jedoch außerhalb des NKC und in unmittelbarer Nachbarschaft zu einem weiteren und ebenso uncharakterisierten CTLR (KLRG2) kodiert ist. Im Unterschied zu anderen Mitgliedern der CLEC2-Familie ist CLEC2L (wie auch KLRG2) in Säugetieren hochkonserviert. Im Rahmen dieser Arbeit wurde der Frage nachgegangen, ob CLEC2L wie andere Mitglieder der CLEC2-Proteinfamilie eine gewebsspezifische Expression aufweist, mit einem genetisch gekoppelten CTLR, d. h. mit KLRG2, interagiert und funktionell in Verbindung mit dem Immunsystem gebracht werden kann. Ziel dieser Arbeit war es somit, eine detaillierte Expressions- und Funktionsstudie zu CLEC2L durchzuführen.
Mittels quantitativer Echtzeit-PCR und in situ Hybridisierung konnte CLEC2L-RNA im humanen und Maus-Gehirn nachgewiesen werden. Da die Mengen dort das Expressionsniveau in anderen Organen bei Weitem überstiegen, wurde das CLEC2L-kodierte Protein als BACL (engl. Brain-Associated C-type Lectin) neu benannt. Ektop exprimiertes BACL bildet ähnlich wie viele andere CLEC2-Mitglieder ein disulfid-verknüpftes Homodimer auf der Zellmembran von Säugetierzellen. Um die endogene Proteinexpression dieses gehirnassoziierten „Waisen"-Rezeptors zu charakterisieren, wurde die BACL-Ektodomäne rekombinant produziert und als Immunogen zur Herstellung BACLspezifischer Antikörper eingesetzt. Mit diesen Antikörpern und einer Kombination immunologischer Techniken wie Immunhistochemie, Immunfluoreszenz und Immunpräzipitation konnte die Präsenz von BACL auf humanen und Maus-Neuronen des Gehirns mit einer besonders ausgeprägten Expression in Purkinje-Zellen zum ersten Mal gezeigt werden. Neben dem Gehirn wurden andere Bereiche des Nervensystems, darunter Spinalganglien und Retina, auf die Expression des BACL-Proteins untersucht. Hierbei konnte mittels Immunfluoreszenz und hochauflösender konfokaler Mikroskopie gezeigt werden, dass BACL mit Neuronenmembranen assoziiert ist. Die durchflusszytometrische Analyse von in vitro kultivierten Neurosphären untermauerte die Expression von endogenem BACL als membranständiges Oberflächenprotein.
Diverse Ansätze zur Identifizierung von Interaktionspartnern von BACL erbrachten letztlich keine eindeutigen Ergebnisse. KLRG2 wurde ursprünglich aufgrund seiner benachbarten genomischen Lokalisation als möglicher Rezeptor von BACL favorisiert, jedoch konnten weder Reporterassays noch durchflusszytometriebasierte Bindungsanalysen eine Interaktion dieser beiden Proteine aufzeigen. Auch die aus den massenspektrometrischen Analysen von humanen und Maus BACL-Immunpräzipitaten erhaltenen Kandidatenproteine konnten letztendlich nicht als Interaktionspartner von BACL eindeutig verifiziert werden.
Eine mögliche immunologische Bedeutung von BACL in vivo wurde im Rahmen von Tumorimplantationsexperimenten mit BACL-exprimierenden Tumorzellen untersucht. Hierbei wurde das Tumorwachstum von BACL- mit Kontroll-Transfektanten in C57BL/6 Mäusen verglichen. Der beobachtete Effekt des verlangsamten Tumorwachstums nach BACL-Überexpression war jedoch nicht auf BACL-Erkennung durch Lymphozyten zurückzuführen, wie anhand von immundefizienten Rag1-k.o. und NOD-SCID-gammak.o. Mäusen gezeigt werden konnte.
Insgesamt liefert diese Arbeit die Erstbeschreibung des bislang uncharakterisierten CTLRs BACL. Das Protein teilt strukturelle Merkmale mit Mitgliedern der CLEC2-Familie, unterscheidet sich jedoch deutlich durch (i) seine hohe Konservierung in Säugetieren, (ii) seine Kodierung außerhalb des NKC und (iii) seine pan-neuronale Expression. Die Erkenntnis, dass BACL in Maus- und in humanen Neuronen exprimiert wird, wirft die Frage nach seiner funktionellen Relevanz auf. Als Membranprotein könnte es eine wichtige Rolle in der neuronalen Kommunikation und bei zellulären Kontakten spielen. Die Frage nach der Funktion von BACL wird in zukünftigen Forschungsarbeiten zu klären sein.
Das Ziel der vorliegenden Arbeit war, die systematischen Anfangsverluste im SIS18 zu minimieren. Das SIS18 soll als Injektor für das SIS100 in der neuen geplanten FAIR-Anlage eingesetzt werden und dafür die Strahlintensität erhöht werden. Eine wesentliche Rolle spielen das dynamische Vakuum im SIS18 und die anfänglichen Strahlverluste, verursacht durch Multiturn-Injektions- (MTI) oder HF-Einfangsverluste. Um den dynamischen Restgasdruck im SIS18 zu stabilisieren, müssen diese systematischen Anfangsverluste minimiert werden. Strahlteilchen, welche auf der Vakuumkammerwand verloren gehen, führen durch ionenstimulierte Desorption zu einem lokalen Druckanstieg. Dies wiederum erhöht die Wahrscheinlichkeit für Stöße zwischen Restgasteilchen und Strahlionen, wodurch diese umgeladen werden können und nach einem dispersiven Element (Dipol) auf der Vakuumkammer verloren gehen. Dies produziert einen weiteren lokalen Druckanstieg und verursacht eine massive Erhöhung der Umladungsraten. Eine Möglichkeit, die anfänglichen Verluste zu minimieren bzw. zu kontrollieren, ist die MTI-Verluste auf den Transferkanal (TK) zu verlagern, da dort ein Druckanstieg den umlaufenden Strahl im SIS18 nicht stört. Im Transferkanal werden die Strahlränder mit Hilfe von Schlitzen beschnitten und somit eine scharf definierte Phasenraumfläche erzeugt. ...
Die Proteomforschung wurde die letzten beiden Dekaden maßgeblich durch die Massenspektrometrie geprägt und vorangetrieben. Ohne die Ionisationstechniken MALDI und ESI wäre die Analyse von Peptiden und Proteinen nicht in dem Maße möglich. Durch das Zusammenspiel zwischen Probenvorbereitung und effektiven Trennmethoden mit hochauflösenden Massenspektrometern und Auswertungssoftware können heute problemlos komplexe Proteinmischungen oder ganze Proteome untersucht werden.
Um Proteine in Peptide zu schneiden, wird in den allermeisten Fällen die Protease Trypsin verwendet, deren Eigenschaften in vielerlei Hinsicht die bestmögliche Lösung für die nachfolgende Analyse mit Massenspektrometern bieten. Allerdings stößt die Anwendbarkeit dieses Enzyms bei der Analyse von einigen Proteinen oder Proteinklassen wie Membranproteinen an ihre Grenzen, da nur sehr wenige potentielle Schnittstellen vorhanden sind. In solchen Fällen wurden eine Reihe von weniger spezifischen Enzymen wie Chymotrypsin, Proteinase K oder Elastase in den vergangenen Jahren genutzt, die Proteine auch in für Trypsin weniger gut zugänglichen Bereichen wie Transmembranhelices, in massenspektrometrisch analysierbare Peptide spalten können.
Allerdings stellen die wenig spezifischen Enzyme und die von ihnen generierten Peptide die Massenspektrometrie vor neue Herausforderungen. Für eine Identifizierung benötigen die Peptide eine sehr hohe Massengenauigkeit, daneben sind insbesondere bei der Verwendung von MALDI-Massenspektrometern neutrale und sehr saure Peptide schwerer ionisierbar und analysierbar als basische.
Genügte es bis vor einigen Jahren, nur die Identität einzelner Proteine in komplexen Proben zu bestimmen, hat sich die Fragestellung mittlerweile einem Wandel unterzogen. Heute ist man daran interessiert, wie viel eines bestimmten Proteins vorliegt, besonders im Vergleich mit anderen, unterschiedlich behandelten Proben ist die Regulation von Proteinen von Interesse. Zum Quantifizieren stehen viele unterschiedliche Methoden zur Verfügung. Eine solche stellen die isobaren Derivatisierungsreagenzien TMT und iTRAQ dar, mit denen unterschiedliche Proben nach Peptidfragmentierung quantifiziert werden können.
Fast alle Arbeiten zur Quantifizierung in der Vergangenheit benutzten Trypsin als Protease.
Im Zuge dieser Arbeit sollten die Vorteile, die durch die Verwendung von Elastase bei der Identifizierung von Membranproteinen bereits gezeigt werden konnten, auf die Quantifizierung mit TMT erweitert werden.Wurde in der Vergangenheit noch in manchen Publikationen davon abgeraten, Elastase zu verwenden,weil die Nutzbarkeit der dabei gebildeten komplexen Peptidmischungen in Frage gestellt wurde, konnte in dieser Arbeit gezeigt werden, dass Elastase wie auch Trypsin sich eignen, als Enzym für Quantifizierungsexperimente verwendet zu werden. Dies wurde an Modellproteinen evaluiert und dann auf komplexe Membranproben von Hefezellen erweitert.
Bei Vorexperimenten zur Derivatisierung mit TMT wurde desweiteren festgestellt, dass Peptidklassen, die zuvor nur mit ESI als Ionisationsmethode identifiziert werden konnten, durch die Derivatisierung nun auch mit MALDI zugänglich waren. Die dadurch analysierten kleinen, hydrophoben und sehr sauren Peptide lieferten bei der Kombination mit der underivatisierten Probe einen deutlichen Zugewinn in der Sequenzabdeckung der identifizierten Proteine.
Ein weiterer Teil der Arbeit beschäftigt sich mit der nachträglichen Korrektur von gemessenen Peptidmassen über selbst geschriebene Softwarelösungen für verschiedene Massenspektrometer. Es wurde das Ziel verfolgt, eine möglichst hohe Massengenauigkeit und damit hohe Anzahl an Identifizierungen von Proteinen nach Verdau mit wenig spezifischen Proteasen zu erreichen. Weitere Computerprogramme wurden mit dem Ziel geschrieben, den Arbeitsablauf zu erleichtern und zu verbessern.
Für die früher schon beschriebene Kombination zweier Massenspektrometer mit hoher Massengenauigkeit und Auflösung auf der einen Seite und effizienter Peptidfragmentierung auf der anderen Seite konnte durch Veränderung der Instrumentierung und Software nun eine Automatisierbarkeit geschaffen werden, die es ermöglicht, die Methode standardmäßig bei Routineanalysen zu verwenden.
So ergeben sich viele neue Möglichkeiten neben den oft gewählten Standardprotokollen mit der Analyse tryptischer Verdauansätze mittels LC-ESI-MS/MS, die häufig nur der Einfachheit halber und ohne Anpassung an die eigene Zielsetzung gewählt werden.
Die Arbeit zeigt aber auch auf, dass die Verwendung weniger spezifischer Enzyme sowohl eine Optimierung des Arbeitsablaufs als auch eine Datenauswertung benötigt, die die Besonderheiten der Proteasen berücksichtigt. Wenn dies gewährleistet wird, kann vor allem mit dem Zugewinn durch die Derivatisierung mit TMT eine wertvolle Alternative zu Trypsin genutzt werden.
Hintergrund und Fragestellung: Patientensicherheit ist in den letzten Jahren zum intensiv diskutierten Thema geworden. Zudem rückt als potenzielle Basis der Patientensicherheit die Patientensicherheitskultur von Einrichtungen des Gesundheitswesens in den Fokus, bislang wurde dahingehend vor allem der stationäre Bereich untersucht. Ziel dieser Arbeit ist es, einen Einblick in den aktuellen Stand der Patientensicherheitskultur in Hausarztpraxen zu geben, und diesbezügliche Einflussfaktoren und Zusammenhänge aufzuzeigen. Dabei wurden insbesondere zwei Fragestellungen untersucht: 1. Lässt sich ein Zusammenhang aufzeigen zwischen einzelnen Praxis- und Teammerkmalen einerseits und den Ergebnissen in den Bereichen Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement andererseits? 2. Lassen sich durch einzelne Praxis- und Teammerkmale bzw. Sicherheitsklimafaktoren die Ausprägungen einer Praxis in bestimmten Patientensicherheitsindikatoren und dem Fehlermanagement einer Praxis vorhersagen?
Material und Methoden: In 60 allgemeinärztlich tätigen Praxen aus Hessen wurde die Patientensicherheitskultur anhand von drei Methoden gemessen. Dies waren 1. der auf Selbstauskunft beruhende „Fragebogen zum Sicherheitsklima“, 2. durch Praxisbegehungen und Interviews erfasste Patientensicherheitsindikatoren, sowie 3. detailliert analysierte Fehlerberichte. Die statistische Auswertung umfasste u.a. Korrelationsanalysen (Mann-Whitney-U, Wilcoxon-W, Spearman-Rangkorrelation) sowie multivariate schrittweise Regressionsanalysen.
Ergebnisse: Die Beurteilung des Sicherheitsklimas fiel über alle Praxen hinweg homogen positiv aus (acht von neun Sicherheitsklimafaktoren mit Mittelwerten von mind. vier von fünf Punkten). Bei den 12 Patientensicherheitsindikatoren ergaben sich differenziertere Werte (niedrigster Mittelwert: Indikator „Marcumartherapie“ mit 0,43 von 1, höchster Mittelwert: Indikator „Allergiehinweis“ mit 0,75 von 1). Es gingen 24 Berichte kritischer Ereignisse ein, die zu 79% als „Kein Fehlermanagement“ oder „Unbefriedigendes Fehlermanagement“ beurteilt wurden. Die Korrelations- und Regressionsanalysen zeigten Zusammenhänge auf, z.B. erzielten größere Praxisteams niedrigere Werte beim Patientensicherheitsklima und höhere Werte bei den Patientensicherheitsindikatoren im Vergleich zum Durchschnitt.
Diskussion: Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement sind in einer Hausarztpraxis mit den verwendeten Instrumenten messbar. Jedes der drei Instrumente misst einen anderen, wichtigen Bereich der Sicherheitskultur, wodurch jeweils unterschiedliche Einstellungen und Prozesse beleuchtet und anschließend auch beurteilt und verbessert werden können. In den Analysen zur Beantwortung der beiden Fragestellungen konnten Zusammenhänge und Vorhersagevariablen herausgearbeitet werden, allerdings waren diese Zusammenhänge zum Teil entgegengesetzt. Daraus ergibt sich die Hypothese, dass Praxis- und Teammerkmale als Voraussetzungen zu unterschiedlichen Ausprägungen von Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement führen können. Insgesamt könnte die Qualität der hausärztlichen Arbeit und die Sicherheit der Versorgung durch eine regelmäßige Reflektion der Praxisabläufe anhand der drei Messmethoden gesteigert werden.
Die Idee photolabile Schutzgruppen zur temporären Inaktivierung von Biomolekülen zu verwenden, um deren Funktion dann in einem biologischen System präzise orts- und zeitaufgelöst wieder zu aktivieren und so biologische Prozesse genau steuern zu können, wurde erstmals Ende der 1970er Jahre von J. W. Engels und von J. F. Hoffman verfolgt. Seit diesen ersten Arbeiten im Bereich des „Cagings“ wurde in den vergangenen Jahrzehnten eine Vielzahl von Arbeiten auf diesem Gebiet veröffentlicht und mit nahezu alle wichtigen Klassen von Biomolekülen wurden Caging-Experimente durchgeführt. Das Caging von Nukleinsäuren ist noch ein recht neues Feld. Es gab aber aufgrund der Beteiligung von Nukleinsäuren an vielen zentralen zellulären Prozessen im letzten Jahrzehnt ein enorm gesteigertes Interesse an lichtinduzierbaren Nukleinsäuren, vornehmlich zur lichtgesteuertem Genregulation. Der Arbeitskreis von Prof. Heckel befasst sich unter anderem mit dem Caging von Nukleinsäuren, wobei die zentrale Strategie im Anbringen der photolabilen Schutzgruppen an den Nukleobasen besteht. Dies hat den Hintergrund, dass auf diese Art und Weise die Wechselwirkung mit anderen Strängen durch Störung der Watson-Crick-Basenpaarung verhindert werden kann. Die Watson-Crick-Basenpaarung ist das zentrale Element für die Funktionalität nahezu aller Nukleinsäure-vermittelter Prozesse. In den vergangenen Jahren konnte mit dieser Strategie unter anderem erfolgreich die Aktivität von siRNAs und Aptameren mit Licht kontrolliert werden. Alle vier Projekte, welche in dieser Arbeit verfolgt wurden, befassten sich mit dem Caging von Nukleinsäuren. ...
In der modernen Hochschullehre haben sich eLearning-Elemente als ein Teil des Lehrrepertoires etabliert. Der Einsatz interaktiver webbasierter Selbstlernmodule (Web Based Trainings (WBT)) ist dabei eine Option. Hochschulen und Unternehmen versprechen sich dadurch neue Möglichkeiten des Lehrens und Lernens, um z. B. einen Ausgleich heterogener Vorerfahrungen sowie eine stärkere aktive Beteiligung der Lernenden zu bewirken. Damit die Erstellung und Strukturierung dieser Inhalte mit möglichst geringem Aufwand erfolgen kann, bieten Autorensysteme Unterstützung.
Zu den Grundfunktionen von Autorensystemen gehören unter anderem, das Einbinden gebräuchlicher Medienformate, die einfache Erstellung von Fragen sowie verschiedene Auswertungs- und Feedbackmöglichkeiten. Obwohl Autorensysteme schon vor vielen Jahren ihre erste praktische Anwendung fanden, gibt es nach wie vor Schwachstellen, die sich auf den gesamten Erstellungsprozess wie auch auf einzelne Funktionen beziehen. Im Detail wird bemängelt, dass die Werkzeuge zu komplex und unflexibel sind. Darüber hinaus fehlt häufig eine zufriedenstellende Verknüpfung der vielen Werkzeuge entlang der Prozesskette zu einer Gesamtlösung.
Des Weiteren wird die Konzentration auf die Produktionsphase kritisiert, wodurch andere wichtige Prozesse in den Hintergrund treten bzw. außer Acht gelassen werden.
Im Rahmen der Zusammenarbeit mit einem Automobilhersteller, für den die erste Version des Autorensystems LernBar weiterentwickelt wurde, spielte der Begriff „Lean Production“ inhaltlich in der Umsetzung der WBTs eine wesentliche Rolle. Die Lean Production, die über viele Jahre für die Automobilindustrie entwickelt, verbessert und angepasst wurde, liefert Optimierungsansätze für den Produktionsbereich. Ein wirtschaftlicher Nutzen des Lean-Ansatzes wird auch in anderen Bereichen gesehen wie z. B. in der Softwareentwicklung („Lean Software Development“) oder im Management („Lean Management“). Dabei bietet die Wertschöpfungsorientierung Lösungen für die widersprüchlichen Ziele mehr Leistungen zu geringeren Kosten, schneller und in höherer Qualität zugleich zu liefern. Aus der Grundidee der Lean Production entwickelte sich vorliegendes Dissertationsthema in Bezug darauf, inwiefern sich diese Prinzipien auf den WBT-Produktionsprozess übertragen lassen und die LernBar (das hierfür weiterentwickelnde Autorensystem) dabei Unterstützung bieten kann.
Zunächst wurde analysiert, welche Werkzeuge und Hilfestellungen benötigt werden, um unter dem Aspekt der Lean Production WBTs im universitären Umfeld erstellen zu können. In diesem Zusammenhang wurden Merkmale einer „Lean Media Production“ definiert sowie konzeptionell und technisch umgesetzt. Zur Verbesserung der Prozesse flossen Ergebnisse aus empirischer und praktischer Forschung ein. Im Vergleich zu anderen Entwicklungen bei denen häufig das Hauptziel eine umfangreiche Funktionalität ist, werden u.a. folgende übertragbare Ziele bei der Umsetzung verfolgt: Verschwendung vermeiden, eine starke Einbeziehung der Kunden, Werkzeuge die nahtlos ineinandergreifen, eine hohe Flexibilität und eine stetige Qualitätsverbesserung.
Zur Erreichung dieser Zielsetzungen wurden alle Prozesse kontinuierlich verbessert, sich auf das Wesentliche und die Wertschöpfung konzentriert sowie überflüssige Schritte eliminiert. Demnach ist unter dem Begriff „Lean Media Production“ ein skalierbarer, effizienter und effektiver Produktionsprozess zu verstehen, in dem alle Werkzeuge ineinandergreifen.
Die Realisierung der „Lean Media Production“ erfolgte anhand des Autorensystems LernBar, wobei die typischen Softwareentwicklungsphasen Entwurf, Implementierung und Evaluierung mehrfach durchlaufen wurden. Ausschlaggebend dabei war, dass der „Lean“-Aspekt berücksichtigt wurde und dies somit eine neue Vorgehensweise bei der Umsetzung eines Autorensystems darstellt. Im Verlauf der Entwicklungen ergaben sich, durch eine formative Evaluation, den Einsatz in Projekten und eine empirische Begleitforschung, neue Anforderungen an das System. Ein Vergleich der zwei Produktionssysteme, Automobil vs. WBT-Produktion, zeigt und bestätigt die Erwartung, dass nicht alle Prinzipien der Lean Production übertragbar sind.
Dennoch war diese Untersuchung notwendig, da sie Denkanstöße zur Entwicklung und Optimierung des Erstellungsprozesses eines WBTs gab. Auch die Ergebnisse der abschließenden Online-Befragung ergaben, dass die Ziele der Arbeit erreicht wurden, dass aber weiterer Optimierungsbedarf besteht. Die LernBar Release 3 bietet für alle Produktionsphasen Werkzeuge an, durch die eine effektive und effiziente Erstellung von WBTs von der Idee bis zur Distribution möglich ist.
Stand noch vor fünf Jahren zu Beginn dieser Arbeit das Endprodukt bei der LernBar Entwicklung im Vordergrund, verlagerte sich durch den Einfluss dieser Dissertation der Schwerpunkt auf den gesamten Produktionsprozess. Unter Berücksichtigung der in diesem Zusammenhang entwickelten Prinzipien einer „Lean Media Production“, nehmen bspw. die Wirtschaftlichkeit und die starke Kundenorientierung während des Produktionsprozesses einen wichtigen Stellenwert ein. Dieser Ansatz ist eine neue Vorgehensweise im Bereich der Entwicklung von Autorensystemen, der seine Anerkennung und Professionalität durch die Ergebnisse des selbstentwickelten Evaluationsbogens sowie dem stetig wachsenden Einsatz in Schulen, Hochschulen und Unternehmen belegen kann.
In weiteren Forschungsarbeiten ist zu untersuchen, welche Lean Production Prinzipien zu verwenden oder anzupassen sind, wenn z. B. in größeren Teams oder mobil produziert wird. Des Weiteren sollte überprüft werden, inwieweit die Lernenden mit dem Endprodukt zufrieden sind und in ihrem Lernprozess unterstützt werden. Durch diese Forschungsarbeit wurde ein Beitrag dazu geleistet, die Lehre und Ausbildung zu optimieren, indem die Autoren/Lehrende in der Erstellung ihrer digitalen Lerninhalte im gesamten Prozess von aufeinander abgestimmten Werkzeugen unterstützt werden.
Kunsthistorische oder betriebswirtschaftliche Arbeiten der letzten fünfzehn Jahre zur Kunstförderung in deutschen Wirtschaftsunternehmen konzentrieren sich auf die Beschreibung einer Firmenkunstsammlung oder Sammlerpersönlichkeit in Unternehmen. Die aktuellen Formen der Kunstförderung sind bislang nicht eingehend dargestellt worden, auch die Gründe für eine Kunstförderung wurden eher ansatzweise betrachtet. Meine Dissertation untersucht die Motive und Zielsetzungen für ein Kunst-Engagement unter Berücksichtigung innovativer Kunstkonzepte, die über tradierte Formen hinausgehen. Die Dissertation setzt sich damit zugleich ein theoretisches Ziel: Sie will ausgehend von vier Fallbeispieluntersuchungen und unter kritischer Auseinandersetzung mit aktuellen Studien und Literatur ein Modell für ein effektives und zukunftsgerichtetes Kunst-Engagement entwickeln.
Ausgangspunkt ist die Überlegung, dass sich Motive und Zielsetzungen für Kunst-Engagements aus Ideen und Wertvorstellungen ableiten lassen, die durch Begriffe im Zusammenhang mit Kunst-Engagements ausgedrückt werden. Um diese Begriffe zu ermitteln, wurden offene, qualitative Experteninterviews geführt und in qualitativer Inhaltsanalyse ausgewertet.
Anhand der Beschreibung der aktuellen Kunstkonzepte der untersuchten Unternehmen werden die identifizierten Motive überprüft. Interdisziplinäre Recherche zahlreicher Literatur diente zur Erweiterung und Vertiefung der Untersuchung. Dabei setzt sich die Dissertation mit kritischen Einwänden gegenüber Kunst-Engagements in Unternehmen auseinander.
Aktuelle Kunstförderung ist unternehmensstrategisch eingebunden und zielgruppenorientiert.
Der Fokus liegt auf zeitgenössische Kunst unter Anwendung innovativer, mediengestützter Vermittlungsformen. Innovative Kunst-Engagments unterscheiden sich von tradierten Konzepten des Corporate Collecting auch durch den Kontext, insbesondere durch ihren Einsatz im Bereich der Unternehmenskommunikation. Bei relevanten gesellschaftlichen Interessengruppen (stakeholder) sollen durch Kunst positive Assoziationen mit den Unternehmen verankert werden. Anhand der Fallbeispiele der Arbeit hat sich gezeigt, dass ein positiver Einfluss auf das Unternehmensimage durch Kunst-Engagements anzunehmen ist. Die Ergebnisse der Untersuchung legen nahe, dass durch diese imagefördernde Wirkung auch der Markenwert des Unternehmens gestärkt werden kann. Mit Kunst werden ferner Anlässe für Gespräche geschaffen, die unter Mitarbeitern oder mit Kunden über weitergehende, geschäftsbezogene Themen oder aber im politischen Kreis zur Kontaktpflege stattfinden.
Zeitgemäße Kunstkonzepte dienen unternehmensintern dazu, sowohl Mitarbeiter an das Unternehmen zu binden, als auch zukunftsfähiges Denken bei Mitarbeitern zu fördern und dadurch die Innovationsfähigkeit des Wirtschaftsunternehmens zu begünstigen. Indem Unternehmen mit Kunstförderung so genannte „gesellschaftliche Verantwortung“ übernehmen, beabsichtigen sie, sich in einem globalen, kompetitiven Wirtschaftsumfeld von Wettbewerbern abzugrenzen. Die Übernahme „gesellschaftlicher Verantwortung“ im Bereich der Kunst ist überwiegend nicht altruistisch motiviert, sondern ist im besten Fall für das Unternehmen ökonomisch sinnvoll. Allerdings übernimmt die Wirtschaft einen Teil der Kulturförderung, die von staatlicher Seite nicht mehr geleistet werden kann, und setzt als Initiator eigene kulturelle Impulse. Die Untersuchung hat gezeigt, dass Kunst in der Verknüpfung mit unternehmerischen Zielen für Firmenzwecke genutzt, also instrumentalisiert wird. Die Kooperation von Kunstwelt und Wirtschaft kann dessen ungeachtet für beide Seiten vorteilhaft sein, insbesondere wenn die Glaubwürdigkeit eines Kunst-Engagements gewährleistet ist.
Die phylogenetisch hochkonservierte Jak/Stat‐Signaltransduktionskaskade repräsentiert eines der zentralen Säulen zellulärer Signalübertragung eukaryotischer Organismen. Ubiquitär im Organismus exprimiert und über eine Vielzahl von Zytokinen, Hormonen und Wachstumsfaktoren aktiviert, sind Stat‐Transkriptionsfaktoren maßgeblich an dem Erhalt der Physiologie und Homöostase von Organen und Geweben beteiligt. So sind die Mitglieder Stat5A und Stat5B (als homologe Proteine im Verbund als Stat5 bezeichnet) entscheidende Regulatoren des Immunsystems und der Hämatopoese, der Funktion und Entwicklung des Prostata‐ und Brustdrüsengewebes (Mammogenese) oder bestimmter Funktionen der Leber. Wie auch Stat3, konnten Stat5 Proteine in aberrant aktiver Form in verschiedensten Typen und Stadien humaner Tumore nachgewiesen werden, wo sie über die Expression ihrer Zielgene sowie über weitere nicht‐kanonische Funktionen im Zytoplasma und im Zellkern einer fortschreitend malignen Entartung entscheidend beitragen. Als Folge der Unterstützung essentieller Tumorgenese‐
Mechanismen, wie gesteigertes Zellwachstum, Apoptosehemmung, Migration und Metastasierung, Sauerstoff‐unabhängiger Energiestoffwechsel, Angiogenese oder Umgehung der Immunabwehr, entwickeln Tumore häufig eine Abhängigkeit gegenüber der gesteigerten Aktivität dieser Vertreter der Stat‐Proteinfamilie und reagieren mit einem Wachstumsstopp und Apoptoseinduktion auf ihre Inhibierung. Perspektivisch stellt die gezielte Interferenz mit aberranten, Tumortyp‐spezifischen Stat5‐Aktivitäten einen relevanten Ansatz in der personalisierten Therapie Stat5‐abhängiger Tumore, vorrangig leukämischen Ursprungs, dar. ...