Refine
Year of publication
- 2015 (1320) (remove)
Document Type
- Article (297)
- Contribution to a Periodical (174)
- Book (171)
- Part of Periodical (168)
- Report (131)
- Review (123)
- Part of a Book (93)
- Doctoral Thesis (87)
- Working Paper (50)
- Conference Proceeding (6)
Language
- German (1320) (remove)
Keywords
- Literatur (41)
- Deutsch (39)
- Rezension (36)
- Islamischer Staat (30)
- Terrorismus (21)
- Rezeption (20)
- Deutschland (19)
- IS (16)
- Dschihadismus (11)
- Kongress (11)
Institute
- Präsidium (333)
- Gesellschaftswissenschaften (156)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (89)
- Geschichtswissenschaften (68)
- Neuere Philologien (46)
- Institut für Wirtschaft, Arbeit, und Kultur (IWAK) (43)
- Rechtswissenschaft (40)
- Medizin (39)
- Wirtschaftswissenschaften (35)
- Kulturwissenschaften (34)
Im Rahmen der hier vorliegenden Arbeit wurde der Einfluss sowohl akuter als auch chronischer Aufnahme subletaler Mengen des Insektizids Thiacloprid auf Einzelbienen und Bienenvölker untersucht. Anlass für diese Art an Untersuchungen gibt ein seit Jahren in Nordamerika und Europa auftretendes unerklärliches Phänomen, „Colony Collapse Disorder“ genannt, bei dem Bienenvölker durch einen plötzlichen Verlust der Flugbienen zusammenbrechen. Als Ursache für das Völkersterben stehen neben anderen Faktoren wie Parasiten, Pathogenen und Umweltfaktoren die Insektizide aus der Gruppe der Neonikotinoide und deren Auswirkungen auf Bienen in subletalen Mengen im Verdacht. Basierend auf Studien der Europäischen Behörde für Lebensmittelsicherheit (EFSA) wurde der zugelassene Einsatz der drei Neonikotinoide Clothianidin, Imidacloprid und Thiamethoxam im Pflanzenschutz für zunächst zwei Jahre durch die EU-Kommission stark eingeschränkt.
Thiacloprid, ein weiteres Insektizid, welches zur Gruppe der Neonikotinoide gehört, ist weiterhin für den Einsatz im Pflanzenschutz zugelassen. Es wirkt in ähnlicher Weise wie die zuvor genannten Neonikotinoide als Agonist am nikotinischen Acetylcholinrezeptor, wobei es jedoch als weniger toxisch für Bienen gilt. Trotzdem sind subletale Auswirkungen dieses Neonikotinoids auf Bienen denkbar, die sich in Verhaltensänderungen der Bienen äußern und als Folge Einfluss auf das gesamte Bienenvolk nehmen könnten.
In der hier vorliegenden Arbeit wurden in chronisch mit Thiacloprid eingefütterten Völkern über mehrere Monate regelmäßige Populationsschätzungen durchgeführt, um die Entwicklung der Bienenvölker unter Aufnahme von Thiacloprid festzustellen. In einem weiteren Versuch wurde die Entwicklung der Brut unter chronischer Fütterung mit Thiacloprid beobachtet. Zusätzlich wurde eine große Zahl an Bienen mit RFID-Transpondern ausgestattet, um das Flugverhalten zu dokumentieren. Insbesondere wurden hier der Zeitpunkt des ersten Ausflugs und die Lebensdauer der Bienen zu Vergleichen herangezogen. Nach akuter Fütterung einer subletalen Einzeldosis Thiacloprid wurden Versuche zum Heimkehrvermögen von Bienen durchgeführt.
Unter feldrelevanten und bis zu zehnfach höheren Thiacloprid-Konzentrationen wurden keine beeinträchtigenden Einflüsse auf die Volksentwicklung beobachtet. Bei Konzentrationen, die um ein 25faches bzw. ein 40faches höher als die feldrelevante Konzentration waren, wurde festgestellt, dass die Brutzellenanzahl im Verhältnis zur Bienenanzahl verringert war. Bienen aus chronisch mit Thiacloprid eingefütterten Völkern starteten mit höherem Alter zu ihrem ersten Flug aus dem Bienenstock. Die Zeit, die die Bienen als Sammlerinnen verbrachten, änderte sich nicht. Durch Beobachtungen der Brutflächen konnte festgestellt werden, dass sich die Brut in Thiacloprid-gefütterten Völkern entsprechend der Brut in Kontrollvölkern entwickelte. Aufgrund weiterer Ergebnisse wurde eine Störung der olfaktorischen Wahrnehmung von Bienen aus Thiacloprid-gefütterten Völkern vermutet. Die akut verabreichte subletale Dosis an Thiacloprid führte zu einem erheblichen Verlust an heimkehrenden Bienen und deutet auf eine Beeinträchtigung des Orientierungs- bzw. Navigationsvermögens der Bienen hin.
In den durchgeführten Versuchen wurden sowohl direkte Auswirkungen von chronischer und akuter Aufnahme subletaler Mengen an Thiacloprid, als auch indirekte Auswirkungen auf Honigbienen beobachtet. Da teilweise erst bei hohen, nicht feldrelevanten Konzentrationen in den Versuchen Effekte beobachtet wurden, kann nur bedingt durch die Verhaltensänderung von Einzelbienen auf daraus resultierende Auswirkungen auf ein gesamtes Bienenvolk unter realistischen Bedingungen geschlossen werden.
Schüler-Schüler-Interaktion wirkt sich als Miteinander-, Nebeneinander- oder auch Gegeneinander-Arbeiten stets auf die bildnerischen bzw. gestalterischen Prozesse im Kunstunterricht aus. Sei es als geplante aktive Zusammenarbeit oder innerhalb bestehender oder sich erst entwickelnder Beziehungen – sowohl auf den Prozess als auch auf die Qualität der bildnerischen Gestaltungen im Kunstunterricht hat die Schüler-Schüler-Interaktion Einfluss: Schülerinnen und Schüler erhalten Ideen im Gespräch mit anderen und werden durch die Werke ihrer Mitlernenden in ihrem eigenen bildnerischen Handeln beeinflusst. Die Zusammenarbeit in Gruppen ist häufig Voraussetzung für die Bewältigung komplexer Gestaltungsaufgaben, etwa beim Erstellen eines Kurzfilms oder dem Bau einer Plastik. Schülerinnen und Schüler sind sich gegenseitig Modelle, Darsteller und Assistenten und geben sich untereinander Rückmeldung zu Zwischenergebnissen und abgeschlossenen bildnerischen Gestaltungen.
Der Ausgangspunkt der Untersuchung ist die Beobachtung, dass sowohl die Schüler-Schüler-Interaktion allgemein als auch die Zusammenarbeit in Gruppen-, Partnerarbeiten und Gemeinschaftsprojekten gemessen an der hier skizzierten Relevanz für die Praxis des Kunstunterrichts in der fachdidaktischen Wissenschaft zu wenig Beachtung finden. Der spezifische Beitrag, den die Zusammenarbeit innerhalb einer Klassengemeinschaft, einer Kursgruppe oder in kleineren Arbeitsgruppen bezogen auf die bildnerischen Prozesse leistet, wird auf theoretischer Ebene in der Kunstdidaktik bzw. -pädagogik kaum untersucht und wissenschaftlich reflektiert. Historische und aktuelle Konzeptionen der Kunstdidaktik bieten keine oder nur sehr wenige Anhaltspunkte, inwiefern sich die Interaktion zwischen den Lernenden auf die Gestaltungsprozesse im Unterricht auswirkt und ob und wie diese bei der Planung und Durchführung von Kunstunterricht genutzt werden kann.
Dies muss vor dem Hintergrund aktueller gesellschaftlicher Entwicklungen noch kritischer gesehen werden, denn dort erlangen Interaktion und Kollaboration in verschiedenen Bereichen immer mehr den Status eines Wertes an sich, was hier durch den Verweis auf die immer größere Bedeutung sozialer Netzwerke, Online-Communities und kollaborativer Wissensplattformen nur angedeutet werden soll. Auch in der Bildenden Kunst werden zunehmend interaktive oder kollaborative Strategien verfolgt: Künstlerinnen und Künstler gehen bspw. vermehrt temporäre, projektbezogene Kollaborationen ein, Ausstellungen werden zunehmend von Gruppen oder Kollektiven kuratiert.
Der offenen Frage nach den Wechselbeziehungen bildnerischer und sozialer Prozesse in Gruppen im Kunstunterricht geht die Untersuchung als qualitativ-empirische Unterrichtsforschung in Form einer kunstpädagogischen Praxisforschung nach. Schwerpunktmäßig an und mit den Jugendlichen einer von der Autorin unterrichteten Kunst-Leistungskursgruppe wird über den Zeitraum eines Schulhalbjahres hinweg untersucht, welchen Einfluss die Schüler-Schüler-Interaktion bei unterschiedlichen Sozialformen und projektartigen Aufgabenstellungen auf den Kunstunterricht hat. Neben der reflektierten und theoretisch fundierten Beobachtung durch die Forscherin bzw. Lehrerin bilden die Perspektiven der Lernenden, d. h. ihre subjektiven Erfahrungen, Wahrnehmungen und Einschätzungen, den wesentlichen Zugang zur Klärung der Forschungsfragen. Die durch Fokus-Interviews mit einzelnen Schülerinnen und Schülern sowie Videografie erhobenen Daten werden hierfür in einer phänomenologischen Analyse ausgewertet. Die Untersuchung der Schüler-Schüler-Interaktion wird mit einer weiteren Fallstudie in einem nicht von der Autorin selbst unterrichteten Kunst-Leistungskurs trianguliert und der Blick auf den Forschungsgegenstand dadurch erweitert. Im Rahmen dieser Teilstudie formulieren Kursteilnehmende in Anlehnung an das partizipatorische Forschungsverfahren Photovoice im Medium der Fotografie gemeinsam Aussagen über ihre Kursgruppe und bearbeiten diese in einer Gruppendiskussion kommunikativ.
Aus der Konzeption als Praxisforschung ergibt sich der Anspruch, durch die Untersuchungsergebnisse nicht nur einen Beitrag zur Klärung der fachdidaktisch noch wenig beachteten Wechselbeziehungen zwischen sozialen und bildnerischen Prozessen zu leisten, sondern auch durch eine Rückführung der Forschung in die Unterrichtspraxis zu einer konkreten, empirisch begründeten Veränderung des Unterrichtshandelns der Lehrerin-Forscherin zu gelangen.
Patienten mit einer BCR/ABL positiven (Ph+) akuten lymphatischen Leukämie (ALL) bilden die größte genetisch definierte Untergruppe der ALL und gelten wegen ihrer schlechten Prognose als Höchstrisiko ALL. Die bisherigen Therapieergebnisse werden durch die Kombination von Tyrosin-Kinase-Inhibitoren (TKI) wie Imatinib und Chemotherapeutika verbessert, sind aber durch das Auftreten von Resistenzen gegen TKI in ihrer langfristigen Wirkung limitiert. Die derzeitige Forschung fokussiert sich weitestgehend auf konstitutive aktive Kinasen, die für die leukämische Transformation verantwortlich sind. Allerdings kann die Deregulation von Phosphatasen, die als Gegenspieler von Kinasen fungieren, durch eine verminderte Inaktivierung dieser Kinasen, ebenso zur Leukämogenese beitragen, indem ihre physiologische Funktion vermindert wird. Im Vorfeld konnte bereits gezeigt werden, dass die deregulierte Protein Tyrosin Phosphatase 1B (PTP1B) bei Ph+ Leukämien eine partielle Resistenz gegenüber TKI vermitteln kann.1 Darüber hinaus zeigen von Juric et al. (2007)2 publizierte Microarrays von 54 Ph+ ALL Patienten eine transkriptionelle Hochregulierung der Phosphatase „Supressor of T-Cell receptor Signalling 1“ (STS-1).2 STS-1 (TULA-2) gehört zusammen mit STS-2 (TULA-1) zur Familie der STS/TULA Proteine, von denen keine weiteren Mitglieder bekannt sind. STS-1 dephosphoryliert diverse Rezeptor-Tyrosin-Kinasen wie z.B. den T-Cell Receptor (TCR) und den Epidermal-Growth-Factor Receptor (EGFR) und verhindert somit deren Internalisierung und proteosomalen Abbau.3 Weitere durch STS-1 dephosphorylierte Substrate sind die Proteintyrosinkinase Syk, die eine wichtige Rolle bei der Signalweiterleitung des B-Cell-Receptors (BCR) spielt sowie andere SRC-Kinasen (z.B. FYN).4 Aufgrund der oben beschriebenen Zusammenhänge zwischen STS-1 und der Ph+ ALL ist die Untersuchung einer möglichen funktionellen Bedeutung von STS-1 bei der Entwicklung einer mutationsunabhängigen Resistenz von Ph+ ALL Inhalt dieser Arbeit. Als Modellsystem dienen in der hier vorliegenden Arbeit aus der BCR/ABL Zelllinie Sup B15 abgeleitete TKI resistente Zellen (Sup B15 RT). Imatinib ist in diesen immer noch in der Lage BCR/ABL zu binden und führt zu einer Verschiebung der Dosiswirkungskurve ohne Apoptose zu induzieren. Mutationen in der Tyrosinkinase Domäne von BCR/ABL konnten als zugrunde liegender Resistenzmechanismus durch Sequenzanalysen ausgeschlossen werden, ebenso wie zusätzliche Translokationen oder genomischen Amplifikationen von BCR/ABL. Eine Analyse der STS-1 Expression zeigte sowohl transkriptionell als auch auf Proteinebene eine deutliche Herunterregulierung von STS-1 in Sup B15 RT Zellen. Die Interaktion zwischen STS-1 und BCR/ABL wurde in verschiedenen Zellmodellen gezeigt. Dabei konnten bezüglich der Interaktion keine Unterschiede zwischen dem p210BCR/ABL und p185BCR/ABL Fusionsprotein festgestellt werden. Auch die „Gatekeeper“ Mutation T315I hatte keinen Einfluss auf die Interaktion. Die Unabhängigkeit der Bindung von STS-1 und BCR/ABL von einer aktiven BCR/ABL Kinase wurde durch die Zugabe von Imatinib gezeigt. Lediglich auf endogenem Level konnte eine Imatinib vermittelte Reduktion der Interaktion nachgewiesen werden. Durch die Verwendung unterschiedlich trunkierter BCR/ABL Proteine wurde gezeigt, dass STS-1 sowohl mit c-ABL als auch mit dem ABL-Anteil von BCR/ABL interagiert und dass eine Oligomerisierung für diese Interaktion nicht notwendig ist. Als Folge der Interaktion kommt es zu einer Dephosphorylierung von BCR/ABL durch STS-1, wobei vor allem die im ABL Anteil lokalisierten und für die Autophosphorylierung wichtigen Tyrosine 245 und 412 dephosphoryliert werden. Mittels eines Proliferations-Kompetitions-Assay konnte gezeigt werden, dass STS-1 sowohl die Proliferationsrate reduziert als auch erheblich die Sensitivität von SupB15 RT Zellen gegenüber Imatinib steigert. Dieser Befund steht im Einklang mit der Annahme, dass diese Sensitivitätssteigerung durch eine gegenüber den sensitiven Sup B15 WT deutlich verminderte STS-1 Expression bedingt ist. Dexamethason in klinisch relevanten Konzentrationen (10-6 M - 10-9 M) konnte sowohl in SupB15 WT als auch in SupB15 RT Zellen die STS-1 Expression um ein Vielfaches steigern und führte in Kombination mit 1 μM Imatinib sogar in den resistenten Zellen zu einer hoch signifikanten Inhibition der Proliferation sowie einer gesteigerten Apoptose. Die Resultate dieser Arbeit rücken Phosphatasen und im speziellen STS-1 in einen stärkeren Fokus, wenn es um die Bildung von Resistenzen geht. Dadurch können sich eine Vielzahl neuer Behandlungsstrategien sowie neue Ansätze für die klinische Wirkstoffforschung ergeben.
Terézia Mora zählt zu den renommiertesten Übersetzerinnen aus dem Ungarischen und erhielt für ihr schriftstellerisches Werk bereits zahlreiche Auszeichnungen. Ihr literarisches Debüt, der Erzählband Seltsame Materie (1999) wurde sowohl mit dem Ingeborg-Bachmann-Preis (1999) als auch mit dem Adelbert-von-Chamisso-Förderpreis im Jahr 2000 bedacht. Ihr Romandebüt Alle Tage (2004) wurde unter anderem mit dem Mara-Cassens-Preis ausgezeichnet. 2009 erschien der erste Teilband der angekündigten Trilogie um den Protagonisten Darius Kopp Der einzige Mann auf dem Kontinent. Es folgte 2013 der zweite Teil Das Ungeheuer, für welchen Terézia Mora den Deutschen Buchpreis im selben Jahr erhielt.
In ihrer Laudatio im März 2010, anlässlich der Verleihung des Adelbert-von-Chamisso Preises, bezeichnet Sigrid Löffler Terézia Mora nicht nur als herausragende Übersetzerin, sondern auch als Schriftstellerin, die ihre „Herkunftsregion literaturfähig“ gemacht habe...
Ziel dieser Arbeit, die im Rahmen der Ice Nuclei Research Unit (INUIT) Forschergruppe erstellt wurde, war ursprünglich die saisonale und geographische Variabilität von bodennahen Eiskeimen zu untersuchen. Die Konzentrationen, Quellen und Zusammensetzung der Eisnuklei (ice nuclei, IN) sollte als Basis für Parametrisierungen dienen. Das Verständnis von Eiskeimen und deren Einfluss auf Wetter und Klima sind nur zum Teil bekannt und bedürfen daher noch weitgehender Forschung. Auch die Änderung der Eiskeimkonzentration mit der Zeit kann von Bedeutung sein, diese sollte durch die Fortführung einer Langzeitmessreihe untersucht werden. Durch Hinzuziehen von lokalen Parametern und Trajektorien sollten Proxies für die IN Konzentration ermittelt werden.
Im Rahmen dieser Arbeit taten sich jedoch Probleme am Messverfahren auf, weshalb die ursprünglichen Ziele in den Hintergrund gerieten und die Verbesserung und Neuaufnahme des Messverfahrens in den Vordergrund trat. Anhand von zielgerichteten Experimenten wurde ein Messfehler ermittelt, der durch die vorherige Fehlinterpretation von deliqueszierenden Partikeln und von Tröpfchen als vermeintliche Eiskristalle entstand. Dieser Fehler wurde charakterisiert und durch optische Analysen dessen Ursprung ermittelt. Datensätze, die durch diese hygroskopischen Partikel fehlerbehaftet waren, wurden korrigiert und reanalysiert. Ein in früheren Arbeiten am Taunus Observatorium/Kleiner Feldberg ermittelter Jahresgang in der Eiskeimkonzentration mit einem Maximum im Sommer und einem Minimum im Winter konnte bestätigt werden, die Absolutzahlen sind jedoch deutlich geringer als bisher angenommen. Lokale Parameter sowie Trajektorien wurden zur weiteren Analyse hinzugezogen.
Die Reevaluierung der Datensätze vom Taunus Observatorium führte zu keinem abschließenden Ergebnis. Ein allgemein gültiger Zusammenhang zwischen Eiskeimkonzentration und Parametern, welche das Staubvorkommen in der Atmosphäre quantifizieren (PM10 und Aerosol Optische Dicke), konnte nicht festgestellt werden. Da die Messungen bei relativ warmen Bedingungen (≥-18°C) durchgeführt wurden, Staub aber erst bei kälteren Temperaturen als effektiver Eiskeim gilt, ist dieses Ergebnis jedoch zu erwarten gewesen.
Auch die Luftmassenherkunft scheint keinen eindeutigen Einfluss zu haben. Betrachtungen der Bodenfeuchte lieferten signifikante Korrelationen, welche jedoch monatsabhängig positiv oder negativ ausfallen können. Im Frühling ist eine hohe Bodenfeuchte mit einer erhöhten Konzentration von IN in Verbindung zu bringen, im Sommer liegt bei niedriger Bodenfeuchte eine tendenziell höhere Eiskeimkonzentration vor. Die Windrichtung hat für die Eiskeimkonzentration einen Einfluss, wenn der Wind aus Südost zum Taunus Observatorium strömt. Anthropogenes Aerosol aus Frankfurt am Main hemmt hier vermutlich die Eisbildung, was zu einer signifikant niedrigeren mittleren Konzentration aus dieser Richtung führt.
Da das Messverfahren noch nicht in seinem vollen Potential genutzt wurde, wurde es um eine Analysemethode erweitert. Mittels Tröpfchengefrierexperimenten konnte ein weiterer Gefriermodus betrachtet werden. Nun deckt das hier genutzte Messverfahren drei der vier bekannten Gefriermoden ab. Anhand von Testsubstanzen wurde die Zuverlässigkeit der neu eingeführten Methode überprüft und nachgewiesen.
Erste Parallelproben der korrigierten Depositions- und Kondensationsgefriermessmethode und der neu eingeführten Immersionsgefriermessung wurden am Taunus Observatorium/Kleiner Feldberg genommen. Dabei wurde auch ein Staubereignis beprobt und detailliert ausgewertet. Zwischen lokalen Parametern und Eiskeimkonzentration fanden sich Zusammenhänge. Bei Messbedingungen <-20°C konnte ein signifikanter Zusammenhang zwischen PM10 und Eiskeimkonzentration im Immersions- und Kondensationsmodus gefunden werden. Der Depositionsgefriermodus blieb unauffällig. Zwischen Bodenfeuchte und IN-Konzentration konnten ebenfalls wie bei der Reevaluierung der alten Messdaten Signifikanzen festgestellt werden.
Die neu eingeführte Immersionsmessmethode und die korrigierte Methode zur Bestimmung von Depositions- und Kondensationsgefrierkernen liefern Messdaten, welche im Bereich anderer Eiskeimzähler liegen. Vergleiche mit Parametrisierungen zeigen, dass die Messwerte dem aktuellen Stand der Forschung entsprechen und davon ausgegangen werden kann, dass sie vertrauenswürdig und belastbar sind.
Die vorliegende Arbeit befasst sich mit der numerischen Behandlung elasto-plastischer Materialmodelle unter großen Deformationen. Elasto-plastisches Materialverhalten zeichnet sich dadurch aus, dass neben den reversiblen (elastischen) Deformationen auch irreversible (plastische) Deformationen betrachtet werden, die einem Evolutionsgesetz folgen. Ein numerischer Algorithmus der Elasto-Plastizität muss daher dieses plastische Evolutionsgesetz zusammen mit den klassischen Erhaltungsgleichungen der Kontinuumsmechanik lösen und geeignet behandeln. Der prominenteste Vertreter eines elasto-plastischen Algorithmus' ist der sogenannte Return-Mapping-Algorithmus (RMA). Neben seiner Funktionalität werden allerdings auch die einschränkenden Modellannahmen beleuchtet, auf denen der RMA gründet. Diese beschränkte Anwendungsmöglichkeit motiviert die Entwicklung eines neuen Plastizitätsalgorithmus'. Der in dieser Arbeit entwickelte Verallgemeinerte Plastizitätsalgorithmus (GPA: Generalised Plasticity Algorithm) führt eine zusätzliche Linearisierung bezüglich der plastischen Variable ein, in der das plastische Evolutionsgesetz formuliert ist. In der vorliegenden Arbeit ist diese Variable durch den plastischen Deformationstensor gegeben, der die Inverse des plastischen rechten Cauchy-Greenschen Deformationstensors beschreibt. Somit erlaubt der GPA eine Behandlung von allgemeineren und komplexeren elasto-plastischen Modellen als der RMA.
Anhand von bekannten Benchmark-Problemen werden die beiden Algorithmen in dieser Arbeit validiert und verglichen. Ein numerischer Test zur Poroplastizität unter großen Deformationen dient schließlich als Beleg dafür, dass der GPA auf Modelle anwendbar ist, die durch komplexes elasto-plastisches Materialverhalten charakterisiert sind und für die der RMA in seiner klassischen Form nicht als Lösungsstrategie gewählt werden kann.
Neben der Entwicklung des Verallgemeinerten Plastizitätsalgorithmus' hat diese Arbeit das Ziel industrielle Anwendungen effizient zu lösen. Dazu wird für ein Problem der linearen Elastizität der effiziente Einsatz des Mehrgitterlösers bis zu einer viertel Million Prozessoren gezeigt und es werden elasto-plastische Rechnungen für zwei industrielle Beispiele mit einer anspruchsvollen Geometrie durchgeführt.
Habituation ist eine der einfachsten Formen des Gedächtnisses. Hierbei handelt es sich um die erlerne Gewöhnung an einen harmlosen Reiz. Dies bedeutet, dass nach mehrfacher wiederholter Repräsentation eines harmlosen Reizes die Reaktion darauf stetig abnimmt, bis sie völlig zum erliegen kommt. Je nach Trainingsprotokoll kann diese Gewöhnung bis zu mehren Tagen andauern. Habituation ist hoch konserviert und ein Verhaltensmuster, dass auch bei sehr einfachen vielzelligen Organismen zu finden ist und untersucht werden kann. Zur Untersuchung des Zusammenspiels innerhalb eines neuronalen Netzwerkes, welches für die Habituation des Rückzugsreflexes (Ausweichreaktion nach Berührung) verantwortlich ist wurde hier der Fadenwurm Caenohabditis elegans (C. elegans) als Modell Organismus verwendet. Aufgrund seines einfachen, nur 302 Zellen umfassenden, Nervensystems eignet sich C. elegans sehr gut für Grundlagenforschung in diesem Bereich. Das neuronale Netzwerk, das verantwortlich ist für den Rückzugsreflex ist in drei Ebenen organisiert. Wahrgenommen wird der Reiz von sensorischen Neuronen (ASH, ALM, AVM, PLM, PVM). Die Weiterleitung erfolgt über verschiedene Interneuronen (AVA, AVB, AD, AVE, PVC) hin zu den Motorneuronen, welche die Muskeln enervieren und somit die Reaktion auf den in erster Ebenen wahrgenommen Reiz auslösen.
Mit Hilfe von optogenetischen Werkzeugen wurde hier Untersucht welche Rolle einzelne Zellen innerhalb dieses Netzwerkes innehaben und an welcher Stelle innerhalb des Netzwerkes die kurzzeitige Habituation des Reizes, nach einem Einfachen Lernprotokoll stattfindet. Zuerst musste eine Möglichkeit gefunden werden die zur Verfügung stehenden optogenetischen Werkzeuge zellspezifisch zu exprimieren. In dieser Arbeit wurden hierfür Rekombinasesysteme verwendet, die es ermöglichten zur Expression eine Kombination aus 2 verschiedenen Promotoren zu verwenden. Beide Promotoren dürfen hierbei nur in einer Zelle, der Zielzelle, überlappen. Es konnte zellspezifische Expression des Kationenkanals Chanelrhodopsin 2 (ChR2) in den beiden Zellparen AVAL/R und ASHL/R (nimmt aversive Reize wahr) erreicht werden.
Zur Untersuchung der Habituation wurde zusätzlich noch ein Wurmstamm verwendet, welcher ChR2 unter dem mec-4 Promotor exprimiert. ChR2 ist hier in den Mechanorezeptorneuronen (MRN) ALM, AVM, PLM und PVM exprimiert. Die hier durchgeführten Experimente deuten darauf hin das den MRNs die Größte Rolle bei der Ausbildung einer Habituation zukommt. Es gibt jedoch auch Hinweise darauf, dass AVA zusätzlich eine Rolle spielt.
Im weiteren Verlauf der Arbeit wurde die Rolle von AVA genauer untersucht. AVA gilt als der Hauptsignalgeber für eine Rückwärtsbewegung (spontan und nach Reizempfang). Es konnte gezeigt werden dass eine Unterbrechung der ’Gap Junktionen’ zwischen AVA und PVC eine stärkere Reaktion zur Folge haben. AVA scheint also durch PVC inhibiert zu werden. Ebenfalls mit AVA direkt interagierende Neuronen sind AVD und AVE. Mit den hier zur Verfügung stehenden Mitteln konnte die genaue Modulation von AVA durch diese Zellen jedoch nicht gezeigt werden.
In dieser Arbeit konnte der Grundstein für eine funktionale Aufklärung des Nervensystems von C. elegans gelegt werden. Vor allem durch die Möglichkeit der zellspezifischen Expression kann es zukünftig gelingen das Zusammenspiel der einzelnen Nervenzellen und ihren Anteil an einem bestimmtem Verhalten zu Untersuchen.
Vom Übermaß an Licht
(2015)
Das Licht gilt uns als "das" Signum von Humanität, Aufklärung, Erkenntnis und Fortschritt, aber im Theater "übersehen" wir das Licht meist oder reduzieren seinen Einsatz auf eine technische Dienstleistung, die mit "hoher Kunst" scheinbar nichts zu tun hat. Woher kommt das? Und welche Gründe sprechen dafür, dem Licht im Theater mehr Aufmerksamkeit zu schenken, als es viele Zuschauer, Theaterwissenschaftler und Theaterschaffende derzeit tun? Antworten lassen sich unter anderem bei Michel Foucault, Friedrich Schiller und Adolphe Appia finden.
"Die Strahlen der Sonne vertreiben die Nacht" : Licht und Schatten im (Musik-)Theater der Vormoderne
(2015)
Bis zur Mitte des 18. Jahrhunderts waren Akteure und Zuschauer in einem geschlossenen Theaterraum gleich stark beleuchtet, wenn auch nur mit Kerzen und Öllampen. Erst danach geriet die Bühne – nicht ohne Protest der Besucher – ins Zentrum der Beleuchtung. Auf der Opernbühne führte der Einsatz der Kohlenbogenlampe, auch "Prophetensonne" genannt, im 19. Jahrhundert zu einem radikalen Umbruch: Endlich konnten Übergänge vom Dunkel zum Licht musikalisch und szenisch realisiert werden.
"Lichtspielhaus" – so nannten sich die Kinopaläste in früheren Zeiten gern. Eine große Rolle spielt das Licht schon bei der Produktion der Filme: Der gezielte Einsatz von Licht beim Dreh beeinflusst subtil die Wahrnehmung des Publikums. Das wussten schon die Pioniere des Kinos zu Beginn des 20. Jahrhunderts geschickt zu nutzen. Die Grundtechnik hat sich bis heute kaum geändert.
Mit der Möglichkeit, Glas als Baustoff zu verwenden, beginnt die Ära der modernen Architektur. Bruno Traut gilt als einer der wichtigsten Protagonisten dieser expressionistischen Phase. Mit seinen funkelnden Kristallarchitekturen in den Alpen schuf er zumindest auf dem Papier Visionen von besonderer Strahlkraft. Im Geheimbund "Gläserne Kette" sahen er und seine Mitstreiter sich als Propheten und "übermenschliche Wächter" aller Künste. Die quasi religiös inspirierte Glasarchitektur wurde schon wenige Jahre später im Staatlichen Bauhaus Weimar durch Gropius' ästhetische Rationalität abgelöst.
"Vortreffliche Belichtung!" : die Erfindung des Oberlichts und der Weg zum modernen Kunstmuseum
(2015)
Der Umgang mit Licht ist beim Kuratieren von Ausstellungen und Sammlungspräsentationen von zentraler Bedeutung. Welchen Status erhalten die Exponate, welche Position nehmen sie innerhalb des Raums ein? Werden nur einzelne Objekte im Halbdunkel punktuell angestrahlt und geradezu auratisch inszeniert, oder wird der Raum gleichmäßig ausgeleuchtet? Die Debatte um diese Fragen erhielt durch den Bau der Kasseler Gemäldegalerie 1750 entscheidende Impulse.
"Mehr Licht!", um die "Seele" der Natur zu erfassen – das verband die Impressionisten mit der vorangegangenen Künstlergeneration um Camille Corot. Claude Monet und seine Kollegen suchten die Wälder und Parks auf, um Licht, Atmosphäre und Farbigkeit in ihrer Malerei festzuhalten. Dabei reagierten sie eher intuitiv auf die in jener Zeit intensiv erforschten optischen Gesetzmäßigkeiten.
Als sich am 16. Mai 1891 die Drehkreuze zur Internationalen Elektrotechnischen Ausstellung vor dem Frankfurter Bahnhof öffneten, gab es unter den Besuchern kaum noch Zweifel: Elektrizität und künstliche Helligkeit werden die westliche Zivilisation und ihre urbanen Lebenswelten geradezu revolutionär verändern. Das sollte sich bewahrheiten!
Mond und Sonne spielen als Hauptgestirne in der Mythologie vieler Völker Lateinamerikas eine bedeutende Rolle. Häufig sind sie maßgeblich an der Schöpfung beteiligt und werden mit der Fruchtbarkeit der Pflanzen sowie dem Wohlergehen der Menschen in Verbindung gebracht. Zahlreiche Mythen berichten von den Taten der beiden Gestirne, die manchmal als Geschwister oder auch als Liebespaar gelten.
Dass das Mittelalter "dunkel", gar "finster" gewesen sei, kann als handelsüblicher Topos gelten. Der stillschweigende Verweis etwa auf Autoritäten der Geistesgeschichte wie Luther, Voltaire oder Heine erübrigt jeglichen Beleg. Doch professionelle Mediävisten wagen, ein anderes Mittelalterbild zu zeichnen und werfen gleichzeitig ein Licht darauf, wie es zu diesem falschen Verständnis kam.
Dass nur das sonnenhafte Auge die Sonne erblicken kann, diese These geht wie so vieles letztlich auf Platon zurück. Der griechische Philosoph interessiert sich für Licht nicht in physikalischer, sondern in wahrnehmungstheoretischer Hinsicht. Und diese Hinsicht interessiert ihn wiederum, weil nach seiner Auffassung der Fall des Sehens zur Illustration des rationalen Erfassens von etwas dienen kann.
Leben braucht Licht und den täglichen Wechsel von Licht und Dunkel. Das gilt auch für den Menschen. Licht dient unserer Orientierung – nicht nur im Raum, sondern auch in der Zeit. Der Tag-Nacht-Wechsel ist der wichtigste Umweltreiz für die Taktung unserer Inneren Uhr. Zu wenig Licht am Tag und zu viel Licht in der Nacht kann sie aus dem Takt bringen und zu Schlafstörungen und Depressionen führen.
Photosynthese zwischen Überfluss und Mangel : wie Kieselalgen sich Lichtintensitäten anpassen
(2015)
Kieselalgen können auf hocheffiziente Weise Energie aus dem Sonnenlicht gewinnen. So überleben sie selbst lange Dunkelphasen im Meer. Doch wie schützen sie sich vor zu viel Strahlung, wenn Wind und Strömung sie in seichtes Wasser oder an die Oberfläche treiben? Dahinter steckt ein cleverer Regulations-Mechanismus.
Pflanzen, aber auch einige Bakterien und Archäen verfügen über hocheffiziente Mechanismen, Licht in Energie umzuwandeln. Photovoltaik-Zellen reichen an die Perfektion dieser natürlichen Systeme noch lange nicht heran. Deshalb versuchen Forscher, mit ultraschnellen spektroskopischen Methoden der Natur in die Karten zu schauen und von ihr zu lernen.
Der unscheinbare Fadenwurm "C. elegans" ist einer der ersten und bis heute wichtigsten Modellorganismen der Optogenetik. Zwei Frankfurter Arbeitsgruppen gelang es vor zehn Jahren erstmals, das Tier genetisch mit lichtaktivierbaren Ionenkanälen auszustatten und seine Bewegungen mit Licht zu steuern. Inzwischen studieren Forscher an dem durchsichtigen Wurm auch Prozesse, die für die medizinische Forschung bedeutsam sind – etwa die Entstehung und Behandlung genetisch bedingter Herz-Rhythmus-Störungen.
Mit der Optogenetik hat sich in der Neurowissenschaft eine Revolution vollzogen. Die Optogenetik erlaubt, Nervenzellen einfach mit Licht und mit bis dato nicht gekannter Genauigkeit zeitlich und räumlich elektrodenfrei an- und abzuschalten. Dies wird durch das Einbringen genetisch codierter Lichtschalter, sogenannter mikrobieller Rhodopsine, in den Nervenzellen erreicht. Die Methode, die in Frankfurt und in Regensburg ihren Ursprung genommen hat, wird heute in der Neurobiologie weltweit eingesetzt. Neben der Grundlagenforschung eröffnen sich dank der Optogenetik auch neue biomedizinische Perspektiven zur Gentherapie neurodegenerativer Krankheiten.
"Stellen Sie sich vor, wir könnten einzelne Zellen mit einer Art Fernbedienung von außen steuern", träumt Ralph Wieneke, Juniorgruppenleiter in der Zellulären Biochemie. Licht als Steuerungsquelle habe entscheidende Vorteile, schildert Institutsleiter Robert Tampé: "Es schadet Zellen nicht und kann schnell und sehr genau reguliert werden." Von ihrem Ziel ist die Arbeitsgruppe gar nicht so weit entfernt.
Um das komplizierte Geschehen in der Zelle entschlüsseln zu können, blockieren Forscher oft bestimmte Proteine oder Gene. Eine moderne und elegante Methode besteht darin, Lichtaktivierbare Moleküle als "Schalter" zu verwenden. Die Gruppe von Alexander Heckel entwickelt maßgeschneiderte Moleküle für Biologen, Biochemiker oder Mediziner.
Die Glühbirne hat ausgedient. Auch Energiesparlampen sind nur eine Übergangslösung. Große Hoffnungen richten sich auf organische Leuchtdioden, zumal man daraus auch großflächige und biegsame Displays und Flachbildschirme herstellen kann. Für eines der größten Probleme, das Ausbleichen der blauen Leuchtstoffe, findet man immer bessere Lösungen. Anwendungen, die heute noch wie Science-Fiction klingen, rücken damit in erreichbare Nähe.
Ein Laserblitz von unvorstellbarer Intensität pulverisiert im Labor ein Molekül. Wachsam zeichnen die Instrumente die Flugbahn und Geschwindigkeit jedes Bruchstücks auf. Physiker gewinnen daraus hochpräzise Informationen über die Molekülstruktur. Auch links- und rechtshändige Formen lassen sich unterscheiden.
Der Auflösung mikroskopischer Verfahren ist durch die Beugungsgrenze eine natürliche Schranke gesetzt. Strukturen, die näher als die halbe Wellenlänge des verwendeten Lichts zusammenliegen, können nicht aufgelöst werden. Doch Forscher haben einen Weg gefunden, diese Grenze zu umgehen. Die entstehenden Bilder ähneln dem Pointillismus in der Malerei.
"Mehr Licht!" – so lauteten, glaubt man seinem Arzt Carl Vogel, die letzten Worte des größten deutschen Dichters und Denkers Johann Wolfgang Goethe. Aus der Sicht der Fluoreszenzmikroskopie ist das kein guter Grundsatz. Die Kernidee der Lichtscheiben-Fluoreszenzmikroskopie (LSFM) liegt in der Macht der dunklen Seite. Anders gesagt: Sie folgt dem Prinzip, dass weniger manchmal viel mehr sein kann. Die schonende Beleuchtung empfindlicher Proben bei der LSFM birgt großes Potenzial für die moderne Zell- und Entwicklungsbiologie.
Die Freisetzung von Fluorchlorkohlenwasserstoffen (FCKW) in die Atmosphäre ist seit Inkrafttreten des Montreal-Protokolls zum Schutz der Ozonschicht im Jahr 1987 reglementiert. Aber die ozonzerstörenden Gase sind äußerst langlebig. Sie können erst in der Stratosphäre, also in Höhen oberhalb von etwa zehn Kilometern, durch kurzwelliges, energiereiches Sonnenlicht gespalten werden. Messungen der FCKW und ihrer Ersatzstoffe am Institut für Atmosphäre und Umwelt erlauben es, die Lebenszeiten dieser Substanzen zu bestimmen und damit auch ihr Potenzial, die Ozonschicht zu schädigen und zur Klimaerwärmung beizutragen. Sie stellen einen wichtigen Beitrag zur Klimaforschung dar.
Aus der Redaktion
(2015)
Vom 26. Juli bis 04. August 2015 veranstaltete die Akademie BURG FÜRSTENECK die 5. Hessische Schülerakademie für die Mittelstufe (Jgs. 7-9). Fünf Jahre Schülerakademie für die Mittelstufe – ein halbes Jahrzehnt Erfahrung und Entwicklung eines Projektes mit 12-15jährigen Schülerinnen und Schülern, hessischen Hochschullehrenden und Kulturschaffenden im Kontext von Engagement und überdurchschnittlicher Begabung!