Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (1725) (remove)
Language
- German (1725) (remove)
Has Fulltext
- yes (1725)
Is part of the Bibliography
- no (1725)
Keywords
- Schmerz (9)
- Grundschule (5)
- HIV (5)
- RNA (5)
- Depression (4)
- Digitalisierung (4)
- Hepatitis C (4)
- Polytrauma (4)
- Prostatakarzinom (4)
- Schmerzforschung (4)
Institute
- Medizin (711)
- Biowissenschaften (172)
- Biochemie und Chemie (132)
- Biochemie, Chemie und Pharmazie (97)
- Pharmazie (91)
- Physik (91)
- Gesellschaftswissenschaften (46)
- Erziehungswissenschaften (37)
- Neuere Philologien (37)
- Psychologie (36)
Im Rahmen dieser Arbeit wurden verschiedene Apolipoproteine des Liquors untersucht, um bestehende Zusammenhänge nachzuweisen, die eventuell später bei der Diagnose von Erkrankungen eingesetzt werden könnten. Das ApoE aller Proben wurde phänotypisiert. Die Konzentrationen des ApoJ und Apo(a) wurden mit Hilfe selbst- bzw. in der Arbeitsgruppe entwickelter ELISAs bestimmt. Durch Kombination der existierenden ELISAs konnte der von Borghini et al. 1995 beschriebene LpE-Partikel und ein bisher nicht bekannter Apolipoprotein-Partikel aus Apo(a) und ApoE nachgewiesen werden. Die relative Konzentration dieses Apo(a)/E- und des ApoJ/E-Partikels wurde bestimmt. Mit Hilfe der Kreuzimmunelektrophorese konnte nachgewiesen werden, daß die Apolipoproteine Bestandteil eines Partikels sind. Aufgrund der gefundenen Informationen wurde die These postuliert, daß es sich bei diesen Partikeln um einen gemeinsamen Partikel aus ApoE, ApoJ und Apo(a) handelt. Detaillierte Daten über den Aufbau und die Zusammensetzung des Partikels konnten bisher nicht gewonnen werden. Im Liquor wurden die Konzentrationen von ApoE, Apo(a) und ApoJ gemessen. Diese Konzentrationen wurden in Zusammenhang zu dem ApoE-Phänotyp der entsprechenden Probe gesetzt. Wo möglich wurde ApoE und Apo(a) auch im Serum der entsprechenden Patienten bestimmt. Auch diese Konzentrationen wurden in Beziehung zu ihrem ApoE-Phänotyp gesetzt. Zuletzt wurden für die Apolipoproteine E und (a) die Liquor- und Serumkonzentration in Beziehung zueinander gesetzt. Außer für das ApoE und den ApoJ/E-Partikel konnte für keines der untersuchten Apolipoproteine weder im Liquor noch im Serum ein offensichtlicher Zusammenhang zwischen der Konzentration des Apolipoproteins und dem ApoE-Phänotyp gefunden werden. Zusätzlich zu den Apolipoproteinen des Liquors wurde in Zusammenarbeit mit der Universität Dresden das Tau-Protein gemessen. Die Ergebnisse bestätigen die diagnostische Wertigkeit der Bestimmung von Protein Tau bei degenerativen Erkrankungen des ZNS. Eine Differenzierung zwischen verschiedenen degenerativen Erkrankungen des ZNS ist jedoch nicht möglich. Ein weiterer Teil dieser Arbeit untersuchte die Rolle des ApoE im Gehirn. Dabei zeigte sich, daß die Synthese des ApoE durch die Astrozyten ein sehr komplexer Vorgang sein muß. Eine weitere Untersuchung des ApoE wies die stärkere Glykolisierung im Liquor im Vergleich zum Serum nach.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine "Schutzfunktion" vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste. Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine ‚Schutzfunktion‘ vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste.
Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
In der so umfangreichen wie differenzierten Bruegelforschung dominieren religiöse und moralische Deutungen, die auf eine pessimistische Weltsicht des Künstlers schließen. Dem gegenüber priorisiert die vorliegende Arbeit säkulare und materielle Optionen, die einer optimistischen Weltsicht den Boden bereiten konnten. Diese ambitionierte Akzentsetzung ist anhand des zeitgenössischen Kontexts prinzipiell legitimiert und anhand von Bildbelegen praktisch veranschaulicht.
Eine konkretisierte kunstgeschichtliche Positionsbestimmung Bruegels seine systematische Abgrenzung von der romanistischen Konkurrenz ebenso heraus wie den originären Beitrag zur Weiterentwicklung der nicht-romanistischen Malerei seiner Zeit. Für seine innovativen Bildkonzepte gibt es einen gemeinsamen Nenner. Das ist die erweiterte Einbeziehung des Betrachters, der vom passiven Rezipienten zum aktiven Interpreten aufgewertet ist, nicht zuletzt mit dem Ziel, zeitgenössische Wirklichkeit und deren Widersprüche, Defizite und Alternativen diskutierbar zu machen.
Eine modifizierte sozialgeschichtliche Positionsbestimmung Bruegels geht vom Doppelcharakter der zeitgenössischen Transformationsprozesse in den spanischen Niederlanden aus. In der Regel rückt man religiöse Kontroversen und politische Konflikte in den Vordergrund, die destruktiven Potenziale des gesellschaftlichen Wandels und deren Wiederspiegelung im Bruegelwerk. Danach wird der Künstler tendenziell als religiöser Dissident und politischer Opponent qualifiziert. Stattdessen wird hier die ökonomische Expansion, die wirtschaftliche Dynamik als vorrangig angesehen, welche die Heimat Bruegels, die Metropole Antwerpen und ihr Umland, zu einer europäischen Vorsprungsregion werden ließ. Das lenkt den Blick auf die Reflexion des sozialökonomischen Kontexts im Bruegel-Oeuvre, die der Entwicklung der gesellschaftlichen Produktivkraft und die Rolle nicht nur der agrarischen Arbeit erkennbar werden lässt.
Damit ist der Boden bereitet für die Frage nach säkularer Kritik und sozialer Utopie in den Gemälden, denen die beiden folgenden Hauptteile der Arbeit gewidmet sind, dem „Sturz des Ikarus“ (Teil B) und dem „Turmbau zu Babel“ (Teil C). Beide Kapitel setzten sich intensiv mit Referenztexten und Referenzbildern sowie mit der Rezeptionsgeschichte auseinander und münden jeweils in den Entwurf einer konkurrierenden Deutung zu den traditionellen Thesen von der Bestrafung menschlicher Hybris ein:
Die konkurrierende Deutung des „Ikarussturzes“ kommt zu dem Ergebnis, dass die sozialgeschichtliche Substanz des Gemäldes in der Überbietung antiker durch frühneuzeitliche Arbeits- und Verkehrsformen zu entdecken ist. Eine latente sozialutopische Perspektive klingt in den dabei imaginierten Indizien für Arbeits- und Techniklob an.
Die konkurrierende Deutung der Turmbaugemälde gipfelt in dem Vorschlag, die sozialutopischen Potenziale aus dem Übergang vom „Wiener Turmbau“ zum Rotterdamer Turmbau“ abzuleiten. Sie kommt zu dem Ergebnis, dass die Bruegelsche Turmbau-Folge die Entwicklung einer Arbeitsutopie und einer Architekturutopie sowie deren Zusammenfassung zu einer Gesellschaftsutopie vorstellbar macht. Dabei ist der Optimismus keineswegs ungebrochen, das Konstrukt nicht frei von Skepsis, weil Bedrohungen des Projekts von innen und außen Teil des Bildgeschehens sind.
Die vorgelegte Arbeit setzt sich aus drei Veröffentlichungsstücken zusammen. Im ersten Teil zeigten Michalczyk und Hasselhorn (2010) einen Überblick über die Vielfalt der Modellvorstellungen des Arbeitsgedächtnisses. Dabei wurde insbesondere das Baddeley Modell (1986) hervorgehoben. Dieses steht für eine ganze Klasse komponentenbasierter, meist dem experimentellen oder dem Ansatz interindividueller Differenzen zugehöriger, Modellvorstellungen und ist zudem maßgeblich im pädagogischentwicklungspsychologischen Kontext für Theorie und Praxis von Bedeutung. Die Ergebnisse der ersten empirischen Vertiefung der hier vorgelegten Arbeit bestätigten die Gültigkeit der Dreikomponentenstruktur (Baddeley, 1986) und deren weitestgehende Altersinvarianz hinsichtlich der funktionalen Interdependenz der Komponenten phonologische Schleife, visuell-räumlicher Notizblock und zentrale Exekutive im Laufe der kindlichen Entwicklung. Lediglich bei Kindern jünger als 7 Jahre war der Zusammenhang der phonologischen Schleife und der zentralen Exekutive weniger stark ausgeprägt als bei älteren Kindern. In der zweiten empirischen Untersuchung wurden Subkapazitäten des Arbeitsgedächtnisses und die phonologische Bewusstheit zur Entwicklung früher numerischer Kompetenzen (Krajewski, 2008; Krajewski & Schneider 2009a,b) in Beziehung gesetzt. Es zeigte sich, dass die phonologische Bewusstheit auf die phonologische Schleife, den episodischen Puffer und phonologische, zentral-exekutive Prozesse zurückgreift. Zudem beeinflusste die phonologische Bewusstheit frühe numerische Basisfertigkeiten (QNC Level I), nicht aber (höhere) Mengen-Zahlen Kompetenzen (QNC Level II), was die „isolated number words“-Hypothese (Krajewski & Schneider, 2009a) bestätigte. Diese Zusammenhangsmuster, bei denen die phonologische Bewusstheit eine mediierende Rolle zwischen Arbeitsgedächtnissubkapazitäten und frühen numerischen Kompetenzen einnimmt, galten gleichermaßen für Kinder mit und ohne sprachlichem Migrationshintergrund.
Auf dem Martberg, einem Bergplateau über dem Unterlauf der Mosel zwischen den Orten Pommern und Karden (Landkreis Cochem-Zell), befand sich nahe einer spätkeltischen Siedlung der Treverer ein gallo-römisches ländliches Heiligtum, eines der bedeutendsten archäologischen Denkmäler im westlichen Mitteleuropa. Seine vollständige Freilegung in den Jahren 1994 bis 2002 ergab neben Erkenntnissen zur Jahrhunderte langen mehrphasigen Baugeschichte des Tempelareals von der Spätlatènezeit bis zum Ende des 4. Jhs. n.Chr. auch eine Fülle an Funden, insbesondere von Münzen, Fibeln, Keramiken und Kleinfunden aus Metall wie Waffen, Amulette, Schmuck, Statuetten und anderes mehr. Viele dieser Funde sind wohl rituell im Tempelbezirk niedergelegt worden, insbesondere für Münzen, Fibeln und Waffen ist dies aus anderen gallo-römischen Heiligtümern bekannt. Weitere Funde wurden möglicherweise während des Betriebs der Tempelanlage verloren, weggeräumt oder kamen bei den häufigen Umbaumaßnahmen in die Erde.
An Hand der Datenbanken der Funde vom Martberg wurde eine systematische Analyse der Fundlagen aller Artefaktgruppen durchgeführt und ihnen mit Hilfe der gut datierbaren Münzen ein zeitliches Gerüst gegeben. Damit konnten die sich im Laufe der Zeit verändernden rituellen Gepflogenheiten anhand der Funde quantifiziert werden. Durch einen Vergleich mit der zeitabhängigen räumlichen Verteilung der Münzen wurden mit Hilfe von Cluster- und Hauptkomponentenanalysen rituell deponierte Artefaktgruppen identifiziert und von nicht rituell deponierten Artefaktgruppen unterschieden. Dazu wurden zunächst die zahlreichen Münzen (über 10.000 Münzen, darunter über 2000 keltische und gallo-römische Münzen) aus archäologischen Befunden im Tempelbezirk und von Lese/Streufunden als Funktion der Zeit vorgestellt beginnend mit den keltischen Münzen aus dem 1. Jh. v.Chr. bis zu den Münzen aus theodosianischer Zeit gegen Ende des 4. Jhs. n.Chr. Dabei wurden auch Besonderheiten unter den Münzen wie Münzen mit Einhieben, Halbierungen/Viertelungen, Imitationen, Gegenstempel, Prägeorte etc. quantitativ erfasst. Die räumlichen Verteilungen der Münzen zeigten deutliche zeitabhängige Unterschiede. Die sich zeitlich und räumlich verändernden kultischen Praktiken verliefen zudem völlig parallel, was die Deponierung von intakten Münzen, Imitationen, Halbierungen und Viertelungen sowie insbesondere Münzen mit Einhieben anging. Im Gegensatz zu den deutlich erkennbaren räumlichen Verschiebungen in den Münzhäufigkeiten bis zur Mitte des 2. Jhs. n.Chr. änderten sich die Verteilungen von Münzen im Tempelbezirk aus den folgenden Jahrhunderten nur wenig.
Diese sich zeitlich verändernden aber gut datierbaren lokalen Fundmünzhäufigkeiten wurden zu einer wenn auch groben Datierung vieler anderer Kleinfundgattungen herangezogen. Mithilfe von statistischen Verfahren (Clusteranalysen bzw. Hauptkomponentenanalysen) konnten zeitliche und räumliche Beziehungen zwischen den einzelnen Fundgattungen identifiziert und teilweise auch datiert werden. Außerdem konnte zwischen absichtlich niedergelegten, geopferten Gegenständen wie Münzen, Schmuck oder Waffenbestandteilen und wohl als Abfall entsorgten Keramik-Waren, Metallteilen oder auch Produkten von Metall-, Keramik- oder anderen Werkstätten unterschieden werden. So waren Lanzenspitzen, keltische Fibeln aus der zweiten Hälfte des 1. Jhs. v.Chr., Statuetten, Spiegel und Phallusamulette ähnlich wie die entsprechenden zeitgleichen keltischen und frühkaiserzeitlichen Münzen verteilt, konnten dadurch auch datiert werden und wurden wohl ähnlich wie die Münzen als Weihegaben deponiert. Frühe keltische Fibeln bildeten zusammen mit Funden aus Blei (Bleiplättchen, Bleibleche, Gussreste) sowie mit Schlacken, Fingerringen und Perlen aus Bronze oder Glas einen eigenen Cluster. Die anderen metallenen Kleinteile waren ähnlich wie die Münzen aus dem 2.-3. Jh. gleichmäßig über das Tempelareal verteilt, wohl weil in dieser Zeit Umbaumaßnahmen zu einer großflächigen Zerstreuung dieser Funde führten. Zusammen mit den Resten der Keramik wurden dabei offensichtlich auch viele metallene Kleinfunde entsorgt, die an Hand der ähnlich verteilten Keramik wiederum zum Teil datiert werden konnten.
Im zweiten Teil der Arbeit wurde versucht, dem Phänomen der sogenannten „claudischen Imitationen“ anhand von Untersuchungen der physikalischen, typologischen und physikochemischen Eigenschaften dieser Münzen sowie von Provenienzstudien des für die Münzen verwendeten Kupfers näher zu kommen. Aus den Ergebnissen von Bleiisotopenanalysen (Massenspektrometrie mit induktiv gekoppeltem Plasma, ICP-MC-MS) an insgesamt 115 claudischen Imitationen ließ sich schließen, dass das Kupfer für die Imitationen mit claudischen und augusteischen Münzbildern ebenso wie die offiziellen claudischen Münzen wohl aus zwei verschiedenen Lagerstätten in Spanien, der Zentralen Iberischen Zone (Kupferminen der Sierra Morena) und aus dem Gebiet des Rio Tinto (Iberischerer Pyrit-Gürtel), stammte. Ob dieses Kupfer (möglicherweise aus verhandelten Barren) direkt zur Herstellung der Imitationen verwendet wurde oder über den Umweg einer Umprägung von offiziellen Münzen, konnte jedoch nur durch eine Analyse der Spurenelementverteilung in den Imitationen selbst im Vergleich zu ähnlichen Messungen an offiziellen Münzen herausgefunden werden. Die Ergebnisse der Spurenelementanalysen (Elektronenstrahlmikrosonde) an über 110 claudischen Imitationen vom Martberg im Vergleich zu früher publizierten Ergebnissen an über 200 offiziellen Kupfermünzen von Augustus bis Claudius haben gezeigt, dass viele der Imitationen mit claudischen Münzbildern sehr stark offiziellen Münzen ähneln, die unter Augustus, Tiberius und Claudius geprägt wurden. Ähnliches gilt für Imitationen mit augusteischen und tiberischen Münzbildern. Etwa ein Drittel der Imitationen enthielten Zink in unterschiedlichen Konzentrationen und unterschieden sich bereits dadurch von den offiziellen Münzen. Man muss aus diesen Ergebnissen den Schluss ziehen, dass die große Mehrheit der Imitationen mit augusteischen oder tiberischen Münzbildern erst in claudischer Zeit aus denselben Münzmetallen wie die Imitationen mit den claudischen Münzbildern hergestellt wurden: aus den in dieser Zeit zur Verfügung stehenden Münzen der vorangehenden Kaiser und/oder den offiziellen Münzen des Claudius.
Da auch an eine Verwendung von Kupfer aus verhandelten Kupferbarren zur Herstellung vieler der Imitationen möglich ist, wurden ähnliche Vergleiche auch mit publizierten Daten von Kupferbarren durchgeführt, die in römischen Schiffswracks im westlichen Mittelmeer gefunden wurden. Die Ergebnisse zeigten, dass für die Herstellung von Imitationen auch die Verwendung von handelsüblichen Kupferbarren denkbar ist.
Im dritten Teil der Arbeit wurde anhand der Münzfunde vom Martberg untersucht, ob Münzen mit bestimmten Rückseitentypen für eine Weihung im sakralen Bereich selektiert oder auch gemieden worden sein könnten. Dazu wurde die Verteilung der Rückseitentypen der auf dem Martberg gefundenen Antoniniane mit Münzreihen verglichen, die in einem zweiten sakralen Kontext, dem Tempelbezirk des Castellberg gefunden wurden, außerdem mit zwei Einzelfundreihen aus zivilen Kontexten und zwei Schatzfunden von Antoninianen. Die sechs Fundkomplexe zeigten eine ähnliche Struktur, da sie aus dem Pool der umlaufenden Münzen zusammengesetzt waren. Die Unterschiede innerhalb der beiden Münzreihen desselben Kontextes waren jedoch erheblich geringer als die zwischen den Münzreihen aus unterschiedlichen Kontexten. Die Ergebnisse einer Hauptkomponentenanalyse zeigten zunächst, dass die beiden Heiligtümer in ganz ähnlicher Weise von der „Referenzkurve“ des Vicus Castellberg abwichen. Die in allen Fundkomplexen am häufigsten vorkommenden Münzbilder Pax, Salus und Spes waren verglichen mit dem Vicus in beiden Heiligtümern deutlich überrepräsentiert. Eine „positive Selektion“ dieser Rückseitentypen, d.h. ihre bewusste Niederlegung, war aber eher unwahrscheinlich. Für die in beiden Heiligtümern unterrepräsentierten Typen wie Laetitia, Fides, Sol, Mars und Jupiter, vielleicht auch Tiere/Fabelwesen, Uberitas und Fortuna war eine bewusste Vermeidung der Niederlegung eher anzunehmen. Neben der eindeutig nachweisbaren Tendenz der Niederlegung von eher geringwertigen Münzen ist davon auszugehen, dass bei der rituellen Niederlegung von Münzen im sakralen Kontext auch die Bilder auf den Rückseiten dieser Münzen eine wie auch immer geartete Rolle gespielt haben müssen. Damit zeigt sich die Funktion der Münzen im rituellen Kontext nicht nur als Wertmesser, als Geld, sondern auch als ein Informationsträger, mit dessen Hilfe möglicherweise auch Zwiesprache mit den Göttern gehalten wurde.
Are books different? : Die Auswirkungen des Falls der Buchpreisbindung in Großbritannien 1995 - 2006
(2013)
Sicherlich gibt es im Buchhandel wie in jeder anderen Branche Zeiten der Krise und des Umsatzrückgangs, aber grundsätzlich legen die Zahlen nicht nah, dass das Ende bevorsteht. Es stellt sich also die Frage, ob zutrifft, was Richter Buckley in seinem zum geflügelten Wort gewordenen Urteil feststellte: Sind Bücher wirklich anders, oder anders gefragt, braucht der Buchhandel den Schutz des Staates, um seine Funktion erfüllen zu können?
Um eine Antwort auf diese Fragen zu finden, soll in dieser Arbeit das Hauptaugenmerk auf die Entwicklung des britischen Buchhandels im Zeitraum von 1995 (dem Jahr der faktischen Abschaffung des Net Book Agreement bis 2006 gelegt werden. Nach dem beinahe hundertjährigen Bestehen der Buchpreisbindung waren diese Jahre richtungweisend für die Neuorientierung des britischen Buchhandels auf die Bedingungen eines freien Marktes, und es soll untersucht werden, welche Umwälzungen sich daraus für die Branche ergeben haben.
Ziel der durchgeführten Experimente war es, die Zerfallsmechanismen Van-der-Waals gebundener Argon- und Neon Di- und Trimere in intensiven Laserfeldern zu untersuchen, um mehr über den Einfluss der schwachen Van-der-Waals Bindung auf die Dynamik des Ionisationsprozesses zu erfahren. Da Dimere aufgrund ihrer elektronischen Struktur sehr stark zwei separaten benachbarten Atomen gleichen, vereinen sie atomare und molekulare Eigenschaften in sich und ihre Untersuchung verspricht ein tieferes Verständnis der Wechselwirkungsmechanismen in starken Laserfeldern. Die Verwendung der Impulsspektroskopie Methode COLTRIMS ermöglichte die koinzidente Messung aller beim Aufbruch entstandener ionischer Fragmente sowie eines elektronischen Impulsvektors. Für die beidseitige Einfachionisation des Argon Dimers, konnten bei der gewählten Intensität (etwa 3.3E14W/cm2) drei unterschiedliche Ionisationsprozesse identifiziert werden, von denen zwei zu einer überraschend hohen kinetischen Gesamtenergie der Ionen führen. Aufgrund der Messung der Winkelverteilung der ionischen Fragmente und eines der emittierten Elektronen für lineare und zirkulare Polarisation gelang es, die den drei Prozessen zugrunde liegende Dynamik im Laserfeld zu entschlüsseln. Der dominierende Zerfallskanal stellt demzufolge eine schnelle sequentielle Doppelionisation des Argon Dimers dar, die noch am Gleichgewichtsabstand des Dimers stattfindet. Für den zweithäufigsten Ionisationsprozess ergaben sich zwei mögliche Erklärungsansätze: Entweder wird das Dimer zunächst einseitig doppelionisiert, so dass es auf einer attraktiven Potentialkurve zusammenläuft, bevor es zu einem späteren Zeitpunkt – wenn das Laserfeld bereits abgeklungen ist – durch eine Umverteilung seiner Ladungen in einer Coulomb Explosion fragmentiert, oder das Dimer wird bei einer beidseitigen Tunnelionisation zugleich angeregt, so dass die Coulomb Explosion von einer Potentialkurve erfolgt, die wesentlich steiler als 1/R verläuft. Der schwächste Zerfallskanal, der sich durch die höchste Gesamtenergie auszeichnet, ist auf eine "Frustrated Triple Tunnel Ionization" zurückzuführen, bei der ein hoch angeregter Rydberg Zustand erzeugt wird. Bei der Untersuchung des Neon Dimers konnte bei der gewählten Intensität (etwa 6.3E14W/cm2) nur die sequentielle beidseitige Einfachionisation identifiziert werden, obwohl die Daten Hinweise auf einen weitern Ionisationsprozess mit sehr geringer Statistik aufweisen. Zudem wurde in dieser Arbeit nach der Methode des Coulomb-Explosion-Imaging aus den in Koinzidenz gemessenen Impulsvektoren aller einfachgeladenen ionischen Fragmente eines Aufbruchs die geometrische Struktur der Cluster im Orts-und Impulsraum rekonstruiert. Die ermittelte Grundzustandswellenfunktion des Argon und Neon Dimers zeigt eine gute Übereinstimmung mit quantenmechanischen Berechnungen. Für das Argon und Neon Trimer konnten aus den gemessenen Impulsvektoren mittels einer numerischen Simulation die Bindungswinkel im Ortsraum bestimmt werden, so dass erstmals gezeigt werden konnte, dass diese Trimere gleichseitige Dreieckskonfigurationen aufweisen. Vergleiche mit theoretischen Berechnungen zeigen für die breite Winkelverteilung des Neon Trimers eine hervorragende Übereinstimmung, während die gemessene Winkelverteilung des Argon Trimers etwas breiter als die berechnete ist.
Einführung: Die höchste Offenheitsrate in der arteriellen Bypasschirurgie der unteren Extremitäten wird mit einem Segment der Vena saphena magna (VSM) von ausreichender Länge und Durchmesser erreicht. Dabei ist der Venendurchmesser der einzige signifikant korrelierende Faktor für das Auftreten einer Transplantatsstenose und damit der beste Prädiktor für die primäre und die sekundäre 2-Jahre-Durchgängigkeitsrates. In 20-40% der Patienten fehlt ein bzgl. des Lumens geeignetes Segment der Vena saphena magna zur Herstellung eines Bypasses bei der primären Operation. Daher wurde eine Technik entwickelt, kleinlumige Vena saphena magna Segmente mittels einer Valvulotomie zu erweitern.
Ziel: Eine zu kleinlumige Vena saphena magna soll VSM für eine spätere Verwendung als autologes Bypassmaterial der unteren Extremität konditioniert werden. Die häufigsten Indikationen für eine derartige Konditionierung sind die Bypassverwendung bei der operativen Therapie der peripheren arteriellen Verschlusskrankheit (pAVK) und beim Aneurysma der Arteria poplitea (PA).
Methoden: Diese prospektive Pilotstudie würde zwischen Juni 2007 und November 2011 durchgeführt. 25 Patienten (26 Fälle) mit einem VSM Durchmesser zwischen 2 und 3mm erhielten eine in situ VSM-Valvulotomie. Die Zerstörung der suffizienten Venenklappen ermöglicht einen retrograden Blutstrom in die Vena saphena magna. Der hierdurch erzeugte Wachstumsreiz soll zu einer Durchmesserzunahme der Vene führen. Nach Erreichen eines Durchmessers von > 3mm für infragenuale Rekonstruktionen und von > 3,5 mm für supragenuale Rekonstruktion wurden die konditionierten Venensegmente als Bypass implantiert. Bei 23 Patienten war die Bypassindikation eine nicht kritische pAVK. Bei 2 Patienten war ein Aneurysma der Arteria poplitea die Indikation. Einschlusskriterium für Teilnahme an der Studie war eine nicht variköse VSM mit einem Querdurchmesser zwischen 2 und 3 mm. Die Venenevaluation erfolgte duplexsonografisch im Stehen durch eine Beurteilung der epifaszialen Vena saphena magna von der Leiste bis zum Innenknöchel. Messpunkte waren: 10 cm unterhalb des Hiatus saphenus, 10 cm oberhalb des Knies, 10 cm unterhalb des Knies und 10 cm oberhalb des Innenknöchels. Um das Venenwachstum zu ermitteln, diente als Messpunkt der kleinste ermittelte Durchmesser über einem Messbereich von 10 mm.
Drei Patienten, bei denen ein femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert wurde, hatten bei der Implantation einen Durchmesser der konditionierten VSM > 3.5 mm. Bei 13 Patienten mit Bypassimplantation unterhalb des Kniegelenkes war die konditionierte VSM > 3mm. Eine Wiederholung der Valvulotomie war in keinem der Patienten nötwendig. Die valvulotomierte VSM wurde bei allen Bypassoperationen offen chirurgisch entnommen. Zur postoperativen Kontrolle erfolgten eine Duplexuntersuchung und eine ABI-Messung 1,3,6,12,18 und 24 Monate nach der Implantation.
Ergebnisse: Durchschnittlich vergrößerte sich der VSM-Durchmesser von initial 2,5±0,18 mm vor Valvulotomie auf 2,8±0,2 mm, 3,0±0,3mm und 3,2±0,4 mm jeweils 30, 60 und 90 Tage nach Valvolutomie. Bei der Entnahme betrug der durchschnittliche Bypassdurchmesser 3.7±0.6 mm. Die primäre 1-Jahres-Offenheitsrate mit der valvulotomierten VSM war 81±9,8% im Vergleich zu in der Literatur publizierten 58,0%±8,4% für alloplastische Transplantate, 51% für kleinkalibrige VSM und 81,6%±3,6% für Armvenentransplantate. Die sekundäre 1-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 87%±8,3% verglichen mit 82,6% für in der Literatur angegebene Transplantationen mit kleinkalibriger VSM. Die primäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 69%±11,8%, verglichen mit 50% in der Literatur angegebener Transplantationen von kleinkalibrige VSM benutzt wurden und 72%, falls Armvenentransplantate benutzt wurden. Die sekundäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik lag bei 75%±11%.
Fazit: Die Valvulotomie kann zur Zunahme des Venendurchmessers vor Anlage eines femoro-distalen Bypasses verwendet werden, weil sie regelhaft zum Reflux in der valvulotomierten Vene führt und dadurch ein relevantes Venenwachstum verursacht. Zwischen 60 und 90 Tagen nach Valvulotomie wird ein Venenduchmesser > 3.5 mm erreicht und die valvulotomierte VSM kann als femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert werden. Für eine Anastomose unterhalb des Kniegelenkes genügt ein Wachstum bis > 3 mm. Wenn die valvulotomierte Vene einen entsprechenden Durchmesser erreicht, kann die konditionierte VSM benutzt werden, um einen Bypass mit guter Offenheitsprognose zu konstruieren oder einen nicht funktionierenden Bypass zu ersetzen.
Fossile Rohstoffe dienen in unserer heutigen Gesellschaft als Energiequelle und als Rohstofflieferant für Grund-, Feinchemikalien und Pharmazeutika. Sie tragen jedoch zum Klimawandel und Umweltverschmutzung bei. Lignocellulosische Biomasse ist eine erneuerbare und nachhaltige Alternative, die durch biotechnologische Prozesse erschlossen werden kann. Die Bäckerhefe Saccharomyces cerevisiae ist ein sehr gut untersuchter Modellorganismus, für den es zahlreiche genetische Werkzeuge und Analysemethoden gibt. Zudem wird S. cerevisiae häufig in biotechnologischen Prozessen eingesetzt, da diese Hefe robust gegenüber industriellen Bedingungen wie niedrigen pH-Werten, toxischen Chemikalien, osmotischem und mechanischem Stress ist. Die Pentose D-Xylose ist ein wesentlicher Bestandteil von lignocellulosischer Biomasse, die aber nicht natürlicherweise von der Bäckerhefe verwerten werden kann. Für eine kommerzielle Herstellung von Produkten aus lignocellulosischer Biomasse muss S. cerevisiae D-Xylose effektiv verwerten. Für die Bäckerhefe konnten heterologe Stoffwechselwege etabliert werden, damit diese D-Xylose verwerten kann. Für eine effiziente Xyloseverwertung bleiben dennoch zahlreiche Herausforderungen bestehen. Unter anderem nehmen die Zellen D-Xylose über ihre endogenen Hexosetransporter nur langsam auf. Die heterologe Xylose-Isomerase (XI) besitzt in S. cerevisiae eine geringe Aktivität für die Isomerisierung von D-Xylose. Unspezifische Aldosereduktasen konkurrieren mit der Xylose-Isomerase um das gleiche Substrat und produzieren Xylitol, ein starker Inhibitor der Xylose-Isomerase. Eine Möglichkeit die Umsatzrate von Enzymen zu steigern und Substrate vor Nebenreaktionen zu schützen, ist die Anwendung von Substrate Channeling Strategien. Bei Substrate Channeling befinden sich die beteiligten Enzyme in einem Komplex, wodurch die Substrate lokal angereichert werden und von einem aktiven Zentrum zum nächsten weitergeleitet werden, ohne Diffusion in den restlichen Reaktionsraum. In dieser Arbeit wurde untersucht, ob ein Komplex zwischen einem membranständigen Transporter und einem löslichen Enzym konstruiert werden kann, um durch Substrate Channeling eine verbesserte Substrat-Verwertung zu erreichen. Die Xylose-Isomerase aus C. phytofermentans und die endogene Hexose-Permease Gal2 sollten in dieser Arbeit als Modellproteine in S. cerevisiae-Zellen mit Hilfe von Protein-Protein-Interaktionsmodulen (PPIM) in räumliche Nähe zueinander gebracht werden.
Die Expression verschiedener PPIM konnte in S. cerevisiae mittels Western Blot nachgewiesen werden. Auch Fusionsproteine aus unterschiedlichen PPIM wurden in dieser Hefe exprimiert. Die PPIM binden komplementäre PPIM oder kurze Peptidliganden, welche an die Xylose-Isomerase und an den Gal2-Transporter fusioniert wurden. Die Funktionalität beider Proteine wurde mittels in vivo und in vitro Tests untersucht. Die Xylose-Isomerase mit N-terminalen Liganden des WH1-Protein-Protein-Interaktionsmoduls (WH1L-XI) und der Gal2-Transporter mit N-terminalen SYNZIP2-Protein-Protein-Interaktionsmodul (SZ2-Gal2) erwiesen sich als geeignete Kandidaten für weitere Untersuchungen. Mittels indirekter Immunfluoreszenz konnte die Ko-Lokalisierung von SZ2-Gal2 und WH1L-XI, die einander über ein Scaffold-Protein binden, nachgewiesen werden.
Transformanten, in denen ein Komplex aus Transporter, Scaffold-Protein und Xylose-Isomerase gebildet wurde, zeigten bessere Fermentationseigenschaften gegenüber der Scaffold-freien Kontrolle und dem Wildtyp: Sie verwerteten Xylose schneller, bildeten weniger vom unerwünschten Nebenprodukt Xylitol, produzierten mehr Ethanol und wiesen eine höhere Ethanolausbeute auf. Der beobachtete Substrate Channeling Effekt kompensierte die geringere Enzymaktivität der WH1L-XI im Vergleich zum Wildtyp-Protein. Die Wirksamkeit des Substrate Channeling wurde verringert, wenn die Bildung des Komplexes aus Transporter, Scaffold-Protein und Xylose-Isomerase gestört wurde, indem ein getaggtes GFP mit dem Scaffold-Protein um die Bindungsstelle an Gal2 konkurrierte. Dies zeigt, dass die positive Wirkung auf die Komplex-Bildung zwischen XI und Gal2 zurück zu führen ist. Die Fermentationseigenschaften konnten gesteigert werden, indem der zuvor zwischen SZ2-Zipper und Gal2-Transporter verwendete Linker, der aus zehn Aminosäuren von Glycin, Arginin und Prolin (GRP10) bestand, durch einen aus Glycin und Alanin (GA10) ersetzt wurde. Die verbesserten Fermentationseigenschaften beruhten auf einem Substrate Channeling Effekt und einer gesteigerten Aufnahmerate des SZ2-GA10-Gal2-Transporters. Ein Vergleich der Strukturvorhersagen von SZ2-GRP10-Gal2 und SZ2-GA10-Gal2 zeigte, dass der GRP10-Linker einen unstrukturierten, flexiblen Linker ausbildet, während der GA10-Linker eine starre α-Helix ausbildet. Die Struktur und der Transportprozess von Gal2 sind nicht aufgeklärt. Bei verwandten Transportern geht man davon aus, dass Substrate durch Konformationsänderungen ins Innere der Zelle transportiert werden, indem die beiden Domänen gegeneinander klappen. Die α-Helix könnte die Geschwindigkeit der Konformationsänderungen begünstigen.
Durch Kontrollexperimente konnte ausgeschlossen werden, dass die gesteigerten Fermentationseigenschaften eine Folge der Stabilisierung der XI- und Gal2-Fusionsproteine durch das Anfügen des Liganden oder durch Komplexbildung mit dem Scaffold-Protein waren. Substrate Channeling zwischen Gal2 und XI entsteht durch die Komplexbildung mit dem Scaffold-Protein, wodurch sich Gal2 und XI in räumlicher Nähe zueinander befinden. Dieser Effekt beruht möglicherweise zusätzlich aufgrund einer hohen örtlichen Ansammlung dieser Proteine, da die tetramere XI weitere Scaffold-Proteine binden könnte, welche weitere Gal2-Transporter binden könnte. Darüber hinaus sammeln sich Transporter an bestimmten Orten der Membran an und Transporter mit ähnlicher oder gleicher Transmembransequenz tendieren dazu zu ko-lokalisieren. Hierdurch könnten Gal2-XI-Agglomerate entstehen und Xylose wird mit hoher Wahrscheinlichkeit von einer der vielen Xylose-Isomerasen umgesetzt.
Hintergrund: In der allgemeinmedizinischen Versorgung ist die Einbindung von Arzthelferinnen in der Betreuung depressiver Patienten ein innovatives Vorgehen. Jedoch ist wenig darüber bekannt, wie Arzthelferinnen ihre neue Aufgabe erleben. Die vorliegende Arbeit beschreibt die Sichtweise und Erfahrungen von Arzthelferinnen, die ein Case Management für depressive Patienten in deutschen Hausarztpraxen durchgeführt haben. Methodik: Es handelt sich um eine qualitative Studie, die im Rahmen der PRoMPT-Studie (Primary Care Monitoring for Depressive Patients Trial) durchgeführt wurde. Mithilfe eines semistrukturierten Interviewleitfadens wurden 26 Arzthelferinnen interviewt und anschließend eine Inhaltsanalyse durchgeführt. Der Fokus lag dabei auf drei Schlüsselthemen: Rollenverständnis, Belastungsfaktoren und Krankheitskonzept. Ergebnisse: Die meisten Arzthelferinnen empfanden ihre neue Rolle als Bereicherung auf einer persönlichen und beruflichen Ebene. Sie sahen Ihre Hauptaufgabe in der direkten Interaktion mit den Patienten, während die Unterstützung der Hausärzte für sie von untergeordneter Bedeutung war. Belastende Faktoren durch die neue Arbeitsaufgabe betrafen die Arbeitsbelastung, die Arbeitsbedingungen und die Interaktion mit depressiven Patienten. Es zeigte sich ein sehr heterogenes Krankheitsverständnis bezüglich der Erkrankung Depression. Schlussfolgerung: Arzthelferinnen sind bereit, ihren Aufgabenbereich von Verwaltungsarbeiten auf mehr patientenzentrierte Tätigkeiten auszudehnen. Auch wenn Arzthelferinnen dabei verstärkt protokollierende Aufgaben übernehmen, ist die sich daraus ergebende Mehrbelastung nicht zu unterschätzen.
Die Analyse von DNA-Sequenzen steht spätestens seit der Feststellung ihrer tragenden Rolle in der Vererbung organismischer Eigenschaften im Fokus biologischer Fragestellungen. Seit Kurzem wird mit modernsten Methoden die Untersuchung von kompletten Genomen ermöglicht. Dies eröffnet den Zugang zu genomweiten Informationen gegenüber begrenzt aussagekräftigen markerbasierten Analysen. Eine Genomsequenz ist die ultimative Quelle an organismischer Information. Allerdings sind diese Informationen oft aufgrund technischer und biologischer Gründe komplex und werfen meist mehr Fragen auf, als sie beantworten.
Die Rekonstruktion einer bislang unbekannten Genomsequenz aus kurzen Sequenzen stellt eine technische Herausforderung dar, die mit grundlegenden, aber in der Realität nicht zwingend zutreffenden Annahmen verbunden ist. Außerdem können biologische Faktoren, wie Repeatgehalt oder Heterozygotie, die Fehlerrate einer Assemblierung stark beeinflussen. Die Beurteilung der Qualität einer de novo Assemblierung ist herausfordernd, aber zugleich äußerst notwendig. Anschließend ist eine strukturelle und funktionale Annotation von Genen, kodierenden Bereichen und repeats nötig, um umfangreiche biologische Fragestellungen beantworten zu können. Ein qualitativ hochwertiges und annotiertes assembly ermöglicht genomweite Analysen von Individuen und Populationen. Diese Arbeit beinhaltet die Assemblierung und Annotation des Genoms der Süßwasserschnecke Radix auricularia und eine Studie vergleichender Genomik von fünf Individuen aus verschiedenen molekularen Gruppen (MOTUs).
Mollusken beherbergen nach den Insekten die größte Artenvielfalt innerhalb der Tierstämme und besiedeln verschiedenste, teils extreme, Habitate. Trotz der großen Bedeutung für die Biodiversitätsforschung sind verhältnismäßig wenige genomische Daten öffentlich verfügbar. Zudem sind Arten der Gattung Radix auch aufgrund ihrer großen geografischen Verbreitung in diversen biologischen Disziplinen als Modellorganismen etabliert. Eine annotierte Genomsequenz ermöglicht über bereits untersuchte Felder hinaus die Forschung an grundlegenden biologischen Fragestellungen, wie z.B. die Funktionsweise von Hybridisierung und Artbildung. Durch Assemblierung und scaffolding von sechs whole genome shotgun Bibliotheken verschiedener insert sizes und einem transkriptbasiertem scaffolding konnte trotz des hohen Repeatgehalts ein vergleichsweise kontinuierliches assembly erhalten werden. Die erhebliche Differenz zwischen der Gesamtlänge der Assemblierung und der geschätzten Genomgröße konnte zum Großteil auf kollabierte repeats zurückgeführt werden.
Die strukturelle Annotation basierend auf Transkriptomen, Proteinen einer Datenbank und artspezifisch trainierten Genvorhersagemodellen resultierte in 17.338 proteinkodierenden Genen, die etwa 12,5% der geschätzten Genomgröße abdecken. Der Annotation wird u.a. aufgrund beinhaltender Kernrthologen, konservierter Proteindomänenarrangements und der Übereinstimmung mit de novo sequenzierten Peptiden eine hohe Qualität zugesprochen.
Das mapping der Sequenzen von fünf Radix MOTUs gegen die R. auricularia Assemblierung zeigte stark verringerte coverage außerhalb kodierender Bereiche der nicht-Referenz MOTUs aufgrund hoher Nukleotiddiversität. Für 16.039 Gene konnten Topologien berechnet werden und ein Test auf positive Selektion ausgeführt werden. Insgesamt konnte über alle MOTUs hinweg in 678 verschiedenen Genen positive Selektion detektiert werden, wobei jede MOTU ein nahezu einzigartiges Set positiv selektierter Gene beinhaltet. Von allen 16.039 untersuchten Genen konnten 56,4% funktional annotiert werden. Diese niedrige Rate wird vermutlich durch Mangel an genomischer Information in Mollusken verursacht. Anschließende Analysen auf Anreicherungen von Funktionen sind deshalb nur bedingt repräsentativ.
Neben den biologischen Ergebnissen wurden Methoden und Optimierungen genomischer Analysen von Nichtmodellorganismen entwickelt. Dazu zählen eigens angefertigte Skripte, um beispielsweise Transkriptomalignments zu filtern, Trainings eines Genvorhersagemodells automatisiert und parallelisiert auszuführen und Orthogruppen bestimmter Arten aus einer Orthologievorhersage zu extrahieren. Zusätzlich wurden Abläufe entwickelt, um möglichst viele vorhandene Daten in die Assemblierung und Annotation zu integrieren. Etwa wurde ein zusätzliches scaffolding mit eigens assemblierten Transkripten mehrerer MOTUs sequenziell und phylogenetisch begründet ausgeführt.
Insgesamt wird eine umfassende und qualitativ hochwertige Genomsequenz eines Süßwassermollusken präsentiert, welche eine Grundlage für zukünftige Forschungsprojekte z.B. im Bereich der Biodiversität, Populationsgenomik und molekularen Ökologie bietet. Die Ergebnisse dieser Arbeit stellen einen Wissenszuwachs in der Genomik von Mollusken dar, welche bisher trotz ihrer Artenvielfalt deutlich unterrepräsentiert bezüglich assemblierter und annotierter Genome auffallen.
HINTERGRUND: Asthma ist die häufigste chronische Krankheit bei Kindern und Jugendlichen, wobei bei einem Großteil bereits erste Exazerbationen im Vorschulalter auftreten. Diese sind meist mit stationären Aufenthalten verbunden, jedoch gibt es nur wenige detaillierte zeitliche und demografische Untersuchungen dieser besonders schweren Asthmakohorte. Ebenso gibt es kaum Untersuchungen über die Verteilung der Asthmaphänotypen in dieser Altersgruppe.
METHODEN: Es erfolgte eine retrospektive Analyse von 572 Krankenhausaufenthalten im Universitätsklinikum für Kinder- und Jugendmedizin Frankfurt mit der ICD Diagnose Asthma (J.45) zwischen dem 1. Januar 2008 und dem 31. Dezember 2017 bei Kindern im Alter 1-5 Jahren. Die Aufteilung erfolgte in drei Phänotypen. Allergisches Asthma (RAST und/oder Prick-Test positiv), eosinophiles Asthma (Eosinophilie >300/µl und RAST/Prick-Test negativ) und nicht-allergisches Asthma (Eosinophilie ≤300/µl und RAST/Prick-Test negativ). Akut schweres Asthma wurde definiert als akute Dyspnoe, Tachypnoe, Sauerstoffbedarf und/oder systemische Steroidtherapie. Analysiert wurden u.a. Alter, Geschlecht, Liegezeit, Therapie und Re-Hospitalisierungsrate.
ERGEBNISSE: Von 572 Krankenhausaufenthalten mit der Diagnose Asthma erfüllten 205 Patienten die Definition eines akut schweren Asthmas. Von diesen 205 Kindern wurden bereits n=55 (26,8%) vor der stationären Aufnahme mit einem inhalativen Steroid (ICS) behandelt. Die phänotypische Charakterisierung ergab folgende Verteilung: 49% wiesen Allergisches Asthma, 15% Asthma mit atopischer Dermatitis, 10% eosinophiles nicht-allergisches Asthma und 26% nicht-allergisches Asthma. Von diesen Patienten wurden 71.7% mit ICS und 15,1% mit Montelukast als Monotherapie entlassen. Die Rate der Notfallvorstellung (Notfallambulanz und Re-Hospitalisierung) innerhalb von 12 Monaten nach Entlassung war mit n=42 (20,5%) hoch. Die Zahl der Eosinophilen (> 300 µl) hatte keinen Einfluss auf die Re-Hospitalisierung. Es zeigte sich eine hohe Verschreibung von Antibiotika bei Asthma-Patienten (143 (69,8%) der 205 Patienten) während des stationären Aufenthalts, wobei nur 42 Patienten (20,5%) einen CRP-Wert über 2 mg/dl aufwiesen.
Schlussfolgerung: Obwohl die Asthmaprävalenz bei Schulkindern höher ist, leiden Vorschulkinder im Alter von 1-5 Jahren häufiger an schweren Asthma-Exazerbationen mit Hospitalisierung. Trotz protektiver Therapie mit ICS oder Montelukast ist die Re-Hospitalisierungsrate hoch. Die bisherigen Therapiekonzepte reichen in dieser Altersgruppe anscheinend nicht aus, um Patienten mit schwerem Asthma im Vorschulalter ausreichend zu kontrollieren. Neue Therapiekonzepte wie die Triple-Therapie mit Zugabe des Long-Acting Muscarin Rezeptors (Tiotropium) sollten dringend evaluiert werden.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
Es geht um eine spezielle Auseinandersetzung mit dem Sachunterricht der hessischen Grundschule. Ziel eines Projektes („IGEL“ - Individuelle Förderung und adaptive Lern-Gelegenheiten in der Grundschule) des Frankfurter IDeA-Zentrums war es, das pädagogische Handeln von Lehrkräften zu verändern. Wir folgen diesem Versuch anhand dreier Lehrerinnen, die von Projektseite in der Methode der „Kognitiven Strukturierung“ fortgebildet wurden und die diese Methode im Rahmen einer standardisierten Unterrichtseinheit zum „Schwimmen und Sinken“ erproben sollen. Zu diesem Zweck führen wir Fallanalysen von Sachunterrichtsstunden vor und nach der Fortbildung derselben Lehrkräfte durch, sowie detaillierte didaktische Analysen des jeweils eingesetzten Materials. Wir kommen zu differenzierten kritischen Schlüssen. Das pädagogische und insbesondere das didaktische Handeln der Lehrerinnen wird in Folge der Fortbildungen stark perturbiert; zu der beabsichtigten und in Form von Handreichungen vorgegebenen „Kognitiven Strukturierung“ auf Schülerseite kommt es indes nicht. Stattdessen studieren wir intensiv die Überforderung der Lehrerinnen, die aus einer Kombination von a. den fachwissenschaftlichen Hintergründen, b. der freiwilligen Verpflichtung zur Manualumsetzung und c. den artikulierten Bedürfnissen der Schüler resultiert. Wir können anhand des Versuchs, die Lehrpersonen in „Kognitiver Strukturierung“ fortzubilden, einen Blick auf deren eigene kognitive und pädagogische Strukturen werfen; eine kontrollierte Eingriffnahme in diese Strukturen jedoch findet im Rahmen der „Implementationen“ nicht statt. Die Interventionsform der randomisierten Nachmittagsfortbildung wird zwar verworfen, lediglich angerissen aber die Frage, wie das erlangte Wissen zu nutzen wäre.
Ziel der vorliegenden Arbeit ist der Aufbau von koaxialen Plasmabeschleunigern und deren Verwendung für die Untersuchung der Eigenschaften von kollidierenden Plasmen. Zukünftig sollen diese kollidierenden Plasmen als intensive Strahlungsquelle im Bereich der ultravioletten (UV-) und vakuumultravioletten (VUV-)Strahlung sowie in der Grundlagenforschung als Target zur Ionenstrahl-Plasma-Wechselwirkung Verwendung finden. Für diese Anwendungen steht dabei eine Betrachtung der physikalischen Grundlagen im Vordergrund. So sind neben der Kenntnis der Plasmadynamik auch Aussagen bezüglich der Elektronendichte, der Elektronentemperatur und der Strahlungsintensität von Bedeutung. Im Einzelnen konnte gezeigt werden, dass es möglich ist, durch eine Plasmakollision die Elektronendichte des Plasmas im Vergleich zu der eines einzelnen Plasmas deutlich zu erhöhen - im Maximalfall um den Faktor vier. Gleichzeitig stieg durch die Plasmakollision die Lichtintensität im Wellenlängenbereich der UV- und VUV-Strahlung um den Faktor drei an...
Am Ende seiner Tage sprach der König Salomon: "Die Sonne geht auf und unter [...]. Was gewesen ist, wird [wieder] sein, was getan worden ist, wird [wieder] getan, und es gibt nichts Neues unter der Sonne".1 Im August des Jahres 1881, beim Spaziergang durch die Wälder am See von Silvaplana, bei einem mächtigen, pyramidal aufgetürmten Block, "6000 Tausend Fuß jenseits von Mensch und Zeit" kam einem Professor der klassischen Philologie jener Gedanke wieder – der Gedanke der "Ewigen Wiederkunft des Gleichen", die er später als das Hauptprinzip der altgriechischen Zeitauffassung formulierte. Der Professor hieß Friedrich Nietzsche.2 Mehr als hundert dreißig Jahre sind nach seinem Spaziergang vergangen, und mehr als hundert dreißig Jahre dauert die Diskussion über die zyklische und lineare Zeit. Es wurde mehrmals behauptet und wieder verworfen, dass der Hauptunterschied zwischen dem "hebräischen" und "griechischen" Denken, zwischen den "Gläubigen" und den "Heiden" gerade in dieser Zeitauffassung besteht. Die mythische Zeit der Griechen sei räumlich und statisch, sie habe kein Ziel und keinen Zweck, sie wandle im ewigen Kreislauf gefühllos und träge, ohne Anfang und Ende, ohne Wohin und Woher, ohne Hoffnung. Die Zeit der Tora hingegen sei zielgerichtet. Die Erschaffung der Welt und die Sintflut, der Auszug aus Ägypten und die Wüstenwanderung – all dies seien einmalige Ereignisse, welche sich nie wiederholen würden. Sie alle hätten einen Zweck – die Erlösung der Menschheit. Jede von ihnen sei ein Fortschritt – ein Schritt auf dem Pfad der Geschichte, der Geschichte mit Anfang und Ende, mit Wohin und Woher, mit Hoffnung.3
Die vorliegende Arbeit beabsichtigt nicht, die intuitive Völkerpsychologie zu untersuchen. Vielmehr handelt es sich hier um die Vorstellungen einer begrenzten Gruppe der mittelalterlichen jüdischen Intellektuellen aus dem Spanien des 12. Jhs. Ihre Gedanken waren gleichzeitig von der griechischen Philosophie und dem jüdischen Messianismus geprägt. Eben diese eigenartige Kombination macht die Frage nach ihrer Zeitauffassung so spannend. Als Quelle bei einer solchen Fragestellung scheinen mir die beiden Bücher des Rabbi Abraham Ibn Daud von Interesse zu sein – sein Geschichtsbuch Sefer ha-Qabalah (SQ) und sein philosophisch-theologisches Traktat Al-ʿAqīdah ar-Rafīʿah (AR).
Abraham Ibn Daud, Geschichtsschreiber, Philosoph, Astronom, vermutlich auch Arzt, wurde geboren um 1110 in Cordoba, der Hauptstadt des umayyadischen Kalifates und dem kulturellen Zentrum Andalusiens des 12. Jhs. Er war ein Sohn der Tochter des berühmten Gelehrten Isaak Albaliyah.4 Die Erziehung genoss er im Hause dessen Sohnes, seines Onkels, und dem Schüler von Isaak Alfasi, – Baruch Albaliyah.5 Aus seinen Schriften kann man schließen, dass er ausreichende Kenntnisse sowohl in der Bibel, dem Talmud, der hebräischen Poesie als auch in den Naturwissenschaften und der griechischen Philosophie besaß. Darüber hinaus soll er auch mit der polemischen Literatur der Christen, der Moslems und der Karäer, eventuell auch mit dem Evangelium und dem Koran vertraut gewesen sein. Von seinen Werken sind uns sieben bekannt, zwei davon allerdings nur ihrem Namen nach.6 Das auf Arabisch verfasste theologisch-philosophische Traktat Al-ʿAqīdah ar-Rafīʿah (AR, "Der erhabene Glaube") ist nur in zwei hebräischen Übersetzungen aus dem 14. Jh. – Emunah Ramah (ER)7 von R. Salomon Ben Labi und Emunah Niśʾah (EN)8 von R. Samuel Moṭoṭ erhalten.9 Das traditionshistorische Buch Sefer ha-Qabalah (SQ, "Buch der Tradition")10 wurde auf Hebräisch verfasst und von drei weiteren ebenso auf Hebräisch geschriebenen Werken begleitet: Divrey Malkey Yisraʾel (DMY, "Geschichte der Könige Israels"),11 Midraš Zeḫaryah (MZ, "Auslegung der Prophetie Sacharjas")12 und Zeḫer Divrey Romi (ZDR, "Chronik der römischen Geschichte").13
Die Verwendung von Photoschaltern zur gezielten Kontrolle von Systemen birgt ein hohes Potential hinsichtlich biologischer Fragestellungen, bis hin zu optoelektronischen Anwendungen. Infolge einer Photoanregung kommt es zu Geometrieänderungen, die einen erheblichen Einfluss auf ihr photophysikalisches Verhalten haben. Die Änderungen der photochemischen, wie photophysikalischen Eigenschaften, beruht entweder auf der Isomerisierung von Doppelbindungen oder auf perizyklischen Reaktionen. Durch sorgfältige Modifikationen, wie beispielsweise die Änderung der Konjugation durch unterschiedlich große π-Elektronensysteme, der Molekülgeometrie oder der Veränderung des Dipolmoments, lassen sich intrinsische Funktionen variieren.
Die Kombination dieser Eigenschaften stellt eine komplexe Herausforderung dar, da diese Änderungen einen direkten Einfluss auf wichtige Charakteristika wie die Adressierbarkeit, die Effizienz und die Stabilität der Moleküle haben. Darüber hinaus spielt die thermische Stabilität eine erhebliche Rolle im Hinblick auf die Speicherung von Energie oder Informationen für Anwendungsbereiche in der Energiegewinnung und Datenverarbeitung.
Für die Anwendung solcher photochromen Moleküle ist hinsichtlich der oben genannten Eigenschaften auch das Wissen über den photoinduzierten Reaktionsmechanismus unabdingbar.
Im Rahmen dieser Arbeit wurde der Einfluss auf die Isomerisierungsdynamik organischer Photoschalter durch unterschiedliche Modifikationen mittels stationärer und zeitaufgelöster Spektroskopie untersucht. Im Bereich der Merocyanine konnte ein Derivat vorgestellt werden, das ausschließlich zwischen zwei MC-Formen (trans/cis) isomerisiert. Die interne Methylierung am Phenolatsauerstoff der Chromeneinheit verhindert die Ringschlussreaktion zum SP und somit seinen zwitterionischen Charakter. Die stabilen Grundzustandsisomere TTT und CCT weisen durch den Methylsubstituenten eine hypsochrome Verschiebung ihrer Absorptionsmaxima auf, während TTT das thermodynamisch stabilste Isomer darstellt. Das MeMC wies eine erstaunlich hohe Effizienz seiner Schaltamplituden, insbesondere der TTT → CCT Photoisomerisierung auf, sowie eine überaus hohe Quantenausbeute.
Das MeMC wies zudem eine signifikante Lösungsmittelabhängigkeit auf, die sich insbesondere in der Photostabilität bemerkbar macht. Während das MeMC in MeCN und EtOH photodegradiert, konnte in EtOH/H2O eine konstante Reliabilität festgestellt werden. Diese Zuverlässigkeit impliziert nicht nur eine Stabilisierung durch das Wasser, sondern auch eine Resistenz gegenüber Hydrolysereaktionen. Darüber hinaus konnten kinetische Studien eine hohe thermische Rückkonversion von CCT zu TTT bei Raumtemperatur nachweisen, womit auf schädliche UV-Bestrahlung verzichtet werden könnte.
Die Untersuchung der Kurzzeitdynamiken beider Grundzustandsisomere gab Aufschluss über die Beteiligung anderer möglicher MC-Intermediate und den Einfluss der Methylgruppe auf das System. Mittels quantenchemischer Berechnungen konnte eine erste Initiierung um die zentrale Doppelbindung beider Isomere bestimmt werden, die jeweils zu einem heißen Grundzustandsintermediat führt, bis nach einer zweiten Isomerisierung der endgültige Grundzustand der Photoprodukte populiert wird. Dies bedeutet, dass die trans/cis-Isomerisierung über TTT-TCT-CCT und die Rückkonversion über CCT-CTT-TTT erfolgt.
Im Bereich der Hydrazon-Photoschalter konnten unterschiedlich substituierte Derivate mittels statischer und zeitaufgelösten UV/Vis-Studien untersucht werden. Da ESIPT Prozesse eine wichtige Funktion bei der Kontrolle von biologischen Systemen spielen, wurden verschiedene Hydrazonderivate hinsichtlich ihrer Reaktionsmechanismen untersucht. Als Rotoreinheit diente zum einen eine Benzothiazolkomponente, die die interne H-Bindung des angeregten Z-Hydrazons schwächen sollte und zum anderen wurde ein Chinolinsubstituent eingesetzt, der als Elektronenakzeptor diente und den H-Transfer begünstigt. Der Einsatz der Benzothiazolkomponente bewirkte die gewünschte Vergrößerung der bathochromen Verschiebung des E-Isomers, sowie eine deutliche Erhöhung der thermischen Stabilität des metastabilen
Zustands. Dies bestätigten die zeitaufgelösten Studien der Z zu E Isomerisierung, bei denen die Isomere im Vergleich zum Chinolinhydrazonderivat, in beiden ausgewählten Lösungsmitteln metastabile Z-Intermediate zeigten und eine Lebenszeit bis in den µs-Zeitbereich aufwiesen. Die Rückreaktion beider Derivate (HCN) und (HBN) hingegen zeigte eine barrierelose Umwandlung in die beteiligten Photoprodukte. Trotz der Verwendung des Chinolinsubstituenten zusammen mit Naphthalin als Rotoreinheit (HCN), konnte kein ESIPT Prozess beobachtet werden. HCB mit einer Kombination aus einem Chinolinrotor und eines Benzothiazolsubstituenten, wies eine Hydrazon-Azobenzol-Tautomerie auf, die ein prototropes Gleichgewicht zwischen dem E-Hydrazon und der E-Azobenzolform (E-AB) ausbildete. Die Reaktionsdynamiken des Z-Hydrazons zum E-AB wiesen eine ultraschnelle Bildung des Photoproduktes auf, während die Rückreaktion über einen ESIPT im sub-ps-Bereich erfolgte. Dieser H-Transfer hat die Bildung des angeregten E-Hydrazons zur Folge. Interessanterweise wurde kein Rückprotonentransfer nachgewiesen, sondern die mögliche Formation eines Z-AB gefunden. Damit unterscheidet sich dieser Reaktionsmechanismus erheblich von den typischen ESIPT Prozessen, die normalerweise zu ihrem Ausgangsmolekül zurückrelaxieren. Des Weiteren konnte ein Pyridinoxid und Benzoylpyridin-substituiertes Hydrazon charakterisiert werden, bei denen die stationären Studien kein Schaltverhalten, sondern Photodegradation aufwiesen. Die zeitaufgelösten Daten ergaben ebenfalls keine Photoproduktbildung, was die These der Photozersetzung unterstützt. Die Verwendung von zusätzlich substituierten Rotoreinheiten, wie beispielsweise Pyridinoxid und Benzoylpyridin, die aufgrund fehlender Protonenakzeptormöglichkeit keine interne H-Bindung ausbilden, erlaubt keine Bildung des Z-Hydrazon Isomers.
Um die kontinuierlich auf uns einströmende Menge an Reizen zu verarbeiten, ist es wichtig, die Informationen genau zu selektieren. Ein hilfreicher Mechanismus ist hierbei die Aufmerksamkeit gezielt nur auf eine Informationsquelle zu richten und zu verarbeiten.
So ist es möglich, selbst in komplexen Situationen, wie zum Beispiel einer Feier mit vielen verschiedenen Gesprächen, ganz gezielt ein einzelnes herauszufiltern.
Der Effekt von Aufmerksamkeit auf auditory steady-state Responses (aSSR) wurde in der Vergangenheit schon in verschiedenen Studien mit unterschiedlichen Messverfahren und Stimuli untersucht. Dabei wurden teils widersprüchliche Ergebnisse gefunden, die entweder gar keine oder auf sehr kleine Frequenzbereiche beschränkte Aufmerksamkeitseffekte fanden.
Das Ziel dieser Studie war es, die Auswirkungen von Aufmerksamkeit auf die aSSR innerhalb eines größeren Frequenzspektrums (11 Hz, 23 Hz, 41 Hz, 73 Hz und 97 Hz) zu analysieren. Für diesen Zweck wurden den Probanden nach Instruktion der zu beachtenden Seite jeweils zwei benachbarte Modulationsfrequenzen während vier aufeinander folgenden Blöcken dichotisch präsentiert. Die Probanden wurden angewiesen, Trägerfrequenzänderungen auf der zu beachtenden Seite durch Betätigen einer Maustaste anzugeben. Die Registrierung der aSSR-Antworten geschah mittels Elektroenzephalogramm (EEG). Auch die durch die Stimulation hervorgerufene P300 wurde dargestellt.
Bezüglich des Effekts von Aufmerksamkeit auf die aSSRs zeigte sich nach Analyse der gewonnenen Daten im Frequenzbereich von 23 Hz eine Auswirkung. Diese stellte sich in Form einer Amplitudensteigerung auf der jeweils durch den Probanden beachteten Präsentationsseite dar. Bei einer Modulationsfrequenz von 41 Hz kam es bei Präsentation auf der rechten Seite zu höheren Amplituden als bei Präsentation auf der linken Seite. Bei 73 Hz und 97 Hz konnte keinerlei Auswirkung weder der Aufmerksamkeit noch der Präsentationsseite registriert werden. Auffällig war bei den präsentierten Tönen im 20 Hz und 70 Hz Bereich auch eine im Vergleich zu den anderen Frequenzbereichen (11 Hz, 41 Hz und 97 Hz) verlängerte Reaktionszeit der Probanden. In Kombination mit der Modulation der aSSR-Amplitude durch Aufmerksamkeit bei 23 Hz könnte dies ein Hinweis auf einen förderlichen Einfluss der Aufgabenschwierigkeit auf die Detektierbarkeit von Aufmerksamkeitseffekten sein.
Im Gegensatz hierzu zeigte die dargestellte P300 in allen präsentierten Blöcken einen deutlichen Effekt der Aufmerksamkeit. Dieser äußerte sich ebenfalls in einer Steigerung der Amplitude.
Es scheint also zumindest ein moderater Einfluss von Aufmerksamkeit auf die aSSRs zu existieren. Gleichzeitig wirkt dieser allerdings stark abhängig von gewähltem Stimulus und Messmethode. Der Effekt von Aufmerksamkeit auf die P300 konnte dagegen gut repliziert werden und scheint daher bei dichotischer Stimulation ein deutlicher Marker für Aufmerksamkeit zu sein.
Die digitale Revolution stellt viele traditionelle Industrien vor große Herausforderungen. Auf dem Finanzmarkt werden innovative Geschäftsmodelle geschaffen, die die Rahmenbedingungen, unter denen Finanzprodukte und -dienste angeboten werden, drastisch verändern. Infolgedessen entstehen rechtliche Unsicherheiten sowohl für die Marktakteure als auch für die Aufsicht. Diese Unsicherheiten weisen auf die Notwendigkeit hin, den Rechtsrahmen an die technologische und ökonomische Entwicklung anzupassen. Im Rahmen dieser Dissertation werden die Herausforderungen für das Aufsichts- und Wettbewerbsrecht untersucht, die die digitale Transformation des Finanzmarktes verursacht. Der Finanzmarkt wird vor allem durch die Entstehung von FinTechs, durch das Eintreten von BigTechs in den Finanzbereich und durch die Veränderung der Produkte und Dienstleistungen traditioneller Anbieter auf der Grundlage moderner Technologien transformiert. Die Arbeit gibt einen Überblick über die zentralen innovativen Geschäftsmodelle, der mit den zahlreichen praxisrelevanten Beispielen begleitet wird. Anschließend folgt eine Beurteilung des Umfanges und der Effizienz der vorhandenen und vorgeschlagenen aufsichtsrechtlichen Vorschriften. Diese Erkenntnisse dienen als Grundlage für die wettbewerbsrechtliche Analyse des Finanzmarktes mit dem Fokus auf die plattform- und algorithmenbasierten Geschäftsmodelle im zweiten Teil der Dissertation. Da werden wettbewerbsrechtliche Konstellationen betrachtet, die zwischen konkurrierenden innovativen Geschäftsmodellen entstehen. Die Verfasserin befasst sich mit der Problematik der Definition des relevanten Marktes bei den algorithmen- und plattformbasierten Geschäftsmodellen, der Beurteilung ihrer Marktmacht, den möglichen Auswirkungen der Netzwerkeffekte auf die mehrseitigen Plattformen. Ferner werden solche Aspekte wie Datenzugriff als wettbewerbsrechtlicher Faktor und die Rolle der Algorithmen für die Durchführung wettbewerbswidrigen Praktiken analysiert. Infolgedessen wird ein Überblick über mögliche kartellrechtliche Probleme gegeben, die im Rahmen der Digitalisierung im Finanzmarkt auftreten können, sowie die Vorstellungen darüber, wie sich Wettbewerbsfaktoren verändern sollten, wenn die Anwendung der traditionellen Konzepte des Wettbewerbsrechts nicht immer möglich oder sinnvoll ist. Es werden die Bereiche identifiziert, in denen das europäische und deutsche Wettbewerbsrecht derzeit nicht in der Lage ist, die von den innovativen Geschäftsmodellen stammenden Herausforderungen effektiv zu bewältigen. Im dritten Teil der Dissertation wird erörtert, wie sich das Aufsichts- und das Wettbewerbsrecht ergänzen und zusammen ein System der Ex-ante- und Ex-post-Regulierung bilden. Es wird dargestellt, wie die aufsichtsrechtlichen Anforderungen an die Finanzinstitute, FinTechs und BigTechs mit den ausgewählten Wettbewerbsergebnissen im Finanzsektor zusammenhängen. Darüber hinaus erklärt die Verfasserin, inwiefern einige aufsichtsrechtliche Vorschriften wettbewerbsnachteilig oder wettbewerbsfreundlich auswirken können und warum die Koordination zwischen den aufsichts- und wettbewerbsrechtlichen Instrumenten und Ansätzen essenziell ist. Schließlich werden die Vor- und Nachteile unterschiedlicher Optionen zur Regulierung innovativer Geschäftsmodelle auf dem Finanzmarkt auf einer abstrakteren Ebene erwogen.