Refine
Year of publication
- 2013 (65) (remove)
Document Type
- Doctoral Thesis (65) (remove)
Language
- German (65) (remove)
Has Fulltext
- yes (65)
Is part of the Bibliography
- no (65)
Keywords
- Agent (1)
- Akustik (1)
- Anisotropie (1)
- Armenien (1)
- Augmented Reality (1)
- Autorensystem (1)
- Bewältigung (1)
- Bilderwelten (1)
- Bildverarbeitung (1)
- Buchgeschichte (1)
Institute
- Biowissenschaften (11)
- Biochemie und Chemie (9)
- Medizin (7)
- Pharmazie (6)
- Physik (6)
- Geschichtswissenschaften (3)
- Psychologie (3)
- Sportwissenschaften (3)
- Gesellschaftswissenschaften (2)
- Informatik (2)
Nikotinische Acetylcholin Rezeptoren (nAChR) sind ligandengesteuerte Ionenkanäle der pentameren Cys-Loop Familie, welche nach Bindung des Neurotransmitters Acetylcholin exzitatorische Signale in Muskeln und Neuronen vermitteln. Während die Funktion der Rezeptoren an der synaptischen Membran relativ gut untersucht wurde, gibt es bis heute kaum Erkenntnisse über die intrazellulären Prozesse und Proteine, die der selektiven Assemblierung von homologen Untereinheiten zu funktionalen Rezeptorpentameren zugrundeliegen.
Das C. elegans Genom kodiert für mehr als 29 nAChR Untereinheiten-Gene und besitzt damit die größte Anzahl bekannter Homologe innerhalb der untersuchten Arten. An der neuromuskulären Synapse (NMJ) des Nematoden sind zwei Typen von nAChR bekannt: der heteromere Levamisolrezeptor (L-AChR) und der homomere Nikotinrezeptor (N-AChR). Innerhalb dieser Arbeit wurde der funktionale Zusammenhang zwischen den nikotinischen Rezeptoren der NMJ von C. elegans und einem neuen rezeptorassoziierten ER-Proteinkomplex der Proteine NRA-2 und NRA-4 untersucht. Ihre vertebraten Homologe Nicalin und Nomo wurden zuerst im ER vom Zebrafisch im Zusammenhang mit dem TGF-β Signalweg beschrieben. Mutation der Proteine hat einen Agonist-spezifischen Einfluss auf die Aktivität von L-AChR und N-AChR. Die subzellulären Lokalisationsstudien demonstrierten, dass die beiden Proteine im ER von Muskelzellen wirken und dort mit Rezeptoruntereinheiten co-lokalisieren. Weiterhin ließ sich nachweisen, dass die relative Menge einzelner L-AChR-Untereinheiten an der synaptischen Oberfläche reduziert bzw. erhöht ist. Da die Rezeptoraktivität in Zusammenhang mit der Untereinheiten Komposition steht, wurde die Rolle von zusätzlichen Untereinheiten wie ACR-8 untersucht. Dies zeigte, dass die zusätzliche Mutation der Untereinheit acr-8 in nra-2 Mutanten den Einfluss der nra-2 Einzelmutation auf die Aktivität des L-AChR revertiert. Basierend auf diesen Ergebnissen lässt sich die Hypothese formulieren, dass der NRA-2/NRA-4 Komplex im ER von C. elegans als Kontrollinstanz fungiert welche dafür sorgt, dass nur die jeweils „korrekten“ Untereinheiten in funktionale Rezeptoren eingebaut bzw. andere vom Einbau in das Pentamer abgehalten werden. Durch Fehlen des aktiven Komplexes in Mutanten können nicht vorgesehene -Untereinheiten (z. B. ACR-8) in funktionale Pentamere mit veränderter Funktionalität eingebaut werden.
Die Schwerpunkte dieser Arbeit sind elektrische, stationäre und zeitaufgelöste Transportmessungen an EuB6 sowie die Weiterentwicklung von Messmethoden und Analyseverfahren der Fluktuationsspektroskopie. Durch die Verwendung von
modernen Computern und Datenerfassungskarten konnten die Messmethoden effektiver eingesetzt werden.
Die ersten beiden Kapitel stellen die Grundlagen dar, die für diese Arbeit von Bedeutung sind. Der erste Teil dieser Arbeit wurde der Weiterentwicklung der bereits bekannten Messmethoden unter Verwendung einer schnellen Datenerfassungskarte gewidmet. Im Gegensatz zur Verwendung eines Signalanalysators bietet die Karte die Möglichkeit, auf die Rohdaten im Zeitraum zuzugreifen und sie anschließend mit einer selbst programmierten Software auszuwerten. Die technischen Methoden und der Aufbau der Software wurden in den Kapiteln 3 und 4 vorgestellt. Durch das Ersetzen des Signalanalysators kann bis zu 50% der Messzeit eingespart werden.
Durch die Code-Erweiterung kann bereits nach zwei hintereinander gemessenen Spektren vorläufig bei tiefen Frequenzen ausgewertet und somit frühzeitig entschieden werden, ob eine längere Messzeit aussichtsreich ist. Außerdem wird durch Verwendung der Code-Erweiterung eine sehr viel höhere Spektrendichte (Anzahl von Messpunkten) erreicht. Da im Gegensatz zum Signalanalysator alle gemessenen Spektren gespeichert werden, können in jeder Messung die Spektren auf ihre Korrelation (Korrelationskoeffizient und Zweites Spektrum) hin untersucht werden, ohne zusätzliche Messzeit zu benötigen.
Der zweite Teil dieser Arbeit befasst sich mit den elektrischen Transporteigenschaften von EuB6 und dem Verständnis der Kopplung zwischen Ladungs- und magnetischen Freiheitsgraden. Mittels Widerstands- und nichtlinearer Transportmessungen sowie Fluktuationsspektroskopie wurden Hypothesen von anderen Wissenschaftlern systematisch verifiziert, sowie neue, weiterführende Erkenntnisse gewonnen.
Direkte experimentelle Hinweise für die Phasenseparation sowie das Auftreten von Perkolation aus Transportmessungen fehlten bisher. In dieser Arbeit wurden daher systematisch die elektrischen Transportseigenschaften des Systems in Abhängigkeit von der Temperatur und vom Magnetfeld untersucht. Mittels Fluktuationsspektroskopie konnte erstmals ein direkter Hinweis auf perkolatives Verhalten in den Transporteigenschaften beobachtet werden. Ein starkes nichtlineares Transportsignal (dritter harmonischer Widerstand, DHW) im Bereich von TMI und TC ist eine Signatur einer räumlich inhomogenen Stromverteilung auf der Mikroskala und ein weiterer deutlicher Hinweis auf magnetisch induzierte elektronische Phasenseparation. Insbesondere tritt nichtlinearer Transport bei H = 0 im FM Bereich auf und kann im PM-Bereich bei T > TMI durch externe Magnetfelder induziert werden.
Strukturgleichungsmodelle (SEM) werden in den letzten Jahren vermehrt zur Aufdeckung von nichtlinearen Effekten wie Interaktionseffekten oder quadratischen Effekten in der empirischen Forschung verwendet. Daher kommt der Bereitstellung von effizienten und robusten Schätzverfahren für die Analyse von nichtlinearen SEM, die simultan multiple nichtlineare Effekte schätzen können, eine wichtige Bedeutung in der methodologischen Forschung zu. Bisher wurde jedoch nur ungenügend die Problematik untersucht, dass zwar die üblicherweise verwendeten Schätzverfahren aus der Klasse der Produktindikator-(PI)-Ansätze (z.B. der Unconstrained-Ansatz; Kelava & Brandt, 2009; Marsh, Wen & Hau, 2004) und der Klasse der verteilungsanalytischen Verfahren (z.B. LMS oder QML; Klein & Moosbrugger, 2000; Klein & Muthén, 2007) auf der Annahme einer multivariaten Normalverteilung für einen Großteil der im Modell enthaltenen Variablen beruhen, diese jedoch in der Empirie fast nie gegeben ist. Andere Ansätze, wie die momentbasierten Verfahren des 2SMM- oder des MM-Ansatzes (Wall & Amemiya, 2000, 2003; Mooijaart & Bentler, 2010), die die Normalitätsannahme deutlich abschwächen können, finden in der Literatur hingegen nur geringe Berücksichtigung. Im ersten Teil dieser Arbeit werden diese momentbasierten Verfahren zur Schätzung von multiplen nichtlinearen Effekten erweitert und hinsichtlich ihrer Schätzeigenschaften bei nicht-normalverteilten Daten im Vergleich zu den PI- und den verteilungsanalytischen Ansätzen sowohl theoretisch als auch anhand einer umfangreichen Simulationsstudie untersucht (Brandt, Kelava & Klein, in press).
Zusammenfassend zeigt sich, dass LMS und QML bei normalverteilten Indikatoren die effizientesten Schätzungen liefern und in diesem Fall eingesetzt werden sollten. Bei nicht-normalverteilten Daten ist jedoch ein Parameterbias zu beobachten. Der erweiterte Unconstrained-Ansatz liefert zwar sowohl für normalverteilte als auch für nicht-normalverteilte Indikatoren erwartungstreue Parameterschätzungen, die Standardfehler werden jedoch stets unterschätzt (auch bei der Verwendung eines robusten Schätzers für die Standardfehler), was sich in einem erhöhten alpha-Fehler widerspiegelt. Der 2SMM-Ansatz liefert sehr gute Schätzergebnisse für normalverteilte und nicht-normalverteilte Indikatoren und kann insbesondere bei nicht-normalverteilten Indikatoren verwendet werden; bei normalverteilten Indikatoren ist das Verfahren etwas weniger effizient als LMS. Ein Nachteil des Verfahrens ist jedoch seine schwierige Erweiterung für andere als das hier untersuchte Querschnittsmodell (z.B. für Latente Wachstumskurvenmodelle). Der MM-Ansatz zeigt deutliche Schwächen in seinen Schätzungen, die sowohl bei einer simultanen Schätzung von mehr als einem nichtlinearen Effekt als auch bei nicht-normalverteilten Indikatoren auftreten, und stellt daher keine Alternative zu den anderen Schätzverfahren dar.
Um ein Verfahren bereitzustellen, das bei nicht-normalverteilten Daten zuverlässige und effiziente Schätzungen für nichtlineare Effekte liefern kann, wurde der NSEMM-Ansatz entwickelt (Kelava, Nagengast & Brandt, in press). Der NSEMM-Ansatz ist ein allgemeinerer Ansatz als der 2SMM-Ansatz und kann flexibler auch für andere Modelle genutzt werden, da er direkt in Mplus spezifizierbar ist. Der NSEMM-Ansatz verwendet zur Approximation der Verteilung der (latenten) Prädiktoren ein Mischverteilungsmodell, und stellt damit eine Erweiterung der SEMM (Structural Equation Mixture Models) dar. Im Gegensatz zu den SEMM, die nichtlineare Effekte semi-parametrisch modellieren, d.h. keine Funktion für die Nichtlinearität annehmen, verwendet der NSEMM-Ansatz eine parametrische Funktion für die nichtlinearen Effekte (z.B. einen quadratischen Effekt), wodurch eine Aussage über die Effektstärke des nichtlinearen Effekts möglich ist. Neben einer Darstellung des Konzepts der Mischverteilungsmodelle und des NSEMM-Ansatzes werden auch erste Ergebnisse zu den Schätzeigenschaften des NSEMM-Ansatzes im Vergleich zu LMS und dem erweiterten Unconstrained-Ansatz berichtet.
Im letzten Teil der Arbeit wird auf Interaktionseffekte in Längsschnittstudien eingegangen. Hierbei wird das Problem von heterogenen Entwicklungs- und Wachstumsprozessen aufgegriffen, das in der Empirie häufig auftritt, wenn die Streuung der Entwicklungsverläufe von den Ausgangsbedingungen abhängt. Wird diese Heterogenität nicht adäquat berücksichtigt, wie es der Fall bei latenten Wachstumskurvenmodellen (LGM) ist, sind Prognosen basierend auf den Ausgangsbedingungen einer Person nicht akkurat, da die Konfidenzintervalle für die Prognose auf einer fehlspezifizierten Varianz beruhen. Das heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006) erweitert das Standard-LGM um eine heterogene Varianzkomponente, die mit einem spezifischen Interaktionseffekt modelliert wird. Das HGM stellt eine Alternative zu den Growth Curve Mixture Modellen (GMM) dar, wenn keine Annahme über diskrete Klassen getroffen werden soll, sondern eine feinstufigere, kontinuierliche Modellierung der Heterogenität von Interesse ist. In dieser Arbeit wird für das HGM eine Implementierung in Mplus basierend auf dem LMS-Schätzer entwickelt, deren Anwendung und Interpretation an einem empirischen Datensatz aus der AIDS-Forschung demonstriert wird (Brandt, Klein & Gäde, under revision). Die Implementierung ermöglicht eine anwenderfreundliche Verwendung des Verfahrens und erlaubt die Berücksichtigung von Kovariaten zur Erklärung der Heterogenität in den Entwicklungsverläufen. Die Ergebnisse einer Simulationsstudie zeigen, dass das Verfahren auch bei moderater Verletzung der Verteilungsannahmen eine zuverlässige Parameterschätzung liefert.
In vier aufeinander aufbauenden Studien wird den Fragen nachgegangen „Was sind Nicht-Ereignisse?“ und „Welche Verarbeitungshilfen sind effektiv für den Bewältigungsprozess?“. Am Beispiel der ungewollten Kinderlosigkeit wird aus gesundheitspsychologischer Sicht nach zwei Aspekten von psychosozialem Wohlbefinden gefragt: „globaler Lebenszufriedenheit“ und „negativen Emotionen“ (z.B. Scham und Schmerz).
Es werden Bewältigungsstrategien und Bewältigungsstile unterschieden. Die Bewältigungsstile „religiöses Coping“ sowie „hartnäckige Zielverfolgung“ und „flexible Zielanpassung“ werden als andauernde Einflussfaktoren im Bewältigungsprozess betrachtet. Die entwickelten Bewältigungsstrategien „planendes Problemlösen“, „Unterstützung durch Freunde“, „regenerative Strategien“ und „kognitive Umdeutung zur Akzeptanz“ sind erlernbare Vorgehensweisen.
In der Pilotstudie 1 wurden 22 Menschen interviewt, die sich im Nicht-Ereignis-Prozess befinden. In Studie 2 wurden qualitativ und quantitativ 76 Männer und Frauen mit ungewollter Kinderlosigkeit befragt. Studie 3 erhob online mit 216 Teilnehmern die Häufigkeit und eingeschätzte Effektivität von Verarbeitungshilfen. Studie 4 erfasste zu zwei Messzeitpunkten (n = 732, n = 409) vier Bewältigungsstrategien, vier Bewältigungsstile, „globale Lebenszufriedenheit“, „negative Emotionen“ und kinderwunschspezifische Antworten von Menschen mit Kinderwunsch.
Für eine gewünschte Schwangerschaft kann geschlussfolgert werden, dass ein bedeutsamer Prädiktor für die Eintrittswahrscheinlichkeit im frühen Prozess fertility awareness ist. Das Alter der Frau dagegen leistet keinen Beitrag zur Vorhersage. Die Prädiktoren „negatives religiöses Coping“ und „planendes Problemlösen“ im fortgeschrittenen Nicht-Ereignis-Prozess stellen Risikofaktoren für das psychosoziale Wohlbefinden dar. Die Schutzfaktoren „Unterstützung durch Freunde“, „kognitive Umdeutung zur Akzeptanz“ und „flexible Zielanpassung“ sind signifikante Prädiktoren für psychosoziales Wohlbefinden. Interaktionseffekte von „Flexibler Zielanpassung“ und „Hartnäckiger Zielverfolgung“ konnten nicht identifiziert werden.
Die Proteomforschung wurde die letzten beiden Dekaden maßgeblich durch die Massenspektrometrie geprägt und vorangetrieben. Ohne die Ionisationstechniken MALDI und ESI wäre die Analyse von Peptiden und Proteinen nicht in dem Maße möglich. Durch das Zusammenspiel zwischen Probenvorbereitung und effektiven Trennmethoden mit hochauflösenden Massenspektrometern und Auswertungssoftware können heute problemlos komplexe Proteinmischungen oder ganze Proteome untersucht werden.
Um Proteine in Peptide zu schneiden, wird in den allermeisten Fällen die Protease Trypsin verwendet, deren Eigenschaften in vielerlei Hinsicht die bestmögliche Lösung für die nachfolgende Analyse mit Massenspektrometern bieten. Allerdings stößt die Anwendbarkeit dieses Enzyms bei der Analyse von einigen Proteinen oder Proteinklassen wie Membranproteinen an ihre Grenzen, da nur sehr wenige potentielle Schnittstellen vorhanden sind. In solchen Fällen wurden eine Reihe von weniger spezifischen Enzymen wie Chymotrypsin, Proteinase K oder Elastase in den vergangenen Jahren genutzt, die Proteine auch in für Trypsin weniger gut zugänglichen Bereichen wie Transmembranhelices, in massenspektrometrisch analysierbare Peptide spalten können.
Allerdings stellen die wenig spezifischen Enzyme und die von ihnen generierten Peptide die Massenspektrometrie vor neue Herausforderungen. Für eine Identifizierung benötigen die Peptide eine sehr hohe Massengenauigkeit, daneben sind insbesondere bei der Verwendung von MALDI-Massenspektrometern neutrale und sehr saure Peptide schwerer ionisierbar und analysierbar als basische.
Genügte es bis vor einigen Jahren, nur die Identität einzelner Proteine in komplexen Proben zu bestimmen, hat sich die Fragestellung mittlerweile einem Wandel unterzogen. Heute ist man daran interessiert, wie viel eines bestimmten Proteins vorliegt, besonders im Vergleich mit anderen, unterschiedlich behandelten Proben ist die Regulation von Proteinen von Interesse. Zum Quantifizieren stehen viele unterschiedliche Methoden zur Verfügung. Eine solche stellen die isobaren Derivatisierungsreagenzien TMT und iTRAQ dar, mit denen unterschiedliche Proben nach Peptidfragmentierung quantifiziert werden können.
Fast alle Arbeiten zur Quantifizierung in der Vergangenheit benutzten Trypsin als Protease.
Im Zuge dieser Arbeit sollten die Vorteile, die durch die Verwendung von Elastase bei der Identifizierung von Membranproteinen bereits gezeigt werden konnten, auf die Quantifizierung mit TMT erweitert werden.Wurde in der Vergangenheit noch in manchen Publikationen davon abgeraten, Elastase zu verwenden,weil die Nutzbarkeit der dabei gebildeten komplexen Peptidmischungen in Frage gestellt wurde, konnte in dieser Arbeit gezeigt werden, dass Elastase wie auch Trypsin sich eignen, als Enzym für Quantifizierungsexperimente verwendet zu werden. Dies wurde an Modellproteinen evaluiert und dann auf komplexe Membranproben von Hefezellen erweitert.
Bei Vorexperimenten zur Derivatisierung mit TMT wurde desweiteren festgestellt, dass Peptidklassen, die zuvor nur mit ESI als Ionisationsmethode identifiziert werden konnten, durch die Derivatisierung nun auch mit MALDI zugänglich waren. Die dadurch analysierten kleinen, hydrophoben und sehr sauren Peptide lieferten bei der Kombination mit der underivatisierten Probe einen deutlichen Zugewinn in der Sequenzabdeckung der identifizierten Proteine.
Ein weiterer Teil der Arbeit beschäftigt sich mit der nachträglichen Korrektur von gemessenen Peptidmassen über selbst geschriebene Softwarelösungen für verschiedene Massenspektrometer. Es wurde das Ziel verfolgt, eine möglichst hohe Massengenauigkeit und damit hohe Anzahl an Identifizierungen von Proteinen nach Verdau mit wenig spezifischen Proteasen zu erreichen. Weitere Computerprogramme wurden mit dem Ziel geschrieben, den Arbeitsablauf zu erleichtern und zu verbessern.
Für die früher schon beschriebene Kombination zweier Massenspektrometer mit hoher Massengenauigkeit und Auflösung auf der einen Seite und effizienter Peptidfragmentierung auf der anderen Seite konnte durch Veränderung der Instrumentierung und Software nun eine Automatisierbarkeit geschaffen werden, die es ermöglicht, die Methode standardmäßig bei Routineanalysen zu verwenden.
So ergeben sich viele neue Möglichkeiten neben den oft gewählten Standardprotokollen mit der Analyse tryptischer Verdauansätze mittels LC-ESI-MS/MS, die häufig nur der Einfachheit halber und ohne Anpassung an die eigene Zielsetzung gewählt werden.
Die Arbeit zeigt aber auch auf, dass die Verwendung weniger spezifischer Enzyme sowohl eine Optimierung des Arbeitsablaufs als auch eine Datenauswertung benötigt, die die Besonderheiten der Proteasen berücksichtigt. Wenn dies gewährleistet wird, kann vor allem mit dem Zugewinn durch die Derivatisierung mit TMT eine wertvolle Alternative zu Trypsin genutzt werden.
Are books different? : Die Auswirkungen des Falls der Buchpreisbindung in Großbritannien 1995 - 2006
(2013)
Sicherlich gibt es im Buchhandel wie in jeder anderen Branche Zeiten der Krise und des Umsatzrückgangs, aber grundsätzlich legen die Zahlen nicht nah, dass das Ende bevorsteht. Es stellt sich also die Frage, ob zutrifft, was Richter Buckley in seinem zum geflügelten Wort gewordenen Urteil feststellte: Sind Bücher wirklich anders, oder anders gefragt, braucht der Buchhandel den Schutz des Staates, um seine Funktion erfüllen zu können?
Um eine Antwort auf diese Fragen zu finden, soll in dieser Arbeit das Hauptaugenmerk auf die Entwicklung des britischen Buchhandels im Zeitraum von 1995 (dem Jahr der faktischen Abschaffung des Net Book Agreement bis 2006 gelegt werden. Nach dem beinahe hundertjährigen Bestehen der Buchpreisbindung waren diese Jahre richtungweisend für die Neuorientierung des britischen Buchhandels auf die Bedingungen eines freien Marktes, und es soll untersucht werden, welche Umwälzungen sich daraus für die Branche ergeben haben.
Die vorliegende Dissertation behandelt die Entwicklung eines Verkehrssimulationssystems, welches vollautomatisch aus Landkarten Simulationsgraphen erstellen kann. Der Fokus liegt bei urbanen Simulationsstudien in beliebigen Gemeinden und Städten. Das zweite fundamentale Standbein dieser Arbeit ist daher die Konstruktion von Verkehrsmodellen, die die wichtigsten Verkehrsteilnehmertypen im urbanen Bereich abbilden. Es wurden Modelle für Autos, Fahrräder und Fußgänger entwickelt.
Die Betrachtung des Stands der Forschung in diesem Bereich hat ergeben, dass die Verknüpfung von automatischer Grapherstellung und Modellen, die die Wechselwirkungen der verschiedenen Verkehrsteilnehmertypen abbilden, von keinem vorhandenen System geleistet wird. Es gibt grundlegend zwei Gruppen von Verkehrssimulationssystemen. Zum Einen existieren Systeme, die hohe Genauigkeiten an Simulationsergebnissen erzielen und dafür exakte (teil-)manuelle Modellierung der Gegebenheiten im zu simulierenden Bereich benötigen. Es werden in diesem Bereich meist Verkehrsmodelle simuliert, die die Verhaltensweisen der Verkehrsteilnehmer sehr gut abbilden und hierfür einen hohen Berechnungsaufwand benötigen. Auf der anderen Seiten existieren Simulationssysteme, die Straßengraphen automatisch erstellen können, darauf jedoch sehr vereinfachte Verkehrsmodelle simulieren. Es werden meist nur Autobewegungen simuliert. Der Nutzen dieser Herangehensweise ist die Möglichkeit, sehr große Szenarien simulieren zu können.
Im Rahmen dieser Arbeit wird ein System mit Eigenschaften beider grundlegenden Ansätze entwickelt, um multimodalen innerstädtischen Verkehr auf Basis automatisch erstellter Straßengraphen simulieren zu können. Die Entwicklung eines neuen Verkehrssimulationssystems erschien notwendig, da sich zum Zeitpunkt der Literaturbetrachtung kein anderes vorhandenes System für die Nutzung zur Erfüllung der genannten Zielstellung eignete. Das im Rahmen dieser Arbeit entwickelte System heißt MAINSIM (MultimodAle INnerstädtische VerkehrsSIMulation).
Die Simulationsgraphen werden aus Kartenmaterial von OpenStreetMap extrahiert. Kartenmaterial wird zuerst in verschiedene logische Layer separiert und anschließend zur Bestimmung eines Graphen des Straßennetzes genutzt. Eine Gruppe von Analyseschritten behebt Ungenauigkeiten im Kartenmaterial und ergänzt Informationen, die während der Simulation benötigt werden (z.B. die Verbindungsrichtung zwischen zwei Straßen). Das System verwendet Geoinformationssystemkomponenten zur Verarbeitung der Geodaten. Dies birgt den Vorteil der einfachen Erweiterbarkeit um weitere Datenquellen.
Die Verkehrssimulation verwendet mikroskopische Verhaltensmodelle. Jeder einzelne Verkehrsteilnehmer wird somit simuliert. Das Modell für Autos basiert auf dem in der Verkehrsforschung weit genutzten Nagel-Schreckenberg-Modell. Es verfügt jedoch über zahlreiche Modifikationen und Erweiterungen, um das Modell auch abseits von Autobahnen nutzen zu können und weitere Verhaltensweisen zu modellieren. Das Fahrradmodell entsteht durch geeignete Parametrisierung aus dem Automodell. Zur Entwicklung des Fußgängermodells wurde Literatur über das Verhalten von Fußgängern diskutiert, um daraus geeignete Eigenschaften (z.B. Geschwindigkeiten und Straßenüberquerungsverhaltensmuster) abzuleiten. MAINSIM ermöglicht folglich die Betrachtung des Verkehrsgeschehens auch aus der Sicht der Gruppe der Fußgänger oder Fahrradfahrer und kann deren Auswirkungen auf den Straßenverkehr einer ganzen Stadt bestimmen.
Das Automodell wurde auf Autobahnszenarien und innerstädtischen Straßengraphen evaluiert. Es konnte die gut verstandenen Zusammenhänge zwischen Verkehrsdichte, -fluss und -geschwindigkeit reproduzieren. Zur Evaluierung von Fahrradmodellen liegen nach dem besten Wissen des Autors keine Studien vor. Daher wurden an dieser Stelle der Einfluss der Fahrradfahrer auf den Straßenverkehr und die von Fahrrädern gefahrenen Geschwindigkeiten untersucht. Das Fußgängermodell konnte die aus der Literaturbetrachtung ermittelten Verhaltensweisen abbilden.
Nachdem die wichtigsten Komponenten von MAINSIM untersucht wurden, begannen Fallstudien, die verschiedene Gebiete abdecken. Die wichtigsten Ergebnisse aus diesem Teil der Arbeit sind:
- Es ist möglich, mit Hilfe maschineller Lernverfahren Staus innerhalb Frankfurts vorherzusagen.
- Nonkonformismus bezüglich der Verkehrsregeln kann je nach Verhalten den Verkehrsfluss empfindlich beeinflussen, kann aber auch ohne Effekt bleiben.
- Mit Hilfe von Kommunikationstechniken könnte in der Zukunft die Routenplanung von Autos verbessert werden. Ein Verfahren auf Basis von Pheromonspuren wurde im Rahmen dieser Arbeit untersucht.
- MAINSIM eignet sich zur Simulation großer Szenarien. In der letzten Fallstudie dieser Arbeit wurde der Autoverkehr eines Simulationsgebietes um Frankfurt am Main herum mit ca. 1,6 Mio. Trips pro Tag simuliert. Da MAINSIM über ein Kraftstoffverbrauchs- und CO2-Emissionsmodell verfügt, konnten die CO2-Emissionen innerhalb von Frankfurt ermittelt werden. Eine angekoppelte Simulation des Wetters mit Hilfe einer atmosphärischen Simulation zeigte, wie sich die Gase innerhalb Frankfurts verteilen.
Für den professionellen Einsatz in der Verkehrsforschung muss das entwickelte Simulationssystem um eine Methode zur Kalibrierung auf Sensordaten im Simulationsgebiet erweitert werden. Die vorhandenen Ampelschaltungen bilden nicht reale Ampeln ab. Eine Erweiterung des Systems um die automatische Integrierung maschinell lesbarer Schaltpläne von Ampeln im Bereich des Simulationsgebietes würde die Ergebnisgüte weiter erhöhen.
MAINSIM hat mehrere Anwendungsgebiete. Es können sehr schnell Simulationsgebiete modelliert werden. Daher bietet sich die Nutzung für Vorabstudien an. Wenn große Szenarien simuliert werden müssen, um z.B. die Verteilung der CO2-Emissionen innerhalb einer Stadt zu ermitteln, kann MAINSIM genutzt werden. Es hat sich im Rahmen dieser Arbeit gezeigt, dass Fahrräder und Fußgänger einen Effekt auf die Mengen des Kraftstoffverbrauchs von Autos haben können. Es sollte bei derartigen Szenarien folglich ein Simulationssysytem genutzt werden, welches die relevanten Verkehrsteilnehmertypen abbilden kann. Zur Untersuchung weiterer wissenschaftlicher Fragestellungen kann MAINSIM beliebig erweitert werden.
Wie andere Vögel auch, verfügen Hühner über zwei verschiedene Magnetfeldrezeptoren. In der vorliegenden Arbeit werden diese beiden Rezeptoren, vor allem unter dem Aspekt Verhaltensontogenie eingehender untersucht. Meine Ergebnisse werden durch histologische Untersuchungen gestützt. Ich untersuchte zwei Hühnerrassen, einen braunen und einen weißen Legehuhn Stamm. Mit der Standardmethode konnte ich die Befunde der Literatur bestätigen. Zur Untersuchung des Magnetkompasses im Auge, habe ich Hühner darauf trainiert einen roten Tischtennisball, auf den sie geprägt wurden, in einer bestimmten magnetischen Richtung zu suchen. Im unbelohnten“ Test ist das Magnetfeld um 90 Grad gedreht, so dass der magnetische Norden nun im geographischen Osten liegt. Die braunen Hühner benutzen den Magnetkompass zum Lösen der gestellten Aufgabe, die weißen Hühner wählen zufällig eine Richtung. Eine Veränderung der Trainingsmethode, ein Training im gedrehten Magnetfeld und eine „Bestrafung“, haben das Ergebnis verändert. Die weißen Hühner sind nun in der Lage, die magnetisch richtige Richtung zu finden, die braunen Hühner reagieren verängstigt und wählen nur zufällig eine Richtung. Beide Hühnerrassen können also - unter verschiedenen Voraussetzungen - einen magnetischen Kompass für die Orientierung benutzen.
Die Diskussion über die zeitgenössische Globalethik im Kontext von Hans Küng und Iḫwān aṣ-ṣafāʾ
(2013)
Die Menschheit befindet sich in einer globalen Krise, die sich nicht nur im wirtschaftlichen, politischen und ökologischen Bereich zeigt. Auch Religion und Moral sind davon betroffen. Die Modernisierung führt zunehmend dazu, dass menschliche Werte wie bedingungslose Solidarität, Aufrichtigkeit, Hilfsbereitschaft und Großzügigkeit immer mehr durch Geldgier und Ausbeutung der Umwelt ersetzt werden. Man beschwert sich oft über die Kriegsgefahren, über die Probleme des Bevölkerungswachstums, die Umweltverschmutzung und die Vergiftung von Gewässern sowie über die Gefahr des globalen Terrors. Viele dieser Probleme berühren Religion und Moral, die nicht unabhängig von modernen Problemen denkbar sind. Globaler Terror hat beispielsweise neben vielen anderen Faktoren auch religiös begründete Motive.
Die vorliegende Arbeit versteht sich als Angebot im Hinblick auf die Ergänzung der Fortschreibung einer Morphologie (Jeismann, 1977) von Geschichtsbewusstsein. Die Konkretisierung des Begriffes Geschichtsbewusstsein über den Zusammenhang der individuellen Ausprägung historischen Interesses und Wissens erfolgt in dieser Arbeit vor dem Hintergrund eines allgemeinen Interesses an der Evidenzbasiertheit von theoretischen Konstrukten.
Entsprechend der Jeismann’schen Vorstellung eines Zusammenhanges von Sachanalyse, Sachurteil und Werturteil gestaltet sich auch die Annahme, die dieser Arbeit zugrunde liegt. Neben der Sachanalyse und dem Sachurteil als faktisch bezogenes Element und dem Werturteil als reflexivem Vorgang wird dem individuellen Interesse als motivational - volitionalem Aspekt in der Beschreibung von Geschichtsbewusstsein besonders Gewicht gegeben. Die Grundannahme der vorliegenden Arbeit besteht darin, dass Geschichtsbewusstsein wesentlich mit dem Umfang des historischen Wissens und individuellem Interesse zusammenhängt. Kernpunkt der Überlegung ist das individuelle historische Interesse als Ausdruck von Geschichtsverlangen (Kölbl, 2004), das, je stärker es ausgeprägt ist, zu einem Verlangen nach dezidiertem Geschichtswissen führt und so die Auseinandersetzung mit Geschichte zu einer wissensbasierten macht. Dieser Zusammenhang kann anhand von semantischen Netzwerken identifiziert, die es ermöglichen, das individuell vorhandene historische Wissen sichtbar zu machen. Ebenfalls sind individuelle historische Reflexionsvorgänge und Auseinandersetzungsmomente in semantischen Netzwerken vorzufinden. Von den theoretischen Überlegungen ausgehend und mit Blick auf die unterschiedlichen Angebote theoretischer Konstruktionen des Begriffes Geschichtsbewusstsein erfolgt eine gegenstandsbezogene Beschreibung. Diese bezieht sich auf Äußerungen von Schüler/innen zu unterschiedlichen historischen Schlüsselbegriffen, die durch ein Zeitzeugengespräch stimuliert und mit einem standardisierten Fragebogen erfasst wurden. Ziel der Arbeit ist es, zu prüfen, ob sich semantische Netzwerke zur Sichtbarmachung von Geschichtsbewusstsein eignen. Des Weiteren soll der Fragebogen als mögliche Methode zur Erhebung von historischen Einstellungen und Wissenskonzepten erprobt werden.