Universitätspublikationen
Refine
Year of publication
- 2015 (835) (remove)
Document Type
- Contribution to a Periodical (164)
- Book (156)
- Report (127)
- Part of Periodical (103)
- Doctoral Thesis (86)
- Article (69)
- Review (56)
- Working Paper (46)
- Part of a Book (5)
- Conference Proceeding (5)
Language
- German (835) (remove)
Is part of the Bibliography
- no (835)
Keywords
- Islamischer Staat (30)
- Terrorismus (21)
- IS (16)
- Deutschland (15)
- Dschihadismus (11)
- Terror (11)
- Islamismus (10)
- Salafismus (10)
- Politikwissenschaft (9)
- Syrien (9)
Institute
- Präsidium (333)
- Gesellschaftswissenschaften (149)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (87)
- Geschichtswissenschaften (64)
- Neuere Philologien (45)
- Institut für Wirtschaft, Arbeit, und Kultur (IWAK) (43)
- Medizin (39)
- Rechtswissenschaft (39)
- Wirtschaftswissenschaften (35)
- Kulturwissenschaften (33)
Die Biosynthese der Fettsäuren (FS) ist in Eukaryoten und Bakterien ein hochkonserviert zentraler Stoffwechselweg, der in zwei strukturell verschiedenen Systemen ausgeführt wird. Die meisten Bakterien, Parasiten, Pflanzen und Mitochondrien nutzen ein Fettsäuresesynthase Typ-II (FAS-II) System. Bei FAS II Systemen sind alle katalytischen Domänen separate lösliche Proteine. In Eukaryoten wie auch den Bakterien Corynebakteria, Mycobakteria, Nocardia (Klasse der CMN Bakterien) liegen die katalytischen Domänen fusioniert auf einer Polypeptidkette vor, die zu einem Multienzymkomplex der Fettsäuresynthase Typ I (FAS-I) assemblieren. Die Architektur der FAS-I zeigt große Unterschiede; die X förmige Säuger-FAS-I (Maier et al., 2006), sowie die fassartigen Enzyme der Pilz FAS-I (Jenni et al., 2007; Leibundgut et al., 2007; Lomakin et al., 2007; Johansson et al., 2008) und der bakteriellen FAS-I (Boehringer et al., 2013; Ciccarelli et al., 2013). Zwischen Pilz- und bakterieller FAS-I gibt es trotz des ähnlichen Aufbaus bedeutende Unterschiede. Mycobakterium tuberculosis, der Auslöser von Tuberkulose (TB), an der jährlich über eine Million Menschen weltweit sterben (WHO, 2014), synthetisiert durch eine Symbiose von FAS-I, FAS-II und der Polyketidsynthase-13 Mykolsäuren. Durch die Mykolsäuren ist M. tuberculosis resistent gegen äußere Einflüsse. FAS-I ist in die Synthese der Vorstufen der Mykolsäuren involviert. Sie stellt im Kampf gegen TB ein potentielles Inhibierungstarget dar.
Strukturell war die bakterielle FAS-I beim Beginn der vorliegenden Arbeit, nur durch negative-stain-Elektronenmikroskopie (EM) Aufnahmen aus dem Jahr 1982 charakterisiert (Morishima et al., 1982). In dieser Arbeit konnte die bakteriellen FAS I aus M. tuberculosis (MtFAS), sowie Corynebacterium ammoniagenes (CaFAS) und Corynebacterium efficiens (CeFAS) strukturell untersucht werden. Dies geschah mit den Methoden negative-stain-EM, Einzelmolekül-Cryo-EM (Cryo-EM), Cryo EM Tomographie (CET) und Röntgenkristallographie.
Anhand von CeFAS-Kristallen konnte erstmals durch Röntgenkristallographie die Struktur einer bakteriellen FAS-I bestimmt werden. Zudem wurde die hohe konformationelle Flexibilität der bakteriellen FAS-I mit mehreren Methoden gezeigt. Für die CaFAS konnte mit Cryo-EM initiale Prozesse der Proteinkristallbildung abgebildet werden.
Dies ist der dritte Artikel unseres Blogfokus „Salafismus in Deutschland“.
Der Salafismus in Deutschland vollzieht seit 2005 eine spürbare Entwicklung. Sie reicht von der Etablierung einer einheimischen Szene über die Schaffung einer funktionierenden salafistischen Infrastruktur bis hin zu großen Mobilisierungserfolgen. In den verschiedenen Entwicklungsphasen wurden Propagandakanäle geschaffen und optimiert mit dem Ziel, Anhänger anzuwerben, die Anhängerschaft ideologisch zu festigen und sie vor der Mehrheitsgesellschaft zu schützen. Dafür erwies sich die salafistische Propaganda als nützliches Instrument. In diesem Beitrag wird der Wandel der salafistischen Szene in Deutschland skizziert.
Im Zuge des Ukrainekonflikts hat der Westen Sanktionen gegen Russland verhängt. Doch angesichts der ausbleibenden Verhaltensveränderung, wird der Nutzen der Sanktionen in Frage gestellt. Wenngleich sinkende Öleinnahmen eher Wirkung zeigen könnten, dürfen wir nicht vergessen, dass Sanktionen auch eine symbolische Wirkung zur Einhaltung geltenden Rechts aufweisen. Deshalb sollte der Westen an ihnen festhalten.
Die Debatte, wie die Organisation des universitären Lehrbetriebs an deutschen Hochschulen verbessert werden kann, wurde in den vergangenen Monaten intensiv medial begleitet. Eine ehrliche Diskussion über realistisch umsetzbare Reformen ist notwendig. Ich plädiere vor allem für eine Diversifizierung der Prüfungsleistungen, wodurch sich gleichzeitig die Vorbereitung auf Seminare verbessern könnte. Darüber hinaus wäre ein konsensorientierteres Verhältnis zwischen Dozenten_innen, Administration und Studentenschaft wünschenswert.
Im Jahr 2014 beschäftigten sich sowohl der Deutsche Juristentag als auch die Vereinigung der Deutschen Staatsrechtslehrer mit dem Reformbedarf im Gerichtsverfassungs- bzw. (Zivil-)Prozessrecht sowie mit dem Wandel der Justiz. Das Arbeitspapier ist der methodischen Frage gewidmet, welcher Innovationen die Prozessrechtswissenschaft bedarf, um sowohl Vollzugsdefizite als auch Reformentwicklungen im Recht der Dritten Gewalt sachgerecht untersuchen zu können. Im Mittelpunkt steht die Übertragung der im Verwaltungsrecht inzwischen etablierten Perspektive der Rechtswissenschaft als Steuerungswissenschaft auf das Prozessrecht. Es wird u.a. gezeigt, dass dieser Ansatz wissenschaftsgeschichtlich anschlussfähig ist und – als Referenzbeispiel – für das Verständnis des richterlichen Verfahrensermessens ertragreich sein kann.
Um das komplizierte Geschehen in der Zelle entschlüsseln zu können, blockieren Forscher oft bestimmte Proteine oder Gene. Eine moderne und elegante Methode besteht darin, Lichtaktivierbare Moleküle als "Schalter" zu verwenden. Die Gruppe von Alexander Heckel entwickelt maßgeschneiderte Moleküle für Biologen, Biochemiker oder Mediziner.
Die deutsche Steuerpolitik kombiniert hohe Steuersätze mit zahlreichen Ausnahmen. Das reißt Gerechtigkeitslücken, lenkt Investitionen in die falschen Zwecke und verkompliziert das Steuersystem mitunter bis zur Unkenntlichkeit. Bei der Erbschaftsteuer ist dies besonders augenfällig. Der Versuch mit minimalinvasiven Korrekturen Konsistenz in die Erbschaft- und Schenkungsteuer zu bringen ist fast zwangsläufig zum Scheitern verurteilt. Vieles spricht stattdessen für deutlich abgesenkte Steuersätze und eine gleichzeitige Abschaffung der Vergünstigungen für Betriebsvermögen.
Perioperative Blutungskomplikationen stellen, insbesondere für neurochirurgisch behandelte Patienten, eine schwerwiegende Komplikation dar und sind mit einer signifikant erhöhten Morbidität und Mortalität assoziiert [1]. Der perioperative Blutverlust ist einer der Hauptgründe für die Transfusion allogener Blutprodukte [2, 3]. Transfusionen von Erythrozytenkonzentraten (EK), Gefrorenem Frischplasma (GFP) und Thrombozytenkonzentraten (TK) sind dabei unabhängige Risikofaktoren für die Entwicklung thromboembolischer, pulmonaler, hämodynamischer oder septischer Komplikationen und selbst mit einer erhöhten perioperativen Morbidität und Mortalität assoziiert [3-10]. In der Literatur wird die Prävalenz von Blutungskomplikationen im Rahmen von intrakraniellen Eingriffen (Raten zwischen 0,8% bis 50%) sehr unterschiedlich beschrieben [1, 11-13]. Gleichwertige Voraussetzungen für die Bildung und Aufrechterhaltung eines stabilen Blutgerinnsels sind, neben einer effizienten primären Hämostase (Thrombozytenzahl und –funktion, Von-Willebrand-Faktor), auch die plasmatische Gerinnung (extrinsische und intrinsische Gerinnungsfaktoren) und der Schutz vor (Hyper)fibrinolyse [14].
Die 5-Lipoxygenase (5-LOX) stellt den Startpunkt des Leukotrienstoffwechsels dar, da sie Arachidonsäure (AA) über die 5(S)-Hydroperoxy-6-trans-8,11,14-cis-eicosatetraensäure (5-HpETE) in Leukotrien A4 (LTA4) umwandelt. 5-HpETE kann zum korrespondierenden Alkohol 5(S)-Hydroxy-6-trans-8,11,14-cis-eicosatetraensäure (5-HETE) reduziert werden. LTA4 dient als Zwischenprodukt für die Synthese von LTB4 und den Cysteinyl-gebundenden LTs LTC4, LTD4 und LTE4. LTs nehmen eine wichtige Funktion in der Immunabwehr ein, sind jedoch auch an einer Vielzahl von Krankheitsgeschehen wie z. B. Asthma bronchiale, Atherosklerose und einiger Tumorarten beteiligt. Die 5-LOX teilt sich in zwei Domänen auf: der reglatorischen, N-terminalen Domäne und der katalytischen, C-terminalen Domäne. Ihre Aktivität unterliegt einer komplexen allosterischen Regulation und kinetischen Besonderheiten wie einer Substratinhibition. In vielen Fällen ist die regulatorische PLAT-(Polycystin-1, Lipoxygenase, alpha-Toxin)-Domäne involviert. Sie ist essentiell an der Bindung von Calcium, Membranen und weiterer Faktoren wie dem Coactosin-like protein (CLP) und Dicer beteiligt. Auch eine zweite Bindungsstelle für das Substrat oder einen seiner Metaboliten wird dort vermutet. Letztlich bleibt jedoch die Regulation der 5-LOX-Aktivität durch die PLAT-Domäne unzureichend geklärt. Diese Tatsache und die fortwährende Suche nach neuen Ansatzpunkten für die 5-LOX-Inhibition bilden den Hintergrund, vor dem diese Arbeit angefertigt wurde.
Das Ziel lag in der Entwicklung einer stabilen, isolierten PLAT-Domäne und deren Charakterisierung. Es stellte sich jedoch heraus, dass sich die isolierte Domäne durch eine hohe thermische Instabilität und starke Aggregationsneigung auszeichnet. Mittels Mutationsstudien auf Basis der 5-LOX AS 1-115, verbunden mit Gelfiltrationsläufen zur Analyse der Proteinaggregation, wurde schließlich ein Konstrukt entwickelt, das in Konzentrationen < 0,5 mg/ml als Monomer vorlag: die sogenannte PLAT1-115 W75G. Ein Austausch des W75 in Glycin erhöhte ebenfalls die thermische Stabilität, so dass Versuche bei 20°C durchgeführt werden konnten. Zunächst wurden jedoch die grundlegenden Eigenschaften der Mutante untersucht. Dies umfasste die Beantwortung der Frage, ob auch die PLAT1-115 W75G Calcium bindet, sowie die Aufnahme eines Circulardichroismus-(CD)-Spektrums. Der erste Aspekt konnte mit mehreren Methoden bestätigt werden. Eine Calciumzugabe zum Laufpuffer 20 mM MOPS, 50 mM KCl pH 7,4 erhöhte konzentrationsabhängig das Elutionsvolumen der PLAT1-115 W75G auf der analytischen Gelfiltrationssäule – vermutlich durch den bekannten Einfluss von Calcium auf die Hydrophobizität der PLAT-Domäne. Zusätzlich wurde die Interaktion durch differential scanning fluorimetry (DSF) und Oberflächen-Plasmonen-Resonanz-Spektroskopie (SPR) nachgewiesen. Allerdings gelang aus verschiedenen Gründen keine Quantifizierung der Bindungsaffinität. Das CD-Spektrum bestätigte die Struktur der PLAT-Domäne als sogenanntes all-beta_protein und ermöglichte die Einordnung der PLAT1-115 W75G in die Gruppe der betaII-Proteine.
Ein weiterer Fokus dieser Arbeit lag auf der vermuteten allosterischen Fettsäurebindungsstelle in der PLAT-Domäne. Es wurde versucht, die Interaktion mittels SPR nachzuweisen. Zur Vorbereitung wurde im 5-LOX-Aktivitätstest und im DSF an der isolierten Domäne ein Detergens bestimmt, das einen möglichst geringen Einfluss auf das Protein ausübt. Dabei zeigte Octyl-beta-D-glucopyranosid (beta-OG) das vorteilhafteste Profil. Auf dieser Basis wurde die kritische Mizellbildungs-Konzentration (CMC) der AA und einiger HETEs in beta-OG-haltigen Puffern bestimmt. Die SPR-Studien ergaben jedoch keine reproduzierbaren Ergebnisse. In einem weiteren Schritt wurden die Substrathemmung des Gesamtproteins 5-LOX und der Einfluss von Calcium charakterisiert. Sowohl in Gegenwart von ~ 1 mM freiem Calcium als auch von 1 mM EDTA lag mit 20 µM AA die höchste Produktbildung nach 10-minütiger Reaktion vor. Das Detergens Tween20 (T20) hob in einer Konzentration unter seiner CMC (0,001 % m/V) in Anwesenheit von Calcium die Inhibition auf. Ohne Calcium zeigte sich auch in Gegenwart von T20 die bekannte Substratinhibition der 5-LOX einschließlich ihrer Maximalaktivität bei 20 µM AA. Diese Ergebnisse deuten darauf hin, dass Calcium eine Bindung der 5-LOX an eventuell vorhandene, negativ geladene Vesikel aus AA und Detergens vermitteln und dadurch die Substratinhibition aufheben kann. In Fällen, in denen die Substratinhibition vor dem Erreichen der AA-CMC auftritt, hat Calcium folglich keinen Einfluss.
Zuletzt wurde die Interaktion der PLAT1–115 W75G mit CLP und einem C-terminalen Fragment von Dicer untersucht. Im Crosslinking ließ sich nicht auf eine Interaktion der isolierten PLAT-Domäne mit CLP schließen. Dagegen ergaben Diamid-Crosslinking-Studien, dass die isolierte PLAT-Domäne in der Lage ist, das Dicer-Fragment zu binden. Dieses Ergebnis wurde im SPR bestätigt.
Sowohl bezüglich der Modellierung der Sprachkompetenz bei mehrsprachigen Kindern als auch hinsichtlich der Bestimmung der hierfür notwendigen Indikatoren herrscht nach wie vor Forschungsbedarf. Die entsprechenden Erkenntnisse sind aber für eine valide Sprachstandsdiagnostik, auf Basis welcher auch eine Sprachförderung stattfinden kann, unerlässlich. In der vorliegenden Dissertation werden daher mit Hilfe von Verteilungsstatistiken, konfirmatorischen Faktoranalysen und Strukturgleichungsmodellen zunächst ausgewählte Sprachstandsindikatoren sowie das Konstrukt Sprachkompetenz von Kindern mit Deutsch als Zweitsprache zu Beginn der 1. Klasse modelliert und im Anschluss ihr Einfluss auf die Orthographiekompetenz dieser Schülerinnen und Schüler am Ende der 2. Klasse untersucht. Zusätzlich wird das phonologische Arbeitsgedächtnis als ein weiterer Prädiktor in das Modell eingebunden. Es wird der Fragestellung nachgegangen, ob die für die Modellierung der Sprachkompetenz verwendeten Indikatoren, wie bspw. Bildbenennung, Kasus, Syntaxerwerbsstufen und die mittlere Äußerungslänge (MLU) für die Gruppe der mehrsprachigen Kinder in der Schuleingangsphase geeignet bzw. valide sind. Dabei werden die jeweiligen Streuungen, die Korrelationen untereinander (konvergente Validität) sowie die Leistung der Indikatoren für die jeweiligen sprachlichen Kompetenzbereiche anhand der Höhe der Faktorladungen betrachtet. Ebenfalls wird die prognostische Validität der Indikatoren hinsichtlich der Rechtschreibkompetenz beleuchtet. Des Weiteren wird geprüft, ob sich die Sprachkompetenz bei DaZ-Kindern in eine semantische, eine morphologische und eine syntaktische Fähigkeit unterteilen lässt und ob die Sprachkompetenz als Faktor zweiter Ordnung modelliert werden kann. Weitere Fragestellungen betreffen die Modellierung der Rechtschreibkompetenz, also die Anzahl und Art der latenten Variablen, die dieses Konstrukt abbilden, sowie den Einfluss des phonologischen Arbeitsgedächtnisses und der einzelnen sprachlichen auf die orthographischen Teilkompetenzen.
Ein Finite-Volumen-Modell des differentiell geheizten rotierenden Annulus wird verwendet, um die spontane Schwerewellenabstrahlung durch die großskalige, von baroklinen Wellen beherrschte Strömung zu untersuchen. Bei diesem Vorgang bilden barokline Wellen und der durch sie abgelenkte und verzerrte Strahlstrom, die sich näherungsweise im hydrostatischen und geostrophischen Gleichgewicht befinden, durch ihre Dynamik Ungleichgewichte aus, die sich als Schwerewellen ausbreiten. Neben der Anregung von Schwerewellen durch Prozesse wie Gebirgsüberströmung, Konvektion und Frontogenese, bildet dieser Vorgang vermutlich eine weitere wichtige Quelle von Schwerewellen in der Atmosphäre. Anders als für orographisch und konvektiv angeregte Schwerewellen gibt es für die spontane Schwerewellenabstrahlung bislang keine befriedigende Parametrisierung in Wettervorhersage- und Klimamodellen, die diesen Prozess nicht auflösen können. Die Durchführung von Messungen zur spontanen Schwerewellenabstrahlung in der Atmosphäre ist üblicherweise sehr aufwendig, sodass die Untersuchung dieses Vorganges in einem wiederholbaren und steuerbaren Laborexperiment reizvoll erscheint. Ob dafür möglicherweise das Experiment des differentiell geheizten rotierenden Annulus infrage kommt, untersuchen wir mit einem eigens dafür entwickelten numerischen Modell, dessen Tauglichkeit wir zunächst im Rahmen einer Validierung durch den Vergleich mit Labormessungen überprüfen. Damit die Ergebnisse zur Schwerewellendynamik im Annulus auf die Atmosphäre übertragbar sind, verwenden wir eine neue, atmosphärenähnliche Annuluskonfiguration. Im Gegensatz zu den klassischen Annuluskonfigurationen ist in der neuen Konfiguration die Brunt-Väisälä-Frequenz größer als der Coriolis-Parameter, sodass die Schwerewellen ein ähnliches Ausbreitungsverhalten zeigen sollten wie in der Atmosphäre. Deutliche Hinweise auf eine Schwerewellenaktivität in der atmosphärenähnlichen Konfiguration geben die horizontale Geschwindigkeitsdivergenz und eine Normalmodenzerlegung der kleinräumigen Strukturen der simulierten Strömung. Um der Herkunft der beobachteten Schwerewellen auf den Grund zu gehen, zerlegen wir die Strömung in den schwerewellenfreien quasigeostrophischen Anteil und den schwerewellenenthaltenden ageostrophischen Anteil. Bereiche innerhalb der baroklinen Welle, in denen ein erhöhter spontaner Antrieb des ageostrophischen Anteils durch die quasigeostrophische Strömung beobachtet wird, fallen mit Bereichen erhöhter Schwerewellenaktivität zusammen. Dies deutet darauf hin, dass die spontane Schwerewellenabstrahlung auch im Annulus zum Schwerewellenfeld beiträgt, sodass dieses Experiment als Labormodell dieser Schwerewellenquelle für deren weitere Erforschung geeignet erscheint.
Die Private Krankenversicherung ist explizit seit Einführung der Versicherungspflicht im Jahr 2008 neben der Gesetzlichen Krankenversicherung zweite Säule eines umfassenden Krankenversicherungsschutzes in Deutschland. Sie ist – auch schon traditionell – umfassend reguliert; Versichertenwettbewerb innerhalb der PKV aber auch zur GKV findet in entsprechend enger rechtlicher Strukturierung statt. In den letzten Jahren wird die PKV zudem auch immer stärker bei der Regulierung der Leistungserbringer berücksichtigt bzw. einbezogen. Der Beitrag gibt einen komprimierten Überblick über die Regulierung der PKV als Teil des Gesundheitssystems.
Die Hitze war rekordverdächtig: Beim diesjährigen Sommerfest waren schattige Plätze und ‚Wasserkühlung‘ am Brunnen daher sehr gefragt. Der Top Act des Abends, Texas Lightning aus Hamburg, begeisterte mit Popsongs im Country-Gewand. Mit Banjo, Ukulele und Kontrabass hauchte das Sextett selbst 50 Jahre alten Beatles-Klassikern neues Leben ein. Kurz vor ihrem Auftritt fragte der UniReport Sängerin Jane Comerford und Drummer Olli Dittrich unter anderem, ob studierte Popmusiker in der Band von Vorteil sind.
Kapitalanleger wie Versicherungsnehmer werden oft konfrontiert mit komplexen Produkten und nicht durchschaubaren Unternehmensstrukturen der Anbieter. Gleichzeitig stellt die mögliche Nichterfüllung ihrer Ansprüche häufig ein existenzielles Risiko dar. Deshalb ist es Ziel der Finanzregulierung, Rahmenbedingungen im Finanzdienstleistungsbereich zu schaffen, die wirtschaftliche Abläufe gewährleisten und gleichzeitig den Konsumenten schützen. Dem Nutzen der Regulierung stehen aber auch Risiken gegenüber, die im diesem Artikel am Beispiel der Versicherungsregulierung dargelegt werden.
Die anhaltende Beliebtheit elektronischer Datenverarbeitung hat dazu geführt, dass Daten uns in unseren Alltag immer wieder unterschiedlich begegnen. Dadurch hat sich ein breites Begriffsfeld entwickelt: Inhaltsdaten, Metadaten, personenbezogene und anonyme Daten, Big Data, Datenklau, Datenschutz und Datenkraken, um nur einige zu nennen. Doch um Daten wird nicht nur wirtschaftlich gekämpft, sondern auch politisch...
Die Dissertation ist in den Bereichen der semiklassischen Quantengravitation und der pseudokomplexen Allgemeinen Relativitätstheorie (pk-ART) anzusiedeln. Dabei wird unter semiklassischer Quantengravitation die Untersuchung quantenmechanischer Phänomene in einem durch eine klassische Gravitationstheorie gegebenen gravitativen Hintergrundfeld verstanden und bei der pk-ART handelt es sich um eine Alternative zu der aktuell anerkannten klassischen Gravitationstheorie, der Allgemeinen Relativitätstheorie (ART), die die reellen Raumzeitkoordinaten der ART pseudokomplex erweitert. Dies führt zusammen mit einer Veränderung des Variationsprinzips in führender Ordnung auf eine Korrektur der Einstein- Gleichung der ART mit einem zusätzlichen Quellterm (Energie-Impuls-Tensor), dessen exakte Form jedoch bisher nicht bekannt ist.
Die Beschreibung der Gravitation als Hintergrundfeld ergibt sich zwangsläufig daraus, dass auf Basis der ART bisher keine quantisierte Beschreibung für sie gefunden werden konnte. Jedoch wird erhofft, dass die Untersuchung semiklassischer Phänomene Hinweise auf die korrekte Theorie der Quantengravitation gibt. Zudem motiviert der Mangel einer quantisierten Gravitationstheorie die Verwendung alternativer Theorien, da sich dadurch die Frage stellt, ob die ART die korrekte Beschreibung klassischer Felder ist.
Das Ziel der vorliegenden Dissertation war die grundlegenden Unterschiede zwischen der ART und der pk-ART für gebundene sphärisch symmetrische Zustände der Klein-Gordon- und der Dirac-Gleichung zu identifizieren und ein qualitatives Modell der Vakuumfluktuationen in sphärisch symmetrischen Materieverteilungen zu bestimmen, wobei der Zusammenhang der pk-ART mit den Vakuumfluktuationen in der Annahme besteht, dass ein Zusammenhang zwischen ihnen und dem zusätzlichen Quellterm der pk-ART existiert. Dafür wurden die gebundenen Zustände der Klein-Gordon- und der Dirac-Gleichung für drei verschiedene Metrikmodelle (zwei ART-Modelle und ein pk-ART-Modell) mit konstanter Dichte systematisch numerisch berechnet, einige repräsentative Grafiken erstellt, anhand derer die grundlegenden Unterschiede der Ergebnisse der ART-Modelle und des pk-ART-Modells erörtert wurden, und die ART Ergebnisse der Dirac-Gleichung soweit wie möglich mit Ergebnissen der Literatur verglichen. Insbesondere wurde dabei festgestellt, dass die Energieeigenwerte in der pk-ART im Gegensatz zu denen in der ART in Abhängigkeit der Ausdehnung des Zentralobjekts ein Minimum aufweisen. Zudem wurden die Energieeigenwerte der Klein-Gordon-Gleichung teilweise sowohl über das Eigenwertproblem einer Matrix als auch über ein Anfangswertproblem berechnet und es wurde festgestellt, dass die Beschreibung als Eigenwertproblem deutlich uneffektiver ist, wenn dafür die Basis des dreidimensionalen harmonischen Oszillators genutzt wird. Für die Entwicklung des qualitativen Vakuumfluktuationsmodells wurden zwei Näherungen für den Erwartungswert des Energie-Impuls-Tensors in führender Ordnung für die Schwarzschildmetrik (ART) verglichen und die Verwendung eines qualitativen Modells durch die dabei auftretende Diskrepanz gerechtfertigt. Danach wurden die Vakuumfluktuationen für Metriken konstanter Materiedichte mit Hilfe einer der Näherungen in führender Ordnung berechnet und ein Modell gesucht, das den gleichen qualitativen Verlauf aufweist. Im Anschluss wurde dieses Modell noch für einfache Metriken mit variabler Materiedichte verifiziert.
Die Dissertation leistet mit der Analyse der gebundenen Zustände einen Beitrag in der Identifikation der Unterschiede zwischen der pk-ART und der ART und führt somit auf weitere mögliche Messgrößen, die der Unterscheidung der beiden Theorien dienen könnten. Weiterhin ermöglicht das abgeleitete Modell eine Verfeinerung der schon publizierten Ergebnisse über Neutronensterne und die für die Erstellung nötigen Vorarbeiten leisten einen Beitrag zur Identifikation des
pk-ART Quellterms.
Die Arbeit mit Rechnungen bietet den Vorteil, dass es sich dabei fast immer um Originalquellen handelt. Rechnungen wurden üblicherweise nicht in Kompilationen aufgenommen oder nicht in Urkunden inseriert. Wenn sie abgeschrieben wurden, geschah das höchstens im Zuge des Abrechnungsprozesses und nicht, wie etwa bei Chroniken, um für ihre weitere Verbreitung zu sorgen. Unter den schriftlichen Quellen kommen die Rechnungen damit wohl der Definition eines Überrestes am nächsten: Sie wurden für die Mit-, nicht die Nachwelt erstellt. Das bringt allerdings den Nachteil mit sich, dass wir selten genau wissen, zu welchem Zweck eine Rechnung eigentlich verfertigt wurde. Keine Arenga klärt den Forscher über die Vorgeschichte und den Zusammenhang der Niederschrift auf. Erklärende Dokumente sind fast nie überliefert. Die Menschen, die Rechnungen erstellten und mit ihnen arbeiteten, lernten das durch und bei ihrer Arbeit, eventuell unter mündlicher Anleitung. ...
Die vorliegende Arbeit verfolgt den Anspruch, die von Paul Natorp (1907) gestellte Frage, was die Gemeinschaft für die Erziehung und umgekehrt die Erziehung für die Gemeinschaft bedeute, empirisch auszuloten. Im Mittelpunkt des Forschungsinteresses steht dabei das Verhältnis von Schule und Gemeinschaft in der ‚postnationalen Konstellation‘ (Habermas 1998), dem sich die Arbeit über die Untersuchung von Unterrichtskommunikation zu den Themen ‚Nationalsozialismus/Holocaust‘ und ‚Multikulturalismus/Rassismus‘ anzunähern versucht.
Zur Vorbereitung der empirischen Studie wird im Rahmen einer Semantikstudie zunächst der pädagogische Diskurs zum Thema Gemeinschaft von den ersten Vorläufern gemeinschaftspä-dagogischen Denkens bis hin zu aktuellen konzeptionellen Entwürfen nachgezeichnet. Funktion und Bedeutung der Gemeinschaftsfigur als Bezugskategorie von Erziehungsreflexion in der Moderne werden herausgearbeitet. Weiterhin werden die rekonstruierten gemeinschaftspädagogischen Konzepte in Hinblick auf ihr Spannungspotential zu Leitprinzipien demokratischer Erziehung beleuchtet.
Mithilfe sequenzanalytischer Interpretationen wird anschließend der Frage nachgegangen, welche Rolle Gemeinschaftsbezügen als Fluchtpunkt pädagogischer Einwirkungsbemühungen im Unterricht zukommt. Gleichzeitig wird gefragt, ob und in welcher Weise Unterricht Gemeinschaft als Ermöglichungsform zur Umsetzung seiner pädagogischen Absichten in Anspruch nimmt. Nicht zuletzt richtet die Analyse das Augenmerk auf den Umgang mit den potentiellen Herausforderungen, die unter Migrationsbedingungen mit dem Rekurrieren auf Gemeinschaft am Lernort (Geschichts-)Unterricht verbunden sind.
Die Interpretationen zeigen, wie Unterricht Gemeinschaft in Anspruch nimmt, um die Bedingungen seines Prozessierens zu sichern. Weiterhin decken sie zwei kontrastierende Typen des Rekurrierens auf Gemeinschaft als Fluchtpunkt pädagogischer Kommunikation zum Thema NS auf. Als Lösungsoption im Umgang mit den migrationsbedingten Herausforderungen von Geschichtsunterricht zum Thema NS deutet sich indes die Tendenz an, verstärkt auf eine universalistische Erinnerungs- und Verantwortungskultur Bezug zu nehmen.
Das Gefahrenpotential, das dem Gemeinschaftsgedanken in der aktuellen erziehungswissenschaftlichen Diskussion zugeschrieben wird, erweist sich in den betrachteten Unterrichtsse-quenzen als beschränkt. Die Beobachtungen legen vielmehr die These einer eingehegten Form von Gemeinschaftserziehung in der gegenwärtigen Unterrichtspraxis nahe. Darin erfährt das Risiko, das gemeinschaftspädagogischen Ansätzen ihrer Kritik nach eingeschrieben ist, über normative Selbstverpflichtungen der pädagogischen Praxis eine Eindämmung.
Salafismus ist eine totalitäre Variante des Islam, die im Gegensatz zu Demokratie, den Menschenrechten und der Idee der Geschlechtergerechtigkeit steht. Er verbindet eine in die Vergangenheit projizierte Utopie mit modernen Elementen der Pop-Kultur und ist in vielen Ländern – u.a. in Deutschland - die am schnellsten wachsende Jugendbewegung.
Jihadismus ist die gewalttätige Spielart des Salafismus. Vereinfacht lässt sich sagen, dass alle Jihadisten Salafisten sind, aber nur wenige Salafisten jemals Jihadisten werden.
Das Königreich Marokko ist eine konstitutionelle Monarchie mit absolutistischen Zügen, in der der König Mohammed VI. weitreichende Machtbefugnisse hat und auf verschiedenen Ebenen die wichtigste Entscheidungsinstanz darstellt. Er ist nicht nur politisches Oberhaupt und Oberbefehlshaber der Streitkräfte, sondern als „Befehlshaber der Gläubigen“ (ʿamir al-mouminine) auch die höchste religiöse Autorität des Landes. Das Königshaus erfährt einen großen Zuspruch von Seiten der Bevölkerung und legitimiert seine nunmehr seit dem 18. Jahrhundert währende Regentschaft durch seine scherifische Abstammung und den identitätsstiftenden Charakter Sultans Mohammed V. im Unabhängigkeitskampf. Während Hassan II., der Vorgänger des jetzigen Königs, für seine Divide-etimpera- Politik und zahlreiche Menschenrechtsverletzungen bekannt war, wird sein Nachfolger Mohammed VI. für seine Reformpolitik und Modernisierungsbestrebungen international geachtet. Der Monarch reagierte auf die Protestbewegung des „Arabischen Frühlings“, Mouvement du 20. Février umsichtig mit Neuwahlen und einer umfassenden Verfassungsreform im Jahre 2011.
Über Jahrzehnte hinweg nahm man für Marokko an, dass Bewegungen des politischen Islam hier keine Zukunft hätten. In der Tat existieren in Marokko einige Besonderheiten, die der Entwicklung eines extremen Islamismus entgegenwirken könnten. Zum einen wegen der religiösen Legitimation des Königs, was häufig als „marokkanischer Exzeptionalismus“1 bezeichnet wird, zum anderen weil die Zivilgesellschaft, namentlich die säkularen Frauenrechtsorganisationen, einen starken Gegenpol bildet und letztlich, weil der immer noch stark verbreitete Volksislam (Marabutismus) mit seiner Heiligenverehrung und anderen traditionellen Besonderheiten, konträr zur islamistischen
Doktrin steht.
Dies ist der zehnte Artikel unseres Blogfokus „Salafismus in Deutschland“.
Was macht salafistisches Denken in religiöser Hinsicht aus? Was hat Salafismus mit Wahhabismus zu tun? Was hat Dschihadismus mit Salafismus zu tun? Alles Fragen, auf die es keine einfachen Antworten gibt. Trotzdem lohnt der Versuch, eine Antwort zu geben, da die religiösen Vorstellungen zentral für die Identität des Salafismus sind. Es geht hier „nur“ um die religiösen Ideen, die immer wieder in salafistischen Diskussionen auftreten. Freilich ist die innersalafistische Debatte vielgestaltig, so dass sich kein „Katechismus“ aufstellen lässt, der ausweist, woran ein/e SalafistIn glaubt. Deshalb werden im Folgenden entlang einzelner Stränge des salafistischen Diskurses ausgewählte religiöse Ideen beleuchtet....
Dies ist der erste Artikel unseres Blogfokus „Salafismus in Deutschland“.
„Der Salafismus“ oder „die Salafisten“ sind seit wenigen Jahren in aller Munde. Obgleich oftmals nicht klar ist, was oder wer auf diese Weise bezeichnet wird, dient das Label zunehmend als Projektionsfläche für sicherheits- und gesellschaftspolitische Ängste vor „islamistischem Terrorismus“ und der Verbreitung von anti-demokratischem und anti-emanzipatorischen Gedankengut. Begrifflich löst „Salafismus“ im öffentlichen Diskurs den zuvor gebräuchlicheren (aber etwas anders gelagerten) Terminus des „Islamismus“ ab und rückt in die Nähe von Extremismus, Gewalt und Terrorismus. Obgleich die salafistische Ideologie und Bewegung in den genannten Hinsichten als problematisch angesehen werden können, ist diese Begriffsverwendung für die Analyse und den Umgang mit dem Phänomen umstritten: Sie kann sowohl das Verständnis des Phänomens als auch die Handlungsoptionen staatlicher und zivilgesellschaftlicher Akteure verengen....
Bei der hier anzuzeigenden Monographie handelt es sich um die Habilitationsschrift von St. F. P(fahl), mit der er 2011 im Fach Alte Geschichte unter besonderer Berücksichtigung der historischen Hilfswissenschaften an der Heinrich-Heine Universität Düsseldorf habilitiert wurde. Die Dissertation und die weiteren Veröffentlichungen weisen den Autor als provinzialrömischen Archäologen aus...
Die gediegene Qualität von Matthias Gelzers (* 1886, † 1974, Inhaber des Frankfurter Lehrstuhles für Alte Geschichte von 1919 bis 1955) Cicero-Biographie lässt sich bereits daraus ersehen, dass schon ihr Vorläufer, Gelzers RE-Artikel über Cicero aus dem Jahre 1939, ab den 1950er Jahren mehrfach, besonders für Studenten, nachgedruckt worden war. Dieser Artikel bildete dann den Grundstock für die 1969 veröffentlichte Biographie Ciceros, die Gelzer – erweitert vor allem um die philosophischenAspekte aus Ciceros Leben und Schaffen – seinen Biographien über Caesar (letzte Fassung 1960, erstmals 1921) und Pompeius (letzte Fassung 1959, erstmals 1944 bzw. 1949) an die Seite stellte...
Eine Monographie zur Geschichte der römischen Provinz Germania Superior existiert bislang nicht, wenngleich zahlreiche Artikel, Einzelstudien und auch Bücher sich mit einzelnen Aspekten oder der Provinz insgesamt beschäftigen. Insofern kann man dem Klappentext des hier besprochenen Buches von M. K(lee) durchaus zustimmen, dass es sich um eine „längst überfällige“ Studie handelt, wobei zugleich ein „neuer Blick“ auf die „Gründung und Entwicklung“ der Provinz versprochen wird...
Die von J. Wiesehöfer herausgegebene Reihe Oriens et Occidens ist um einen neuen, wissenschaftsgeschichtlich wie kulturhistorisch wertvollen Band bereichert worden, den inzwischen 22. der 2001 begonnenen Reihe. Verfasst hat ihn der emeritierte amerikanische Gelehrte Lawrence J. Baack (* 1943), der sich u.a. durch seine Forschungen zur deutschen Geschichte des frühen 19. Jhs. einen Namen gemacht hat und auch über dänische und schwedische Sprachkenntnisse verfügt. Schon der fünfte Band der Reihe war derselben Thematik gewidmet. Er ist als Begleitband höchst wertvoll mit seinen zahlreichen Spezialbeiträgen, die in dieser Ausführlichkeit vom Vf. nicht behandelt werden konnten. Der Titel darf – auch wenn in der Forschung oft von der „Arabischen Reise“ gesprochen wird – nicht darüber hinwegtäuschen, dass zwar das Hauptziel der von J. D. Michaelis, einem Professor für Philosophie an der damals neu gegründeten Universität Göttingen, angeregten, vom dänischen König Friedrich V. († 1766) finanzierten Expedition von sechs Personen der Jemen war, der am 27.12.1762 mit der Ankunft in al-Luḥayya erreicht wurde. Doch durch den Tod des Philologen und des Botanikers am 25.5. bzw. am 11.7.1763 entschloss man sich bereits am 24.8.1763, nach Indien abzusegeln, aber durch den Tod des Zeichners und des Assistenten nur wenige Tage später kamen nur noch Niebuhr und der Arzt am 11.9.1763 in Bombay in Indien an, und nachdem auch dieser im Februar 1764 verstarb, setzte Niebuhr als Einzelforscher die Reise durch den Vorderen Orient bis zu seiner Rückkehr im Herbst 1767 fort...
Dank einer entsprechenden Kurzbiographie des Sophisten Philostratos (soph. 2,7) steht der Name Hermogenes von Tarsos in der Forschung zur griechischen Kulturgeschichte der Kaiserzeit zumeist als Musterbeispiel für das schlussendliche Scheitern und damit einhergehende Absinken in die Unbedeutsamkeit eines vielversprechenden Sophisten nach einer kometenhaften Karriere. Trotz dieser wechselvollen Karriere des Redekünstlers haben, wenn auch nicht seine Reden, so doch zumindest einige seiner redetheoretischen Schriften nach einer erneuten Blüte ab der byzantinischen Epoche bis einschließlich ins 16.Jh. die Zeiten überdauert. Sie bereichern somit das heutige Bild der Kultur der Zweiten Sophistik...
Wie kaum ein Medium war (und ist) die Oper geeignet, Rezeptions- und Transformationsprozesse antiker Stoffe zu untersuchen. Jan Assmann gebührt das Verdienst, mit seiner Analyse von Mozarts Zauberflöte als einer der Vorreiter auf diesem Gebiet gelten zu dürfen. Mit ihrer Monographie „Nero in opera. Librettos as Transformations of Ancient Sources“ hat Gesine Manuwald einen weiteren Grundstein für eine Beschäftigung der Oper als Rezeptionsmedium historischer Persönlichkeiten der Vormoderne gelegt. Sie bietet eine Analyse des Nero-Stoffes primär aus philologischer Perspektive und versammelt in chronologischer Reihung alle Libretti, die sich vom 17. bis zum 20 Jh. mit diesem römischen Imperator auseinandersetzten, wobei das Pseudo-Seneca Drama „Octavia“ den Ausgangpunkt bildet...
Man wird das Gefühl nicht los, dieses Buch wisse selbst nicht so genau, was es eigentlich will. Folgt man seinem Titel, wäre eine Studie zur Darstellung des Kaisers Marcus Aurelius in der Historia Augusta und insbesondere den danach verfassten Werken zu erwarten. Tatsächlich aber handelt es sich hauptsächlich um einen Kommentar zur Vita Marci, angereichert um Kapitel zur Darstellung des Marcus Aurelius in der Historia Augusta und – angesichts dessen, dass Adams der Datierung derselben in das späte vierte Jahrhundert folgt – bei (fast ausnahmslos) früheren Autoren...
Bei den Baustrukturen der Pyramiden des Alten Reiches sind sehr große Unterschiede erkennbar, weist doch jede ein individuelles Inneres auf. Während die Cheops- Pyramide über ein sehr komplexes Kammersystem verfügt, das während des Baus sicherlich größere Komplikationen und damit auch einen höheren Zeitaufwand verursachte, ist bereits unter Chefren eine weitaus weniger komplexe Innenstruktur gewählt worden. In dessen Pyramide befindet sich die Sargkammer in Bodenhöhe, bei Mykerinos sind alle Kammern gänzlich unterhalb des Bodenniveaus. Diese Änderung der Bauweise resultierte sicher aus den Erfahrungen und Problemen beim Bau der Cheopspyramide. Diese ist über einem natürlichen Steinkern unbekannter Größe errichtet, wodurch sehr viel Baumaterial gespart werden konnte. Die Pyramiden der 5. und 6. Dynastie zeichnen sich wiederum durch eine gänzlich andere Bauweise als die der 4. Dynastie aus und sind weitaus kleiner konzipiert. Sehr selten sind Hinweise auf die zeitlichen Abläufe eines Pyramidenbaues zu finden, wie sie z.B. im Verlauf der Grabungen des Deutschen Archäologischen Institutes unter R. Stadelmann an der Roten Pyramide zutage kamen...
Das anzuzeigende Buch ist eine Aufsatzsammlung basierend auf einer internationalen Konferenz, die 2011 an der Keio Universität Tokio stattgefunden hat. Von den insgesamt elf Konferenzbeiträgen sind neun in dieser Sammlung vorgelegt. In seiner Einleitung gibt David Sugimoto die Beweggründe für die Wahl des Themas an und erklärt, weshalb die drei Göttinnen im Buchtitel als eine Göttin dargestellt werden, auch wenn er sogleich einräumt, dass noch weitere Göttinnen – Inanna, Isis, Hathor, Tanit und Venus sowie eine nicht näher bestimmte Himmelsgöttin – hätten mit aufgenommen werden können, da auch sie, ebenso wie zahllose lokale Göttinnen der antiken Welt, Aspekte der Ištar, Astarte und Aphrodite besäßen...
Das vorliegende Buch behandelt den Kleinhandel in der Stadt Rom und schließt damit eine Lücke in der Erforschung der antiken Wirtschaft. Wie Holleran in ihrer Einleitung mit Recht schreibt, hat die Forschung bisher den überregionalen Handel deutlich umfänglicher in den Blick genommen, während der „retail trade“, auch aufgrund der schwierigen Quellenlage, nur wenig bearbeitet worden ist (4f.)...
Wenn eine Neuerscheinung von zwei renommierten Verlagen gleich beim Erscheinen angekündigt wird mit dem spektakulären ‚Aufmacher‘ „Das konkurrenzlose Handbuch zu den großen Mythen der Welt“ und mit den plakativen Tops: „Konkurrenzlos umfassend: berücksichtigt alle wichtigen Kulturkreise – Kompakte Einträge zu einzelnen Mythen und ihrer Wirkung – Erklärung von Begriff, Funktion und Deutung von Mythen – Informationen zum Mythos in Wissenschaft und Künsten“, so werden damit beim breiteren Publikum und auch in Fachkreisen einige Erwartungen geweckt. Daher sieht der Rezensent, nach langer ‚Arbeit am Mythos‘ unlängst Verfasser des ersten systematischen Handbuchs zum antiken Mythos (2011) und eines weiteren handbuchartigen Überblickswerks zu Mythen, Sagen und Märchen (2012), seine Aufgabe vor allem in der Beantwortung der Frage, inwieweit die Neuerscheinung diesen Erwartungen gerecht wird...
Bei dem vorliegenden Werk handelt es sich um die erste längere Monographie zu der Königin Teje überhaupt, wenn auch z.B. ihr Portraitkopf in Berlin des Öfteren in kürzerer Form Beachtung fand. Teje war die Große königliche Gemahlin von Amenophis III., Pharao der 18. Dynastie des Neuen Reiches, sowie die Mutter des Königs Echnaton und Schwiegermutter Nofretetes. Bei ihren Eltern handelt es sich um Juja und Tuja, deren Grab in Theben (KV46) bei der Auffindung 1905 noch mit zahlreichen Objekten versehen war, die heute im Ägyptischen Museum Kairo ausgestellt sind. So wurde z.B. neben den äußeren, mit Schlittenkufen versehenen Sarkophagen, Särgen, Kanopenkästen und vergoldeten Totenmasken einer der überaus wenigen heute vollständig erhaltenen Streitwagen aus pharaonischer Zeit in ihrem Grab gefunden...
Mit Christa Steinby beschäftigt sich in der vorliegenden Arbeit eine Kennerin der Materie mit der Geschichte der römisch republikanischen Flotte und Seekriegsführung in der Zeit der Punischen Kriege. Steinby ist bereits 2007 als Autorin der nach den ausführlichen Studien von Thiel einzigen jüngeren monographischen Betrachtung der republikanischen Flotte in Erscheinung getreten, und in vielerlei Hinsicht schließt auch das hier anzuzeigende Werk an diesen Vorgänger an...
Der im Folgenden anzuzeigende Band ist aus der Tagung „Oratory and Politics in the Roman Republic“ hervorgegangen, die im September 2010 in Oxford veranstaltet wurde. Die Herausgeberinnen stellen in der „Introduction“ (1-7) heraus, dass man politische Reden zwar bislang durchaus untersucht, die Wirkung derselben aber eher vernachlässigt habe. Diesem Aspekt ist der Band gewidmet (2). Ferner stünden diesmal nicht Ciceros Reden im Zentrum der folgenden Artikel. Statt dessen habe man sich bewusst auf die weniger gut belegten orationes anderer Politiker konzentriert. Ein wichtiges, aber kaum überraschendes Ergebnis wird bereits hier verkündet: Zwar habe der römische Redner mit seinem Vortrag politischen Einfluss ausüben wollen, doch sei der Effekt einer Rede nicht immer vorhersehbar gewesen (2). Ein weiteres Resultat erstaunt ebenso wenig: Die Rhetorik habe in der politischen Karriere der römischen Politiker zum Teil ganz unterschiedlichen Zielen gedient. Cicero erscheine dabei in mehrfacher Hinsicht als Ausnahme, „both in his near-exclusive dependence on oratory to fuel his public career, and in the choices he makes about how to use oratory. […] and he exploited to an exceptionally high degree the possibility of preserving his oratory in textual form“ (3). Mit anderen Worten, die Sonderstellung Ciceros als erfolgreicher Redner wird erneut betont. Kurze Zusammenfassungen der insgesamt 19 Beiträge schließen die Einführung ab (4-6). Letzteres macht eine kurze Besprechung sämtlicher Artikel obsolet. Statt dessen sollen im Folgenden einzelne Studien detaillierter besprochen werden...
Rezension zu: Alison E. Cooley, The Cambridge Manual of Latin Epigraphy (Cambridge u.a. 2012)
(2015)
Zur Untersuchung der Eigenschaften organischer Halbleiter sollte die Ultrareinigung organischer Materialien durch Zonenschmelzen ermöglicht werden und anschließend dieses Verfahren auf einen neuen molekularen n-Halbleiter, Perfluoranthracen, angewendet werden. Ein Großteil der vorliegenden Arbeit beschäftigte sich daher mit der Konstruktion einer Zonenschmelze. Diese sollte in der Lage sein, laborübliche Mengen organischer Materialien zu reinigen (ca. 0,5-5 g). Ein Eigenbau wurde in Angriff genommen, um eine optimale Anpassung an die zu erwartenden Aufgabenstellungen zu erreichen. Daher wurde das System in einer modularen Bauweise konzipiert, sodass einzelne oder mehrere Heizzonen verwendet werden können und die Apparatur auch später beliebig erweitert werden kann. Zunächst mussten Erfahrungen mit der Wärmezufuhr und Kühlung gesammelt werden und ein verlässlicher Zugmechanismus entwickelt werden, der die Probe in kontrollierter, langsamer Weise durch die Apparatur bewegt. Ein grosses Problem stellte das Bersten der gläsernen Probenbehältnisse beim Zonenschmelzen einiger Substanzen dar. Nach dem erfolgreichen Einsatz verschiedener Puffermaterialien wurde schliesslich ein apparativer Aufbau entwickelt, der auf eine aktive Kühlung verzichtete. Hierdurch konnte die unkontrollierte Sublimation unterbunden werden und das Bersten der Probenbehältnisse wurde unterdrückt. Gleichzeitig musste jedoch sichergestellt werden, dass die Effektivität des Zonenschmelzen auch ohne den Einsatz grosser Temperaturgradienten gegeben war. Die Reinigung verschiedener kommerziell verfügbarer Substanzen wurde getestet und gleichzeitig die Analytik der organischen Verunreinigungen mittels Gaschromatographie im Arbeitskreis etabliert. Das Zonenschmelzen ermöglichte schließlich die Reinigung von Anthracen bis auf 99,97%. In Dibenzothiophen konnten der Anteil der Nebenkomponenten unter die Nachweisgrenze verringert werden. Nach der Herstellung von Perfluoranthracen wurden unterschiedliche Methoden zur Reinigung getestet und schließlich das Zonenschmelzen angewendet. Es war möglich, kleinere Mengen an Perfluoranthracen in einer Reinheit von bis zu 99,11% zu isolieren, was durch reguläre Reinigungsverfahren wie Umkristallisation oder Sublimation nicht erreicht werden konnte. Dennoch limitierte die thermische Instabilität des Materials die Effektivität des Zonenschmelzens.
Weiterhin wurden die optische und elektrochemische Bandlücke von Perfluoranthracen untersucht, um Aussagen über die mögliche Anwendung als n-Halbleiter treffen zu können. Es wurde eine optische Bandlücke von 3,08 eV und eine elektrochemische Bandlücke von 2,82 eV ermittelt. Im Vergleich zu Anthracen wurden niedriger liegende Grenzorbitale bestimmt, was ein Einbringen von Elektronen in das energetisch niedrigste unbesetzte Molekülorbital (LUMO) und somit n-Halbleitung vereinfachen könnte. Schließlich wurde untersucht, ob sich durch die äquimolare Mischung von Anthracen und Perfluoranthracen Mischkristalle herstellen lassen, die Charge-Transfer-Eigenschaften (CT) und eine hohe elektrische Leitfähigkeit aufweisen würden. Hierzu mussten zunächst ausreichend grosse Einkristalle gezüchtet werden, von denen anschliessend die Röntgenkristallstruktur bestimmt wurde. Das einkristalline Material zeigte eine gemischt gestapelte Anordnung (siehe Abbildung 0.2), wie sie für andere Systeme, beispielsweise Benzol/Hexafluorbenzol, bekannt ist. In feldstärkenabhängigen und temperaturabhängigen Messungen wurden danach die elektrischen Eigenschaften des Materials charakterisiert. Es konnten keine Hinweise für CT-Eigenschaften gefunden werden. Dennoch besitzt der Mischkristall im Vergleich zu Anthracen eine etwa 10 12 -fach höhere Leitfähigkeit und erreicht Werte guter anorganischer Halbleiter. Das temperaturabhängige Verhalten selbst zeigt aber keine typisch halbleitenden Charakteristiken, da für die thermisch angeregte Zunahme der Ladungsträgerkonzentration im untersuchten Mischkristall kein lineares Verhalten im Arrhenius-Plot gefunden wurde. Die genauen Leitungsmechanismen bedürfen weiterer Untersuchungen. In nachfolgenden Experimenten könnte die mögliche Anwendbarkeit in elektronischen Anwendungen geklärt werden.
Regionale Kooperation und Integration im Sub-Sahara Afrika – Eine dritte Welle der Regionalisierung?
(2015)
Vor allem seit Mitte der 1990er Jahre ist regionale Kooperation und Integration im sub-saharischen Afrika zu einem Trendphänomen geworden, das immer mehr Politikfelder berührt. Mit der so genannten 2. Welle der Regionalisierung erhofften sich viele afrikanische Staaten nicht nur neue Lösungen für ihre zahlreichen (sicherheits-)politischen, ökonomischen und sozialen Probleme. Vielmehr können die Versuche zur vertieften dauerhaften Kooperation und Integration auf dem Kontinent auch als Antwort auf globale Entwicklungen, Interdependenzen und integrative Erfolgsgeschichten (z.B. EU, ASEAN) betrachtet werden. In die derzeit existierenden 19 Regionalorganisationen in Afrika (davon 14 größere und fünf kleinere), werden demnach sehr viele Hoffnungen und Erwartungen, nicht nur von Seiten der Regierungen, sondern neuerdings auch von Seiten externer und zivilgesellschaftlicher Kräfte gesteckt. Zunehmend sind in verschiedenen Organisationen wie der East African Community (EAC), der Economic Community of West African States (ECOWAS) oder der Southern African Development Community nicht mehr nur kooperative, sondern dezidiert integrative Formen der Zusammenarbeit feststellbar. Befindet sich das sub-saharische Afrika daher auf dem Weg zu einer neuen, einer dritten Welle der Regionalisierung?
Um nachvollziehen zu können, in welchem forschungspraktischen Kontext diese Studie steht, ist Folgendes zu erläutern: Nachdem Anfang der 2000er Jahre die ersten Schulen ihre Schulprogramme vorgelegt hatten, führte eine Forschungsgruppe unter der Leitung von Prof. Dr. Gruschka ein DFG-Projekt durch, dessen erste Ergebnisse im Jahr 2003 in den „Frankfurter Beiträgen zur Erziehungswissenschaft“ veröffentlicht wurden. Das von wissenschaftlicher Seite unbestätigte Postulat, Reformen könnten durch Schulprogrammarbeit initiiert werden, wurde in dieser Studie einer sachhaltigen Überprüfung unterzogen. Die Ausgangsfrage lautete: In welcher Weise bewirkt eine Kriseninduktion in Form administeriell verordneter Schulprogrammarbeit einen Prozess der inneren Schulreform? Um auf diese Frage eine wissenschaftlich begründete Antwort zu erhalten, wurden nicht nur Schulprogramme einzelner Schulen untersucht, sondern ebenso die von administerieller Seite angewandten Mittel, mit denen man die Krise zu induzieren gedachte. Zu zeigen war, in welcher in-haltlichen und formalen Weise sowohl die Kultusbürokratie wie auch die einzelnen Schulaufsichtsbehörden das Vorhaben begriffen und den Schulen vermittelten. Es ging in dieser Studie demnach nicht nur um das Schulprogramm selbst, sondern auch um den Induktionsprozess bzw. die einzelnen Vermittlungsinstanzen der Krisenin-duktion. Die letzte Instanz dieser Kette (bestehend aus Kultusbürokratie, Schulaufsichtsbehörde und Schulleiter) waren die Lehrer, die ja im Hinblick auf die Anfertigung des Schulprogramms die zentralen Akteure waren (bzw. zu sein hatten). Der zentrale Gegenstand dieser Studie – die Interviews mit den an der Schulprogrammarbeit beteiligten Lehrern – wurde im Rahmen dieses Forschungsprojekts erhoben. Die wissenschaftliche Rekonstruktion der Interviews ist also als eine Teilstudie des um-fassenderen DFG-Forschungsprojekts einzuordnen. Sie baut stellenweise inhaltlich auf ihr auf und wird sich final – im Interesse weiterführender Erkenntnisse – wieder auf sie rückbeziehen. Dieser enge inhaltliche und konzeptionelle Zusammenhang zwischen beiden Studien kommt auch darin zum Ausdruck, dass der 2003 vorgelegte Zwischenbericht von Gruschka et al. hier schlicht als „Schulprogrammstudie“ bezeichnet wird.
Ziel dieser Arbeit, die im Rahmen der Ice Nuclei Research Unit (INUIT) Forschergruppe erstellt wurde, war ursprünglich die saisonale und geographische Variabilität von bodennahen Eiskeimen zu untersuchen. Die Konzentrationen, Quellen und Zusammensetzung der Eisnuklei (ice nuclei, IN) sollte als Basis für Parametrisierungen dienen. Das Verständnis von Eiskeimen und deren Einfluss auf Wetter und Klima sind nur zum Teil bekannt und bedürfen daher noch weitgehender Forschung. Auch die Änderung der Eiskeimkonzentration mit der Zeit kann von Bedeutung sein, diese sollte durch die Fortführung einer Langzeitmessreihe untersucht werden. Durch Hinzuziehen von lokalen Parametern und Trajektorien sollten Proxies für die IN Konzentration ermittelt werden.
Im Rahmen dieser Arbeit taten sich jedoch Probleme am Messverfahren auf, weshalb die ursprünglichen Ziele in den Hintergrund gerieten und die Verbesserung und Neuaufnahme des Messverfahrens in den Vordergrund trat. Anhand von zielgerichteten Experimenten wurde ein Messfehler ermittelt, der durch die vorherige Fehlinterpretation von deliqueszierenden Partikeln und von Tröpfchen als vermeintliche Eiskristalle entstand. Dieser Fehler wurde charakterisiert und durch optische Analysen dessen Ursprung ermittelt. Datensätze, die durch diese hygroskopischen Partikel fehlerbehaftet waren, wurden korrigiert und reanalysiert. Ein in früheren Arbeiten am Taunus Observatorium/Kleiner Feldberg ermittelter Jahresgang in der Eiskeimkonzentration mit einem Maximum im Sommer und einem Minimum im Winter konnte bestätigt werden, die Absolutzahlen sind jedoch deutlich geringer als bisher angenommen. Lokale Parameter sowie Trajektorien wurden zur weiteren Analyse hinzugezogen.
Die Reevaluierung der Datensätze vom Taunus Observatorium führte zu keinem abschließenden Ergebnis. Ein allgemein gültiger Zusammenhang zwischen Eiskeimkonzentration und Parametern, welche das Staubvorkommen in der Atmosphäre quantifizieren (PM10 und Aerosol Optische Dicke), konnte nicht festgestellt werden. Da die Messungen bei relativ warmen Bedingungen (≥-18°C) durchgeführt wurden, Staub aber erst bei kälteren Temperaturen als effektiver Eiskeim gilt, ist dieses Ergebnis jedoch zu erwarten gewesen.
Auch die Luftmassenherkunft scheint keinen eindeutigen Einfluss zu haben. Betrachtungen der Bodenfeuchte lieferten signifikante Korrelationen, welche jedoch monatsabhängig positiv oder negativ ausfallen können. Im Frühling ist eine hohe Bodenfeuchte mit einer erhöhten Konzentration von IN in Verbindung zu bringen, im Sommer liegt bei niedriger Bodenfeuchte eine tendenziell höhere Eiskeimkonzentration vor. Die Windrichtung hat für die Eiskeimkonzentration einen Einfluss, wenn der Wind aus Südost zum Taunus Observatorium strömt. Anthropogenes Aerosol aus Frankfurt am Main hemmt hier vermutlich die Eisbildung, was zu einer signifikant niedrigeren mittleren Konzentration aus dieser Richtung führt.
Da das Messverfahren noch nicht in seinem vollen Potential genutzt wurde, wurde es um eine Analysemethode erweitert. Mittels Tröpfchengefrierexperimenten konnte ein weiterer Gefriermodus betrachtet werden. Nun deckt das hier genutzte Messverfahren drei der vier bekannten Gefriermoden ab. Anhand von Testsubstanzen wurde die Zuverlässigkeit der neu eingeführten Methode überprüft und nachgewiesen.
Erste Parallelproben der korrigierten Depositions- und Kondensationsgefriermessmethode und der neu eingeführten Immersionsgefriermessung wurden am Taunus Observatorium/Kleiner Feldberg genommen. Dabei wurde auch ein Staubereignis beprobt und detailliert ausgewertet. Zwischen lokalen Parametern und Eiskeimkonzentration fanden sich Zusammenhänge. Bei Messbedingungen <-20°C konnte ein signifikanter Zusammenhang zwischen PM10 und Eiskeimkonzentration im Immersions- und Kondensationsmodus gefunden werden. Der Depositionsgefriermodus blieb unauffällig. Zwischen Bodenfeuchte und IN-Konzentration konnten ebenfalls wie bei der Reevaluierung der alten Messdaten Signifikanzen festgestellt werden.
Die neu eingeführte Immersionsmessmethode und die korrigierte Methode zur Bestimmung von Depositions- und Kondensationsgefrierkernen liefern Messdaten, welche im Bereich anderer Eiskeimzähler liegen. Vergleiche mit Parametrisierungen zeigen, dass die Messwerte dem aktuellen Stand der Forschung entsprechen und davon ausgegangen werden kann, dass sie vertrauenswürdig und belastbar sind.
Mehr als 18 Milliarden Euro hat die Commerzbank im Zuge der Finanzkrise in Form von staatlichen Garantien, Kapitalspritzen oder Einlagen erhalten. Auch die Hypo Real Estate, die WestLB, die SachsenLB und die IKB profitierten von Stützungsmaßnahmen. Die EU genehmigte diese und andere staatlichen Hilfsmaßnahmen. Grundsätzlich sind staatliche Stützungsmaßnahmen jedoch als wirtschaftlicher Vorteil zu werten und damit zunächst eine verbotene Beihilfe. In seinem Working Paper betrachtet Tuschl die rechtlichen Grundlagen des EU-Beihilferechts und zeigt die teilweise differierende Praxis der EU-Kommission auf.
Einleitung: Der Wissenschaftsrat empfahl 2008 den Universitäten innerhalb der nächsten 5 Jahre, d. h. bis spätestens 2014, ein Qualitätsmanagementsystem (QMS), das internationalen Maßstäben entspricht, zu etablieren. Ziel der vorliegenden Studie war es, zu evaluieren, ob es derzeit ein geeignetes QMS für das elektronische Lernen (eLearning) gibt, das speziell im Fach Humanmedizin deutschlandweit eingesetzt werden kann.
Methoden: Im Rahmen einer Umfrage wurden mittels eines anonymisierten Fragebogens (8 Domänen, 50 Items) alle Universitäten (n=35) des Fachbereichs Medizin in Deutschland evaluiert.
Ergebnisse: Die Ergebnisse (46,3% Rücklaufquote) zeigen einen nur zögerlichen Einsatz von QMS für eLearning und dass vor Ort ein großes Informationsdefizit herrscht.
Schlussfolgerung: Unter Berücksichtigung der Limitationen dieser Studie kann zusammenfassend festgehalten werden, dass erheblicher Bedarf zu bestehen scheint, das existierende Informationsdefizit für QMS eLearning zu mindern, sowie zukünftig genaue Richtlinien und Standards zur Umsetzung zu definieren.
Die Sammlung von Aufsätzen des Frankfurter Lehrers, Erziehungswissenschaftlers und Soziologen besteht aus drei Teilen: In dem ersten Teil wird der Frage nachgegangen, aus welcher Perspektive heraus Unterricht hermeneutisch erschlossen werden und in welche Theorietradition sich eine hermeneutische Unterrichtsforschung stellen kann bzw. sollte. In dem zweiten Teil sind sodann Aufsätze versammelt, in denen grundlegende Fragen des Unterrichts neu aufgegriffen werden: Welche Probleme stellen sich zu Beginn einer jeden Unterrichtsstunde und welche Möglichkeiten gibt es, diese zu lösen? Worauf beruht die Autorität einer Lehrperson und wie wird diese im Unterricht durch die beteiligten Akteure kommunikativ erzeugt oder auch vermindert? Wie sind Unterrichtsstörungen zu deuten und wie ist mit ihnen umzugehen, wenn davon ausgegangen wird, dass diese Momente eines Interaktionsprozesses sind, die jeweils situativ emergieren? Was bedeutet es für Schüler, sich am Unterricht zu beteiligen? Und welche Situationen können sich ergeben, wenn die Schülerschaft einer Klasse in kultureller Hinsicht äußerst heterogen ist? Die Art und Weise, wie diese Fragen behandelt werden, ist nicht nur durch das besondere methodische Vergehen gekennzeichnet, sondern auch durch einen kasuistischen Zugang: Auf der Basis theoretischer Vorüberlegungen wird stets ein empirisches Beispiel herangezogen, um an diesem diese theoretischen Überlegungen nicht nur zu überprüfen, sondern schließlich auch weiterzuentwickeln. Dabei ist die Stoßrichtung stets dieselbe: Die Vielzahl möglicher Deutungen von Unterricht wird nicht bestritten, doch die Fruchtbarkeit einer dezidiert pädagogischen Deutung dieses Geschehens wird immer wieder hervorgehoben. Abgeschlossen wird der Band mit Aufsätzen zu Fragen der Professionalisierung von Lehrerinnen und Lehrern. So wird das Verhältnis zwischen der Didaktik, vor allem didaktischer Theorien und der Theorie der Professionalisierung ausgelotet. Und es wird der Frage nachgegangen, welche Konsequenzen sich aus der pädagogischen Kasuistik für die Professionalisierung von Lehrpersonen sowie für die Theorie der Professionalisierung ziehen lassen. Auch diese Fragen werden jeweils mit Bezug auf empirische Beispiele erörtert. (DIPF/Verlag)
Am 12. Januar 2015 schwärmten 58 ForscherInnen und Studierende, 31 aus Berlin, 27 aus Chemnitz, auf den Skatepark in der Dresdener Lingnerallee. Ziel der Aktion war es, mehr über die Proteste der "Patriotischen Europäer gegen die Islamisierung des Abendlandes" (Pegida) herauszufinden. Seit Oktober 2014 hatten sich in Dresden immer mehr Menschen unter diesem sperrigen Motto versammelt. Mit den Protesten wuchs auch die Kritik an den völkischen und rassistischen Deutungsmustern, die dort Raum griffen. Wer waren die Demonstrierenden? Was trieb sie auf die Straße? Wie verbreitet waren die Ressentiments, die in Reden, Sprechchören und auf Transparenten hör- und sichtbar waren? ...