Universitätspublikationen
Refine
Year of publication
- 2016 (649) (remove)
Document Type
- Contribution to a Periodical (148)
- Book (108)
- Part of Periodical (92)
- Doctoral Thesis (74)
- Article (60)
- Report (53)
- Review (49)
- Working Paper (46)
- Conference Proceeding (6)
- Bachelor Thesis (4)
Language
- German (649) (remove)
Is part of the Bibliography
- no (649)
Keywords
- Deutschland (12)
- Salafismus (9)
- Terrorismus (7)
- Islamischer Staat (6)
- Frankreich (5)
- Islamismus (5)
- Alte Geschichte (4)
- China (4)
- Dschihadismus (4)
- EU (4)
Institute
- Präsidium (299)
- Gesellschaftswissenschaften (78)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (56)
- Geschichtswissenschaften (47)
- Rechtswissenschaft (44)
- Medizin (42)
- Neuere Philologien (28)
- Wirtschaftswissenschaften (28)
- Biowissenschaften (24)
- Kulturwissenschaften (24)
Die Entwicklung des europäischen und deutschen Markenrechts in den letzten Jahrzehnten lässt sich auf die Kurzformel „vom Warenzeichen zum Markeneigentum“ bringen. An die Stelle einer lauterkeitsrechtlich fundierten Gewährleistung unverfälschten Wettbewerbs ist ein abstrak-tes, fungibles Eigentum an allen potentiell unterscheidungskräftigen Zeichen getreten. Im Beitrag wird dieser Paradigmenwechsel in Anlehnung an Thesen des 1944 erschienenen, wirtschaftssoziologischen Klassikers „The Great Transformation. Politische und ökonomische Ursprünge von Gesellschaften und Wirtschaftssystemen“ von Karl Polanyi gedeutet. In einem ersten Schritt wird erläutert, inwieweit Po-lanyis Ausgangsthese, wonach in einer Marktwirtschaft alle In- und Outputfaktoren kommodifiziert wer-den müssen, auf Marken und andere Kennzeichen übertragbar ist. Sodann wird Polanyis zentrale Er-kenntnis, dass die Kommodifizierung von Arbeit und Boden, aber eben auch von Zeichen als Kommu-nikationselementen kontingent, sogar fiktional und insgesamt alles andere als unproblematisch ist, für eine Kritik des gegenwärtigen Markenrechts fruchtbar gemacht. Und in der Tat ist auch in diesem Be-reich eine Entbettung des Marktes aus der Gesellschaft zu beobachten: Die Markenkommunikation wird gegenüber nicht-marktlicher Kommunikation abgeschirmt, z.B. vor Markenparodien und -kritik. Dies löst nach Polanyi Gegenbewegungen aus, die im Markenrecht bereits so stark geworden sind, dass es nicht einmal mehr ausgeschlossen erscheint, dass sie das Markenrecht auf seinen Ausgangspunkt zurück-werfen: auf das Recht gegen unlauteren Wettbewerb.
Primäre Tumore werden nach ihrem Entstehungsort benannt. Selbst Metastasen zeigen eine gewisse Ähnlichkeit mit ihrem ursprünglichen Gewebe. Somit gehören alle Geschwülste, die ursprünglich der Harnblase entstammen, zu den Harnblasenkarzinomen.
Das Harnblasenkarzinom geht meist (90-95%) von der Schleimhaut der ableitenden Harnwege aus und wird als Urothel bezeichnet. Dementsprechend haben die meisten Patienten mit der Diagnose Blasenkarzinom ein Urothel-Blasenkarzinom. Die restlichen Blasenkarzinome entfallen auf Adenokarzinome, Plattenepithelkarzinome, kleinzellige Karzinome, Sarkome, Paragangliome, Melanome oder Lymphome (Humphrey A. et al. 2016, Moch H. et al 2016).
Die Urothel-Blasenkarzinome können sowohl flach, als auch warzenförmig wachsen. Je nach Diagnostik „oberflächlich“ oder „muskelinvasiv“ lassen sich die Urothel-Blasenkarzinome in zwei Hauptgruppen unterteilen;
Etwa 70% der Erkrankten haben dabei ein oberflächliches Urothel-Blasenkarzinom, das auf die Blasenschleimhaut begrenzt ist und durch eine Basistherapie, sog. Transurethrale Resektion (TUR-B) behandelt wird. Dabei werden die in der Schleimhaut gewachsenen Tumore getrennt reseziert. Therapieergänzend und/oder prophylaktisch wird die Blase danach mit einem Chemotherapeutikum gespült (intravesikale Instillation). Diese Zytostatika-Behandlung soll das Wiederauftreten eines Rezidivs verhindern bzw. eventuell verlangsamen (Iida K. et al. 2016, Celik O. et al. 2016).
Die eukaryotische RNA-Polymerase II (RNAPII) ist der zentrale Faktor für die Umsetzung des genetischen Codes in funktionelle Proteine. Durch die Transkription wird die statische Information der DNA in ein transient nutzbares RNA-Molekül umgewandelt. Bei diesem fundamentalen Prozess der Genexpression wird ein spezifischer DNA-Abschnitt des Genoms abgelesen und in die komplementäre RNA transkribiert, die entweder direkt regulatorische bzw. funktionelle Aufgaben in der Zelle übernimmt oder als Matrize für die Proteinbiosynthese dient. Zur Erhaltung der Funktionalität eines Organismus und zur schnellen und gezielten Reaktion auf exogene Reize ist eine strikte Regulation der Transkription und der zahlreichen beteiligten Faktoren notwendig. Aufgrund der zentralen Rolle in der Genexpression ist diese Regulation äußerst vielschichtig und erfordert eine feinabgestimmte Maschinerie an Enzymen und Transkriptionsfaktoren, deren genaue Wirkungsweise und Abhängigkeit noch nicht vollständig verstanden sind. Fehler in der Transkriptionsregulation werden mit einer Reihe von schwerwiegenden metabolischen Störungen und der möglichen malignen Transformation der betroffenen Zelle in Verbindung gebracht.
Während einige Regulationsmechanismen der RNAPII bereits seit längerer Zeit beschrieben sind, ist eine besondere Form der RNAPII-abhängigen Regulation erst in den letzten Jahren Gegenstand genauerer Untersuchungen geworden. So erfährt die RNAPII bei einer Vielzahl von Genen unmittelbar nach der Transkriptionsinitiation einen Arrest, der das Enzym nicht weiter über die DNA prozessieren lässt und somit die produktive Elongation des Gens blockiert. Die Aufhebung dieses promotornahen Arrests wird durch den positiven Transkriptions-Elongationsfaktor b (P-TEFb) dominiert, der durch distinkte post-translationale Modifikationen der C-terminalen Domäne der RNAPII und assoziierter Faktoren den Übergang in die produktive Transkriptionselongation ermöglicht. P-TEFb selbst unterliegt dabei einer strengen Regulation durch die Inkorporation in inhibierende Speicherkomplexe (7SK snRNPs), bestehend aus der 7SK snRNA und mehrerer assoziierter Proteine. Abseits des 7SK snRNP wurde P-TEFb als Bestandteil großer Multiproteinkomplexe identifiziert, die einen positiven Einfluss auf die Transkriptionselongation besitzen. Die Transition von P-TEFb aus dem 7SK snRNP in diese sogenannten Superelongationskomplexe (SECs) stellt einen der zentralen Regulationsmechanismen der eukaryotischen Transkription dar, ist jedoch noch nicht ausreichend verstanden.
Ein zentrales Element aller SECs bilden die Mitglieder der AF4/FMR2-Proteinfamilie, darunter das AF4 Protein, dem neben der Erhaltung der strukturellen Integrität mittlerweile auch eine Funktion in der Rekrutierung von P-TEFb zugeschrieben wird. Dabei scheint AF4 jedoch auf die Hilfe bislang noch nicht charakterisierter Faktoren angewiesen zu sein. AF4 ist über diese Rolle hinaus als Bestandteil des Fusionsproteins AF4-MLL eng mit der onkogenen Zelltransformation im Falle einer durch die Translokation t(4;11)(q21;q23) bedingten, akuten lymphoblastischen Leukämie assoziiert.
Das zentrale Thema dieser Arbeit stellen Untersuchungen zum Transfer von P-TEFb aus dem 7SK snRNP zum AF4-Protein dar. Dabei konnte zunächst die DEAD-Box RNA-Helikase DDX6 als Integraler Bestandteil der AF4-SECs identifiziert werden, der bereits eine Funktion in der Kontrolle des microRNA- wie auch des mRNA-Metabolismus zugeschrieben werden konnte. Aus diesem Grund wurde von uns eine mögliche Beteiligung von DDX6 an der Rekrutierung von P-TEFb zum AF4-SEC durch Modulationen der 7SK snRNA postuliert. Des Weiteren konnte eine Bindefähigkeit von DDX6 gegenüber der 7SK snRNA sowie eine direkte Korrelation zwischen des zellulären DDX6-Proteinlevel und der Akkumulation von P-TEFb im AF4-SEC nachgewiesen werden. Sowohl die Überexpression von DDX6 als auch die von AF4 resultierten in einer gesteigerten mRNA-Produktion, wobei die Ergebnisse auf einen kooperativen Mechanismus zwischen den beiden Proteinen in der Aktivierung der Transkription hindeuteten. Außerdem konnte die These einer DDX6-vermittelten Aktivierung von P-TEFb anhand von Expressionsanalysen des bekannten P-TEFb Zielgens HEXIM1, dessen Expression im Zusammenhang eines negativen Rückkopplungsmechanismus gesteigert wird, bestätigt werden. Damit konnte der DEAD-Box RNA-Helikase DDX6 in dieser Arbeit das erste Mal eine entscheidende Funktion in der Rekrutierung von P-TEFb aus dem 7SK snRNP in den AF4-SEC, und somit an der Kontrolle der eukaryotischen Transkription, zugeschrieben werden.
Die vorliegende Dissertation untersucht wie Hegel nicht nur den Begriff der Freiheit, aber auch das Subjekt der Freiheit verstanden hat. Sie versucht diese Idee Hegels durch die gegenwärtige Philosophie, insbesondere die analytische Philosophie, und auch die Soziologie, insbesondere die Soziologie von Talcott Parsons, umzudenken.
Im ersten Kapitel wird die Idee der Freiheit als private Sphäre analysiert, die durch eine ganze Gruppe von subjektiven Rechten gesichert oder sogar geschaffen ist, die ohne Hilfe anderer Struktur existierte und von den meisten Naturrechttheoretiker verteidigt wurden, den alten sowie den neuen. Hegel nannte diese Ideen abstraktes Recht. Er wirft diese Vorstellung als noch funktional unvollständig oder metaphysisch inkohärent vor.
Im zweiten Kapitel wird das andere große Modell der Freiheit in der Moderne, nämlich, die Freiheit als Autonomie analysiert. Hegel untersucht diese Idee durch die Konzepte der Verantwortlichkeit und Handelns, die sich in der Praxis des Strafrechts befinden. Nach Hegel ist Verantwortlichkeit das Ergebnis einer gesamten sozialen Beziehung der Anerkennung. Daher ist ein Verbrechen, erstens, die Verletzung einer Norm und diese Normverletzung ist zugleich Anerkennungsverletzung. Zweitens, ein Verbrechen ist die Negation des objektiven Rechts, die dem Akteur zurechnen werden kann, und das ist, warum ein Verbrechen eine Anerkennungsverletzung ist. Ein zentraler Begriff für die Verantwortlichkeit ist der Vorsatz. In dem Konzept von Vorsatz finden wir sowohl die Absicht wie das Wissen, d. i. wenn jemand vorsätzlich handelt, nicht nur wünscht er etwas, sondern er denkt auch, wie er handeln sollte, um zu erreichen, was sie will. Man findet im Vorsatz auch die Idee des Grundes. Dies öffnet wiederum die Idee der moralischen Standards und auch die Möglichkeit eines moralischen Gewissens. Hegel sieht Kant als der größte Befürworter dieser Theorie. Hegel kritisiert Kant, dass er eine Art solipsistischer Methode hat. Die Gewissheit des Guten in die eigene Handlung könnte das Böse verbreiten. Hegel argumentiert, dass ohne eine soziale Basis dafür, die Sittlichkeit, solche moralischen Standards und moralisches Gewissen nicht möglich sind.
Im letzten Kapitel wird analysiert, wie jemand in der hegelschen Lehre frei sein könnte. Nach Hegel gibt es mindestens drei Bedingungen, sodass jemand tatsächlich als frei betrachtet werden könnte: eine metaphysische Bedingung, eine psychologische Bedingung, und eine soziale Bedingung. Diese drei Bedingungen entsprechen den Hauptkritiken gegen die Möglichkeit des freien Willens. Die erste der Kritik besagt, dass es in einer durch mechanische Gesetze geregelten Welt keinen Raum für die Freiheit gibt. Nach Hegel sei die Möglichkeit der teleologischen Erklärung zugleich die Möglichkeit für die Freiheit. In der psychologischen Bedingung argumentiert Hegel, dass das hedonistische oder Wunsch-Überzeugung-Handlung Modell in der Tat fast eine mechanische Erklärung wäre. In einem systemischen Selbstbewusstsein Vorstellung der individuellen Persönlichkeit, in dem alle Teile des Akteurs systemisch artikuliert sind, könnte das Individuum wirklich frei handeln, da das Individuum nicht mehr in seinen Wünschen oder anderen Trieben verschwunden wäre. Am Ende argumentiert noch Hegel, dass die Gary Strawson‘ Kritik an der Idee des freien Willens, dass wir nicht den ersten Umstand unseres Lebens, unsere Sozialisierung und Erziehung ändern könnten, nicht korrekt wäre. Freiheit bedeutet nicht, jeden Aspekt unseres Lebens zu bestimmen, sondern uns selbst und unser Handeln zu bestimmen. Hegel zufolge können wir in der Tat unseren Anfang ändern, indem wir uns selbst neu interpretieren. Diese Art der Selbstbestimmung setzt die Teilnahme an der Gesellschaft voraus. Wenn wir die semantische in unserer Kultur ändern, ändern wir uns selbst und solches aktive Engagement mit unserer Gesellschaft wäre auch eine Bedingung, um ein freies Leben zu führen.
Am 12. Juli wurde vom Internationalen Schiedshof das Urteil im Streit zwischen den Philippinen und der VR China verkündet. Der Schiedshof erklärte, dass große Teile der chinesischen Ansprüche im Südchinesischen Meer null und nichtig sind, da sie einer rechtlichen Grundlage entbehren. Dies betrifft zunächst die auf der sog. nine-dash line basierenden Ansprüche. Dabei handelt es sich um eine aus den 1940er Jahren stammende Karte mit neun unterbrochenen Strichen, mittels derer China seit Jahrzehnten die äußeren Grenzen seiner nicht näher bestimmten historischen Rechte auf große Teile des Südchinesischen Meeres begründet. Gefallen sind auch die Ansprüche auf eine bis zu 200 Seemeilen umfassende ausschließliche Wirtschaftszone (Exclusive Economic Zone; EEZ) in den Spratly-Inseln und rund um Scarborough Shoal im Norden des südchinesischen Meeres, weil diesen vom Gericht der Inselstatus abgesprochen wurde. Der Verlust dieser Rechte wiederum hat zur Folge, dass die chinesische Besetzung mehrerer Riffe und Atolle als illegal eingestuft wird, weil sie innerhalb der ausschließlichen Wirtschaftszone EEZ der Philippinen liegen....
Klimawandel, demographische Veränderungen, steigende Energiepreise, politische Rahmensetzungen und rechtliche Zielvorgaben erfordern eine Neuausrichtung der siedlungswasserwirtschaftlichen Leistungserbringung. Ziel ist, die Siedlungswasserwirtschaft nachhaltig und zukunftsfähig zu gestalten.
Das vorliegende Papier skizziert zum Thema „Instandhaltung der Wasserinfrastruktur:
finanzielle und organisatorische Spielräume“ Maßnahmen, die eine nachhaltige und zukunftsfähige Ausrichtung der siedlungswasserwirtschaftlicher Praxis unterstützen.
Die Maßnahmen wurden im Projekt im Rahmen von zwei szenariobasierten Planspielworkshops entwickelt. Ausgehend von den Diskussionsergebnissen legt das Papier dar, wo Handlungsmöglichkeiten ansetzen können und gibt zugleich Hinweise für die Umsetzung und Bewertung der vorgestellten Maßnahmen. Der Katalog ist dabei als Anstoß für eine stärkere Integration von Nachhaltigkeit in das unternehmerische Handeln zu verstehen.
Wohl kaum ein anders arabisches Land ist so umstritten wie Saudi-Arabien, zumindest wenn es um die Frage von Rüstungsexporten geht. Erst im Juni hat das Verwaltungsgericht Frankfurt in einer von Heckler & Koch eingereichten Klage geurteilt, dass die Bundesregierung sich in der Frage der Genehmigung der Lieferung von Bauteilen für die Lizenzproduktion des G-36 Sturmgewehrs nach Saudi-Arabien entscheiden müsse. Das Wirtschaftsministerium unter der Führung von Sigmar Gabriel (SPD) hatte diese Entscheidung bislang vertagt, auch mit Hinweis auf die gegenwärtige Militärintervention, die das Königreich zusammen mit anderen arabischen Staaten im Jemen führt....
Das Hören hat für den Menschen eine maßgebliche Bedeutung hinsichtlich Kommunikation und Orientierung. Auch wenn sich der Mensch stark auf seinen visuellen Sinn verlässt, wird mit dem Ausfall des Hörvermögens deutlich, wie viele Informationen oft unterbewusst über die Analyse von Schallsignalen gezogen werden. Trotz dieser grundlegenden Relevanz sind bis heute noch nicht alle Komponenten, die dem Hörprozess zugrunde liegen, entschlüsselt.
Um sich diesen offenen Fragestellungen anzunähern, müssen Forscher oft auf Tiermodelle zurückgreifen. Auf Grund ihres exzellenten Gehörs haben sich hier in den letzten Jahrzehnten Fledermäuse als taugliche Versuchstiere qualifiziert. Diese Tiere sind in der Lage sich ohne Verwendung des visuellen Systems in absoluter Dunkelheit zu orientieren, indem sie mit Hilfe der wiederkehrenden Echos ihrer ausgesendeten Ultraschalllaute die Umgebungsstrukturen analysieren. Weiterhin umfasst der zur Kommunikation und Ortung verwendete Frequenzbereich bei Fledermäusen ein Vielfaches von dem des menschlichen, was ebenfalls verschiedene Aspekte der Hörforschung begünstigt. Die in dieser Studie verwendete fruchtfressende Fledermausart Carollia perspicillata eignet sich hervorragend für akustische Untersuchungen, da ihr Innenohr keine speziellen morphologischen Spezialisierungen aufweist.
Anhand der Fledermausart C. perspicillata sollen innerhalb der vorliegenden Studie verschiedene offene Fragestellungen bezüglich der Innenohrmechanik näher beleuchtet werden. Um sich diesen Fragestellungen anzunähern, wurde eine Kombination aus zwei etablierten Methoden verwendet. Zum einen die Messung von Distortions-Produkt otoakustischen Emissionen (DPOAEs), welche auf Grund ihrer Generierung durch aktive Prozesse innerhalb der Kochlea die Möglichkeit bietet, Veränderungen im Innenohr festzustellen und zum anderen kontralaterale akustische Stimulation (KAS), welche eine erprobte Methode zur Aktivierung des efferenten Systems darstellt. Dadurch, dass die äußeren Haarsinneszellen in der Kochlea direkte synaptische Kontakte mit efferenten Fasern der absteigenden Hörbahn eingehen, kann eine Aktivierung des efferenten Systems Modulationen des kochleären Verstärkers bewirken, wodurch sich wiederum die Antworteigenschaften der Kochlea verändern. Mit einer Kombination dieser beiden Methoden lassen sich demnach zum einen höhere Zentren der Hörbahn aktivieren, die über efferente Fasern einen direkten Einfluss auf das Innenohr nehmen, zum anderen die induzierten Modulationen in Form von DPOAEs mit Hilfe eines sensitiven Mikrofons aufnehmen. Die Grundvoraussetzung für die Funktionalität dieser Methodenkombination ist das Vorhandensein von efferenten Fasern innerhalb der Kochlea. Da das efferente System verschiedener Säuger eine große Diversität aufweist, wurden innerhalb dieser Arbeit zusätzlich zu den akustischen Untersuchungen histologische Schnittserien der Kochlea von C. perspicillata angefertigt. Hierbei lag das Hauptaugenmerk auf dem Verlauf der efferenten Fasern innerhalb der Kochlea. Mit Hilfe der Thiocholinmethode wurde der Ort der Umsetzung des Achetylcholinabbauenden Enzyms Achetylcholin-esterase angefärbt. Achetylcholin ist der vorranig vorkommende Transmitter an den efferenten Synapsen.
Diese Studie untersucht weiter den Einfluss der Narkose auf das Innenohr. In zahlreichen Studien, die Innenohrmechanik betreffend, wurden die Untersuchungen an narkotisierten Tieren durchgeführt. Oftmals wird zwar die Problematik der möglichen Beeinflussung des Innenohres durch das verwendete Narkosemittel diskutiert, aber meisthin als unumgänglich eingestuft. Innerhalb der vorliegenden Studie wurde ein Großteil der Experimente an narkotisierten und auch wachen Tieren durchgeführt, um die Auswirkungen der häufig verwendeten Ketamin-Xylazin-Narkose auf die Innenohr-aktivität zu verdeutlichen.
In der Literatur lässt sich eine Vielzahl von akustischen Untersuchungen finden, in denen artifizielle Stimuli wie Reintöne oder Rauschen verwendet werden. Die Problematik dahinter ergibt sich daraus, dass diese Art der Töne in der Natur selten zu finden sind. Derartige Studien werfen daher die Frage auf, ob das Innenohr beispielsweise Rauschstimuli auf die gleiche Weise verarbeitet wie natürliche, komplexere Stimuli. Innerhalb der vorliegenden Studie wurden demzufolge im Vergleich zu artifiziellen Stimuli arteigene Rufe der Fledermausspezies C. perspicillata aufgenommen und als akustische Stimuli während der Messungen verwendet.
Im Zuge dieser Fragestellung wurde in einem weiteren Teilprojekt versucht ein neues Verfahren zur Messung von OAEs zu etablieren, mit dem es möglich ist das Ohr nicht ausschließlich mit den herkömmlich verwendeten Reintönen zu stimulieren, sondern ebenfalls mit komplexen Lauten, wie arteigenen Kommunikations- und Echo-ortungsrufen. Hierfür wurde ein von Douglas Keefe vorgestelltes Paradigma zur Messung von OAE-Residualen herangezogen, welches die am Trommelfell gemessenen akustischen Signale von den Trommelfellantworten auf einzelne Komponenten dieser Signale subtrahiert.
Anhand der in dieser Studie gewonnenen Ergebnisse kann deutlich gezeigt werden, dass eine akustische Stimulation der kontralateralen Kochlea mit verschiedenen artifiziellen sowie arteigenen Stimuli zuverlässig eine Änderung des Pegels der 2f1-f2 DPOAE von bis zu 37,3 dB in der ipsilateralen Kochlea bei wachen Tieren bewirkt. Dabei unterscheidet sich die Art der Beeinflussung deutlich je nach verwendetem kontralateralem Stimulus. Die Stimulation mit artifiziellem Breitbandrauschen supprimiert den Emissionspegel über den gesamten getesteten Frequenzbereich um etwa 11,6 dB, während die verwendeten arteigenen Laute eine vergleichbare Beeinflussung des DPOAE-Pegels ausschließlich in einem Frequenzbereich zwischen 50 und 70 kHz bewirken. Im Frequenzbereich von 20 bis 30 kHz verursachen die arteigenen Laute nahezu keine Pegelabsenkung, was im deutlichen Kontrast zu den Ergebnissen unter KAS mit Breitbandrauschen steht. Unter Narkoseeinfluss konnte, unabhängig vom verwendeten Stimulus, keine Beeinflussung des DPOAE-Pegels festgestellt werden, was die Annahme bestätigt, dass die verwendete Ketamin-Xylazin-Narkose einen drastischen Einfluss auf den Hörprozess und insbesondere auf das efferente System nimmt. Die Ursache dafür, dass arteigene Stimuli anders verarbeitet werden als artifizielle Stimuli (wie z. B. Breitbandrauschen) konnte zwar nicht abschließend geklärt werden, aber die Vermutung liegt nahe, dass in diesem Verarbeitungsprozess höhere Zentren der Hörbahn involviert sind und selektiven Einfluss auf die ablaufenden Prozesse nehmen.
Die Etablierung des OAE-Residual-Messparadigmas auf der Basis der Methode von Keefe und Ling (1998) sollte die Möglichkeit bieten sowohl Reintöne als auch komplexe, arteigene Stimuli zu verwenden und so eine Erweiterung des herkömmlich verwendeten Messverfahrens darstellen. Über verschiedene Vorversuche unter Anwendung einer Zweitonreizung konnte gezeigt werden, dass die Ergebnisse des neu entwickelten Paradigmas mit denen der herkömmlichen DPOAE-Messungen hinsichtlich Reintonstimuli vergleichbar sind. Anhand der gewonnenen Ergebnisse mit einer Stimulation mit komplexen Signalen zeigen sich allerdings die Schwierigkeiten der neuen Methode. Die bisher erhobenen Daten zeigen keine klaren, reproduzierbare Ergebnisse, sollten aber die Grundbedingungen für die weiterführenden Versuche ebnen.
Mikroalgen wird aufgrund ihrer photoautotrophen Lebensweise, ihrer meist einfachen Anzucht und ihres schnellen Wachstums ein großes Potential als Produzenten verschiedener Stoffe, wie beispielsweise den Sekundärmetaboliten der Carotinoidbiosynthese, zugesprochen. Zur Produktion solcher Stoffe bedarf es der Aufklärung der in einem Biosyntheseweg operierenden Enzyme und ihrer zugehörigen Gene.
In dieser Arbeit sollte einerseits durch genetische Modifikation der Carotinoidbiosynthese der Fucoxanthingehalt erhöht und andererseits die Produktion von Astaxanthin in P. tricornutum erreicht werden. Bisher fehlen experimentelle Nachweise über die Funktion, Regulation und die limitierenden Eigenschaften daran beteiligter Gene und deren Enzyme. Um dem Ziel der Arbeit näher zu kommen, wurden zuerst potentiell an der Regulation der Carotinoidbiosynthese beteiligte Gene ausgewählt und deren Enzyme funktionell charakterisiert. Eines dieser Enzyme ist das Eingangsenzym der Carotinoidbiosynthese, die Phytoen-Synthase. Die entsprechend annotierte putative Sequenz (psy #Pt56881) wurde zur Analyse herangezogen. Nachdem im Rahmen dieser Arbeit über die Komplementation in einem dafür ausgerichteten E. coli Stamm der funktionelle Nachweis der Phytoen-Synthase erbracht werden konnte, wurde untersucht, ob die Phytoen-Synthase einer lichtabhängigen Expression unterliegt und somit die Carotinoidsynthese im WT von P. tricornutum limitiert. Durch die Inhibierung der Phytoen-Desaturase mittels Norflurazon konnte die verstärkte Akkumulation des Produktes der Phytoen-Synthase, Phytoen, bei einem Transfer der P. tricornutum-Kulturen von Schwach- in Starklicht gezeigt werden. Die Expression der Phytoen-Synthase von P. tricornutum wird demnach durch die Lichtbedingungen reguliert und limitiert auch die Carotinoidsynthese. Ein weiteres an der Carotinoidsynthese beteiligtes Enzym ist die Zeaxanthin-Epoxidase. Sie bietet zugleich eine Möglichkeit, an dieser Stelle die Carotinoidsynthese in Richtung Astaxanthinproduktion umzulenken. Für P. tricornutum sind drei potentielle Genkandidaten (zep1: #Pt45845; zep2: #Pt56488; zep3: #Pt56792) annotiert, welche ebenfalls im Rahmen dieser Arbeit funktionell charakterisiert wurden. Der funktionelle Nachweis erfolgte dabei ebenfalls mittels eines Komplementationsansatzes in einem damit neu etablierten Expressionssystem mit npq2-Mutanten aus der Modellpflanze A. thaliana. Die Analyse der Transformanden zeigte eine Epoxidase-Aktivität des Produktes aus zep2 und zep3. Das Enzym Zeaxanthin-Epoxidase 2 weist dabei eine andere Spezifität auf als die Zeaxanthin-Epoxidase 3, welche funktionell betrachtet der Zeaxanthin-Epoxidase aus A. thaliana am nächsten kommt. Die Zeaxanthin-Epoxidase 2 akzeptiert im Unterschied zu Zeaxanthin-Epoxidase 3 neben Zeaxanthin auch andere Substrate wie Lutein mit nur einem 3 Hydroxy-β-Iononring und stellt damit einen validen Kandidaten für die Umwandlung von Diatoxanthin in Diadinoxanthin in P. tricornutum dar. Obwohl die Transkriptanalysen ausreichende Mengen an RNA von zep1 in A. thaliana zeigen und anhand eines zusätzlichen mit der Sequenz für GFP markierten zep1-Konstruktes in WT-Protoplasten von A. thaliana der Import in den Chloroplasten und die Expression nachgewiesen werden konnte, weist die Zeaxanthin-Epoxidase 1 zumindest in den A. thaliana-Transformanden keine Epoxidase-Aktivität auf. Des Weiteren zeigt die diurnale Expression in P. tricornutum, dass die Regulation der Zeaxanthin-Epoxidasen an den Bedarf photoprotektiver Pigmente angepasst wird. Während die Regulation des Transkript-Levels von zep2 und zep3 nahezu parallel laufen und ein gemeinsames Maximum aufweisen, zeigt das Transkript-Level von zep1 ein anderes Maximum.
Die gewonnenen Erkenntnisse wurden dann zur Steigerung der Synthesekapazität mittels genetischer Modifikation des Carotinoidsyntheseweges in P. tricornutum angewendet. Durch das Einbringen zusätzlicher Genkopien der Phytoen-Synthase in P. tricornutum konnte dabei eine deutliche Steigerung des Fucoxanthingehalts unter Schwachlichtbedingungen erreicht werden. Gleichzeitig konnte durch weitere inhibitorische Versuche mittels Norflurazon beim Transfer von Schwach- zu Starklicht demonstriert werden, dass die Carotinoidsynthese durch die Kombination der genetischen Modifikation mit der Phytoen-Synthase und Starklicht per se weiterhin gesteigert werden kann. Zusammen mit den Transkriptanalysen zeigen die Pigmentanalysen, dass es einen nicht-linearen Zusammenhang zwischen RNA-Menge und gebildeter Phytoenmenge gibt, welcher durch eine zusätzliche Substratlimitierung der Phytoen-Synthase erklärt werden kann.
Bevor das Herunterregulieren der Zeaxanthin-Epoxidasen in P. tricornutum durchgeführt und damit ein verstärkter Fluss zur Astaxanthinbildung erreicht werden sollte, wurde das Potential von P. tricornutum zur Astaxanthinproduktion überprüft. Hierfür wurde die β-Carotin-Ketolase (bkt #CrAEA35045.1) aus C. reinhardtii einmal ohne und zusätzlich mit verschiedenen Präsequenzen fusioniert separat in P. tricornutum eingebracht. Astaxanthin konnte trotz Nutzung funktionell bestätigter Präsequenzen aus der Literatur nicht nachgewiesen werden. Die Versuche zeigen damit, dass hier noch weitere Untersuchungen nötig sind, um mittels eines geeigneten Transportsystems Fremd-Proteine in den Chloroplasten von P. tricornutum einzubringen. Das Ausbleiben der Astaxanthinproduktion konnte an dieser Stelle nicht hinreichend geklärt werden.
Insgesamt schaffen die Ergebnisse dieser Arbeit eine weitere Grundlage, um die Carotinoidbiosynthese in P. tricornutum besser zu verstehen und diese mittels genetischer Modifikationen biotechnologisch nutzbar zu machen.
Die Untersuchung befasst sich am Beispiel der fotografischen Arbeiten von Barbara Klemm mit einer aktuellen Entwicklung in der Fotografie. Der Lebens- und Berufsweg der Fotografin steht dabei stellvertretend für eine Generation von Reportage- und Dokumentarfotografen, die in der zweiten Hälfte des 20. Jahrhunderts nicht nur erfolgreich in ihrem Beruf gearbeitet, sondern darüber hinaus auch im musealen Kontext Beachtung erfahren haben. Durch die wachsende öffentliche Aufmerksamkeit und das damit verbundene Ansehen entwickelten sich die Arbeiten von Barbara Klemm von dokumentarischen Zeitungsbildern zu künstlerischen Fotografien. Wie dieser Prozess vom Zeitungsbild zum Museumsbild im Einzelnen abgelaufen ist, wird in der vorliegenden Arbeit untersucht.
Zu Beginn wird der gegenwärtige Umgang mit Fotografie in der Gesellschaft und in der Kunst thematisiert. Es wird die Entwicklung des fotografischen Mediums seit 1960 parallel zu den Wirkjahren von Barbara Klemm untersucht und gezeigt, welchen Einfluss diese Veränderungen auf ihr Werk und dessen Wahrnehmung hatten.
Dies ist im Allgemeinen die Frage nach der Wahrnehmung von Fotografie und im Speziellen nach der Veränderung von Wahrnehmung oder besser nach der Veränderung der Umwelt, die dem Betrachter eine andere Sicht auf die Fotografie ermöglicht. Das Thema ist aus der Sicht der Kunstwissenschaft und Kunstpädagogik bedeutsam, denn es zeigt, wie sich gesellschaftliche Kategorisierungen nicht unmittelbar, sondern im Laufe eines jahrzehntelangen Prozesses verändern. Eine Veränderung, deren Ursachen in einer engen Vernetzung von Wahrnehmung, Kommunikation, gesellschaftlicher Faktoren und ganz unterschiedlicher Entwicklungen innerhalb verschiedener einflussnehmender Systeme in einer gemeinsamen Umwelt zu suchen sind. Die analoge Schwarzweißfotografie ist die Technik in der Barbara Klemm arbeitet. Dies stellt heutzutage eine Besonderheit dar, denn die Sehgewohnheiten der Betrachter sind durch sehr verschiedene Bildarten geprägt. Diese reichen von Schnappschüssen und Amateuraufnahmen mit Kleinbild- oder handykameras bis hin zu professionellen Fotografien in der Werbung oder in Hochglanzmagazinen. Aufgrund der digitalen Technik, bei der mehr Aufnahmen in kurzer Zeit gemacht werden können, treten Komposition, Bildaufbau und Beleuchtung oft in den Hintergrund. Die Unterschiede zwischen analoger und digitaler Fotografie werden zudem in einer geschichtlichen Entwicklung der Reportagefotografie der vergangenen Jahrzehnte vertieft. Barbara Klemm arbeitete den größten Teil ihres Berufslebens als Bildjournalistin bei der Frankfurter Allgemeinen Zeitung. Von 1970 bis 2004 war sie zuständig für die Bereiche Politik und Feuilleton. In diesen Jahren entstanden Bilder, die heute zum kollektiven Gedächtnis vieler Deutscher zählen. Ausgehend von ihrer Arbeit wird dargestellt, wie die Fotografien einem Publikum zugänglich gemacht wurden und im Laufe der Zeit über das Medium der Zeitung hinaus in andere Bereiche der Öffentlichkeit gelangten, vor allem in die Kunst, aber auch in die Bereiche der Geschichte und Erinnerungsarbeit. Unter Verwendung der theoretischen Grundlage und Kategorisierung von Niklas Luhmann werden Arbeiten der Fotografin im System Journalismus und im System Kunst untersucht. An dieser Stelle waren Operatoren notwendig, die ihre Bilder aus dem System des Zeitungswesens in das System der Kunst transferierten. Diese Aufgabe konnten nur bestimmte Schlüsselfiguren (Schlüsselpersonen) erfüllen, denn Barbara Klemm hatte zu keiner Zeit intendiert, künstlerisch zu arbeiten. Das bedeutet, nur ein anerkannter Museumsdirektor oder ein erfahrener Ausstellungskurator konnte ihre Position in das „System Kunst“ einführen.
Nach einer kurzen biografischen Vorstellung der Arbeits- und Lebensstationen werden der Stil, die Technik und die Komposition Barbara Klemms Fotografien analysiert, um anschließend einen Versuch zu unternehmen, die besondere Ästhetisierung der Bilder zu erklären. So besitzt eine gelungene Fotografie von Barbara Klemm einen Mehrwert gegenüber den reinen Reportagebildern. Was der Betrachter vor Barbara Klemms Bildern empfindet und assoziiert, ist zum Teil individuell, zum Teil aber auch sozial, gesellschaftlich und kulturell – also intersubjektiv bestimmt. All seine Erfahrungen prägen die Beziehung zu jedem einzelnen Bild. Dass die Fotografien von Barbara Klemm heute eine breite Akzeptanz erfahren, hängt auch mit gesellschaftlichen Abläufen zusammen. Wissen und Meinungen festigen sich durch Wiederholung, die zur Gewohnheit werden. Vertrautem begegnet man folglich eher mit Sympathie und Wohlwollen, nicht zuletzt vermittelt es eine gewisse Sicherheit. Die langjährige Präsenz als Fotografin bei der Frankfurter Allgemeinen Zeitung stellt demnach eine fruchtbare Basis dar. Symbolisch gesprochen ist ihre Anstellung bei der Tageszeitung das stabile Fundament, auf dem ihr späterer Erfolg als künstlerische Fotografin aufbaut.
Die Inauguraldissertation „Strafrechtsdogmatische und strafprozessuale Probleme bei der Einführung und Umsetzung einer Verbandsstrafbarkeit. Untersuchung des Entwurfs eines Ge-setzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unternehmen und sonstigen Verbänden“ verfasst von Frau Franziska Osterloh, LL.M., befasst sich mit der Einführung einer Verbandsstrafbarkeit. Betreut wurde die Arbeit an der Johann Wolfgang von Goethe – Universität, Frankfurt am Main, von Herrn Prof. Dr. Matthias Jahn. Anlass des aktuellen Auflebens der wissenschaftlichen Diskussion und Anknüpfungspunkt dieser Arbeit war der Entwurf eines Gesetzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unter-nehmen und sonstigen Verbänden, der auf Vorschlag des nordrhein-westfälischen Justiz-ministeriums der Justizministerkonferenz der Länder im November 2013 vorgelegt wurde.
Zu Beginn wird anhand einer kurzen historischen Einführung und einer Darstellung der rechtlichen Grundlagen von Verbandstätigkeit außerhalb des (Kern-)Strafrechts aufgezeigt, dass der Verband als Rechtssubjekt weitestgehend anerkannt und verselbstständigt ist. An-schließend werden die kriminalpolitischen Argumente zur Begründung einer Verbandsstraf-barkeit in ihren wesentlichen Zügen wiedergegeben.
In dem folgenden der Arbeit untersucht die Verfasserin die strafrechtsdogmatischen Probleme der Einführung einer Verbandsstrafbarkeit. Dabei konzentrieren sich die Ausführungen auf die „klassischen“ Eckpunkte des wissenschaftlichen Diskurses, die Handlungs-, Schuld- und Straffähigkeit von Verbänden. Hierbei liegt ein Schwerpunkt auf der Auseinandersetzung mit der Frage der möglichen Schuldfähigkeit eines Verbandes. Als Ergebnis dieses Kapitels wird festgehalten, dass die bloße Zurechnung ebenso wie die selbstständige Verbandsschuld, nicht den Anforderungen des Schuldprinzips genügen kann. Der Bezug zu der natürlichen Hand-lung, die nach außen in Erscheinung tritt, ist mit Hilfe einer Zurechnung erforderlich und dann ausreichend, wenn für den Verband die Möglichkeit bestanden hätte, durch Organi-sationsstrukturen die Ausführung der Handlung zu verhindern.
Anhand dieser Ergebnisse werden die materiell-rechtlichen Aspekte des untersuchten Gesetzesentwurfs näher beleuchtet und insbesondere die in § 2 des Entwurfs enthaltenen Tatbestände, die sich stark an §§ 30, 130 OWiG anlehnen, untersucht. Die Verfasserin kommt zu dem Ergebnis, dass die Tatbestände unter Berücksichtigung einer teleologischen Aus-legung und restriktiven Handhabung nicht gegen Verfassungsrecht verstoßen.
Die Untersuchung der strafprozessualen Aspekte des Gesetzesentwurfs bezieht sich zum einen auf die übergeordneten Verfahrensprinzipien und deren im Ergebnis weitgehende An-wendbarkeit auf Verbände und zum anderen auf die konkreten Normierungen des Entwurfs. Ein Schwerpunkt wird hierbei auf die Beschuldigtenrechte gelegt, die nach Ansicht der Verfasserin noch nicht hinreichend klar normiert sind. Abschließend werden einige strafprozessuale Besonderheiten untersucht, die nicht ausdrücklich oder lediglich beiläufig von dem Gesetzesentwurf aufgefasst werden.
Als Gesamtergebnis der Arbeit wird der untersuchte Gesetzesentwurf zwar als begrüßens-werte Präzisierung und Bereicherung der Diskussion um eine Verbandsstrafbarkeit, jedoch nicht als dessen Schlusspunkt eingeordnet.
Die in den letzten Jahrzehnten erfolgten Entwicklungen im Bereich der Informations- und Kommunikationstechnologien (IKT) haben beinahe alle Teilbereiche der Gesellschaft erreicht (OECD, 2000) und so können Alltag, Beruf, aber auch soziale Interaktionen benannt werden (Autor, Levy, & Murnane, 2003). Das technologiebasierte Problemlösen stellt ein relevantes Kompetenzkonstrukt dar, wobei die empirische Validierung der Testwertinterpretation noch aussteht. „Technologiebasiertes Problemlösen ist die Kompetenz, digitale Technologien, Kommunikationshilfen und Netzwerke erfolgreich für die Suche, Vermittlung und Interpretation von Informationen zu nutzen.“(OECD, 2009; zitiert nach Rammstedt, 2013). Ziel einer Konstruktvalidierung ist es theoretische Annahmen – sowie nomologische Netze – mit empirischen Belegen zu prüfen und somit Aussagen über die Gültigkeit der Testwertinterpretationen treffen zu können (vgl. Messick, 1995). Zu diesem Zweck wurden die folgenden fünf Leithypothesen aufgestellt:
1. Im technologiebasierten Problemlösen können Teilsequenzen durch Routinen im Umgang mit IKT bewältigt werden.
Mit dem Ziel der Analyse von Lösungsprozessen wurden Prozessdaten aus dem Feldtest der PIAAC-Studie genutzt und automatisierbare Teilschritte (beispielsweise Schließen eines Popups) analysiert. Eine schnelle Bearbeitung dieser Teilschritte wurde auch mit einer höheren Lösungswahrscheinlichkeit des Problems assoziiert. Die Testwerte des technologiebasierten Problemlösens spiegeln die bildungsbiographischen Lernerfolge wider, die zu einem routinierten Umgang mit IKT führen.
2. Durch die Entstehungsgeschichte von IKT begründet, bestehen Differenzen im technologiebasierten Problemlösen.
Entstehung moderner IKT legt eine Differenzierung von drei Kohorten nahe (orientiert an lernintensiven Phasen der Kindheit und Jugend):
- Erlebten die Entstehung und Verbreitung von Hardware (geboren 1946-1966)
- Begleiteten die Verbreitung von Computersoftware und dessen Nutzung (geboren 1966-1981)
- Nutzung und Gestaltung digitaler Inhalte des Internets (geboren 1981-1995)
Erwartungsgemäß unterscheiden sich die Kohorten im technologiebasierten Problemlösen – genauer in der Nutzung von Routinen im Lösungsprozess und im erreichten Kompetenzniveau. Ältere Kohorten benötigten im Mittel mehr Zeit für Teilschritte, die durch Routinen bearbeitet werden können und sie erreichten im Mittel niedrigere Kompetenzniveaus. Obwohl Lesekompetenzen eine wesentliche Bedeutung im technologiebasierten Lösen von Problemen haben, können sie die Kohortenunterschiede nicht umfassend aufklären. Weil ältere Personenkohorten während ihrer formellen Ausbildungsphasen IKT – wie sie heute verwendet werden – nicht nutzen konnten, haben informelle Lerngelegenheiten eine wesentliche Bedeutung. So profitieren ältere Personen von einem regelmäßigen, beruflichen oder privaten Umgang mit diesen Technologien. Die Testwerte des technologiebasierten Problemlösens spiegeln entstehungsgeschichtlich begründete Kohortenunterschiede wider, welche durch lebenslange, formelle und informelle Lerngelegenheiten minimiert werden können.
3. Der Umgang mit IKT ist – begründet durch deren Entstehungsgeschichte – eher weniger Teil der formellen und schulischen Bildung.
Technologiebasiertes Problemlösen wird weniger in formellen und schulischen Lerngelegenheiten erworben, als andere Kompetenzen wie beispielsweise mathematische und Lesekompetenzen. Folglich wurden für das technologiebasierte Problemlösen kleinere Differenzen zwischen hohen, mittleren oder niedrigen Bildungsabschlüssen erwartet und konnten empirisch anhand der PIAAC-Daten belegt werden. Vorteile von Personen mit einem hohen Bildungsabschluss konnten durch höhere Lesekompetenzen erklärt werden. Die Testwerte des technologiebasierten Problemlösens bilden entstehungsgeschichtlich begründete Unabhängigkeiten des Kompetenzkonstruktes ab, das zumeist nicht schulisch erworben wurde.
4. Technologiebasiertes Problemlösen ist ein eigenständiges Kompetenzkonstrukt, das Parallelen zu mathematischen und Lesekompetenzen aufweist.
Mathematische und Lesekompetenzen stehen in einem Zusammenhang mit dem Umgang mit IKT und somit auch mit dem technologiebasierten Problemlösen. Die Leseanteile am technologiebasierten Problemlösen werden als größer eingeschätzt, als die der mathematischen Kompetenz und stärkere Effekte durch Lesekompetenz konnten empirisch
nachgewiesen werden. Die Annahme der Eigenständigkeit des technologiebasierten Problemlösens wird im Weiteren dadurch gestützt, dass der alltägliche Umgang mit mathematischen und Leseinhalten weniger stark mit ihm assoziiert ist, als der Umgang mit IKT. Nomologische Netze zwischen technologiebasiertem Problemlösen und mathematischen sowie Lesekompetenzen konnten empirisch gestützt werden und die Annahme der Eigenständigkeit des Kompetenzkonstruktes bestärkt.
5. Die Nutzung von IKT – als Lerngelegenheit verstanden – und andere Lerngelegenheiten sowie Indikatoren erfolgreichen Lernens können zum technologiebasierten Problemlösen beitragen.
Lebenslanges Lernen ist ein Teil der menschlichen Natur und in diesem Rahmen dienen verschiedenste formelle und informelle Lerngelegenheiten dem Erwerb von Wissen und Kompetenzen (Dohmen, 2001). So erreichen Personen im technologiebasierten Problemlösen ein höheres Kompetenzniveau, wenn sie regelmäßig privaten oder beruflichen Umgang mit IKT hatten. Neben diesen informellen Lerngelegenheiten steht auch die Teilnahme an Weiterbildungen in einem positiven Zusammenhang mit der technologiebasierten Bewältigung von Problemen. Des Weiteren hat eine positive Einstellung gegenüber dem Lernen neuer Inhalte einen Einfluss auf die technologiebasierte Problemlösekompetenz. Die Testwerte des technologiebasierten Problemlösens spiegeln die Lernerfolge durch das lebenslange Lernen wider, die durch verschiedene bildungsbiographische Merkmale – insbesondere formelle und informelle Lerngelegenheiten – befördert werden.
Das technologiebasierte Problemlösen in der Operationalisierung der PIAAC-Studie lässt eine konstruktrepräsentative Testwertinterpretation zu und ermöglicht somit eine differenzierte Beschreibung von Kompetenzen im Umgang mit IKT.
Das britische Austrittsreferendum ist eng mit der größeren Thematik der EU-Krise verknüpft. Gäbe es keine Krise der europäischen Integration, hätte der Brexit weniger Appeal. Umgekehrt könnte das Votum der britischen Bevölkerung die EU-Krise dramatisch verschärfen. Aus der Sicht dritter Staaten kann die Reputation des globalen Akteurs EU nur leiden, wenn eines der größten und wichtigsten Mitglieder die Leinen kappt, weil, so die „Brexiteers“, das europäische Projekt ohnehin keine Zukunft habe. Welche Konsequenzen der Brexit für den Rest der EU haben wird, hängt auch davon ab, wie Großbritannien den Exit-Schock und die Folgen verarbeitet. Möglicherweise wird den Briten (und anderen) der Wert der EU erst mit dem Ausscheiden deutlich. Dennoch erwischt der Brexit die EU in einer denkbar ungünstigen Phase und könnte die Krise vertiefen. Zumindest macht das Beispiel Schule. Bereits vor der britischen Entscheidung forderten Parteien und Bewegungen in mehreren EU-Ländern ebenfalls das Recht auf ein Referendum über Verbleib oder Austritt. Und Umfragen deuteten an, dass zumindest in einigen EU-Ländern eine Mehrheit für den Austritt votieren könnte. Nach dem Brexit rufen Marine Le Pen, Norbert Hofer und andere noch lauter nach Abstimmungen in ihren Ländern. Die europäischen Eliten werden sich in dem Spagat üben müssen, einerseits bei europäischen Fragen auf ihre Bevölkerungen zu hören, andererseits die Forderungen nach organisierter Beteiligung in Form von Referenden abzuwehren....
Die „Frankfurter Schule des Strafrechts“, eine strafrechtskritische, aber nicht abolitionistische Perspektive auf das Strafrecht, verneint die Möglichkeit eines gänzlich unpolitischen Strafrechts, und betreibt, an der Wirklichkeit des Strafrechts interessiert, grundlagenorientiert Strafrechtstheorie und -dogmatik. In dieser Tradition werden die kriminalpolitischen Herausforderungen gekennzeichnet: Das Strafrecht in der globalisierten und ökonomisierten Mediengesellschaft zunehmender Pluralität und Diversität. Die Herausforderungen, die mit diesen gesellschaftlichen Entwicklungen verbunden sind, lassen sich kennzeichnen als Balanceakt zwischen Flexibilität und Prinzipientreue. Das Strafrecht darf sich nicht fundamentalistisch auf das beschränken, was schon seit Ewigkeiten Straftat ist, muss aber auf seinem Charakter als ultima ratio beharren, und darf sich und seine Zurechnungsprinzipien, provoziert durch die neuen Gegenstände (wie z.B. die Wirtschafts- und Umweltkriminalität) und die steigenden Sicherheitsbedürfnisse einer verunsicherten und nach Prävention strebenden Gesellschaft, nicht bis zur Unkenntlichmachung verbiegen lassen.
Bei Erlass des PUAG verzichtete der einfache Gesetzgeber bewusst auf eine mögliche Vereidigung von Zeugen vor Untersuchungsausschüssen. Das Recht zur Zeugenvereidigung ist aber, wie dargelegt wird, in der Verfassung selbst gewährleistet. Damit sind intrikate Fragen sowohl zum Verhältnis von Verfassung und Gesetz sowie im bundesstaatlichen Verhältnis aufgeworfen. Dem einfachen Gesetzgeber steht zwar die Befugnis zu, ein Gesetz über Untersuchungsausschüsse zu erlassen, fraglich ist aber, ob er berechtigt ist, Untersuchungsausschüssen des Bundestages Rechte zu nehmen, die ihnen nach dem Grundgesetz zustehen; dies ist im Ergebnis zu verneinen. Die bundesrechtlichen Änderungen zeitigten indes sogar Folgen für das Verfassungsrecht der Länder. Infolge der mit Einführung des PUAG gleichzeitig erfolgten Änderung des StGB entschied der Hessische Staatsgerichtshof im Jahr 2011, dass Untersuchungsausschüssen des Landtages ein Vereidigungsrecht nicht mehr zustehe, welches er zuvor aus der Hessischen Verfassung abgeleitet hatte. Der Gerichtshof gesteht dadurch dem Strafrecht die Macht zu, öffentlich-rechtliche Kompetenzen in den Ländern zu ändern.
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
Diese Dissertation geht der Frage nach, wie die Literacy-Förderung der Kinder im Kindergartenalter in türkischstämmigen Familien in Deutschland stattfindet. Es wird der Frage nachgegangen, wie sich sozioökonomische und soziokulturelle Verhältnisse der Familien die Literacy-Förderung beeinflussen. Es wurden zwei qualitative Untersuchungen durchgeführt. Im ersten Teil der Arbeit wurden zwölf Mütter anhand halbstrukturierter Interviews befragt. Die Daten wurden anhand der qualitativen Inhaltsanalyse ausgewertet. Im zweiten Teil wurde als nichtteilnehmende, offene Beobachtung der Vorlesesituation durchgeführt. Anhand der Sequenzanalyse wurde die Vorgehensweise der Mütter während des Vorleseprozesses ausgewertet.
Es wurde untersucht, inwieweit der ökonomische Status und das kulturelle Kapital der Eltern für die Literacy-Förderung prägend sind. In den untersuchten Familien sind sowohl die literacy-bezogenen Aktivitäten als auch die Erziehung insgesamt stark an den Normen der Mehrheitsgesellschaft orientiert. Entscheidend sind nicht auf Ethnizität bezogene Zuschreibungen, sondern die sozioökonomische Stellung und das kulturelle Kapital der Eltern bei der Literacy-Förderung in den türkischstämmigen Familien.
Die Untersuchung zeigt im ersten Teil, dass die untersuchten Familien bei der Literacy-Förderung mit zahlreichen Hindernissen konfrontiert sind, die nicht primär ethnisch begründet sind, sondern vielmehr auf sozioökonomische und soziokulturelle Faktoren zurückgeführt werden müssen. Die berufliche Situation und Arbeitsbedingungen der Eltern erschweren die Durchführung der literacy-bezogenen Aktivitäten. Der ökonomische Status und der Bildungsstand sowie das kulturelle Kapital der Eltern ist der Grund für Hindernisse. Das macht sich bemerkbar in drei Gesichtspunkten: (i) Bei der direkten Anregung des Kindes zu Literacy, wenn das Kind zum Schreiben initiiert wird, sein Interesse für Bücher geweckt oder bei alltäglichen Aktivitäten zum Schriftentdecken herangeführt wird. Die Mütter, die über kulturelles Kapital verfügen, führen diese Aktivitäten regelmäßig und effizient durch. (ii) Bei der Gestaltung der Literacy-Umgebung, wenn diese vielfältig gestaltet wird (z.B. die Auswahl elektronischer Medien). Hierbei macht sich der sozioökonomische Status am deutlichsten bemerkbar. (iii) Auch bei der die Vorbildfunktion der Eltern als indirekte Anregung macht sich kulturelles Kapital bemerkbar. Im zweiten Teil der empirischen Untersuchung zur Vorlesesituation sind zwei Handlungsmuster festgestellt worden, die dem Vorleseverhalten der Mütter zugrundeliegen. Dabei ist das kulturelle Kapital entscheidend. Die Mütter mit niedrigem Kulturkapital führen den Vorleseprozess monologisch und einseitig, sodass die Kinder nicht oder nicht hinreichend einbezogen werden. Die Mütter mit höherem Kulturkapital dagegen gestalten den Vorleseprozess dialogisch, sodass das Kind eingebunden wird. Der wichtigste Unterschied zwischen den beiden Handlungsmustern ist die Vermittlung der Erzählung. Im dialogischen Handlungsmuster wird der Vorleseprozess interaktiv gestaltet und die Haupthandlung der Geschichte im Blick behalten. Im monologischen Handlungsmuster aber hoffen die Vorlesenden, dass die Kinder durch bloßes Zuhören die Geschichte begreifen. Hier dominiert die Fokussierung auf die Einzelhandlungen. Während die Mütter höherem Kulturkapital die Vermittlung der Erzählung als ein zu erreichendes Ziel begreifen, tritt dies bei denen mit geringem Kulturkapital in den Hintergrund.
Im Nachgang der Finanz- und Wirtschaftskrise beobachten wir derzeit sehr niedrige Renditen im „sicheren“ Anlagebereich auf dem Geldmarkt und für Staatsanleihen. Gleichzeitig sind Aktienkurse massiv gestiegen und zeichnen sich seit Beginn 2015 durch eine Seitwärtsbewegung aus. Die Ursachen für diese Entwicklung sind teilweise bekannt: Niedrige Zinssätze aufgrund einer expansiven Geldpolitik gepaart mit hoher Unsicherheit an den Märkten reduzieren die Auswahl attraktiver Kapitalanlagemöglichkeiten erheblich. Doch wie wird sich die langfristige Entwicklung gestalten, wenn oder falls die Wirkungen der jüngsten Finanz- und Wirtschaftskrise nachlassen? Gibt es einen langfristigen Trend? Spiegelt sich dieser Trend etwa bereits heute in den niedrigen Renditen wider?
Vor mehr als einem Jahrzehnt, also bereits einige Jahre vor der jüngsten Finanz- und Wirtschaftskrise, wurde wiederholt die sogenannte „Asset Market Meltdown“-Hypothese postuliert. Nach dieser Hypothese würden in den dreißiger Jahren dieses Jahrhunderts die Kapitalrenditen stark sinken, wenn die „Babyboomer“-Generation in den Ruhestand gehe und infolgedessen Kapital aus dem Wertpapiermarkt abziehe. Heute wird eine ähnliche Debatte unter dem Stichwort „säkulare Stagnation“ geführt. Danach bestehe die Gefahr, dass die nächsten Jahrzehnte durch niedrige Wachstumsraten geprägt sein und negative Realzinsen gar zur Normalität werden könnten. Dieser Beitrag geht der Frage nach, inwiefern die demographische Entwicklung für eine solche Stagnation verantwortlich ist.
Steueroasen besitzen drei wichtige Merkmale, die aus der Sicht von Steuerhinterziehern und Steuervermeidern anderer Länder besondere Anziehungskraft haben. Sie bieten niedrige Steuersätze für alle oder für bestimmte Kapitaleinkommen. Sie weisen eine hohe politische Stabilität und funktionierende Institutionen auf. Schließlich verbinden sie dies mit einem hohen Maß an faktischer Intransparenz in den Besitzstrukturen von Briefkastenfirmen sowie einer ausgeprägten Vertraulichkeit von Bankdaten. Unter Führung der OECD hat sich in den letzten Jahren der politische Druck auf die internationalen Steueroasen erhöht und zu einer Reihe von bilateralen und multilateralen Abkommen zum Informationsaustausch geführt. Da diese Abkommen nicht alle Steueroasen umfassen, haben sie die Gesamtanlagen in den Steueroasen allerdings bisher nur in sehr geringem Umfang reduzieren können. In Deutschland werden die internationalen Abkommen der letzten Jahre von Seiten der Steuerpolitik aber bereits als Erfolg verbucht und eine stärker progressive Besteuerung von Kapitaleinkünften diskutiert. Falls weiterhin ein Teil der einschlägigen Steueroasen dem Informationsaustausch fernbleibt, bietet es sich an, auf bilateralem Wege Verhandlungen aufzunehmen oder den Druck über multilaterale Verfahren und Sanktionen zu erhöhen.
Das Außenministerium der Vereinigten Staaten von Amerika und die amerikanische staatliche Behörde für Entwicklungszusammenarbeit USAID haben gerade ihre Gemeinsame Strategie gegen gewaltbereiten Extremismus (Joint Strategy on Countering Violent Extremism) vorgestellt. Nachstehend sollen die wesentlichen Inhalte kurz skizziert werden.
Gestern hat der Deutsche Bundestag mit nur einer Gegenstimme und einer Enthaltung zum ersten Mal den Völkermord an den Armeniern im Ersten Weltkrieg formal anerkannt. Die Türkei hat daraufhin sogleich ihren Botschafter zurückbeordert; weitere Maßnahmen z. B. die Aussetzung des Flüchtlingskompromisses könnten folgen. Die Krux jedoch von all‘ dem ist die Frage, ob es in den Jahren 1915-1917 einen Genozid an der eigenen christlich-armenischen Minderheit gab oder nicht:...
Seit der Antike wird über das Thema der Ästhetik, über das Schöne, diskutiert. Diese Diskussion, die mit der Frage „Was ist schön?“ anfängt und was „schön“ als Wert ausdrückt, was die Quelle des Schönheitsgefühls bei dem Menschen ist, und auch die Frage nach dem Prozess der Entstehung eines ästhetischen Urteils, wird bis zur heutigen Zeit geführt. Heutzutage ist das ästhetische Verständnis des Propheten Muhammed nicht nur Untersuchungsthema, die Muslime haben im 21. Jahrhundert die von ihm erhaltenen ästhetischen Werte durch direkte Übertragung in ihr Leben und in ihre Lebensweise integriert. Die Koranforschung hat ergeben, dass der Sinn für Schönheit eine Fähigkeit bezeichnet, die dem im Koran erwähnten Menschen mit der Geburt gegeben worden ist. Im Propheten Muhammed hat das in ihm vorhandene Potenzial in der vorislamischen Zeit durch Aufrechterhaltung und durch göttliche Erziehung, die ihm nach dem Erhalt der prophetische Mission zuteil wurde, den Höhepunkt erreicht. In diesem Sinne ist sein Auftreten schön und die Schönheit beim letzten Propheten kein Zufall. Die Schönheit, die dem Koran folgend mit dem ersten Menschen, Adam, begann, fand ihre Vollendung im Propheten Muhammed Denn für den Propheten Muhammed war die Schönheit nicht lediglich ein philosophischer Wert, sondern im Gegenteil eine Lebensweise. Zu Beginn der Behandlung des ästhetischen Themas Am Anfang der Beschäftigung des Korans mit der Frage der Ästhetik liegt vor allem in den Worten der glaubenden Menschen, in ihrem Verhalten, den Zielen, die sie erreichen wollen, und in ihrem Glauben und ihren Gottesdiensten. Nach dem Koran ist es Allah, der die Geschöpfe verschönert, diese Schönheit wurde den Geschöpfen während ihrer Erschaffung gegeben. Mit anderen Worten hat Allah die Geschöpfe schön erschaffen. In der islamischen Welt gibt es Philosophen und Islamwissenschaftler, die über die Vorstellung der Schönheit Überlegungen anstellen...
Das Leistungsfähigkeitsprinzip als zentraler Grundsatz der Einkommensbesteuerung ist in hohem Maße konkretisierungsbedürftig und damit für Wertentscheidungen offen. Diese Offenheit wird von der traditionellen Steuerrechtswissenschaft mit Wertungen gefüllt, die aus der Perspektive der Geschlechtergerechtigkeit äußerst problematisch sind. In diesem Aufsatz werden zunächst Einnahmenseite und Ausgabenseite des Einkommens für die Bemessung der Leistungsfähigkeit betrachtet. Dabei wird aufgezeigt, dass die fehlende Berücksichtigung der Reproduktionsarbeit in Kombination mit dem Ehegattensplitting auf Seite der Einnahmen das Leistungsfähigkeitsprinzip erheblich verzerrt und die Verweigerung der vollen Absetzbarkeit von Kinderbetreuungskosten beispielsweise auf Seite der Ausgaben das traditionelle Familienmodell weiterhin begünstigt. Einem solchen Steuerrecht, das die Genderperspektive systematisch ausblendet, stehen aber Verfassungsnormen entgegen, die im Folgenden anhand der argumentativen Leitlinien skizziert werden. Daher muss das Steuerrecht weiter entwickelt und an die verfassungsrechtlichen Anforderungen an Gleichberechtigung von Mann und Frau gekoppelt werden.
Am Montag, 30. Mai 2016 von 18.00-20.00h, laden das Institut für soziale Bewegungen (ISB) und die Gemeinsame Arbeitsstelle RUB/IGM zum 3. Bochumer Disput ein. Diskutiert wird zum Thema „Handelspolitik gerecht gestalten? Die Transatlantische Handels- und Investitionspartnerschaft (TTIP) als politischer Prozess“.
CfP: "Digital -Dis-Orders"
(2016)
The 7th Annual Graduate Conference of the Cluster of Excellence „Normative Orders“ is taking place from 17 to 19 November 2016 at Goethe-University Frankfurt. The call for papers to this year’s conference theme „Digital <Dis>Orders“ (@digdis2016) is open until 30 June 2016.
This text is an only slightly modified version of the Herbert Krüger Memorial Lecture that I held upon invitation of the Arbeitskreis Überseeische Verfassungsvergleichung on 4 July 2014 at Bucerius Law School in Hamburg. My point of departure is the observation that even though the economic exploitation of natural resources triggers a multitude of distribution conflicts, international and transnational law treat these conflicts inadequately. While the New International Economic Order had as one of its objectives distributional justice between resource exporting poor states (former colonies) and resource importing high income states (mostly former imperial powers) its demands were never fully realized. Instead a transnational economic law emerged which can be interpreted as itself establishing a distribution order -- albeit a distribution order that is not oriented towards distributional justice, but rather posits the market as the best distribution device. This distribution order has depoliticized and deterritorialized distribution conflicts between resource exporting and resource importing states and has secured – through the promotion of privatizations, protection of foreign investments and dismantling of trade barriers – access to resources for the resource importing states. At the same time it has freed importing states from responsibility for the harms that accrue from resource exploitation to the resource exporting states and their populations. I call in this text for a repoliticization of distribution conflicts at the international as well as the (trans)national level, a repoliticization that may be achieved not only through the reform of political, but also economic institutions.
Dies ist der 25. Artikel in unserer Blogreihe Trouble on the Far-Right.
Ein Mädchen auf einem Fahrrad. Weiße Bluse, schwarzer langer Rock, weiße Socken, schwarze Schuhe. Sie fährt durch eine idyllische, friedlich wirkende, sommerliche Landschaft. Unter dem Foto steht: „Revolt against the modern world – justnationalistgirls“.
Eine Demonstration. Einzig bengalische Feuer erleuchten die Dunkelheit. Schemenhaft erkennt man eine Frau, die auf eine gefährlich anmutende Menge zugeht. Sie wirkt stark. Unter dem Foto steht: „The night’s still young – justnationalistgirls“.
Dass rechte Bewegungen Facebook zur Mobilisierung nutzen, ist bekannt. Auch die extrem rechte Facebookseite justnationalistgirls, die knapp 9000 Nutzer*innen liken, transportiert extrem rechte Inhalte, jedoch ungleich subtiler verpackt, als es auf so manch dezidiert neonazistischer Facebookseite der Fall ist. Justnationalistgirls und ähnliche Seiten reproduzieren auf den ersten Blick, scheinbar harmlos, eine idealisierte Vorstellung von Mädchen und jungen Frauen, die ihr heimisches Idyll beschützen möchten. Die im April 2014 gegründete Seite hat sich vor allem in Frankreich, Deutschland, Österreich, Polen und den USA eine Anhänger*innenschaft erarbeitet. Die generelle Botschaft ist nicht offensichtlich erkennbar. Mit Sicherheit gesagt werden kann jedoch, dass justnationalistgirls mindestens zwei, scheinbar widersprüchliche Weiblichkeitsbilder verbreitet, welche in den meisten rechten Gruppen oder Bewegungen Anklang finden: Zum einen die traditionelle Rolle der Frau als Mutter der Nation, zum anderen die der Kämpferin neben dem Mann im „nationalen Befreiungskampf“.
Die folgenden Einschätzung sowie daraus resultierende Handlungsempfehlungen formuliere ich aus meiner Erfahrung in der politischen Bildungsarbeit. Justnationalistgirls ist ein Türöffner zu extrem rechtem Gedankengut. Selbstredend ist der Einstieg in die organisierte und gegebenenfalls militante, extrem rechte Szene weitaus vielschichtiger und nicht nur auf das Besuchen einer bestimmten Internetseite zurückführbar. Inhalte, wie sie auf justnationalistgirls veröffentlicht werden, stellen allerdings ein niedrigschwelliges Einstiegsangebot dar, dem eine demokratische, politische Bildung dringend etwas entgegensetzen muss. In erster Linie gehört dazu die Förderung der Fähigkeit zum Hinterfragen und Dekonstruieren extrem rechter Ideen und Parolen. Betrachtet man das Publikum, welches die Inhalte von justnationalistgirls teilt, liest oder mit „gefällt mir“-markiert, fällt auf, dass es sich vor allem um Jugendliche und junge Erwachsene handelt. „Besonders Jugendliche auf der Suche nach Orientierung sind dafür empfänglich, wenn es erstmal unverfänglich aussieht.“, sagt Simone Rafael von der Amadeu-Antonio-Stiftung.
Im Folgenden soll der Frage nachgegangen werden, welche Weiblichkeitsbilder durch justnationalistgirls transportiert und anhand dieser Handlungsempfehlungen formuliert werden, an denen sich eine Form von politischer Bildung als Rechtsextremismusprävention orientieren kann. Justnationalistgirls soll hier als ein Beispiel für viele Formen versteckter rechter oder rassistischer Inhalte in sozialen Medien gesehen werden, welche vor allem von Akteur*innen politischer Bildung mehr Aufmerksamkeit erhalten sollten.
Dies ist der 24. Artikel in unserer Blogreihe Trouble on the Far-Right.
Dass deutsche Neonazis ins europäische Ausland fahren um dort an „Gedenkmärschen“ teilzunehmen, stellt grundsätzlich keinen Widerspruch dar.1 Die extreme Rechte oder der Neonazismus war und ist kein rein nationales Phänomen. Schon im 20. Jahrhundert existierten diverse Bündnisse unter den faschistischen Bewegungen in Europa und auch heute haben sich in verschiedenen europäischen Ländern extrem rechte Bewegungen und Organisationen etabliert, die sich grenzüberschreitend vernetzen, kooperieren und eine (gemeinsame) Straßenpolitik betreiben.
In der Begründung einer länderübergreifenden Zusammenarbeit rekurriert die extreme Rechte auf verschiedene Europakonzeptionen und -vorstellungen. Innerhalb des deutschen Neonazismus existiert eine starke Bezugnahme auf eine Europa-Idee, die auf völkisch-rassistische Ordnungsvorstellungen des Nationalsozialismus zurückgreift. Einen wichtigen Anknüpfungspunkt stellt die Heroisierung der SS bzw. der Divisionen dar, in denen „Waffenbrüder“ aus verschiedenen europäischen Ländern gekämpft haben. Die Orientierung an einem vermeintlichen Kampf für eine „weiße Rasse“ und ein „freies Europa der Völker“ dient der extremen Rechten auch heute als gemeinsame Basis für transnationale Kooperationen. Neben dieser allgemeinen europäischen Ausrichtung der extremen Rechten, existieren weitere konkrete Beweggründe und Faktoren, die dazu führen, dass deutsche Neonazis im europäischen Ausland an Demonstrationen teilnehmen. Ausschlaggebend können persönliche oder organisatorische Kontakte und Freundschaften zwischen extrem rechten Gruppen und Einzelpersonen sein. Dies ist besonders in Grenzgebieten der Fall, und daher finden oft durch die räumliche Nähe transnationale Kooperationen statt. Darüber hinaus kann auch die Hoffnung, sich an Ausschreitungen und Übergriffen beteiligen zu können, ein Grund für deutsche Neonazis sein, sich auf Reisen zu begeben....
Dies ist eine gekürzte Version eines Beitrags, der in der Zeitschrift Internationale Politik – IP, Ausgabe Mai/Juni 2016, erschienen ist.
Während in den zehn Jahren des Afghanistan-Krieges von 1979 bis 1989 geschätzte 20 000 „foreign fighters“ zu den Mudschahedin und Al-Kaida ins Kriegsgebiet zogen, sind es im vom so genannten „Islamischen Staat“ (IS) gehaltenen Territorium nach drei Jahren bereits etwa 30 000. Zwischen 6000 und 7000 kommen aus Ländern der EU; erstmals folgen auch Frauen in signifikanter Zahl dem Ruf einer islamistischen Terrororganisation. Warum also zieht der IS so viel mehr Anhänger an, als es Al-Kaida je getan hat? Wieso machen sich Tausende junger Muslime, die in Europa geboren wurden, auf den Weg in ein angebliches Kalifat und reales Kriegsgebiet? Und welche Rolle spielen die Narrative und Angebote des IS dabei?...
Um zukünftig den städtischen Verkehr – vor allem in Städten und Regionen mit Bevölkerungszuwächsen – ökologisch nachhaltiger abzuwickeln und gleichzeitig die Stadt als attraktiven Wohnort zu gestalten, wird aktuell in Forschung und Praxis eine Vielzahl unterschiedlicher Konzepte diskutiert und erprobt. Eine mögliche stadtplanerische Maßnahme in diesem Kontext ist die Entwicklung autofreier oder autoreduzierter Stadtquartiere. Im Rahmen bisheriger wissenschaftlicher Untersuchungen sind die Voraussetzungen für die Umsetzung solcher Konzepte meist eher unzureichend dokumentiert und analysiert worden. In dieser Forschungsarbeit wurde deshalb untersucht, welche Relevanz verschiedene stadt- und projektbezogene Rahmenbedingungen und Einflussfaktoren bei der Entwicklung autofreier bzw. autoreduzierter Stadtquartiere besitzen.
Wenngleich bei der Realisierung autofreier oder autoreduzierter Projekte zahlreiche Faktoren wirksam sind, können als Ergebnis der Untersuchung vor allem zwei Aspekte als entscheidend für eine erfolgreiche Umsetzung solcher Projekte betrachtet werden. Dies ist zunächst eine ausreichende Unterstützung der Projekte durch die städtische Politik und Verwaltung. Als zweiter wesentlicher Einflussfaktor kann eine Förderung autofreier und autoreduzierter Projekte durch private Initiativen und Vereine gelten.
Trotz einer fast 30-jährigen Forschungs- und Umsetzungshistorie stellen Projekte zum Aufbau integrierter Datenhaushalte (Data Warehouses) für Unternehmen immer noch eine große Herausforderung dar. Gerade in Data Warehouse-Projekten bei Finanzdienstleistern führt eine hohe semantische Komplexität häufig zu Projektverzögerungen oder zum Scheitern der Vorhaben. Dies zeigt die Arbeit anhand von explorativen Fallstudien auf und fragt nach den Gründen für diesen typischen Verlauf. Eine mögliche Ursache liegt in einer unzureichenden Kommunikation zwischen den Projektbeteiligten, was zu Missverständnissen in der Konzeption und somit zu Fehlimplementierungen führt, die – gerade wenn sie spät erkannt werden – deutliche Verzögerungen und Budgetüberschreitungen zur Folge haben. Ausgehend von diesen beobachteten Praxisproblemen sucht die vorliegende Arbeit auf der Grundlage des Design-Science-Research nach Lösungsansätzen: unter Übertragung der Erkenntnisse der Kommunikationstheorie wurden drei Artefakte entwickelt, sukzessive verbessert und validiert. Die Paper zeigen auf, dass sich durch den Einsatz formalisierter Templates, eines verbesserten Vorgehensmodells in Verbindung mit einem korrespondieren Softwaretool das Kommunikationsverhalten in den Projekten verbessern lässt und somit eine höhere Projekt-Performance erreicht wird. Hierzu wurden insgesamt sechs Projekte zum Aufbau von Data Warehouses im Finanzdienstleistungsumfeld in Fallstudien analysiert und zudem Experten-Interviews mit den Projektbeteiligten durchgeführt, die im Ergebnis die positive Wirkung der Artefakte unterstützen.
Basierend auf den Daten der Erhebung „Gesundheit in Deutschland Aktuell“ von 2010 (GEDA2010)vom Robert Koch-Institut wird in dieser Dissertation der Frage nachgegangen, wie sich
Arbeitsbedingungen auf die Gesundheit und das Gesundheitsverhalten auswirken und eine systematische Analyse für Deutschland durchgeführt. Dabei werden sowohl Aspekte der Geschlechterforschung als auch der Erforschung sozialer Ungleichheiten mitbetrachtet. Die Ergebnisse liefern unteranderem Hinweise darauf, dass Gesundheitsverhalten als Coping-Strategie in stressreichen Arbeitssituationen, die beispielsweise durch Leistungsdruck oder Schichtarbeit gekennzeichnet sind, genutzt wird.
Nachkriegsländer gehören zu den schwierigsten politischen Arenen. Die Herausforderungen bestehen nicht nur darin, diese Länder dabei zu unterstützen Kriege zu beenden und neue Gewaltausbrüche zu verhindern, sondern vielmehr zu einem friedlichen Zusammenleben zurückzukehren. In diesem Zusammenhang ist in den letzten Jahren das Interesse vieler Wissenschaftler als auch vieler internationaler Akteure gestiegen, das mögliche Potential des nachhaltigen Managements natürlicher Ressourcen zu nutzen um Friedensprozesse zu unterstützen. Die Hoffnung liegt dabei darin, dass eine gute Regierungsführung („Good Governance“) und insbesondere die nachhaltige Entwicklung und Nutzung von Ressourcen wie Wasser, Wald oder landwirtschaftlichen Flächen, Kooperation zwischen Konfliktparteien ermöglichen und dabei zum Neustart der internen Beziehungen beitragen. Die wachsende Bedeutung des Zusammenspiels zwischen der Entwicklung von Frieden und Umweltschutz sowie der nachhaltigen Nutzung von Ressourcen wurde erst kürzlich durch die Ziele nachhaltiger Entwicklung der Vereinten Nationen bestätigt....
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Institutsbericht 2015 des ISOE ist erschienen +++ Arzneimittelrückstände im Wasserkreislauf: Empfehlungen aus dem Forschungsprojekt Sauber+ +++ Mobiles Baden-Württemberg – Neues Forschungsprojekt zu nachhaltiger Mobilität +++ ISOE-Lecture: Transdisziplinäre Forschung in einem neuen Erdzeitalter? Die Debatte um das Anthropozän +++ ISOE-Forscherinnen beim Future Earth Summit in Berlin +++ Aus dem ISOE: Nachhaltigkeitsstrategie Hessen: ISOE unterschreibt Zielvereinbarung für nachhaltige Beschaffung +++ Termine +++ Publikationen
„Keine Gesellschaft ohne Natur“ – Beiträge zur Entwicklung der Sozialen Ökologie erschienen +++ ISOE beim Symposium deutscher Mobilitäts- und Verkehrsforscher in Berlin +++ Arzneimittelrückstände im Wasserkreislauf: Technische Lösungen stoßen an ihre Grenzen +++ Stakeholder im Forschungsprozess – für den naturnahen Umbau der Nidda +++ Neuer Stromspiegel für Deutschland: Ergebnisse aus Forschungsprojekt von ISOE und Öko-Institut +++ Best Paper Award der Zeitschrift GAIA: ISOE-Beitrag unter den drei Erstplatzierten +++ Aus dem ISOE: Girls'Day 2016: Zukunftstag für Mädchen am ISOE +++ Termine +++ Publikationen
Franz von Assisi is seen as a champion of charity in favour of the poor ones. However that is not true. Poverty has not to be eliminated but praised as the most essential quality of human existence.
Der Beitrag untersucht das in jüngerer Zeit verstärkt diskutierte Phänomen einer – tatsächlichen oder vermeintlichen – „anglo-amerikanischen Rechts-hegemonie“. Es geht dabei um die Frage, ob die Rechtsordnungen Deutschlands und der Europäischen Union unter eine Vormachtstellung des amerikanischen Rechtsdenkens und amerikanischer Regelungsmuster geraten sind oder eine solche vielleicht sogar selbst aktiv befördert haben. In dem Beitrag wird diese Diskussion aus zivilrechtlicher Perspektive aufgegriffen. Nach einer Konkretisierung des Topos der Rechtshegemonie werden dabei zunächst einige Grundcharakteristika des amerikanischen Rechtssystems und des deutschen Rechtssystems gegenübergestellt und zusammengefasst, in welchen Bereichen das deutsche und das europäische Recht in den vergangenen Jahrzehnten durch amerikanische Denk- und Regelungsmuster überformt worden sind. Im Anschluss erfolgt eine Bewertung der zuvor skizzierten Entwicklung, wobei die Unterscheidung zwischen einem intrinsisch orientierten und einem funktional orientierten Verständnis von Rechtskultur als ein Kernproblem der jüngeren rechtsvergleichenden Diskussion im Zentrum steht. Im Ergebnis wird eine tendenziell skeptische Perspektive gegenüber dem suggestiven Bild eines Wettbewerbs der Rechtsordnungen eingenommen und die in jüngerer Zeit häufig geäußerte These der globalfunktionalen Überlegenheit eines wettbewerbsorientierten Rechtsmodells in Zweifel gezogen.
Dies ist der 17. Artikel in unserer Blogreihe Trouble on the Far-Right.
Um eines gleich deutlich zu machen: Über rechtsradikale Tendenzen in der Ukraine zu schreiben ist ein Drahtseilakt. Schließlich ist die Debatte in einen größeren Kontext eingebettet: Seit den Ereignissen auf dem Maidan 2014 und dem anschließenden Regime-Change erheben pro-russische Medien die sachlich schwer begründbare Beschuldigung, dass der Westen den Charakter der „faschistischen Junta in Kiew“ verkenne. Auf der anderen Seite bagatellisieren einige Publikationen die real existierenden rechten Umtriebe in der Ukraine beträchtlich. So handelt man sich schnell den Vorwurf ein, wahlweise „die faschistischen Ukrainer“ zu protegieren oder sich „den imperialistischen Russen“ anzubiedern. An dieser Stelle bleibt die notwendige Aufgabe Meinungen von Fakten zu trennen.
Die bedeutendste Kraft der parlamentarischen Rechten in der Ukraine ist die „Freiheitspartei“ Swoboda. Ihre Beteiligung an der Übergangsregierung nach den Maidan-Protesten galt einigen Beobachtern als Beweis für einen Rechtsruck in der Ukraine. Mittlerweile verfügt diese Partei nicht einmal mehr über eine parlamentarische Fraktion. Wie ist es dazu gekommen? Welche Dynamiken stehen dahinter? Ist letztendlich alles in trockenen Tüchern und die Gefahr von rechts gebannt?
Dies ist der 16. Artikel in unserer Blogreihe Trouble on the Far-Right.
„Wir sind zwar hinter Gittern, aber unsere Ideen sind an der Macht“, erklärte der Führer der Grauen Wölfe, Alparslan Türkeş nach dem Militärputsch vom 12. September 1980 in der Türkei. Damals hatten die Generäle als Zeichen ihrer angeblichen Neutralität neben Zehntausenden inhaftierten Linken auch einige hundert Anhänger der faschistischen Grauen Wölfe anklagen lassen. Entsprechend könnten sich heute seine Nachfolger rühmen: „Wir sind zwar nicht an der Regierung, aber unsere Ideen sind an der Macht.“ Denn die Herrschaft der seit 2002 alleine regierenden und gemeinhin als islamisch-konservativ charakterisierten Partei für Gerechtigkeit und Aufschwung (Adalet ve Kalkınma Partisi – AKP) von Staatspräsident Recep Tayyip Erdoğan und Ministerpräsident Ahmet Davutoğlu stützt sich zunehmend auf die Ideologie, die Methoden und selbst das Personal der Grauen Wölfe. Umgekehrt ist die offiziell in der Opposition stehende parlamentarische Vertretung der Grauen Wölfe, die Partei der Nationalistischen Bewegung (Milliyetçi Hareket Partisi – MHP) eine Kriegsallianz mit der AKP-Regierung gegen die kurdische Befreiungsbewegung eingegangen...
kurz und kn@pp news : Nr. 36
(2016)
Die dynamische Entwicklung im Bereich neuer Mobilitätsdienstleistungen hat dazu geführt, dass der städtische Mobilitätsmarkt von einer hohen Dynamik und einer Vielzahl neuer Akteure gekennzeichnet ist. Smartphones und mobiles Internet unterstützen die neuen Angebote wie flexibles, stationäres oder Peer-to-Peer-Carsharing sowie Mitnahme- und Fahrradverleihsysteme. Die neuen Angebote reagieren auf eine veränderte Nachfrage, generieren aber wiederum auch neue Nutzungsmuster. Kommunale und regionale Akteure stehen vor der Aufgabe, auf die neuen Herausforderungen, die sich in räumlichen und politischen Konflikten niederschlagen können, zu reagieren. Die vorliegende Studie zeigt auf Basis einer Bestandsaufnahme von Sharing-Systemen in der Region FrankfurtRheinMain Handlungsoptionen für Vertreter aus Politik und Verwaltung auf, um die neuen Angebote im Sinne einer nachhaltigen Verkehrs- und Stadtentwicklung zu integrieren. Dabei zeigt sie zunächst die Chancen und Herausforderungen auf, die sich aus den jüngsten Entwicklungen ergeben. Anschließend folgt eine ausführliche Bestandsaufnahme, die sich in sechs Handlungsfelder gliedert: Fahrradverleihsysteme, Carsharing, Mitnahmeangebote und Mitfahrparkplätze, Verknüpfung des öffentlichen Verkehrs mit multimodalen Angeboten, multimodale Mobilitätsapps und -plattformen sowie Parken. Dabei werden Aussagen zu Angebotsformen, verkehrlichen und ökologischen Wirkungen sowie zu regionalen Entwicklungen getroffen. Anschließend werden auf Basis vorhandener Untersuchungen und im Rahmen des Projekts durchgeführter Fokusgruppen Nutzungsmuster, Bekanntheit und Attraktivität von Sharing-Systemen dargestellt. Die Handlungsempfehlungen wurden in mehreren Workshops mit regionalen Praxisakteuren aus den Bereichen Stadtverwaltung, Carsharing, Verkehrsverbund, Fahrradverleihsysteme, Mitfahrangebote etc. und vertiefenden Expertengesprächen entwickelt.
Plus Puls : 2016, 1
(2016)
Im Fokus der vorliegenden Arbeit standen die Landschaftsrekonstruktion und die Abschätzung der Mensch-Umwelt Wechselwirkungen im Umfeld der kupferzeitlichen (ca. 5. Jts. v. Chr.) Siedlung Magura Gorgana im heutigen Süd-Rumänien. Im Zuge der sedimentologischen Untersuchungen wurde deutlich, dass zur Zeit der kupferzeitlichen Besiedlung in der Donauaue ein Paläosee existierte, welcher sich nahezu über den gesamten Auenbereich im Untersuchungsgebiet erstreckte. Mit der Entdeckung des Paläosees ‚Lacul Gorgana‘ ergaben sich, durch die exzellenten Eigenschaften von Seesedimenten als Geoarchiv, neue Möglichkeiten zur Paläomilieurekonstruktion und zur Abschätzung von Mensch-Umwelt-Interaktionen. Bis etwa in das 8. Jt. v. Chr. war die Donau in diesem Gebiet durch ein fluviales System charakterisiert, welches vermutlich aus einer Vielzahl von Gerinnen bestand und einem ‚braided river‘ ähnelte. Während des 8. Jt. v. Chr. begann die Bildung des Paläosees ‚Lacul Gorgana‘. Die Gründe hierfür sind unbekannt, wenngleich ein Zusammenhang zum Anstieg des Schwarzmeerspiegels in diesem Zeitraum naheliegt. Spätestens ab dem 13. Jh. n. Chr. kommt es zur Aggradation- bzw. Verlandung des Paläosees ‚Lacul Gorgana‘. Infolge progradierender Zuflüsse wurde die einstige Seefläche in kleinere Seen fragmentiert. Dies dauerte bis zu den Trockenlegungsmaßnahmen in den 1960er Jahren an. Somit ist die Verlandung zum gegenwärtigen Zeitpunkt, zumindest theoretisch, noch nicht abgeschlossen. Die Ausprägung des rezenten Flussbettes der Donau begann spätestens mit der Verlandung des Paläosees, genaue chronologische Angaben sind jedoch anhand der aktuellen Datenlage nicht möglich. Auf der Grundlage geochemischer Untersuchungen geben die Sedimente des Paläosees ‚Lacul Gorgana‘ Hinweise auf alternierende Bedingungen bezüglich aerober und anaerober Akkumulationsmilieus. Dabei sind die aeroben Abschnitte durch einen höheren Anteil klastischen Materials, einem niedrigeren Anteil organischen Materials und allgemein helleren Sedimenten gegenüber den anaeroben, allgemein dunkleren Abschnitten gekennzeichnet. Die Gesamtheit der sedimentologischen Befunde, und der Vergleich mit Untersuchungen anderer Autoren in benachbarten Einzugsgebieten legen nahe, dass das alternierende Seemilieu in erster Linie durch Variationen der klimatischen Bedingungen im Einzugsgebiet der Donau verursacht wurde. Diese Variationen führten zur Veränderung der Stärke von Erosion und dem Charakter des erodierten Materials. Der hohe, zeitlich begrenzte Eintrag organisch gebundenen Phosphates in Bereichen der unteren Dunklen Lage, welcher weitestgehend zeitgleich zur neolithischen und kupferzeitlichen Besiedlung akkumuliert wurde und mit hoher Wahrscheinlichkeit zu einer Eutrophierung des ‚Lacul Gorganas‘ führte, lässt sich vermutlich durch die menschliche Besiedlung der Uferzone des Sees in diesem Zeitraum erklären. Im Verlauf der Untersuchungen im Einzugsgebiet erwies sich der ‚Regionalisierungsansatz‘ als effektives und unabdingbares Werkzeug bei der Differenzierung der Seegenese. Diese Methode dient der Relativierung bzw. Abschätzung der raumzeitlichen Heterogenität des Akkumulationsmilieus anhand des Vergleiches von Sedimentstratigraphien bzw. Sedimentbohrkernen von unterschiedlichen Standorten innerhalb des Paläosees. So konnten die alternierenden Milieubedingungen innerhalb der Seesedimente deutlich als allgemeine und nicht nur als lokale Eigenschaft einzelner Bereiche des Paläosees Lacul Gorgana identifiziert werden. Daneben zeigte die Regionalisierung, dass die aeroben Bereiche nicht nur durch einen erhöhten klastischen Eintrag gekennzeichnet sind, sondern dass dieser auch in Richtung des nördlichen Litorals zunimmt. Dies spricht für eine Herkunft des Materials aus dieser Richtung und erlaubt eine räumlich differenzierte Betrachtung der Seegenese. Darüber hinaus ermöglicht der ‚Regionalisierungsansatz‘, die räumliche Variabilität bestimmter Parameter, beispielsweise des TOC/TN Anstiegs in Richtung Litoral, zu relativieren. Diese Relativierung trägt zum besseren Verständnis spezifischer Prozessabläufe bei. Während der Untersuchung wurde ebenfalls deutlich, dass das Geoarchiv Seesediment eine Vielzahl verschiedenster Signale unterschiedlichster Genese aus dem Einzugsgebiet und dem Gewässermilieu selbst als Proxy-Information speichert. Die Überlagerung dieser Signale innerhalb der Sedimentstratigraphie erschwert mitunter die Identifikation einzelner Prozesse oder Prozesskaskaden. In diesem Zusammenhang erweist sich der ‚Regionalisierungsansatz‘ erneut als sinnvolles Hilfsmittel, da über diesen eine Signaldifferenzierung erfolgen kann, unter der Annahme, dass es eher unwahrscheinlich ist, dass alle Signale in allen Bereichen des Milieus in gleicher Intensität vorliegen. Gerade für die Untersuchung sowohl allochthoner als auch autochthoner Ereignissedimentation ist jedoch die Differenzierung zur ‚Hintergrundsedimentation‘ unabdingbar für ein umfassendes Prozessverständnis.
Fünf Jahre nach dem “Arabischen Frühling” ist von Aufbruchstimmung im Vorderen Orient und Nordafrika nicht mehr viel geblieben. Woran liegt das? Welchen Anteil haben die Europäer daran? Und was sollte die Europäische Union nun tun? Darüber sprachen wir mit Niklas Bremberg, Experte des Schwedischen Instituts für Internationale Beziehungen für die EU-Politik im Mittelmeerraum.
Tertium datur, heißt hier „es gibt einen dritten Weg.“ Damit meinen die Politikwissenschaftlerin Ulrike Guérot und der östereichische Schriftsteller Robert Menasse in ihrem kürzlich in Le Monde diplomatique erschienenen Artikel den Weg Europas aus der Flüchtlingskrise. Der vorgeschlagene Ansatz könnte heftige Debatten auslösen, wenn weder Repression noch laissez-faire mehr funktionieren, Wohlstand und Sattheit endgültig der Panik weichen. Und warum sollten wir den Rechtspopulisten die Initiative bei der Entwicklung neuer gesellschaftlicher Konzepte überlassen?? In ihrem Artikel fordern Guérot und Menasse: Nicht Grenzen zu, nicht Grenzen auf, sondern Grenzen weg und her mit den Menschen! Flüchtlinge sollen im Sinne Immanuel Kants als Weltgäste willkommen geheißen werden, und sie sollen bei uns, in den Gastländern ihre eigenen Städte nachbauen. Soziologisch gesehen führten viele sich frei entwickelnde Parallelgesellschaften zu einem produktiveren Miteinander als Stigmatisierung, Integrationskurse und nach drei Jahren mögliche Abschiebung, so die Autoren...
Vielerorts machen sich Sorgen breit: Was bedeutet die Flüchtlingskrise für Europa? Wie geht es weiter im syrischen Bürgerkrieg? Wie lässt sich der Hunger in Afrika - derzeit verstärkt durch El Niño - bekämpfen? Und welche Rolle kann Deutschland spielen? Antworten gibt der erfahrene schwedische Spitzendiplomat und frühere Vizepräsident der Weltbank, Mats Karlsson, im Bretterblog-Interview.
Das dritte E-Book des Sicherheitspolitik-Blogs ist nun erhältlich. Es basiert auf dem Blogfokus „Salafismus in Deutschland – Herausforderungen für Politik und Gesellschaft“ und wurde von Janusz Biene und Julian Junk herausgegeben. Es ist als Druckversion zu kaufen oder kann kostenlos als PDF heruntergeladen werden.
Dies ist der 22. Artikel unseres Blogfokus „Salafismus in Deutschland“. Die Beiträge der Blogserie „Salafismus in Deutschland – Herausforderungen für Politik und Gesellschaft“ beschäftigten sich pointiert mit den gesellschaftlich, politisch, wissenschaftlich und medial wichtigsten Aspekten der salafistischen Glaubenslehre, Ideologie und Bewegung. Sie betonten die vielen Schattierungen dieser sich beständig im Wandel befindlichen Phänomene, wagten den Blick über den deutschen Tellerrand hinaus und formulierten Handlungsempfehlungen für Politik, Medien, Wissenschaft und Zivilgesellschaft. Obwohl es einige blinde Flecken vor allem in der empirischen Forschung zu Salafismus und Dschihadismus gibt (siehe unter anderem den Beitrag von Riem Spielhaus), ist es offensichtlich, dass nicht nur ein Erkenntnisproblem, sondern ein Umsetzungsproblem besteht: es gibt sehr viel grundlegendes Wissen, welches aber nicht in konkrete Handlungen übersetzt wird und oft in „Inseln des Wissens“ verharrt. Dies bezieht sich auf zweierlei: erstens auf die Gestaltung eines nur in seiner Gegenseitigkeit produktiven Wissenstransfers zwischen Wissenschaft und Praxis und zweitens auf eine sinnvolle Priorisierung politischer Steuerungsmaßnahmen....
„Wir sind im Krieg mit Russland.“ Diese gleichermaßen lakonische wie wuchtige Bewertung des Journalisten Jan-Philipp Hein lässt den Leser unwillkürlich zusammenzucken, klingt sie doch wie ein aus der Zeit gefallenes Zitat einer längst überwundenen Ost-West-Konfrontation. Zudem erscheint sie verstörend irreal, da die sich in den Vordergrund drängenden aktuellen sicherheitspolitischen Herausforderungen wie islamistischer Terrorismus, anhaltend große (und vielfach unkontrollierte) Flüchtlingsströme und eng damit verknüpft ein Erstarken rechtsextremistischer Kräfte in den vergangenen Monaten die gesamte Aufmerksamkeit zu absorbieren schienen...
Schätzwerte mittelfristiger Gleichgewichtszinsen mit der Methode nach Laubach und Williams (2003) werden inzwischen vielfach in der Diskussion um die Geld- und Fiskalpolitik zitiert. Unter anderem wurden sie von Summers (2014a) als Evidenz für eine säkulare Stagnation angeführt und von Yellen (2015) zur Rechtfertigung der Nullzinspolitik verwendet. In diesem Papier nehmen wir eine umfangreiche Untersuchung und Sensitivitätsanalyse dieser Schätzwerte für die Vereinigten Staaten, Deutschland und den Euro-Raum vor. Aufgrund der hohen Unsicherheit und Sensitivität, die mit den Schätzwerten mittelfristiger Gleichgewichtszinsen mit der Laubach-Williams-Methode und ähnlichen Ansätzen verbunden ist, sollten diese Schätzungen nicht den Ausschlag für entscheidende Weichenstellungen in der Geld- und Fiskalpolitik geben.
Der Aufsatz untersucht das Verhältnis von Antidiskriminierungsrecht und Diversität in der Rechtswissenschaft. Das Verhältnis der beiden Begriffe zueinander ist nicht spannungsfrei. Der Aufsatz befasst sich näher mit der Frage, wie Gleichheit zu verstehen ist und stellt zwei Modelle zum Verständnis von Gleichheit vor: Differenzierungsverbot und Dominierungsverbot. Im Vergleich erweist sich ein Verständnis als Dominierungsverbot wesentlich leistungsfähiger als eine Deutung als Differenzierungsverbot, jedenfalls wenn es um komplexere Formen von Benachteiligung geht.
Im Anschluss wird erörtert, welche Faktoren die Leistungsfähigkeit des Antidiskriminierungsrechts im Hochschulbereich, in dem Frauen auf höheren Positionen immer noch unterrepräsentiert sind, beeinflussen. Hierbei werden verschiedene Erklärungsansätze dargestellt und strukturelle Hürden des Antidiskriminierungsrechts aufgezeigt. Denn die Frage der Durchsetzbarkeit rechtlicher Normen ist ein zentrales Thema für die praktische Wirksamkeit von Antidiskriminierungsrecht. Insoweit ist freilich auch ein Rückgriff auf die Herstellung von Diversität wenig erfolgversprechend.
Der Islam stellt in Deutschland derzeit die größte religiöse Minderheit dar. Für ein friedliches Zusammenleben und einen Ausgleich zwischen verschiedenen Interessen, stellt das Recht wegen der Möglichkeit der Durchsetzbarkeit einen besonders wichtigen Faktor dar. Gegenstand des Aufsatzes ist die Frage, wie die deutsche Rechtsordnung mit religiösen Konflikten umgeht, inwieweit also die Interessen von Muslimen rechtlich geschützt werden. Dazu werden zunächst die verfassungsrechtlichen Maßstäbe zur Religionsfreiheit darge-stellt und die zentralen Kritikpunkte an der bisher ausgesprochen religionsfreundlichen Rechtsprechung analysiert. Sodann wird die Bedeutung dieser Maßstäbe für drei Einzelfragen näher betrachtet. Behandelt werden zum einen Konfliktfelder durch Religionsausübung in der Schule: das freiwillige Gebet von Schülern in Unterrichtspausen, die Befreiung vom Schwimmunterricht sowie die Kopftuchdebatte. Zum anderen werden die Fragestellungen erörtert, ob und inwieweit Scharia vor deutschen Gerichten Anwendung findet und ob und inwieweit sich innerhalb Deutschlands eine Paralleljustiz entwickelt. Abschließend befasst sich der Aufsatz mit der Beschneidung minderjähriger Jungen aus religiösen Gründen. Dieses Thema hat durch ein Urteil des LG Köln aus dem Jahre 2012 politische Aufmerksamkeit erlangt und schnelle Reaktionen des Gesetzgebers ausgelöst.
Rechtsvergleichend wird betrachtet, wem in Deutschland und den USA das Recht zu wählen zusteht. Es wird dargestellt, dass die gleichheitsrechtlich begründete Ausdehnung des Wahlrechts auf früher exkludierte Personengruppen keine lineare Fortschrittsgeschichte ist.
Der Kampf um das Wahlrecht in den USA war weitgehend Teil des Kampfes gegen Rassendiskriminierung. Änderungen des Wahlrechts in bestimmten Einzelstaaten der USA stellen einen erheblichen Rückschritt im Hinblick auf die Allgemeinheit der Wahl dar, da sie Verschärfungen mit sich bringen, die ohnehin schon benachteiligte Bevölkerungsgruppen faktisch vom Wahlrecht ausschließen.
Auch in Deutschland war es ein langwieriger Prozess, bis sich die Allgemeinheit der Wahl durchsetzte. Aber auch in Deutschland ist die Allgemeinheit der Wahl noch in mehrfacher Hin-sicht beschränkt. Insbesondere die Einschränkungen des Wahlrechts für Strafgefangene wie auch das Wahlrecht für Auslandsdeutsche sind verfassungsrechtliche sehr problematisch. Auch Reformvorschläge, wie etwa die Einführung eines Kinderwahlrechts, treuhänderisch durch die Eltern ausgeübt, sind verfassungsrechtlich äußerst bedenklich.