Universitätspublikationen
Refine
Year of publication
- 2016 (649) (remove)
Document Type
- Contribution to a Periodical (148)
- Book (108)
- Part of Periodical (92)
- Doctoral Thesis (74)
- Article (60)
- Report (53)
- Review (49)
- Working Paper (46)
- Conference Proceeding (6)
- Bachelor Thesis (4)
Language
- German (649) (remove)
Is part of the Bibliography
- no (649)
Keywords
- Deutschland (12)
- Salafismus (9)
- Terrorismus (7)
- Islamischer Staat (6)
- Frankreich (5)
- Islamismus (5)
- Alte Geschichte (4)
- China (4)
- Dschihadismus (4)
- EU (4)
Institute
- Präsidium (299)
- Gesellschaftswissenschaften (78)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (56)
- Geschichtswissenschaften (47)
- Rechtswissenschaft (44)
- Medizin (42)
- Neuere Philologien (28)
- Wirtschaftswissenschaften (28)
- Biowissenschaften (24)
- Kulturwissenschaften (24)
Die Entwicklung des europäischen und deutschen Markenrechts in den letzten Jahrzehnten lässt sich auf die Kurzformel „vom Warenzeichen zum Markeneigentum“ bringen. An die Stelle einer lauterkeitsrechtlich fundierten Gewährleistung unverfälschten Wettbewerbs ist ein abstrak-tes, fungibles Eigentum an allen potentiell unterscheidungskräftigen Zeichen getreten. Im Beitrag wird dieser Paradigmenwechsel in Anlehnung an Thesen des 1944 erschienenen, wirtschaftssoziologischen Klassikers „The Great Transformation. Politische und ökonomische Ursprünge von Gesellschaften und Wirtschaftssystemen“ von Karl Polanyi gedeutet. In einem ersten Schritt wird erläutert, inwieweit Po-lanyis Ausgangsthese, wonach in einer Marktwirtschaft alle In- und Outputfaktoren kommodifiziert wer-den müssen, auf Marken und andere Kennzeichen übertragbar ist. Sodann wird Polanyis zentrale Er-kenntnis, dass die Kommodifizierung von Arbeit und Boden, aber eben auch von Zeichen als Kommu-nikationselementen kontingent, sogar fiktional und insgesamt alles andere als unproblematisch ist, für eine Kritik des gegenwärtigen Markenrechts fruchtbar gemacht. Und in der Tat ist auch in diesem Be-reich eine Entbettung des Marktes aus der Gesellschaft zu beobachten: Die Markenkommunikation wird gegenüber nicht-marktlicher Kommunikation abgeschirmt, z.B. vor Markenparodien und -kritik. Dies löst nach Polanyi Gegenbewegungen aus, die im Markenrecht bereits so stark geworden sind, dass es nicht einmal mehr ausgeschlossen erscheint, dass sie das Markenrecht auf seinen Ausgangspunkt zurück-werfen: auf das Recht gegen unlauteren Wettbewerb.
Primäre Tumore werden nach ihrem Entstehungsort benannt. Selbst Metastasen zeigen eine gewisse Ähnlichkeit mit ihrem ursprünglichen Gewebe. Somit gehören alle Geschwülste, die ursprünglich der Harnblase entstammen, zu den Harnblasenkarzinomen.
Das Harnblasenkarzinom geht meist (90-95%) von der Schleimhaut der ableitenden Harnwege aus und wird als Urothel bezeichnet. Dementsprechend haben die meisten Patienten mit der Diagnose Blasenkarzinom ein Urothel-Blasenkarzinom. Die restlichen Blasenkarzinome entfallen auf Adenokarzinome, Plattenepithelkarzinome, kleinzellige Karzinome, Sarkome, Paragangliome, Melanome oder Lymphome (Humphrey A. et al. 2016, Moch H. et al 2016).
Die Urothel-Blasenkarzinome können sowohl flach, als auch warzenförmig wachsen. Je nach Diagnostik „oberflächlich“ oder „muskelinvasiv“ lassen sich die Urothel-Blasenkarzinome in zwei Hauptgruppen unterteilen;
Etwa 70% der Erkrankten haben dabei ein oberflächliches Urothel-Blasenkarzinom, das auf die Blasenschleimhaut begrenzt ist und durch eine Basistherapie, sog. Transurethrale Resektion (TUR-B) behandelt wird. Dabei werden die in der Schleimhaut gewachsenen Tumore getrennt reseziert. Therapieergänzend und/oder prophylaktisch wird die Blase danach mit einem Chemotherapeutikum gespült (intravesikale Instillation). Diese Zytostatika-Behandlung soll das Wiederauftreten eines Rezidivs verhindern bzw. eventuell verlangsamen (Iida K. et al. 2016, Celik O. et al. 2016).
Die eukaryotische RNA-Polymerase II (RNAPII) ist der zentrale Faktor für die Umsetzung des genetischen Codes in funktionelle Proteine. Durch die Transkription wird die statische Information der DNA in ein transient nutzbares RNA-Molekül umgewandelt. Bei diesem fundamentalen Prozess der Genexpression wird ein spezifischer DNA-Abschnitt des Genoms abgelesen und in die komplementäre RNA transkribiert, die entweder direkt regulatorische bzw. funktionelle Aufgaben in der Zelle übernimmt oder als Matrize für die Proteinbiosynthese dient. Zur Erhaltung der Funktionalität eines Organismus und zur schnellen und gezielten Reaktion auf exogene Reize ist eine strikte Regulation der Transkription und der zahlreichen beteiligten Faktoren notwendig. Aufgrund der zentralen Rolle in der Genexpression ist diese Regulation äußerst vielschichtig und erfordert eine feinabgestimmte Maschinerie an Enzymen und Transkriptionsfaktoren, deren genaue Wirkungsweise und Abhängigkeit noch nicht vollständig verstanden sind. Fehler in der Transkriptionsregulation werden mit einer Reihe von schwerwiegenden metabolischen Störungen und der möglichen malignen Transformation der betroffenen Zelle in Verbindung gebracht.
Während einige Regulationsmechanismen der RNAPII bereits seit längerer Zeit beschrieben sind, ist eine besondere Form der RNAPII-abhängigen Regulation erst in den letzten Jahren Gegenstand genauerer Untersuchungen geworden. So erfährt die RNAPII bei einer Vielzahl von Genen unmittelbar nach der Transkriptionsinitiation einen Arrest, der das Enzym nicht weiter über die DNA prozessieren lässt und somit die produktive Elongation des Gens blockiert. Die Aufhebung dieses promotornahen Arrests wird durch den positiven Transkriptions-Elongationsfaktor b (P-TEFb) dominiert, der durch distinkte post-translationale Modifikationen der C-terminalen Domäne der RNAPII und assoziierter Faktoren den Übergang in die produktive Transkriptionselongation ermöglicht. P-TEFb selbst unterliegt dabei einer strengen Regulation durch die Inkorporation in inhibierende Speicherkomplexe (7SK snRNPs), bestehend aus der 7SK snRNA und mehrerer assoziierter Proteine. Abseits des 7SK snRNP wurde P-TEFb als Bestandteil großer Multiproteinkomplexe identifiziert, die einen positiven Einfluss auf die Transkriptionselongation besitzen. Die Transition von P-TEFb aus dem 7SK snRNP in diese sogenannten Superelongationskomplexe (SECs) stellt einen der zentralen Regulationsmechanismen der eukaryotischen Transkription dar, ist jedoch noch nicht ausreichend verstanden.
Ein zentrales Element aller SECs bilden die Mitglieder der AF4/FMR2-Proteinfamilie, darunter das AF4 Protein, dem neben der Erhaltung der strukturellen Integrität mittlerweile auch eine Funktion in der Rekrutierung von P-TEFb zugeschrieben wird. Dabei scheint AF4 jedoch auf die Hilfe bislang noch nicht charakterisierter Faktoren angewiesen zu sein. AF4 ist über diese Rolle hinaus als Bestandteil des Fusionsproteins AF4-MLL eng mit der onkogenen Zelltransformation im Falle einer durch die Translokation t(4;11)(q21;q23) bedingten, akuten lymphoblastischen Leukämie assoziiert.
Das zentrale Thema dieser Arbeit stellen Untersuchungen zum Transfer von P-TEFb aus dem 7SK snRNP zum AF4-Protein dar. Dabei konnte zunächst die DEAD-Box RNA-Helikase DDX6 als Integraler Bestandteil der AF4-SECs identifiziert werden, der bereits eine Funktion in der Kontrolle des microRNA- wie auch des mRNA-Metabolismus zugeschrieben werden konnte. Aus diesem Grund wurde von uns eine mögliche Beteiligung von DDX6 an der Rekrutierung von P-TEFb zum AF4-SEC durch Modulationen der 7SK snRNA postuliert. Des Weiteren konnte eine Bindefähigkeit von DDX6 gegenüber der 7SK snRNA sowie eine direkte Korrelation zwischen des zellulären DDX6-Proteinlevel und der Akkumulation von P-TEFb im AF4-SEC nachgewiesen werden. Sowohl die Überexpression von DDX6 als auch die von AF4 resultierten in einer gesteigerten mRNA-Produktion, wobei die Ergebnisse auf einen kooperativen Mechanismus zwischen den beiden Proteinen in der Aktivierung der Transkription hindeuteten. Außerdem konnte die These einer DDX6-vermittelten Aktivierung von P-TEFb anhand von Expressionsanalysen des bekannten P-TEFb Zielgens HEXIM1, dessen Expression im Zusammenhang eines negativen Rückkopplungsmechanismus gesteigert wird, bestätigt werden. Damit konnte der DEAD-Box RNA-Helikase DDX6 in dieser Arbeit das erste Mal eine entscheidende Funktion in der Rekrutierung von P-TEFb aus dem 7SK snRNP in den AF4-SEC, und somit an der Kontrolle der eukaryotischen Transkription, zugeschrieben werden.
Die vorliegende Dissertation untersucht wie Hegel nicht nur den Begriff der Freiheit, aber auch das Subjekt der Freiheit verstanden hat. Sie versucht diese Idee Hegels durch die gegenwärtige Philosophie, insbesondere die analytische Philosophie, und auch die Soziologie, insbesondere die Soziologie von Talcott Parsons, umzudenken.
Im ersten Kapitel wird die Idee der Freiheit als private Sphäre analysiert, die durch eine ganze Gruppe von subjektiven Rechten gesichert oder sogar geschaffen ist, die ohne Hilfe anderer Struktur existierte und von den meisten Naturrechttheoretiker verteidigt wurden, den alten sowie den neuen. Hegel nannte diese Ideen abstraktes Recht. Er wirft diese Vorstellung als noch funktional unvollständig oder metaphysisch inkohärent vor.
Im zweiten Kapitel wird das andere große Modell der Freiheit in der Moderne, nämlich, die Freiheit als Autonomie analysiert. Hegel untersucht diese Idee durch die Konzepte der Verantwortlichkeit und Handelns, die sich in der Praxis des Strafrechts befinden. Nach Hegel ist Verantwortlichkeit das Ergebnis einer gesamten sozialen Beziehung der Anerkennung. Daher ist ein Verbrechen, erstens, die Verletzung einer Norm und diese Normverletzung ist zugleich Anerkennungsverletzung. Zweitens, ein Verbrechen ist die Negation des objektiven Rechts, die dem Akteur zurechnen werden kann, und das ist, warum ein Verbrechen eine Anerkennungsverletzung ist. Ein zentraler Begriff für die Verantwortlichkeit ist der Vorsatz. In dem Konzept von Vorsatz finden wir sowohl die Absicht wie das Wissen, d. i. wenn jemand vorsätzlich handelt, nicht nur wünscht er etwas, sondern er denkt auch, wie er handeln sollte, um zu erreichen, was sie will. Man findet im Vorsatz auch die Idee des Grundes. Dies öffnet wiederum die Idee der moralischen Standards und auch die Möglichkeit eines moralischen Gewissens. Hegel sieht Kant als der größte Befürworter dieser Theorie. Hegel kritisiert Kant, dass er eine Art solipsistischer Methode hat. Die Gewissheit des Guten in die eigene Handlung könnte das Böse verbreiten. Hegel argumentiert, dass ohne eine soziale Basis dafür, die Sittlichkeit, solche moralischen Standards und moralisches Gewissen nicht möglich sind.
Im letzten Kapitel wird analysiert, wie jemand in der hegelschen Lehre frei sein könnte. Nach Hegel gibt es mindestens drei Bedingungen, sodass jemand tatsächlich als frei betrachtet werden könnte: eine metaphysische Bedingung, eine psychologische Bedingung, und eine soziale Bedingung. Diese drei Bedingungen entsprechen den Hauptkritiken gegen die Möglichkeit des freien Willens. Die erste der Kritik besagt, dass es in einer durch mechanische Gesetze geregelten Welt keinen Raum für die Freiheit gibt. Nach Hegel sei die Möglichkeit der teleologischen Erklärung zugleich die Möglichkeit für die Freiheit. In der psychologischen Bedingung argumentiert Hegel, dass das hedonistische oder Wunsch-Überzeugung-Handlung Modell in der Tat fast eine mechanische Erklärung wäre. In einem systemischen Selbstbewusstsein Vorstellung der individuellen Persönlichkeit, in dem alle Teile des Akteurs systemisch artikuliert sind, könnte das Individuum wirklich frei handeln, da das Individuum nicht mehr in seinen Wünschen oder anderen Trieben verschwunden wäre. Am Ende argumentiert noch Hegel, dass die Gary Strawson‘ Kritik an der Idee des freien Willens, dass wir nicht den ersten Umstand unseres Lebens, unsere Sozialisierung und Erziehung ändern könnten, nicht korrekt wäre. Freiheit bedeutet nicht, jeden Aspekt unseres Lebens zu bestimmen, sondern uns selbst und unser Handeln zu bestimmen. Hegel zufolge können wir in der Tat unseren Anfang ändern, indem wir uns selbst neu interpretieren. Diese Art der Selbstbestimmung setzt die Teilnahme an der Gesellschaft voraus. Wenn wir die semantische in unserer Kultur ändern, ändern wir uns selbst und solches aktive Engagement mit unserer Gesellschaft wäre auch eine Bedingung, um ein freies Leben zu führen.
Am 12. Juli wurde vom Internationalen Schiedshof das Urteil im Streit zwischen den Philippinen und der VR China verkündet. Der Schiedshof erklärte, dass große Teile der chinesischen Ansprüche im Südchinesischen Meer null und nichtig sind, da sie einer rechtlichen Grundlage entbehren. Dies betrifft zunächst die auf der sog. nine-dash line basierenden Ansprüche. Dabei handelt es sich um eine aus den 1940er Jahren stammende Karte mit neun unterbrochenen Strichen, mittels derer China seit Jahrzehnten die äußeren Grenzen seiner nicht näher bestimmten historischen Rechte auf große Teile des Südchinesischen Meeres begründet. Gefallen sind auch die Ansprüche auf eine bis zu 200 Seemeilen umfassende ausschließliche Wirtschaftszone (Exclusive Economic Zone; EEZ) in den Spratly-Inseln und rund um Scarborough Shoal im Norden des südchinesischen Meeres, weil diesen vom Gericht der Inselstatus abgesprochen wurde. Der Verlust dieser Rechte wiederum hat zur Folge, dass die chinesische Besetzung mehrerer Riffe und Atolle als illegal eingestuft wird, weil sie innerhalb der ausschließlichen Wirtschaftszone EEZ der Philippinen liegen....
Klimawandel, demographische Veränderungen, steigende Energiepreise, politische Rahmensetzungen und rechtliche Zielvorgaben erfordern eine Neuausrichtung der siedlungswasserwirtschaftlichen Leistungserbringung. Ziel ist, die Siedlungswasserwirtschaft nachhaltig und zukunftsfähig zu gestalten.
Das vorliegende Papier skizziert zum Thema „Instandhaltung der Wasserinfrastruktur:
finanzielle und organisatorische Spielräume“ Maßnahmen, die eine nachhaltige und zukunftsfähige Ausrichtung der siedlungswasserwirtschaftlicher Praxis unterstützen.
Die Maßnahmen wurden im Projekt im Rahmen von zwei szenariobasierten Planspielworkshops entwickelt. Ausgehend von den Diskussionsergebnissen legt das Papier dar, wo Handlungsmöglichkeiten ansetzen können und gibt zugleich Hinweise für die Umsetzung und Bewertung der vorgestellten Maßnahmen. Der Katalog ist dabei als Anstoß für eine stärkere Integration von Nachhaltigkeit in das unternehmerische Handeln zu verstehen.
Wohl kaum ein anders arabisches Land ist so umstritten wie Saudi-Arabien, zumindest wenn es um die Frage von Rüstungsexporten geht. Erst im Juni hat das Verwaltungsgericht Frankfurt in einer von Heckler & Koch eingereichten Klage geurteilt, dass die Bundesregierung sich in der Frage der Genehmigung der Lieferung von Bauteilen für die Lizenzproduktion des G-36 Sturmgewehrs nach Saudi-Arabien entscheiden müsse. Das Wirtschaftsministerium unter der Führung von Sigmar Gabriel (SPD) hatte diese Entscheidung bislang vertagt, auch mit Hinweis auf die gegenwärtige Militärintervention, die das Königreich zusammen mit anderen arabischen Staaten im Jemen führt....
Das Hören hat für den Menschen eine maßgebliche Bedeutung hinsichtlich Kommunikation und Orientierung. Auch wenn sich der Mensch stark auf seinen visuellen Sinn verlässt, wird mit dem Ausfall des Hörvermögens deutlich, wie viele Informationen oft unterbewusst über die Analyse von Schallsignalen gezogen werden. Trotz dieser grundlegenden Relevanz sind bis heute noch nicht alle Komponenten, die dem Hörprozess zugrunde liegen, entschlüsselt.
Um sich diesen offenen Fragestellungen anzunähern, müssen Forscher oft auf Tiermodelle zurückgreifen. Auf Grund ihres exzellenten Gehörs haben sich hier in den letzten Jahrzehnten Fledermäuse als taugliche Versuchstiere qualifiziert. Diese Tiere sind in der Lage sich ohne Verwendung des visuellen Systems in absoluter Dunkelheit zu orientieren, indem sie mit Hilfe der wiederkehrenden Echos ihrer ausgesendeten Ultraschalllaute die Umgebungsstrukturen analysieren. Weiterhin umfasst der zur Kommunikation und Ortung verwendete Frequenzbereich bei Fledermäusen ein Vielfaches von dem des menschlichen, was ebenfalls verschiedene Aspekte der Hörforschung begünstigt. Die in dieser Studie verwendete fruchtfressende Fledermausart Carollia perspicillata eignet sich hervorragend für akustische Untersuchungen, da ihr Innenohr keine speziellen morphologischen Spezialisierungen aufweist.
Anhand der Fledermausart C. perspicillata sollen innerhalb der vorliegenden Studie verschiedene offene Fragestellungen bezüglich der Innenohrmechanik näher beleuchtet werden. Um sich diesen Fragestellungen anzunähern, wurde eine Kombination aus zwei etablierten Methoden verwendet. Zum einen die Messung von Distortions-Produkt otoakustischen Emissionen (DPOAEs), welche auf Grund ihrer Generierung durch aktive Prozesse innerhalb der Kochlea die Möglichkeit bietet, Veränderungen im Innenohr festzustellen und zum anderen kontralaterale akustische Stimulation (KAS), welche eine erprobte Methode zur Aktivierung des efferenten Systems darstellt. Dadurch, dass die äußeren Haarsinneszellen in der Kochlea direkte synaptische Kontakte mit efferenten Fasern der absteigenden Hörbahn eingehen, kann eine Aktivierung des efferenten Systems Modulationen des kochleären Verstärkers bewirken, wodurch sich wiederum die Antworteigenschaften der Kochlea verändern. Mit einer Kombination dieser beiden Methoden lassen sich demnach zum einen höhere Zentren der Hörbahn aktivieren, die über efferente Fasern einen direkten Einfluss auf das Innenohr nehmen, zum anderen die induzierten Modulationen in Form von DPOAEs mit Hilfe eines sensitiven Mikrofons aufnehmen. Die Grundvoraussetzung für die Funktionalität dieser Methodenkombination ist das Vorhandensein von efferenten Fasern innerhalb der Kochlea. Da das efferente System verschiedener Säuger eine große Diversität aufweist, wurden innerhalb dieser Arbeit zusätzlich zu den akustischen Untersuchungen histologische Schnittserien der Kochlea von C. perspicillata angefertigt. Hierbei lag das Hauptaugenmerk auf dem Verlauf der efferenten Fasern innerhalb der Kochlea. Mit Hilfe der Thiocholinmethode wurde der Ort der Umsetzung des Achetylcholinabbauenden Enzyms Achetylcholin-esterase angefärbt. Achetylcholin ist der vorranig vorkommende Transmitter an den efferenten Synapsen.
Diese Studie untersucht weiter den Einfluss der Narkose auf das Innenohr. In zahlreichen Studien, die Innenohrmechanik betreffend, wurden die Untersuchungen an narkotisierten Tieren durchgeführt. Oftmals wird zwar die Problematik der möglichen Beeinflussung des Innenohres durch das verwendete Narkosemittel diskutiert, aber meisthin als unumgänglich eingestuft. Innerhalb der vorliegenden Studie wurde ein Großteil der Experimente an narkotisierten und auch wachen Tieren durchgeführt, um die Auswirkungen der häufig verwendeten Ketamin-Xylazin-Narkose auf die Innenohr-aktivität zu verdeutlichen.
In der Literatur lässt sich eine Vielzahl von akustischen Untersuchungen finden, in denen artifizielle Stimuli wie Reintöne oder Rauschen verwendet werden. Die Problematik dahinter ergibt sich daraus, dass diese Art der Töne in der Natur selten zu finden sind. Derartige Studien werfen daher die Frage auf, ob das Innenohr beispielsweise Rauschstimuli auf die gleiche Weise verarbeitet wie natürliche, komplexere Stimuli. Innerhalb der vorliegenden Studie wurden demzufolge im Vergleich zu artifiziellen Stimuli arteigene Rufe der Fledermausspezies C. perspicillata aufgenommen und als akustische Stimuli während der Messungen verwendet.
Im Zuge dieser Fragestellung wurde in einem weiteren Teilprojekt versucht ein neues Verfahren zur Messung von OAEs zu etablieren, mit dem es möglich ist das Ohr nicht ausschließlich mit den herkömmlich verwendeten Reintönen zu stimulieren, sondern ebenfalls mit komplexen Lauten, wie arteigenen Kommunikations- und Echo-ortungsrufen. Hierfür wurde ein von Douglas Keefe vorgestelltes Paradigma zur Messung von OAE-Residualen herangezogen, welches die am Trommelfell gemessenen akustischen Signale von den Trommelfellantworten auf einzelne Komponenten dieser Signale subtrahiert.
Anhand der in dieser Studie gewonnenen Ergebnisse kann deutlich gezeigt werden, dass eine akustische Stimulation der kontralateralen Kochlea mit verschiedenen artifiziellen sowie arteigenen Stimuli zuverlässig eine Änderung des Pegels der 2f1-f2 DPOAE von bis zu 37,3 dB in der ipsilateralen Kochlea bei wachen Tieren bewirkt. Dabei unterscheidet sich die Art der Beeinflussung deutlich je nach verwendetem kontralateralem Stimulus. Die Stimulation mit artifiziellem Breitbandrauschen supprimiert den Emissionspegel über den gesamten getesteten Frequenzbereich um etwa 11,6 dB, während die verwendeten arteigenen Laute eine vergleichbare Beeinflussung des DPOAE-Pegels ausschließlich in einem Frequenzbereich zwischen 50 und 70 kHz bewirken. Im Frequenzbereich von 20 bis 30 kHz verursachen die arteigenen Laute nahezu keine Pegelabsenkung, was im deutlichen Kontrast zu den Ergebnissen unter KAS mit Breitbandrauschen steht. Unter Narkoseeinfluss konnte, unabhängig vom verwendeten Stimulus, keine Beeinflussung des DPOAE-Pegels festgestellt werden, was die Annahme bestätigt, dass die verwendete Ketamin-Xylazin-Narkose einen drastischen Einfluss auf den Hörprozess und insbesondere auf das efferente System nimmt. Die Ursache dafür, dass arteigene Stimuli anders verarbeitet werden als artifizielle Stimuli (wie z. B. Breitbandrauschen) konnte zwar nicht abschließend geklärt werden, aber die Vermutung liegt nahe, dass in diesem Verarbeitungsprozess höhere Zentren der Hörbahn involviert sind und selektiven Einfluss auf die ablaufenden Prozesse nehmen.
Die Etablierung des OAE-Residual-Messparadigmas auf der Basis der Methode von Keefe und Ling (1998) sollte die Möglichkeit bieten sowohl Reintöne als auch komplexe, arteigene Stimuli zu verwenden und so eine Erweiterung des herkömmlich verwendeten Messverfahrens darstellen. Über verschiedene Vorversuche unter Anwendung einer Zweitonreizung konnte gezeigt werden, dass die Ergebnisse des neu entwickelten Paradigmas mit denen der herkömmlichen DPOAE-Messungen hinsichtlich Reintonstimuli vergleichbar sind. Anhand der gewonnenen Ergebnisse mit einer Stimulation mit komplexen Signalen zeigen sich allerdings die Schwierigkeiten der neuen Methode. Die bisher erhobenen Daten zeigen keine klaren, reproduzierbare Ergebnisse, sollten aber die Grundbedingungen für die weiterführenden Versuche ebnen.
Mikroalgen wird aufgrund ihrer photoautotrophen Lebensweise, ihrer meist einfachen Anzucht und ihres schnellen Wachstums ein großes Potential als Produzenten verschiedener Stoffe, wie beispielsweise den Sekundärmetaboliten der Carotinoidbiosynthese, zugesprochen. Zur Produktion solcher Stoffe bedarf es der Aufklärung der in einem Biosyntheseweg operierenden Enzyme und ihrer zugehörigen Gene.
In dieser Arbeit sollte einerseits durch genetische Modifikation der Carotinoidbiosynthese der Fucoxanthingehalt erhöht und andererseits die Produktion von Astaxanthin in P. tricornutum erreicht werden. Bisher fehlen experimentelle Nachweise über die Funktion, Regulation und die limitierenden Eigenschaften daran beteiligter Gene und deren Enzyme. Um dem Ziel der Arbeit näher zu kommen, wurden zuerst potentiell an der Regulation der Carotinoidbiosynthese beteiligte Gene ausgewählt und deren Enzyme funktionell charakterisiert. Eines dieser Enzyme ist das Eingangsenzym der Carotinoidbiosynthese, die Phytoen-Synthase. Die entsprechend annotierte putative Sequenz (psy #Pt56881) wurde zur Analyse herangezogen. Nachdem im Rahmen dieser Arbeit über die Komplementation in einem dafür ausgerichteten E. coli Stamm der funktionelle Nachweis der Phytoen-Synthase erbracht werden konnte, wurde untersucht, ob die Phytoen-Synthase einer lichtabhängigen Expression unterliegt und somit die Carotinoidsynthese im WT von P. tricornutum limitiert. Durch die Inhibierung der Phytoen-Desaturase mittels Norflurazon konnte die verstärkte Akkumulation des Produktes der Phytoen-Synthase, Phytoen, bei einem Transfer der P. tricornutum-Kulturen von Schwach- in Starklicht gezeigt werden. Die Expression der Phytoen-Synthase von P. tricornutum wird demnach durch die Lichtbedingungen reguliert und limitiert auch die Carotinoidsynthese. Ein weiteres an der Carotinoidsynthese beteiligtes Enzym ist die Zeaxanthin-Epoxidase. Sie bietet zugleich eine Möglichkeit, an dieser Stelle die Carotinoidsynthese in Richtung Astaxanthinproduktion umzulenken. Für P. tricornutum sind drei potentielle Genkandidaten (zep1: #Pt45845; zep2: #Pt56488; zep3: #Pt56792) annotiert, welche ebenfalls im Rahmen dieser Arbeit funktionell charakterisiert wurden. Der funktionelle Nachweis erfolgte dabei ebenfalls mittels eines Komplementationsansatzes in einem damit neu etablierten Expressionssystem mit npq2-Mutanten aus der Modellpflanze A. thaliana. Die Analyse der Transformanden zeigte eine Epoxidase-Aktivität des Produktes aus zep2 und zep3. Das Enzym Zeaxanthin-Epoxidase 2 weist dabei eine andere Spezifität auf als die Zeaxanthin-Epoxidase 3, welche funktionell betrachtet der Zeaxanthin-Epoxidase aus A. thaliana am nächsten kommt. Die Zeaxanthin-Epoxidase 2 akzeptiert im Unterschied zu Zeaxanthin-Epoxidase 3 neben Zeaxanthin auch andere Substrate wie Lutein mit nur einem 3 Hydroxy-β-Iononring und stellt damit einen validen Kandidaten für die Umwandlung von Diatoxanthin in Diadinoxanthin in P. tricornutum dar. Obwohl die Transkriptanalysen ausreichende Mengen an RNA von zep1 in A. thaliana zeigen und anhand eines zusätzlichen mit der Sequenz für GFP markierten zep1-Konstruktes in WT-Protoplasten von A. thaliana der Import in den Chloroplasten und die Expression nachgewiesen werden konnte, weist die Zeaxanthin-Epoxidase 1 zumindest in den A. thaliana-Transformanden keine Epoxidase-Aktivität auf. Des Weiteren zeigt die diurnale Expression in P. tricornutum, dass die Regulation der Zeaxanthin-Epoxidasen an den Bedarf photoprotektiver Pigmente angepasst wird. Während die Regulation des Transkript-Levels von zep2 und zep3 nahezu parallel laufen und ein gemeinsames Maximum aufweisen, zeigt das Transkript-Level von zep1 ein anderes Maximum.
Die gewonnenen Erkenntnisse wurden dann zur Steigerung der Synthesekapazität mittels genetischer Modifikation des Carotinoidsyntheseweges in P. tricornutum angewendet. Durch das Einbringen zusätzlicher Genkopien der Phytoen-Synthase in P. tricornutum konnte dabei eine deutliche Steigerung des Fucoxanthingehalts unter Schwachlichtbedingungen erreicht werden. Gleichzeitig konnte durch weitere inhibitorische Versuche mittels Norflurazon beim Transfer von Schwach- zu Starklicht demonstriert werden, dass die Carotinoidsynthese durch die Kombination der genetischen Modifikation mit der Phytoen-Synthase und Starklicht per se weiterhin gesteigert werden kann. Zusammen mit den Transkriptanalysen zeigen die Pigmentanalysen, dass es einen nicht-linearen Zusammenhang zwischen RNA-Menge und gebildeter Phytoenmenge gibt, welcher durch eine zusätzliche Substratlimitierung der Phytoen-Synthase erklärt werden kann.
Bevor das Herunterregulieren der Zeaxanthin-Epoxidasen in P. tricornutum durchgeführt und damit ein verstärkter Fluss zur Astaxanthinbildung erreicht werden sollte, wurde das Potential von P. tricornutum zur Astaxanthinproduktion überprüft. Hierfür wurde die β-Carotin-Ketolase (bkt #CrAEA35045.1) aus C. reinhardtii einmal ohne und zusätzlich mit verschiedenen Präsequenzen fusioniert separat in P. tricornutum eingebracht. Astaxanthin konnte trotz Nutzung funktionell bestätigter Präsequenzen aus der Literatur nicht nachgewiesen werden. Die Versuche zeigen damit, dass hier noch weitere Untersuchungen nötig sind, um mittels eines geeigneten Transportsystems Fremd-Proteine in den Chloroplasten von P. tricornutum einzubringen. Das Ausbleiben der Astaxanthinproduktion konnte an dieser Stelle nicht hinreichend geklärt werden.
Insgesamt schaffen die Ergebnisse dieser Arbeit eine weitere Grundlage, um die Carotinoidbiosynthese in P. tricornutum besser zu verstehen und diese mittels genetischer Modifikationen biotechnologisch nutzbar zu machen.
Die Untersuchung befasst sich am Beispiel der fotografischen Arbeiten von Barbara Klemm mit einer aktuellen Entwicklung in der Fotografie. Der Lebens- und Berufsweg der Fotografin steht dabei stellvertretend für eine Generation von Reportage- und Dokumentarfotografen, die in der zweiten Hälfte des 20. Jahrhunderts nicht nur erfolgreich in ihrem Beruf gearbeitet, sondern darüber hinaus auch im musealen Kontext Beachtung erfahren haben. Durch die wachsende öffentliche Aufmerksamkeit und das damit verbundene Ansehen entwickelten sich die Arbeiten von Barbara Klemm von dokumentarischen Zeitungsbildern zu künstlerischen Fotografien. Wie dieser Prozess vom Zeitungsbild zum Museumsbild im Einzelnen abgelaufen ist, wird in der vorliegenden Arbeit untersucht.
Zu Beginn wird der gegenwärtige Umgang mit Fotografie in der Gesellschaft und in der Kunst thematisiert. Es wird die Entwicklung des fotografischen Mediums seit 1960 parallel zu den Wirkjahren von Barbara Klemm untersucht und gezeigt, welchen Einfluss diese Veränderungen auf ihr Werk und dessen Wahrnehmung hatten.
Dies ist im Allgemeinen die Frage nach der Wahrnehmung von Fotografie und im Speziellen nach der Veränderung von Wahrnehmung oder besser nach der Veränderung der Umwelt, die dem Betrachter eine andere Sicht auf die Fotografie ermöglicht. Das Thema ist aus der Sicht der Kunstwissenschaft und Kunstpädagogik bedeutsam, denn es zeigt, wie sich gesellschaftliche Kategorisierungen nicht unmittelbar, sondern im Laufe eines jahrzehntelangen Prozesses verändern. Eine Veränderung, deren Ursachen in einer engen Vernetzung von Wahrnehmung, Kommunikation, gesellschaftlicher Faktoren und ganz unterschiedlicher Entwicklungen innerhalb verschiedener einflussnehmender Systeme in einer gemeinsamen Umwelt zu suchen sind. Die analoge Schwarzweißfotografie ist die Technik in der Barbara Klemm arbeitet. Dies stellt heutzutage eine Besonderheit dar, denn die Sehgewohnheiten der Betrachter sind durch sehr verschiedene Bildarten geprägt. Diese reichen von Schnappschüssen und Amateuraufnahmen mit Kleinbild- oder handykameras bis hin zu professionellen Fotografien in der Werbung oder in Hochglanzmagazinen. Aufgrund der digitalen Technik, bei der mehr Aufnahmen in kurzer Zeit gemacht werden können, treten Komposition, Bildaufbau und Beleuchtung oft in den Hintergrund. Die Unterschiede zwischen analoger und digitaler Fotografie werden zudem in einer geschichtlichen Entwicklung der Reportagefotografie der vergangenen Jahrzehnte vertieft. Barbara Klemm arbeitete den größten Teil ihres Berufslebens als Bildjournalistin bei der Frankfurter Allgemeinen Zeitung. Von 1970 bis 2004 war sie zuständig für die Bereiche Politik und Feuilleton. In diesen Jahren entstanden Bilder, die heute zum kollektiven Gedächtnis vieler Deutscher zählen. Ausgehend von ihrer Arbeit wird dargestellt, wie die Fotografien einem Publikum zugänglich gemacht wurden und im Laufe der Zeit über das Medium der Zeitung hinaus in andere Bereiche der Öffentlichkeit gelangten, vor allem in die Kunst, aber auch in die Bereiche der Geschichte und Erinnerungsarbeit. Unter Verwendung der theoretischen Grundlage und Kategorisierung von Niklas Luhmann werden Arbeiten der Fotografin im System Journalismus und im System Kunst untersucht. An dieser Stelle waren Operatoren notwendig, die ihre Bilder aus dem System des Zeitungswesens in das System der Kunst transferierten. Diese Aufgabe konnten nur bestimmte Schlüsselfiguren (Schlüsselpersonen) erfüllen, denn Barbara Klemm hatte zu keiner Zeit intendiert, künstlerisch zu arbeiten. Das bedeutet, nur ein anerkannter Museumsdirektor oder ein erfahrener Ausstellungskurator konnte ihre Position in das „System Kunst“ einführen.
Nach einer kurzen biografischen Vorstellung der Arbeits- und Lebensstationen werden der Stil, die Technik und die Komposition Barbara Klemms Fotografien analysiert, um anschließend einen Versuch zu unternehmen, die besondere Ästhetisierung der Bilder zu erklären. So besitzt eine gelungene Fotografie von Barbara Klemm einen Mehrwert gegenüber den reinen Reportagebildern. Was der Betrachter vor Barbara Klemms Bildern empfindet und assoziiert, ist zum Teil individuell, zum Teil aber auch sozial, gesellschaftlich und kulturell – also intersubjektiv bestimmt. All seine Erfahrungen prägen die Beziehung zu jedem einzelnen Bild. Dass die Fotografien von Barbara Klemm heute eine breite Akzeptanz erfahren, hängt auch mit gesellschaftlichen Abläufen zusammen. Wissen und Meinungen festigen sich durch Wiederholung, die zur Gewohnheit werden. Vertrautem begegnet man folglich eher mit Sympathie und Wohlwollen, nicht zuletzt vermittelt es eine gewisse Sicherheit. Die langjährige Präsenz als Fotografin bei der Frankfurter Allgemeinen Zeitung stellt demnach eine fruchtbare Basis dar. Symbolisch gesprochen ist ihre Anstellung bei der Tageszeitung das stabile Fundament, auf dem ihr späterer Erfolg als künstlerische Fotografin aufbaut.
Die Inauguraldissertation „Strafrechtsdogmatische und strafprozessuale Probleme bei der Einführung und Umsetzung einer Verbandsstrafbarkeit. Untersuchung des Entwurfs eines Ge-setzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unternehmen und sonstigen Verbänden“ verfasst von Frau Franziska Osterloh, LL.M., befasst sich mit der Einführung einer Verbandsstrafbarkeit. Betreut wurde die Arbeit an der Johann Wolfgang von Goethe – Universität, Frankfurt am Main, von Herrn Prof. Dr. Matthias Jahn. Anlass des aktuellen Auflebens der wissenschaftlichen Diskussion und Anknüpfungspunkt dieser Arbeit war der Entwurf eines Gesetzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unter-nehmen und sonstigen Verbänden, der auf Vorschlag des nordrhein-westfälischen Justiz-ministeriums der Justizministerkonferenz der Länder im November 2013 vorgelegt wurde.
Zu Beginn wird anhand einer kurzen historischen Einführung und einer Darstellung der rechtlichen Grundlagen von Verbandstätigkeit außerhalb des (Kern-)Strafrechts aufgezeigt, dass der Verband als Rechtssubjekt weitestgehend anerkannt und verselbstständigt ist. An-schließend werden die kriminalpolitischen Argumente zur Begründung einer Verbandsstraf-barkeit in ihren wesentlichen Zügen wiedergegeben.
In dem folgenden der Arbeit untersucht die Verfasserin die strafrechtsdogmatischen Probleme der Einführung einer Verbandsstrafbarkeit. Dabei konzentrieren sich die Ausführungen auf die „klassischen“ Eckpunkte des wissenschaftlichen Diskurses, die Handlungs-, Schuld- und Straffähigkeit von Verbänden. Hierbei liegt ein Schwerpunkt auf der Auseinandersetzung mit der Frage der möglichen Schuldfähigkeit eines Verbandes. Als Ergebnis dieses Kapitels wird festgehalten, dass die bloße Zurechnung ebenso wie die selbstständige Verbandsschuld, nicht den Anforderungen des Schuldprinzips genügen kann. Der Bezug zu der natürlichen Hand-lung, die nach außen in Erscheinung tritt, ist mit Hilfe einer Zurechnung erforderlich und dann ausreichend, wenn für den Verband die Möglichkeit bestanden hätte, durch Organi-sationsstrukturen die Ausführung der Handlung zu verhindern.
Anhand dieser Ergebnisse werden die materiell-rechtlichen Aspekte des untersuchten Gesetzesentwurfs näher beleuchtet und insbesondere die in § 2 des Entwurfs enthaltenen Tatbestände, die sich stark an §§ 30, 130 OWiG anlehnen, untersucht. Die Verfasserin kommt zu dem Ergebnis, dass die Tatbestände unter Berücksichtigung einer teleologischen Aus-legung und restriktiven Handhabung nicht gegen Verfassungsrecht verstoßen.
Die Untersuchung der strafprozessualen Aspekte des Gesetzesentwurfs bezieht sich zum einen auf die übergeordneten Verfahrensprinzipien und deren im Ergebnis weitgehende An-wendbarkeit auf Verbände und zum anderen auf die konkreten Normierungen des Entwurfs. Ein Schwerpunkt wird hierbei auf die Beschuldigtenrechte gelegt, die nach Ansicht der Verfasserin noch nicht hinreichend klar normiert sind. Abschließend werden einige strafprozessuale Besonderheiten untersucht, die nicht ausdrücklich oder lediglich beiläufig von dem Gesetzesentwurf aufgefasst werden.
Als Gesamtergebnis der Arbeit wird der untersuchte Gesetzesentwurf zwar als begrüßens-werte Präzisierung und Bereicherung der Diskussion um eine Verbandsstrafbarkeit, jedoch nicht als dessen Schlusspunkt eingeordnet.
Die in den letzten Jahrzehnten erfolgten Entwicklungen im Bereich der Informations- und Kommunikationstechnologien (IKT) haben beinahe alle Teilbereiche der Gesellschaft erreicht (OECD, 2000) und so können Alltag, Beruf, aber auch soziale Interaktionen benannt werden (Autor, Levy, & Murnane, 2003). Das technologiebasierte Problemlösen stellt ein relevantes Kompetenzkonstrukt dar, wobei die empirische Validierung der Testwertinterpretation noch aussteht. „Technologiebasiertes Problemlösen ist die Kompetenz, digitale Technologien, Kommunikationshilfen und Netzwerke erfolgreich für die Suche, Vermittlung und Interpretation von Informationen zu nutzen.“(OECD, 2009; zitiert nach Rammstedt, 2013). Ziel einer Konstruktvalidierung ist es theoretische Annahmen – sowie nomologische Netze – mit empirischen Belegen zu prüfen und somit Aussagen über die Gültigkeit der Testwertinterpretationen treffen zu können (vgl. Messick, 1995). Zu diesem Zweck wurden die folgenden fünf Leithypothesen aufgestellt:
1. Im technologiebasierten Problemlösen können Teilsequenzen durch Routinen im Umgang mit IKT bewältigt werden.
Mit dem Ziel der Analyse von Lösungsprozessen wurden Prozessdaten aus dem Feldtest der PIAAC-Studie genutzt und automatisierbare Teilschritte (beispielsweise Schließen eines Popups) analysiert. Eine schnelle Bearbeitung dieser Teilschritte wurde auch mit einer höheren Lösungswahrscheinlichkeit des Problems assoziiert. Die Testwerte des technologiebasierten Problemlösens spiegeln die bildungsbiographischen Lernerfolge wider, die zu einem routinierten Umgang mit IKT führen.
2. Durch die Entstehungsgeschichte von IKT begründet, bestehen Differenzen im technologiebasierten Problemlösen.
Entstehung moderner IKT legt eine Differenzierung von drei Kohorten nahe (orientiert an lernintensiven Phasen der Kindheit und Jugend):
- Erlebten die Entstehung und Verbreitung von Hardware (geboren 1946-1966)
- Begleiteten die Verbreitung von Computersoftware und dessen Nutzung (geboren 1966-1981)
- Nutzung und Gestaltung digitaler Inhalte des Internets (geboren 1981-1995)
Erwartungsgemäß unterscheiden sich die Kohorten im technologiebasierten Problemlösen – genauer in der Nutzung von Routinen im Lösungsprozess und im erreichten Kompetenzniveau. Ältere Kohorten benötigten im Mittel mehr Zeit für Teilschritte, die durch Routinen bearbeitet werden können und sie erreichten im Mittel niedrigere Kompetenzniveaus. Obwohl Lesekompetenzen eine wesentliche Bedeutung im technologiebasierten Lösen von Problemen haben, können sie die Kohortenunterschiede nicht umfassend aufklären. Weil ältere Personenkohorten während ihrer formellen Ausbildungsphasen IKT – wie sie heute verwendet werden – nicht nutzen konnten, haben informelle Lerngelegenheiten eine wesentliche Bedeutung. So profitieren ältere Personen von einem regelmäßigen, beruflichen oder privaten Umgang mit diesen Technologien. Die Testwerte des technologiebasierten Problemlösens spiegeln entstehungsgeschichtlich begründete Kohortenunterschiede wider, welche durch lebenslange, formelle und informelle Lerngelegenheiten minimiert werden können.
3. Der Umgang mit IKT ist – begründet durch deren Entstehungsgeschichte – eher weniger Teil der formellen und schulischen Bildung.
Technologiebasiertes Problemlösen wird weniger in formellen und schulischen Lerngelegenheiten erworben, als andere Kompetenzen wie beispielsweise mathematische und Lesekompetenzen. Folglich wurden für das technologiebasierte Problemlösen kleinere Differenzen zwischen hohen, mittleren oder niedrigen Bildungsabschlüssen erwartet und konnten empirisch anhand der PIAAC-Daten belegt werden. Vorteile von Personen mit einem hohen Bildungsabschluss konnten durch höhere Lesekompetenzen erklärt werden. Die Testwerte des technologiebasierten Problemlösens bilden entstehungsgeschichtlich begründete Unabhängigkeiten des Kompetenzkonstruktes ab, das zumeist nicht schulisch erworben wurde.
4. Technologiebasiertes Problemlösen ist ein eigenständiges Kompetenzkonstrukt, das Parallelen zu mathematischen und Lesekompetenzen aufweist.
Mathematische und Lesekompetenzen stehen in einem Zusammenhang mit dem Umgang mit IKT und somit auch mit dem technologiebasierten Problemlösen. Die Leseanteile am technologiebasierten Problemlösen werden als größer eingeschätzt, als die der mathematischen Kompetenz und stärkere Effekte durch Lesekompetenz konnten empirisch
nachgewiesen werden. Die Annahme der Eigenständigkeit des technologiebasierten Problemlösens wird im Weiteren dadurch gestützt, dass der alltägliche Umgang mit mathematischen und Leseinhalten weniger stark mit ihm assoziiert ist, als der Umgang mit IKT. Nomologische Netze zwischen technologiebasiertem Problemlösen und mathematischen sowie Lesekompetenzen konnten empirisch gestützt werden und die Annahme der Eigenständigkeit des Kompetenzkonstruktes bestärkt.
5. Die Nutzung von IKT – als Lerngelegenheit verstanden – und andere Lerngelegenheiten sowie Indikatoren erfolgreichen Lernens können zum technologiebasierten Problemlösen beitragen.
Lebenslanges Lernen ist ein Teil der menschlichen Natur und in diesem Rahmen dienen verschiedenste formelle und informelle Lerngelegenheiten dem Erwerb von Wissen und Kompetenzen (Dohmen, 2001). So erreichen Personen im technologiebasierten Problemlösen ein höheres Kompetenzniveau, wenn sie regelmäßig privaten oder beruflichen Umgang mit IKT hatten. Neben diesen informellen Lerngelegenheiten steht auch die Teilnahme an Weiterbildungen in einem positiven Zusammenhang mit der technologiebasierten Bewältigung von Problemen. Des Weiteren hat eine positive Einstellung gegenüber dem Lernen neuer Inhalte einen Einfluss auf die technologiebasierte Problemlösekompetenz. Die Testwerte des technologiebasierten Problemlösens spiegeln die Lernerfolge durch das lebenslange Lernen wider, die durch verschiedene bildungsbiographische Merkmale – insbesondere formelle und informelle Lerngelegenheiten – befördert werden.
Das technologiebasierte Problemlösen in der Operationalisierung der PIAAC-Studie lässt eine konstruktrepräsentative Testwertinterpretation zu und ermöglicht somit eine differenzierte Beschreibung von Kompetenzen im Umgang mit IKT.
Das britische Austrittsreferendum ist eng mit der größeren Thematik der EU-Krise verknüpft. Gäbe es keine Krise der europäischen Integration, hätte der Brexit weniger Appeal. Umgekehrt könnte das Votum der britischen Bevölkerung die EU-Krise dramatisch verschärfen. Aus der Sicht dritter Staaten kann die Reputation des globalen Akteurs EU nur leiden, wenn eines der größten und wichtigsten Mitglieder die Leinen kappt, weil, so die „Brexiteers“, das europäische Projekt ohnehin keine Zukunft habe. Welche Konsequenzen der Brexit für den Rest der EU haben wird, hängt auch davon ab, wie Großbritannien den Exit-Schock und die Folgen verarbeitet. Möglicherweise wird den Briten (und anderen) der Wert der EU erst mit dem Ausscheiden deutlich. Dennoch erwischt der Brexit die EU in einer denkbar ungünstigen Phase und könnte die Krise vertiefen. Zumindest macht das Beispiel Schule. Bereits vor der britischen Entscheidung forderten Parteien und Bewegungen in mehreren EU-Ländern ebenfalls das Recht auf ein Referendum über Verbleib oder Austritt. Und Umfragen deuteten an, dass zumindest in einigen EU-Ländern eine Mehrheit für den Austritt votieren könnte. Nach dem Brexit rufen Marine Le Pen, Norbert Hofer und andere noch lauter nach Abstimmungen in ihren Ländern. Die europäischen Eliten werden sich in dem Spagat üben müssen, einerseits bei europäischen Fragen auf ihre Bevölkerungen zu hören, andererseits die Forderungen nach organisierter Beteiligung in Form von Referenden abzuwehren....
Die „Frankfurter Schule des Strafrechts“, eine strafrechtskritische, aber nicht abolitionistische Perspektive auf das Strafrecht, verneint die Möglichkeit eines gänzlich unpolitischen Strafrechts, und betreibt, an der Wirklichkeit des Strafrechts interessiert, grundlagenorientiert Strafrechtstheorie und -dogmatik. In dieser Tradition werden die kriminalpolitischen Herausforderungen gekennzeichnet: Das Strafrecht in der globalisierten und ökonomisierten Mediengesellschaft zunehmender Pluralität und Diversität. Die Herausforderungen, die mit diesen gesellschaftlichen Entwicklungen verbunden sind, lassen sich kennzeichnen als Balanceakt zwischen Flexibilität und Prinzipientreue. Das Strafrecht darf sich nicht fundamentalistisch auf das beschränken, was schon seit Ewigkeiten Straftat ist, muss aber auf seinem Charakter als ultima ratio beharren, und darf sich und seine Zurechnungsprinzipien, provoziert durch die neuen Gegenstände (wie z.B. die Wirtschafts- und Umweltkriminalität) und die steigenden Sicherheitsbedürfnisse einer verunsicherten und nach Prävention strebenden Gesellschaft, nicht bis zur Unkenntlichmachung verbiegen lassen.
Bei Erlass des PUAG verzichtete der einfache Gesetzgeber bewusst auf eine mögliche Vereidigung von Zeugen vor Untersuchungsausschüssen. Das Recht zur Zeugenvereidigung ist aber, wie dargelegt wird, in der Verfassung selbst gewährleistet. Damit sind intrikate Fragen sowohl zum Verhältnis von Verfassung und Gesetz sowie im bundesstaatlichen Verhältnis aufgeworfen. Dem einfachen Gesetzgeber steht zwar die Befugnis zu, ein Gesetz über Untersuchungsausschüsse zu erlassen, fraglich ist aber, ob er berechtigt ist, Untersuchungsausschüssen des Bundestages Rechte zu nehmen, die ihnen nach dem Grundgesetz zustehen; dies ist im Ergebnis zu verneinen. Die bundesrechtlichen Änderungen zeitigten indes sogar Folgen für das Verfassungsrecht der Länder. Infolge der mit Einführung des PUAG gleichzeitig erfolgten Änderung des StGB entschied der Hessische Staatsgerichtshof im Jahr 2011, dass Untersuchungsausschüssen des Landtages ein Vereidigungsrecht nicht mehr zustehe, welches er zuvor aus der Hessischen Verfassung abgeleitet hatte. Der Gerichtshof gesteht dadurch dem Strafrecht die Macht zu, öffentlich-rechtliche Kompetenzen in den Ländern zu ändern.
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
Diese Dissertation geht der Frage nach, wie die Literacy-Förderung der Kinder im Kindergartenalter in türkischstämmigen Familien in Deutschland stattfindet. Es wird der Frage nachgegangen, wie sich sozioökonomische und soziokulturelle Verhältnisse der Familien die Literacy-Förderung beeinflussen. Es wurden zwei qualitative Untersuchungen durchgeführt. Im ersten Teil der Arbeit wurden zwölf Mütter anhand halbstrukturierter Interviews befragt. Die Daten wurden anhand der qualitativen Inhaltsanalyse ausgewertet. Im zweiten Teil wurde als nichtteilnehmende, offene Beobachtung der Vorlesesituation durchgeführt. Anhand der Sequenzanalyse wurde die Vorgehensweise der Mütter während des Vorleseprozesses ausgewertet.
Es wurde untersucht, inwieweit der ökonomische Status und das kulturelle Kapital der Eltern für die Literacy-Förderung prägend sind. In den untersuchten Familien sind sowohl die literacy-bezogenen Aktivitäten als auch die Erziehung insgesamt stark an den Normen der Mehrheitsgesellschaft orientiert. Entscheidend sind nicht auf Ethnizität bezogene Zuschreibungen, sondern die sozioökonomische Stellung und das kulturelle Kapital der Eltern bei der Literacy-Förderung in den türkischstämmigen Familien.
Die Untersuchung zeigt im ersten Teil, dass die untersuchten Familien bei der Literacy-Förderung mit zahlreichen Hindernissen konfrontiert sind, die nicht primär ethnisch begründet sind, sondern vielmehr auf sozioökonomische und soziokulturelle Faktoren zurückgeführt werden müssen. Die berufliche Situation und Arbeitsbedingungen der Eltern erschweren die Durchführung der literacy-bezogenen Aktivitäten. Der ökonomische Status und der Bildungsstand sowie das kulturelle Kapital der Eltern ist der Grund für Hindernisse. Das macht sich bemerkbar in drei Gesichtspunkten: (i) Bei der direkten Anregung des Kindes zu Literacy, wenn das Kind zum Schreiben initiiert wird, sein Interesse für Bücher geweckt oder bei alltäglichen Aktivitäten zum Schriftentdecken herangeführt wird. Die Mütter, die über kulturelles Kapital verfügen, führen diese Aktivitäten regelmäßig und effizient durch. (ii) Bei der Gestaltung der Literacy-Umgebung, wenn diese vielfältig gestaltet wird (z.B. die Auswahl elektronischer Medien). Hierbei macht sich der sozioökonomische Status am deutlichsten bemerkbar. (iii) Auch bei der die Vorbildfunktion der Eltern als indirekte Anregung macht sich kulturelles Kapital bemerkbar. Im zweiten Teil der empirischen Untersuchung zur Vorlesesituation sind zwei Handlungsmuster festgestellt worden, die dem Vorleseverhalten der Mütter zugrundeliegen. Dabei ist das kulturelle Kapital entscheidend. Die Mütter mit niedrigem Kulturkapital führen den Vorleseprozess monologisch und einseitig, sodass die Kinder nicht oder nicht hinreichend einbezogen werden. Die Mütter mit höherem Kulturkapital dagegen gestalten den Vorleseprozess dialogisch, sodass das Kind eingebunden wird. Der wichtigste Unterschied zwischen den beiden Handlungsmustern ist die Vermittlung der Erzählung. Im dialogischen Handlungsmuster wird der Vorleseprozess interaktiv gestaltet und die Haupthandlung der Geschichte im Blick behalten. Im monologischen Handlungsmuster aber hoffen die Vorlesenden, dass die Kinder durch bloßes Zuhören die Geschichte begreifen. Hier dominiert die Fokussierung auf die Einzelhandlungen. Während die Mütter höherem Kulturkapital die Vermittlung der Erzählung als ein zu erreichendes Ziel begreifen, tritt dies bei denen mit geringem Kulturkapital in den Hintergrund.
Im Nachgang der Finanz- und Wirtschaftskrise beobachten wir derzeit sehr niedrige Renditen im „sicheren“ Anlagebereich auf dem Geldmarkt und für Staatsanleihen. Gleichzeitig sind Aktienkurse massiv gestiegen und zeichnen sich seit Beginn 2015 durch eine Seitwärtsbewegung aus. Die Ursachen für diese Entwicklung sind teilweise bekannt: Niedrige Zinssätze aufgrund einer expansiven Geldpolitik gepaart mit hoher Unsicherheit an den Märkten reduzieren die Auswahl attraktiver Kapitalanlagemöglichkeiten erheblich. Doch wie wird sich die langfristige Entwicklung gestalten, wenn oder falls die Wirkungen der jüngsten Finanz- und Wirtschaftskrise nachlassen? Gibt es einen langfristigen Trend? Spiegelt sich dieser Trend etwa bereits heute in den niedrigen Renditen wider?
Vor mehr als einem Jahrzehnt, also bereits einige Jahre vor der jüngsten Finanz- und Wirtschaftskrise, wurde wiederholt die sogenannte „Asset Market Meltdown“-Hypothese postuliert. Nach dieser Hypothese würden in den dreißiger Jahren dieses Jahrhunderts die Kapitalrenditen stark sinken, wenn die „Babyboomer“-Generation in den Ruhestand gehe und infolgedessen Kapital aus dem Wertpapiermarkt abziehe. Heute wird eine ähnliche Debatte unter dem Stichwort „säkulare Stagnation“ geführt. Danach bestehe die Gefahr, dass die nächsten Jahrzehnte durch niedrige Wachstumsraten geprägt sein und negative Realzinsen gar zur Normalität werden könnten. Dieser Beitrag geht der Frage nach, inwiefern die demographische Entwicklung für eine solche Stagnation verantwortlich ist.
Steueroasen besitzen drei wichtige Merkmale, die aus der Sicht von Steuerhinterziehern und Steuervermeidern anderer Länder besondere Anziehungskraft haben. Sie bieten niedrige Steuersätze für alle oder für bestimmte Kapitaleinkommen. Sie weisen eine hohe politische Stabilität und funktionierende Institutionen auf. Schließlich verbinden sie dies mit einem hohen Maß an faktischer Intransparenz in den Besitzstrukturen von Briefkastenfirmen sowie einer ausgeprägten Vertraulichkeit von Bankdaten. Unter Führung der OECD hat sich in den letzten Jahren der politische Druck auf die internationalen Steueroasen erhöht und zu einer Reihe von bilateralen und multilateralen Abkommen zum Informationsaustausch geführt. Da diese Abkommen nicht alle Steueroasen umfassen, haben sie die Gesamtanlagen in den Steueroasen allerdings bisher nur in sehr geringem Umfang reduzieren können. In Deutschland werden die internationalen Abkommen der letzten Jahre von Seiten der Steuerpolitik aber bereits als Erfolg verbucht und eine stärker progressive Besteuerung von Kapitaleinkünften diskutiert. Falls weiterhin ein Teil der einschlägigen Steueroasen dem Informationsaustausch fernbleibt, bietet es sich an, auf bilateralem Wege Verhandlungen aufzunehmen oder den Druck über multilaterale Verfahren und Sanktionen zu erhöhen.
Das Außenministerium der Vereinigten Staaten von Amerika und die amerikanische staatliche Behörde für Entwicklungszusammenarbeit USAID haben gerade ihre Gemeinsame Strategie gegen gewaltbereiten Extremismus (Joint Strategy on Countering Violent Extremism) vorgestellt. Nachstehend sollen die wesentlichen Inhalte kurz skizziert werden.
Gestern hat der Deutsche Bundestag mit nur einer Gegenstimme und einer Enthaltung zum ersten Mal den Völkermord an den Armeniern im Ersten Weltkrieg formal anerkannt. Die Türkei hat daraufhin sogleich ihren Botschafter zurückbeordert; weitere Maßnahmen z. B. die Aussetzung des Flüchtlingskompromisses könnten folgen. Die Krux jedoch von all‘ dem ist die Frage, ob es in den Jahren 1915-1917 einen Genozid an der eigenen christlich-armenischen Minderheit gab oder nicht:...
Seit der Antike wird über das Thema der Ästhetik, über das Schöne, diskutiert. Diese Diskussion, die mit der Frage „Was ist schön?“ anfängt und was „schön“ als Wert ausdrückt, was die Quelle des Schönheitsgefühls bei dem Menschen ist, und auch die Frage nach dem Prozess der Entstehung eines ästhetischen Urteils, wird bis zur heutigen Zeit geführt. Heutzutage ist das ästhetische Verständnis des Propheten Muhammed nicht nur Untersuchungsthema, die Muslime haben im 21. Jahrhundert die von ihm erhaltenen ästhetischen Werte durch direkte Übertragung in ihr Leben und in ihre Lebensweise integriert. Die Koranforschung hat ergeben, dass der Sinn für Schönheit eine Fähigkeit bezeichnet, die dem im Koran erwähnten Menschen mit der Geburt gegeben worden ist. Im Propheten Muhammed hat das in ihm vorhandene Potenzial in der vorislamischen Zeit durch Aufrechterhaltung und durch göttliche Erziehung, die ihm nach dem Erhalt der prophetische Mission zuteil wurde, den Höhepunkt erreicht. In diesem Sinne ist sein Auftreten schön und die Schönheit beim letzten Propheten kein Zufall. Die Schönheit, die dem Koran folgend mit dem ersten Menschen, Adam, begann, fand ihre Vollendung im Propheten Muhammed Denn für den Propheten Muhammed war die Schönheit nicht lediglich ein philosophischer Wert, sondern im Gegenteil eine Lebensweise. Zu Beginn der Behandlung des ästhetischen Themas Am Anfang der Beschäftigung des Korans mit der Frage der Ästhetik liegt vor allem in den Worten der glaubenden Menschen, in ihrem Verhalten, den Zielen, die sie erreichen wollen, und in ihrem Glauben und ihren Gottesdiensten. Nach dem Koran ist es Allah, der die Geschöpfe verschönert, diese Schönheit wurde den Geschöpfen während ihrer Erschaffung gegeben. Mit anderen Worten hat Allah die Geschöpfe schön erschaffen. In der islamischen Welt gibt es Philosophen und Islamwissenschaftler, die über die Vorstellung der Schönheit Überlegungen anstellen...