Refine
Year of publication
- 2014 (1399) (remove)
Document Type
- Article (381)
- Part of Periodical (182)
- Contribution to a Periodical (173)
- Book (130)
- Review (122)
- Report (119)
- Doctoral Thesis (82)
- Working Paper (64)
- Part of a Book (59)
- Master's Thesis (19)
Language
- German (1399) (remove)
Keywords
- Literatur (34)
- Rilke, Rainer Maria (34)
- Deutsch (33)
- Ukraine (22)
- Russland (21)
- Deutschland (18)
- USA (16)
- Kongress (14)
- Rezension (14)
- Europa (13)
Institute
- Präsidium (354)
- Gesellschaftswissenschaften (158)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (61)
- Geschichtswissenschaften (55)
- Rechtswissenschaft (45)
- Kulturwissenschaften (42)
- Medizin (41)
- Wirtschaftswissenschaften (33)
- Physik (30)
- Neuere Philologien (25)
Neue Forschungsmethoden verändern oft auch die Bedeutung von Fachsammlungen. Häufig verläuft dieser Wandel zu einer Sammlung von nunmehr historischem Wert schleichend. Manchmal werden Sammlungen auch durch neue Fragestellungen für andere Fachwissenschaften unerwartet wertvoll. Gastautor Jochen Hennig, Sammlungsbeauftragter des Präsidiums der Humboldt-Universität zu Berlin, plädiert dafür, den Bedeutungswandel von Universitätssammlungen aktiv zu begleiten.
Wissenschaft findet nicht nur im Labor statt. Sie ist eingebettet in ein soziales und wirtschaftliches Gefüge. Dieses kommt besonders dann zum Ausdruck, wenn Kontroversen über die Interpretation von Experimenten entstehen. Ein Beispiel dafür ist Prof. Dr. Rolf Marschaleks Theorie zur Entstehung bestimmter Leukämien. Der Frankfurter Forscher hält die über viele Jahre als richtig akzeptierte Theorie seiner bekannten amerikanischen Kollegin Janet Rowley für zu eng gefasst – und macht sich damit in der Fachwelt jenseits des Atlantiks nicht nur Freunde.
Inter- und Transdisziplinarität sind ein Versuch, das Spezialwissen verschiedener Disziplinen miteinander zu verbinden, um die komplexen Fragestellungen unserer Zeit beantworten zu können. Beate Meichsner hat im Gespräch mit Wissenschaftlern unterschiedlichster Disziplinen Chancen und Grenzen, Möglichkeiten und Stolpersteine interdisziplinärer und transdisziplinärer Forschung eruiert.
Die Mathematik ist die einzige Wissenschaft, in der Wissen nicht veraltet. Das hängt damit zusammen, dass sie ein geistiges Konstrukt ist, das zuallererst im Kopf der Mathematiker entsteht. Zwar gibt es heute manche Teilgebiete wie die angewandte Mathematik, die praxisbezogene Probleme unter Aufwendung großer Rechnerleistungen lösen, doch Gebiete wie die reine Mathematik benötigen den PC nur zum Testen von Hypothesen. Dennoch hat sich die Arbeitsweise der Mathematiker in den letzten Jahrzehnten verändert.
Manche Wissenschaftler haben die Gabe, andere zu inspirieren. Sie ziehen talentierte junge Menschen an, sind gut vernetzt und bringen wiederum erfolgreiche Forscher hervor. Heike Jüngst spürt dem Erfolgsrezept der Begründer wissenschaftlicher Schulen an einem historischen und einem zeitgenössischen Beispiel nach.
Als Rainer Forst, Professor für politische Theorie und Philosophie an der Frankfurter Universität, 2012 den Leibniz-Preis erhielt, hieß es in der Laudatio, er führe die »philosophische Tradition der Frankfurter Schule mit Jürgen Habermas und Axel Honneth auf höchstem Niveau« fort. In diesem Jahr wird das Frankfurter Institut für Sozialforschung 90 Jahre alt, und die Anfänge der »Frankfurter Schule« liegen ungefähr 85 Jahre zurück – Anlässe genug, um zu fragen: Wie hat sich die »Frankfurter Schule« gewandelt?
Im 18. Jahrhundert waren die Varietäten des Menschen aus zwei Gründen kein ganz neues Thema mehr. Zum einen griff die Aufklärung auf eine umfangreiche Literatur der Weltumsegler. Missionsreisenden und Abenteurer zurück, die seit dem 15. Jahrhundert von der Vielfalt der Völker, der sie umgebenden Natur und ihren Gebräuchen zu berichten wussten. Das beginnt bei der Historia nalural y morals de las Indias des spanischen Jesuiten José de Acosta (1539/1540-1599/1600) von 1590, die schon die Vermutung formuliert hat, dass auch die Indianer mit den anderen Völkern verwandt und über eine Landbrücke aus Nordasien nach Amerika gelangt seien, und reicht dann bis zu Rousseau, Voltaire, Diderot und Helvétius. Die andere Tradition ist die der Philosophie, für die Descartes' Ableitung der Einheit des Menschengeschlechts aus den physiologische Gemeinsamkeiten einschließlich der menschlichen Seele steht, wie er sie in seinem Traité de I'homme formuliert hat, 1632 geschrieben und 1662 posthum unter dem Titel De homine veröffentlicht und die ihrerseits auf die Nachwirkungen der aristotelisch inspirierten Scholastik und im 16. Jahrhundert entstandenen Physiologie zurückgeht. Das Menschengeschlecht war eines, das entsprach der biblischen Vorstellung ebenso wie der aristotelisch angeleiteten Wissenschaftssystematik, nicht unnötig viele Theorien zu nutzen. Von den Varietäten war also so viel die Rede wie von der Einheit der Menschheit.
Ein neophytisches Schaumkraut, das sich am Bodenseeufer massiv ausgebreitet hat und in jüngster Zeit vielfach auch in Belgien und den Niederlanden beobachtet wurde, konnte als Unkraut in einem Gartencenter, einem Baumarkt und auf drei Friedhöfen in Aachen nachgewiesen werden. Die Art wird als Japanisches Reisfeld-Schaumkraut, Cardamine flexuosa auct., Asian C. flexuosa, C. flexuosa subsp. debilis und aktuell als C. hamiltonii bezeichnet. Offenbar handelt es sich um Erstnachweise für Nordrhein-Westfalen.
Es ist 18:50 Uhr an einem Mittwochabend. Das PA-Gebäude auf dem Campus Westend ist hell erleuchtet. Während draußen die ersten Gäste stehen, ist im Innern ein junger Mann in Hemd und Sakko damit beschäftigt, einen roten Teppich von den letzten Flusen zu befreien. In wenigen Minuten werden die ersten Besucher der Ausstellung »36 Stifter für eine Idee« in den Saal treten, über den frisch gesaugten Teppich laufen und das Ergebnis von drei Jahren Arbeit begutachten.
Erinnerungsorte
(2014)
Immatrikulationsfeiern gehörten zum festen Ritual der universitären Kultur, bis in den 1960er Jahren bewusst mit dieser Tradition gebrochen wurde. Heute werden die Studierenden an der Goethe-Universität beim "unistart" begrüßt. Ist diese Veranstaltung ein Brückenschlag zwischen Gegenwart und alten Zeiten oder eher ein Spiegel des sich wandelnden universitären Selbstverständnisses?
Kollektives und kulturelles Erinnern : Erinnerungskulturen leben von der Dynamik der Gegenwart
(2014)
Keine Gemeinschaft kommt ohne kollektive Erinnerungen aus, dazu gehören Gedenkfeiern und Denkmäler ebenso wie Mythen und Rituale oder die Identifikation mit großen Ereignissen oder Persönlichkeiten. Erinnern ist nicht nur identitätsstiftend, es bedeutet auch, sich vergangene Erlebnisse zu vergegenwärtigen – oder wie Marcel Proust es ausdrückt: "Erst im Gedächtnis formt sich die Wirklichkeit." Wenn die Erinnerungskultur ihre Dynamik aus der Aktualität verliert, ist sie tot.
»Königliche Universität zu Frankfurt a. M.« – mit diesem Namen konnten sich auch die Frankfurter Stifter arrangieren, formalrechtlich hätte Wilhelm II. den Vortritt gehabt. Goethe, natürlich immer fester Bestandteil des philologischen
Bildungskanons, rückte der Universität verhalten näher: zunächst mit seinem Relief über dem historischen Haupteingang, bis es zu seinem 100. Todestag 1932 an der Zeit schien, die Universität nach dem Dichterfürsten zu benennen.
Das Verhältnis zwischen den Frankfurtern und ihrer Universität ist ein wechselvolles: gestiftet und großzügig unterstützt von Bürgern und Stadtpolitikern, gepflegt in den harten Jahren der Inflation, gleichgeschaltet und wissenschaftlich ausgehungert während des Nationalsozialismus, entfremdet und abgelehnt nach der Studentenrevolte in den 1960er und 1970er Jahren, wiederentdeckt ab den 1980er Jahren, geschätzt und gefördert seit der (Rück-)Verwandlung in eine Stiftungsuniversität (2008).
Wie nehmen Sie die Goethe-Universität heute in Zeiten des stärkeren nationalen und internationalen Wettbewerbs der Hochschulen wahr?
Was war rückblickend die wichtigste Veränderung, die Sie während Ihrer Amtszeit initiieren konnten?
Wenn Sie Ihre Zeit als Präsident noch einmal Revue passieren lassen, welche Episode lässt Sie heute noch schmunzeln?
Sie hätten die Chance, 2015 nochmal als Präsident anzutreten, welche Impulse würden Sie dann setzen wollen?
Was wünschen Sie der Goethe-Universität für die nächsten 50 Jahre?
Eine weltoffene, tolerante und liberale Intellektualität prägt die Frankfurter Universität – abgesehen von dem dunklen Kapitel während des Nationalsozialismus – seit ihrer Gründung 1914. Gegründet und gestiftet von wohlhabenden und engagierten Bürgern der Stadt, war sie von Beginn an etwas Besonderes in der deutschen Universitätslandschaft.
Im World Wide Web werden diverse Dinge kostenlos angeboten. So auch die so genannte Open-Source-Software. Dass viele Akteure freie und kostenlos zugängliche Software entwickeln, ohne in geregelter Weise dafür entlohnt zu werden, wirft die Frage nach der grundsätzlichen Vereinbarkeit dieses Phänomens mit dem herrschenden kapitalistischen Wirtschaftssystem auf. Ökonomisches Verhalten scheint außer Kraft gesetzt. Statt von „Ökonomie“ könnte man in diesem Fall von „Geschenkökonomie“ bzw. „Gift Economy“ reden. Es stellt sich die Frage, welche Rolle Gaben/Geschenke im Rahmen des Open-Source-Phänomens spielen und inwiefern dieses Phänomen durch die vorhandenen Theorien zur Gift Economy erklärt werden kann. Um die Forschungsfragen zufrieden stellend zu beantworten, bedarf es einerseits einer Präzisierung auf theoretischer Ebene, die neben den bestehenden Theorien zur Gift Economy das Phänomen Open-Source im Besonderen berücksichtigt. Darüber hinaus soll das Phänomen Open Source in Form einer qualitativen empirischen Studie, welche die je spezifischen Motive des ,Zusammenhandelns’ der Open-Source-Programmierer zum Gegenstand hat, daraufhin untersucht werden, welche Rolle Gabe/Geschenke in Bezug auf dieses spielen. Ziel ist es hierbei, eine Typologie des Open-Source-Programmierers zu entwickeln. Anhand dieser Typologie soll deutlich werden, welche unterschiedlichen thematischen Kontexte für das Phänomen Open-Source rele¬vant sind. Auf Basis der Forschungsergebnisse ist es dann zudem möglich, in einer Schlussfolgerung die Theorie der Gift Economy auf der sicheren Basis em¬pirischer Daten gegebenenfalls weitergehend zu differenzieren.
Ein Ansatz für semantisches Selbstmanagement von verteilten Anwendungen im privaten Lebensumfeld
(2014)
Die Anreicherung des privaten Lebensumfelds mit intelligenten technischen Assistenzsystemen wird in den nächsten Jahrzehnten stark zunehmen. Als Teil dieser Entwicklung wird die Nutzung von externen und hauseigenen IT-Diensten steigen, wodurch sich auch die Komplexität der entstehenden Gesamtsysteme erhöht. Hier sind Ansätze gefordert, diese Systeme auch für technisch nicht versierte Benutzer produktiv nutzbar und beherrschbar zu gestalten, um eine Überforderung zu vermeiden. Im Umfeld häuslicher Dienstplattformen, die eine zentrale Rolle in solchen Systemen übernehmen, nimmt seit ein paar Jahren die Bedeutung der semantischen Modellierung von Diensten stark zu. Diese dient zum einen der formalen Repräsentation von zugehörigen Kontextinformationen, die durch Interaktion mit Sensoren und Aktoren entstehen, und zum anderen der Verbesserung der Interoperabilität zwischen Systemen unterschiedlicher Hersteller. Bisherige Ansätze beschränken sich jedoch auf den Einsatz eines zentralen Rechenknotens zur Ausführung der Dienstplattform und nutzen Semantik – wenn überhaupt – nur zur Verarbeitung von Kontextinformationen. Ein technisches Management des Gesamtsystems findet i.d.R. nicht statt.
Vor diesem Hintergrund ist das Ziel dieser Arbeit die Entwicklung eines Ansatzes für semantisches Selbstmanagement von verteilten dienstbasierten Anwendungen speziell im Umfeld häuslicher Dienstplattformen.
Die vorliegende Arbeit definiert zunächst formale Ontologien für Dienste, Dienstgütemanagement, Selbstmanagement und zugehörige Managementregeln, die zur Laufzeit mit konkreten Diensten und deren erfassten Leistungskenngrößen integriert werden. Durch einen modellgetriebenen Architekturansatz (Model Driven Architecture, MDA) wird ein technologieunabhängiges Management auf abstrakter Ebene ermöglicht, das die Wiederverwendbarkeit von Managementregeln in anderen Szenarien erlaubt.
Dieser Ansatz wird zunächst in eine Architektur für einen hochverfügbaren autonomen Manager überführt, der die Überwachung und Steuerung von Diensten und zugehörigen Dienstplattformen übernehmen kann und auf der aus dem Autonomic Computing bekannten MAPE-K-Kontrollschleife (Monitor, Analyze, Plan, Execute, Knowledge) basiert.
Den Abschluss der Arbeit bildet eine qualitative und quantitative Evaluation (mittels einer OSGi-basierten prototypischen Umsetzung) der erreichten Ergebnisse, die einen Einsatz über die Grenzen des privaten Lebensumfelds hinaus nahelegen.
Wassergefiltertes Infrarot A (wIRA) stellt eine spezielle Form der Infrarotstrahlung im Bereich von 780–1400 nm dar, die aufgrund ihrer sehr guten Verträglichkeit in der Medizin zur Prävention und Therapie verwendet wird.
wIRA steigert Temperatur, Sauerstoffpartialdruck und Durchblutung im Gewebe. wIRA mindert indikationsübergreifend Schmerzen, Entzündung und vermehrte Sekretion und verbessert die Infektabwehr und Regeneration, insbesondere auch nach sportlicher Belastung. Zudem kann wIRA als kontaktfreies Verfahren simultan mit Bewegung und Training kombiniert werden.
Die klinische Anwendung von wIRA kann präventiv, therapeutisch, regenerativ oder rehabilitativ erfolgen.
Der hier vorliegenden Übersicht liegen u.a. 6 sportmedizinische Studien mit wIRA zugrunde.
So nahmen beispielsweise 25 Probanden an einer prospektiven, randomisierten, kontrollierten Studie mit stufenweise ansteigender ausbelastender Fußkurbelergometrie teil, an einem Tag mit anschließender Bestrahlung der ventralen Oberschenkelmuskulatur mit wIRA (bzw. am Kontrolltag stattdessen Pause) in Ruhe über 20 Minuten. Am Tag mit Bestrahlung verbesserte sich das Befinden der belasteten Oberschenkelmuskulatur auf einer visuellen Analogskala (umsetzbar in 0–100) von 36 auf 71 signifikant mehr (p=0,0138) als am Kontrolltag in Ruhe ohne Bestrahlung (von 34 auf 54). Erstaunlicherweise erreichte das Befinden nach 20 Minuten Bestrahlung wieder den Ausgangswert vor der Ergometrie von 70. Nach den 20 Minuten Ruhe (mit Bestrahlung bzw. Pause) folgte eine zweite Ergometrie, in der die Leistungsfähigkeit am Tag mit Bestrahlung signifikant weniger (p=0,0128) als am Kontrolltag absank.
Es werden ausführlich die Anwendungsmöglichkeiten von wIRA in der Sport- und Präventivmedizin dargestellt.
Dieser Text hinterfragt das Paradox des „sicheren Risikosports“ Hallenklettern anhand soziologischer Reflexion. Dazu werden mathematisch-logische, ethnographische und juristische Perspektiven eingenommen, um einer naiven Statistikgläubigkeit entgegenzuwirken, den gesunden Menschenverstand nach GEERTZ in Zweifel zu ziehen und das Konstrukt der eigenverantwortlichen Selbstgefährdung auf seine Passfähigkeit hin zu prüfen. Die Analyse zeigt auf, dass die momentane Verantwortungszuweisung nur eine mögliche Alternative darstellt und leider nicht die optimalste. Denn sie verhindert letztlich eine effektive Unfallprävention.
Privatschulfinanzierung
(2014)
Das Privatschulwesen in Deutschland wird ganz überwiegend aus öffentlichen Mitteln finanziert. Seit den 1970er Jahren wird dies vom Bundesverfassungsgericht als Ausfluss des Art. 7 Abs. 4 GG verlangt; die Finanzierung obliegt jedoch den Ländern. Der Beitrag bietet einen systematischen Überblick über die Konflikte die zwischen Privatschulträgern und Ländern über den Umfang der Finanzierung bestehen und nimmt zu den verfassungsrechtlichen Argumenten kritisch Stellung. Es wird gezeigt, dass das Grundgesetz den Ländern mehr Spielräume belässt, als oft behauptet wird.
Das Bundesverfassungsgericht ist für seine Entscheidungen, die sich in besonderer Weise auf das Demokratieprinzip des Grundgesetzes (Art. 20 Abs. 2 GG) stützen, viel kritisiert worden. Der Beitrag analysiert insbesondere die Entscheidungen zum Ausländerwahlrecht und zur Europäischen Integration im Hinblick darauf, ob sich neben dem vielfach kritisierten Demokratieverständnis, das ein monistisch verstandenes (deutsches) Volk zum Ausgangspunkt nimmt, auch offenere Demokratiemodelle zumindest zwischen den Zeilen dieser Entscheidungen entdeckt werden können. Das Ergebnis fällt allerdings ernüchternd aus. Jede Öffnung, die Alternativen neben dem monistischen Modell der Volkssouveränität andeutet, wird in den folgenden Sätzen dieser Entscheidungen sogleich wieder zurückgenommen.
Am Beispiel von Strukturen, Prozessen und Inhalten der Interessenvermittlung zur Etablierung eines Sektors zum Offshoring von Dienstleistungen in der Stadt Fes wird lokale Wirtschaftspolitik in Marokko in einer detaillierten empirischen Studie analysiert. Dabei wird die Relevanz von Klientelismustheorien zur Erfassung und Erklärung von Interessenvermittlung relativiert und der empirische Fall in die Diskussion zu politischer Ökonomie, Staatlichkeit und Transformation in der MENA-Region im Allgemeinen und in Marokko im Besonderen eingeordnet.
Die Simulation von Strömung in geklüftet porösen Medien ist von entscheidender Bedeutung in Hinblick auf viele hydrogeologische Anwendungsgebiete, wie beispielsweise der Vorbeugung einer Grundwasserverschmutzung in der Nähe einer Mülldeponie oder einer Endlagerstätte für radioaktive Abfälle, der Förderung fossiler Brennstoffe oder der unterirdischen Speicherung von Kohlendioxid. Aufgrund ihrer Beschaffenheit und insbesondere der großen Permeabilität innerhalb der Klüfte, stellen diese bevorzugte Transportwege dar und können das Strömungsprofil entscheidend beeinflussen. Allerdings stellt die anisotrope Geometrie der Klüfte in Zusammenhang mit den enormen Sprüngen in Parametern wie der Permeabilität auf kleinstem Raum große Anforderungen an die numerischen Verfahren.
Deswegen werden in dieser Arbeit zwei Ansätze zur Modellierung der Klüfte verfolgt. Ein niederdimensionaler Ansatz motiviert durch die anisotrope Geometrie mit sehr geringer Öffnungsweite und sehr langer Erstreckung der Klüfte und ein volldimensionaler Ansatz, der alle Vorgänge innerhalb der Kluft auflöst. Es werden die Ergebnisse dieser Ansätze für Benchmark-Probleme untersucht, mit dem Ergebnis, dass nur bei sehr dünnen Klüften der numerisch günstigere niederdimensionale Ansatz zufriedenstellende Ergebnisse liefert. Weiterhin wird ein Kriterium eingeführt, dass während der Laufzeit anhand von Eigenschaften der Kluft und Strömungsparametern angibt, ob der niederdimensionale Ansatz ausreichende Gültigkeit besitzt. Es wird ein dimensions-adaptiver Ansatz präsentiert, der dann entsprechend dieses Kriteriums einen Wechsel zum volldimensionalen Modell durchführt. Die Ergebnisse zeigen, dass so wesentlich genauere Ergebnisse erzielt werden können, ohne dass eine volle Auflösung in jedem Fall und über den gesamten Rechenzeitraum erforderlich ist.
Unter medizinischer Kommunikation werden verschiedene Kommunikationstypen zusammengefasst: Dazu gehören zum einen Gespräche von Medizinern mit Krankenkassen und Verwaltungen, zum anderen öffentliche Diskurse zu Gesundheit und Krankheit. Die linguistische Forschung hat sich zunächst mit der medizinischen Fachsprache, wie z. B. der Verständlichkeit von Beipackzetteln, beschäftigt. Seit den 1970er Jahren steht das Gespräch zwischen Arzt und Patient im Vordergrund (z. B. Brünner 2005). Gisela Brünner betritt mit ihrem umfassenden Buch Gesundheit durchs Fernsehen vor diesem Hintergrund Neuland. Es bietet einen innovativen Einblick in die Vermittlung medizinischer Informationen und gesundheitlichen Rats in Gesundheitssendungen. Brünners Untersuchungen zeigen, wie die Experten-Laien-Kommunikation abläuft und welche Strategien zur Erklärung und Veranschaulichung verwendet werden. Die Monographie kann somit an der Schnittstelle von Experten-Laien-Kommunikation und linguistischer Medienanalyse eingeordnet werden. ...
Die Anpassung der EU-Richtlinie über Märkte für Finanzinstrumente (MiFID II) und die Einführung einer begleitenden Verordnung (MiFIR) im Jahr 2014 werden erhebliche Auswirkungen auf die Finanzmärkte in Europa haben und zu einer grundlegenden Neuordnung der Finanzmarktstrukturen führen. Ausgehend von einer Diskussion der Zielerreichung der ursprünglichen Richtlinie (MiFID I) aus dem Jahr 2004 werden im vorliegenden Artikel die Zielsetzungen und Maßnahmen der Neuregelung beleuchtet. Wesentliche Elemente im Hinblick auf Marktstrukturen und den Wertpapierhandel sind die Einführung einer neuen Handelsplatzkategorie, des organisierten Handelssystems („Organised Trading Facility“; OTF), sowie die Ausweitung der bislang für Aktien geltenden Transparenzvorschriften auf weitere Finanzinstrumente. Zudem werden eine Handelsverpflichtung für Aktien und Derivate sowie eine Clearingpflicht für Derivate, die auf geregelten Märkten gehandelt werden, neu eingeführt. Schließlich werden der algorithmische Handel und der Hochfrequenzhandel auf europäischer Ebene reguliert, wobei die Regelungen weitgehend dem 2013 eingeführten deutschen Hochfrequenzhandelsgesetz angelehnt sind. Im Ausblick wird zunächst der weitere Prozess der Regulierung skizziert (insbesondere die sog. Level II-Maßnahmen). Abschließend werden mögliche Auswirkungen von MiFID II und MiFIR auf die Marktstruktur und den Wertpapierhandel aufgezeigt.
Hybridhaftung im Internet
(2014)
In den Informationstechnologien zeichnen sich Verschiebungen der rechtlichen Verantwortungszurechnung ab, die auf tiefgreifende Veränderungen der bisherigen, individualistisch ausgerichteten Handlungstheorie des Rechts hindeuten. Verantwortungszuschreibungen für technische Risiken müssen demnach zunehmend von subjektiv-orientierten Zurechnungsfragen nach individueller Verursachung und Verschulden abstrahieren, in diesem Sinne also objektiviert und kollektiviert werden. Diese Entwicklungen werden besonders an den für „mittelbare Rechtsverletzungen“ eingesetzten Haftungsmodellen der immaterialgüterrechtlichen Störer- und Täterhaftung erkennbar. Die vielfältigen, kaum noch systematisierbaren Einzelfälle von Schutzrechtsverletzungen im Internet zeigen dabei, dass Fragen nach technischen Verantwortlichkeiten und zumutbaren Prüfpflichten von Intermediären allenfalls durch ein technologisch informiertes Recht zu beantworten sind. Es bedarf daher einer technologisch aufgeklärten Sicht, die über rein rechtsdogmatische oder ökonomische Betrachtungen hinausweist. Die technologische Aufklärung zielt auf eine Kritik des Wissens. Sie erweitert das systemtheoretische Kritikprogramm der soziologischen Aufklärung um eine techniksoziologische Perspektive, wie sie insbesondere in den Science and Technology Studies zu finden ist.
In der Krise des individualistischen Kausalitäts- und Schuldzuordnungsdenkens reagiert das Recht zunehmend mit Kollektivierungen: Verantwortung für technische Risiken muss demnach von subjektiv-orientierten Zurechnungsfragen nach individueller Verursachung und Verschulden abstrahieren und in diesem Sinne objektiv zugerechnet werden, sei es einem Betrieb, einem Unternehmen oder sei es auch einer sonstigen Verbindung von Menschen und Dingen. Die Mechanismen der kollektivierenden Verantwortungszumutungen reichen dabei von einer Ausdehnung der Kausalhaftung als Gefährdungshaftung über eine weitere Verbindung von Haftungssubjekten zu besonderen Risikoassoziationen bis zu einer Re-Personalisierung der Haftungsverantwortlichkeit. Vor diesem Hintergrund lassen sich Verschiebungen der rechtlichen Verantwortungszuordnung nachzeichnen, die vor allem in informationstechnischen Kontexten beobachtbar sind und beispielsweise in den Exzessen von Flashmobs oder auch im Flash Trading des Hochfrequenzhandels auf weitere Herausforderungen stoßen.
Divergierende Ansprüche an Kletterrouten führen derzeit zu Konflikten im Alpenraum. Da aus sozialgeographischer Sicht keine Raum-, sondern nur Handlungsprobleme existieren, lohnt ein Blick auf die im Hintergrund wirksamen sozialen Strukturen. Unter Rückgriff auf WERLENs Modell der "'gemachten' Räume“, SCHIMANKs "Werkzeugkasten" und die Neue Phänomenologie nach SCHMITZ analysiert dieser Text die zum Teil handgreiflichen Querelen inmitten alpiner Wildnis und beantwortet aus handlungstheoretisch-phänomenologischer Perspektive die Frage, wem die alpinen Kletterfelsen "gehören".
In dieser Arbeit wurde die automatisierte Separation von Heliummono-, -di- und -trimeren beschrieben. Unter Nutzung ihrer unterschiedlichen De-Broglie-Wellenlängen wurden die verschiedenen Fraktionen mit einem Nanogitter getrennt. Zunächst wurden einige physikalische Grundlagen zu den genannten Atom- bzw. Molekülspezies, der hier auftretenden Bindungsform der Van-der-Waals-Bindung und insbesondere zur Materiewellenbeugung gelegt. Anschließend wurde der Versuchsaufbau dargestellt.
Bei der Durchführung wurden zunächst die drei jeweils vorhandenen Gitter und Spalte zu je einer Messung kombiniert und die beste Kombination für die weiteren Messungen ausgewählt. Das Experiment wurde weitergeführt, indem für verschiedene Temperaturen und Quelldrücke jeweils ein Beugungsspektrum von der für alle Heliumteilchen identischen nullten Ordnung bis zur ersten Ordnung der Heliummonomere aufgenommen wurde.
In der Auswertung wurde die Detektionswahrscheinlichkeit auf rund 37 % abgeschätzt. Weiterhin wurden die Ereignisse in den ersten Maxima der einzelnen Heliumfraktionen gezählt und so unter Verwendung der Detektionswahrscheinlichkeit molare Konzentrationen für das Heliumdi- und -trimer berechnet. Dabei wurden Anteile von bis zu 0,45 % für das Heliumdimer und 4,2 % für das Heliumtrimer erreicht. Diese Molanteile und ihre Abhängigkeit von Druck und Temperatur stimmen qualitativ gut mit der Literatur überein, quantitativ lassen sie sich u. a. wegen abweichender Nachweismethoden kaum vergleichen.
Anschließend wurde der Abstand von Düse und Skimmer variiert mit dem Ergebnis, daß eine Veränderung im betrachteten Bereich keinen nennenswerten Einfluß auf die Bildungsraten von Di- und Trimeren hat. Weiterhin wurde die auf zweierlei Weise bstimmbare Geschwindigkeit der Heliumteilchen im Gasjet ermittelt und verglichen.
Die beiden Geschwindigkeiten weichen lediglich im unteren Temperaturbereich signifikant voneinander ab, wofür plausible Erklärungsansätze dargelegt wurden.
Die Größe der Quellregion der betrachteten Heliumcluster wurde unter geometrischen Gesichtspunkten und unter Extrapolation der für verschiedene Spaltbreiten gemessenen Maximumsbreiten untersucht. Im Ergebnis wird die Quellbreite zu 58,5 μm abgeschätzt.
Die Automatisierung des Aufbaus erlaubte eine Vielzahl von systematischen Messungen, die ohne diese Automatisierung sehr zeitaufwendig gewesen wären. Insbesondere wurden in kurzer Zeit - wie zuvor geschildert - die Beugungsmuster von drei Gittern in Kombination mit je drei verschiedenen Kollimationspalten sowie die Abhängigkeit der Heliumdimer- und -trimerbildung von Temperatur, Druck und Abstand von Düse und Skimmer untersucht. Die Automatisierung erlaubt für zukünftige Messungen, z. B. in Strahlzeiten am Freien Elektronenlaser FLASH, jeweils in situ die Clusterbildung zu untersuchen. Möge das beschriebene Experiment nicht nur diese, sondern auch viele weitere Messungen beschleunigen helfen und so zum gesellschaftlichen Erkenntnisgewinn beitragen!
Hauptbestandteil dieser Masterarbeit war es, ein neues COLTRIMS Experiment zu entwerfen und zu bauen. Den gesamten Aufbau mit allen dazugehörigen Komponenten wie verschiedensten Vakuumkomponenten sowie Detektoren und Elektronik unter realen Messbedingungen zu testen, bildete schließlich den Abschluss des praktischen Teils. Sowohl einige Kalibrationsmessungen mit dem neuen Aufbau, als auch die ersten Ergebnisse der Messungen mit der chiralen Substanz Bromchlorfluormethan wurden hier vorgestellt.
Ein Großteil der Projektarbeit bestand darin, Überlegungen für die vielen verschiedenen Bauteile anzustellen, diese mit Rücksprache erfahrener Gruppenmitglieder zu verbessern und schließlich zu konstruieren und zu zeichnen...
Susanne Heeg & Marit Rosol: Vorwort
Svenja Keitzel, Janine Pößneck & Ole Werner: Zwangsräumungen in Frankfurt am Main - Wandel des Wohnungsmarktes und seine Folgen
Eva Kuschinski: Sozialer Wohnungsbau lohnt sich nicht - Ökonomisierung der Frankfurter Wohnungspolitik am Beispiel der ABG Frankfurt Holding
Nicole Dornig & Andreas Blechschmidt: Betrieblicher Wohnungsbau im Wandel: Eine Untersuchung am Beispiel der Eisenbahnersiedlung in Frankfurt-Nied
Jakob Hebsaker & Pieterjan Dom: Alternatives Wohnen zwischen Häuserkampf und GmbH – Zur Entwicklung der Idee des Mietshäuser Syndikats
Lucas Pohl & Franziska Vaessen: Die Möglichkeit von Irrelevanz: Zur stadtpolitischen Auseinandersetzung um selbstverwaltete (Frei-)Räume am Beispiel des „Instituts für vergleichende Irrelevanz“ in Frankfurt am Main
Lara-Maria Mohr & Franziska Schmidt: Wohnraum verdichten, Wohnraum vernichten? - Bürgerbeteiligung bei der Planung von innerstädtischer Nachverdichtung
Amrei Biedermann, Andre Mascarinas & Anna-Lena Ripperger: Wie die Verbriefung von Gewerbeimmobilien deutsche Städte verändert – das Beispiel City Tower in Offenbach am Main
Der vorliegende 12. Band des vom Institut für Humangeographie herausgegebenen „Forum Humangeographie“ beschäftigt sich mit politischen Fragen rund um Wohnen und Immobilienentwicklung in Städten. Er vereint theoretisch fundierte und zugleich aktuelle empirische Beiträge zur Verwertung, Nutzung und Gestaltung der gebauten Umwelt, aber auch zu den Fragen, was der Verlust von Wohnraum bedeutet und welche alternativen Ansprüche an die gebaute Umwelt formuliert werden. Im regionalen Fokus dieses Sammelbandes stehen Frankfurt am Main und Offenbach als Teil der Rhein-Main-Region. Dieser räumliche Bezug hat forschungspraktische (z.B. Zugänglichkeit von Expert_innen), aber auch inhaltliche Gründe, da sich in dieser Region Wohnen und die gebaute Umwelt im besonderen Maße als gesellschaftliches Konfliktfeld – gekennzeichnet durch Phänomene wie Büroleerstand, Wohnungsmangel und Widerstand gegen Wohnen als Ware – erweisen und untersuchen lassen. Die Rhein-Main-Region ist wie andere große deutsche Metropolregionen von einem angespannten Immobilienmarkt geprägt, der das Ziel volatiler, d.h. in Bezug auf Umfang und Objekte sehr stark schwankender, Investments ist. Bis 2008 flossen Investitionen vorrangig in den Bürobestand, im Zuge der Finanz- und Schuldenkrise wurden Investments institutioneller Anleger jedoch in den Wohnungsmarkt umgelenkt (Scharmanski 2013; Heeg 2013). Hintergrund hierfür sind einerseits eine steigende Zahl von sog. notleidenden Krediten („non-performing loans“) im Büroimmobilienbereich (vgl. Biedermann et al., Kap. 7) und andererseits anziehende Mieten und Eigentumspreise auf dem Wohnungsmarkt, welche Investitionen in Wohnimmobilien lukrativ werden lassen (Kholodilin/Mense 2012). In der Folge werden vermehrt Luxuswohnungen erstellt und wird preiswerter Wohnraum vernichtet.
Der Ruf nach einem „Rettungsschirm für Kommunen“, einem „Stärkungspakt Stadtfinanzen“ oder „kommunalen Entschuldungsfonds“ rückt in regelmäßigen Abständen die ernste Lage einer Vielzahl klammer Kommunen ins öffentliche Bewusstsein. Die drohende Überschuldung deutscher Städte und Gemeinden stellt parallel zur Entwicklung der globalen Finanz- und Wirtschaftskrise eine besorgniserregende Realität dar. Große Löcher in den Kommunalhaushalten sind dabei kein Phänomen der jüngsten Vergangenheit, vielmehr macht sich die angespannte Finanzlage in vielen Kommunen bereits seit Jahren vor Ort bemerkbar. Beispielsweise in den Bereichen von Kultur, Jugendeinrichtungen, Beratungsstellen, Museen, Bibliotheken, Sportplätzen, Freibädern, Freizeitangeboten und Tierparks sind Ausgabenkürzungen an der Tagesordnung, die die Einwohner_innen alltäglich mit der finanziellen Unterausstattung auf Lokalebene konfrontieren. Außerdem dokumentiert ein rasanter Anstieg des Kreditvolumens im vergangenen Jahrzehnt die klamme Lage der Kommunen. Im Krisenjahr 2009 sind die sogenannten Kassenkredite, die kurzfristige Engpässe im Kommunalhaushalt ausgleichen sollen, auf fast 35 Milliarden Euro angestiegen und haben bundesweit mittlerweile ein Volumen von 48 Milliarden Euro überschritten (Deutscher Städtetag 2013).
Diese enorme Schuldenlast ist vor allem als Resultat einer strukturellen Unterfinanzierung der Städte zu werten, welche nicht zuletzt die Erbringung der kommunalen Daseinsvorsorge im Infrastrukturbereich gefährdet sowie wie bei der städtischen Gas-, Wasser- und Elektrizitätsversorgung oder im engeren sozialen Bereich. Um die lokale Verantwortung für die Versorgungssicherheit wiederzugewinnen, gab es in den letzten Jahren vermehrt Projekte, um Versorgungsbetriebe wieder in städtisches Eigentum zurückzuführen (Libbe 2011; Verband kommunaler Unternehmen 2012). Unter dem Stichwort Rekommunalisierung wurde die Gründung eigener Stadtwerke bereits als Abkehr von einer Privatisierungslogik (Candeias et al. 2009) präsentiert. In diesem Licht erscheint Kommunalpolitik mitunter als Alternative zu renditeorientiertem Wirtschaften.
Eine solche Darstellung übersieht allerdings, dass kommunales Handeln eng in den wachstumsorientierten Finanzmarktkapitalismus eingebunden ist. Diese Einbindung hat eine materielle Basis und tritt beispielsweise dann zu Tage wenn Kommunen auf Grund der konjunkturellen Flaute in der internationalen Finanz- und Wirtschaftskrise stark unter steigenden Ausgaben für Sozialtransfers sowie unter sinkenden Steuereinnahmen leiden. Zusätzlich besteht aber auch eine diskursive Einbindung, die sich darin äußert, dass die Pflicht zur Fiskaldisziplin in bundesdeutschen Kommunen bereits eine vergleichbare Bedeutung erlangt hat wie in den Haushaltsplänen der Nationalstaaten der Euro-Zone. Schon werden in Anlehnung an die Einführung nationaler Schuldenbremsen kommunale Schuldenbremsen diskutiert (Bertelsmann Stiftung 2013). Das kann kaum verwundern, da in einer Mehrzahl der Kommunen schon kurz nach der Subprimekrise die Verantwortlichen zu einem wettberwerbsorientierten Politikverständnis zurückkehrten und konservative Konzepte der Krisenlösung anwendeten(Belina und Schipper 2009). Zum aktuellen Zeitpunkt gibt es daher wenig Anlass Kommunalpolitik auf einem alternativen Entwicklungsweg zu glauben.
Ein ungebremster Klimawandel „[…] würde[n] die physikalische Geografie der Welt transformieren. Eine radikale Änderung der physikalischen Geografie der Welt muss unbedingt starke Auswirkungen auf die humane Geografie haben – wo Menschen leben und wie sie leben.“(Stern 2006: iv)
Unser Erdsystem sowie unser Gesellschafts- und Wirtschafssystem zeichnen sich durch ihre Offenheit, Prozesshaftigkeit und Dynamik aus; sie befinden sich in einem ständigen Wandel. Auch das Weltklima hat sich schon immer verändert; gekennzeichnet durch einen Wechsel von Kalt- und Warmzeiten. Doch heute dominiert der Faktor Mensch das Erdsystem: Mit der industriellen Revolution und dem Übergang in ein kapitalistisches Gesellschafts- und Wirt-schaftssystem hat sich auch der natürliche Treibhauseffekt entscheidend beschleunigt. Durch vom Menschen verursachte Emissionen, ist die CO2-Menge in unserer Atmosphäre heute be-reits um ein Drittel höher als sie in den Jahrmillionen vor Beginn der Industrialisierung jemals war (Gebhardt und Glaser 2007: 963; Bernstein et al. 2008). Die Qualität und Tragweite des Phänomens Klimawandel ist von solchem Ausmaß, dass die natürliche wie soziale Umwelt dadurch aus ihren Fugen geraten kann.
In Deutschland erkranken pro Jahr ~1800 Kinder neu an Krebs, wobei Leukämien mit 33,8 % die häufigste diagnostizierte Krebsform darstellen. Besonders Leukämien mit dem Phänotyp einer akuten lymphatischen Leukämie (ALL) sind mit der Erkrankung im Kindesalter assoziiert. Die häufigsten genetischen Ursachen kindlicher ALLs sind ein hyperdiploider Karyotyp oder chromosomale Translokationen. Unter Säuglingen im Alter von nur wenigen Monaten mit einer ALL treten hier oft reziproke chromosomale Translokationen mit Beteiligung des MLL-Gens auf. Die t(4;11)-assoziierte Leukämie, mit dem AF4-Gen als Translokationspartner, stellt den häufigsten Krankheits-Phänotyp dieser Patientengruppe dar. Die Erkrankung zeichnet sich durch eine stark erhöhte Leukozytenzahl im peripheren Blut bei Diagnose aus. Aufgrund immunphänotyperischer und morphologischer Analysen werden die Leukozyten und auch die Erkrankung durch einen pro B-Zell Phänotyp charakterisiert. Ein weiteres klinisches Merkmal ist das schnell auftretende Rezidiv, welches schlecht auf eine folgende Therapie anspricht und zu sehr geringen Überlebensraten führt, wodurch die t(4;11)-assoziierte Leukämie als Hochrisiko-Leukämie klassifiziert wird. Als genetische Grundlage des Mechanismus der t(4;11)-Leukämogenese wird die Expression der resultierenden Fusionsproteine MLL•AF4 und AF4•MLL angenommen. Durch die Expression beider Fusionsproteine wird die Funktion des Wildtyp MLL-Proteins gehemmt, welches als epigenetischer Regulator für die Hämatopoese und die Ausbildung des Körperbauplans während der Embryogenese essenziell ist. Weiterhin wird auch die Funktion des Wildtyp AF4-Proteins gehemmt, welches einen bedeutenden Bestandteil der zellulären Transkriptionsinitiations- und Elongationsmaschinerie darstellt. Außerdem beeinflussen beide Fusionsproteine zelluläre Mechanismen wie die Proliferation, das Überleben und die Differenzierung, weshalb die Erforschung des Pathomechanismus der Fusionsproteine essenziell für die Rekapitulation und damit für die Therapie und Heilung der Erkrankung ist.
Aktuell rekapitulieren Studien der beiden Fusionsproteine die humane Erkrankung jedoch nur unzureichend. Das MLL•AF4-Protein zeigte bisher eine Blockierung der Apoptose nach unterschiedlichsten Induktionen in zellbasierten Systemen. Allerdings konnte dem Fusionsprotein kein onkogenes Potenzial in vitro nachgewiesen werden und auch in vivo führte die Expression von MLL•AF4 zur Bildung von hauptsächlich myeloischen Neoplasien nach langen Latenzzeiten. Die Expression des reziproken AF4•MLL-Proteins führte in zellbasierten Systemen zu einem verstärkten Metabolismus durch die Steigerung der zellulären Transkription und beeinflusste so die Proliferation. Parallel trat eine hohe Apoptoserate auf, sodass die Proliferation nahezu unverändert schien. Da in vitro jedoch die Kontaktinhibition und Wachstumstransformation von Zellen gezeigt werden konnte und im Mausmodell der humane Phänotyp einer pro B-ALL ausgelöst wurde, scheint das AF4•MLL-Protein das treibende Onkogen der t(4;11)-assoziierten Leukämie zu sein. Allerdings wird die Erkrankung auch in diesem Modell erst nach einer langen Latenzzeit beobachtet und auch die zellulären Mechanismen, in welchen das onkogene Potenzial des reziproken Fusionsproteins entscheidend ist, bleiben weiter zu untersuchen. Deshalb sollten im Rahmen dieser Arbeit hauptsächlich die Auswirkungen der Expression des onkogenen AF4•MLL-Proteins unter verschiedenen Aspekten untersucht, und kooperierende Ereignisse analysiert werden.
Grundlegend sollte die Auswirkung des reziproken Fusionsproteins in humanen Zellen studiert, und auch Effekte des MLL•AF4-Proteins mit früheren Studien verglichen werden, um zellbiologisch relevante Mechanismen aufzudecken. Weiterhin sollte der Einfluss möglicher sekundärer Mutationen und die Wirkung von Koffein als Stimulans untersucht werden, um mögliche Ursachen der langen Latenzzeiten in t(4;11)-assoziierten Mausmodellen zu identifizieren. Da jedoch etwa 20 % aller t(4;11)-Patienten kein AF4•MLL-Protein bilden und als Reziprok oft der solitäre MLL C-Terminus exprimiert wird, sollte zudem der Effekt des MLL•C-Proteins im Mausmodell studiert werden. Insgesamt konnten alle erhobenen Daten mit Resultaten früherer Studien kombiniert werden, wodurch ein spezifisches Modell der t(4;11)-assoziierten Leukämogenese entstand. Das Modell diskutiert die onkogene Funktion des AF4•MLL-Proteins besonders während der hämatopoetischen Differenzierung. Durch die Ergebnisse dieser Arbeit zum klonogenen Wachstum der humanen Zellen nach Expression von AF4•MLL und der Ergebnisse im MLL•C-Mausmodell konnte ein Einfluss des Reziproks auf die Differenzierung von Leukozyten gezeigt werden.
Weiterhin konnte nach AF4•MLL-Expression in humanen Zellen die Steigerung des Metabolismus aber auch die einhergehende vermehrte Apoptose bestätigt werden, welche die lange Latenzzeit im AF4•MLL-Mausmodell begründen könnte. Durch Kooperation mit dem MLL•AF4-Protein, welches anti-apoptotische Effekte zeigt, könnte es jedoch zum frühen Ausbruch der Erkrankung im Säuglingsalter kommen. Allerdings konnte in dieser Arbeit auch eine Steigerung der Proliferation von MLL•AF4-exprimierenden Zellen beobachtet werden, wenn anti-apoptotische Mechanismen des Fusionsproteins inaktiv sind, welche aus der Aktivierung des RAS/RAF/MEK/ERK-Signalwegs resultiert. Werden neben der Translokation zusätzliche RAS-Mutationen aquiriert, die bei 26 % der Kinder mit einer t(4;11)-Leukämie auftreten, wird der Signalweg und somit die Proliferation der leukämischen Blasten zusätzlich stabilisiert. Dadurch kommt es zu höheren Leukozytenzahlen und einem noch früheren Ausbruch der Erkrankung. Weiterhin deckte die Analyse von sekundären Mutationen auch die Beteiligung des FLT3-Signalwegs an der Therapieresistenz durch Quieszenz auf. Ein besonderer Einfluss von Koffein als Stimulans in t(4;11)-Zellen konnte hingegen ausgeschlossen werden. So wurde der Pathomechanismus der t(4;11)-assoziierten Leukämie in dieser Arbeit weiterführend aufgeklärt, wodurch Strategien zur Therapie und Heilung der Erkrankung in Zukunft intensiviert werden können.
In der vorliegenden Arbeit werden Stabilitätstests an einer Vieldrahtproportionalkammer nach ALICE-Geometrie vorgestellt. Wegen elektrischer Instabilitäten, das heißt dem Abschalten der Hochspannungsversorgung einzelner Kammern aufgrund von Entladungen an der Ausleseebene, wurde die ALICE-TPC bisher mit zwei unterschiedlichen Gasmischungen betrieben. Es wurden die Gasmischungen Ne-CO2 (90-10) und Ne-CO2-N2 (90-10-5) verwendet.
In dieser Arbeit soll nun mit systematischen Stabilitätstests mit einer α- und einer γ-Quelle am Testaufbau am IKF untersucht werden, ob eine Beimischung von Stickstoff zur Gasmischung Ne-CO2 wirklich positive Auswirkungen auf die elektrische Stabilität der Vieldrahtproportionalkammern der ALICE-TPC hat. Messungen mit der Gasmischung Ar-CO2 (90-10) dienen dabei als Referenzmessungen.
Zunächst wurden vorbereitende Messungen zum bessseren Verständnis des Einflusses der Ausleseelektronik auf die Padsignale am Testaufbau durchgeführt. Die Untersuchung der von einem Pulser induzierten Signale zeigt, dass keine Korrektur der Nullverschiebung nötig ist. Auÿerdem konnten durch diese Messung die Verstärkungsfaktoren des verwendeten Hauptverstärkers ermittelt werden. Ein weiterer wichtiger Faktor für Stabilitätstests ist die Genauigkeit des Mischungsverhältnisses des Gases. Um eine hohe Genauigkeit zu gewährleisten, wurde der Gasfliss der verschiedenen Kanäle des zur Herstellung der Gasmischung genutzten Gasmischers überprüft und so die Bereiche für den Gasfluss gefunden, in denen sich das Mischungsverhältnis nicht ändert.
Eine gute Auflösung kann mit Vieldrahtproportionalkammern erreicht werden, wenn die Kammern auch bei einem möglichst groÿen Gain noch stabil betrieben werden können. Um den Gain aus Anodestrommessungen bestimmen zu können, wurden die Primärströme für die α- und die γ-Quelle ermittelt.
Frühere Messungen mit einer γ-Quelle, aufgrund derer Stickstoff als Beimischung in den Fokus rückte, ließen vermuten, dass sich durch die Beimischung von Stickstoff die Stabilität der Auslesekammern verbessern lassen würde. Die durchgeführten Messungen mit der γ-Quellen sollten diese Aussage nun überprüfen. Sie können die früheren Ergebnisse jedoch nicht bestätigen, sondern zeigen, dass die Gasmischung Ne-CO2-N2 (90-10-5) im Gegensatz zur Gasmischung Ne-CO2 (90-10) bei Bestrahlung mit der γ-Quelle zu instabileren Bedingungen für die Auslesekammer führt.
Zum Erzeugen der Anodensignale bei Stabilitätstests wurden erstmals geladene Teilchen aus einer α-Quelle verwendet. Im Gegensatz zur Messung mit der γ-Quelle kann die Auslesekammer bei der Beimischung von Stickstoff zu Ne-CO2 bis zu einem um 25% höheren Gain stabil betrieben werden als bei der Gasmischung Ne-CO2.
Aufgrund des je nach verwendeter Quelle unterschiedlichen Effekts auf die Stabilität der Auslesekammer lässt sich nicht mit absoluter Sicherheit sagen, ob eine Beimischung von Stickstoff die gewünschten Auswirkungen hat. Allerdings werden die Spuren in der ALICE-TPC durch geladene Teilchen hervorgerufen, sodass die Messungen mit der α-Quelle den experimentellen Bedingungen bei ALICE näher kommen als die Messungen mit der γ-Quelle und deshalb die Gasmischung Ne-CO2-N2 (90-10-5) zu bevorzugen ist.
Aufbauend auf einer Synthese der Theorie der sozialen Felder von Pierre Bourdieu und der Theorie der Art-Worlds von Howard Becker und der Institutionentheorie von Peter Berger und Thomas Luckmann wird die Stellung der Institution Frankfurter Musikwerkstatt im Feld der Kunst beschrieben. Mit Hilfe von narrativen Interviews und teilnehmender Beobachtung wird das Spannungsverhältnis zwischen dem Freiheitsideal der Kunstform Jazz-Musik und deren Institutionalisierung expliziert.
Medikamenten-Entsorgung: Verbraucherwissen mangelhaft +++ Ärztefortbildung zu Arzneimittelrückständen im Wasser +++ Neues Leitungsteam am ISOE +++ Save the Date: ISOE-Tagung im November +++ Umweltzeichen Blauer Engel soll zeitgemäßer werden +++ ISOE ist Gastgeber für die Gewinner des Science Forums „Green Talents“ 2014 +++ ISOE evaluiert Wasser-Partnerschaften in Afrika +++ Weltweit größte Anlage zum alternativen Abwassermanagement in China +++ Die Zukunft des Fahrrads: Abschlussveranstaltung des Projekts mobile2020 +++ Forschungsprojekt CuveWaters auf der IFAT 2014: Aquadome-Film am BMBF-Stand +++ Resilienz-Konferenz in Südfrankreich +++ Termine +++ Publikationen
Theorien des Rechtspluralismus treten überwiegend mit dem Anspruch auf, eine zutreffendere Beschreibung der Wirklichkeit normativer Ordnungen, namentlich der Rechtsordnung, einer Gesellschaft zu geben. Demnach geht das Recht aus vielerlei und verschiedenartigen Quellen hervor, es gibt eine Pluralität von rechtssetzenden Akteuren, Rechtsnormen verschiedener Herkunft überlappen sich in demselben sozialen Feld. Während diese Beschreibung auf historische Gesellschaften bis zur Epoche zentralisierter Nationalstaaten schon immer zutraf, sprechen viele Indizien dafür, dass auch die Entwicklung transnationalen und globalen Rechts zu einem neuen Rechtspluralismus geführt hat. Wer dagegen die Konzeption eines zentral gesetzten, hierarchisch geordneten, universalen und einheitlichen Rechts für einen Fortschritt gegenüber dem Zustand des Rechtspluralismus hält, müsste diesen kritisieren und überwinden wollen. Gegen diese Kritik wendet sich der normative Rechtspluralismus. Dafür wird vor allem seine höhere Responsivität gegenüber verschiedenartigen Rationalitäten einer komplexen Weltgesellschaft ins Feld geführt. Der Beitrag diskutiert verschiedene Varianten des normativen Rechtspluralismus und versucht zu zeigen, dass keine von ihnen ohne die Unterstellung eines gemeinsamen rechtlichen Sinnhorizontes auskommt.
Das Ziel dieser Bachelorarbeit war es, einen Überblick über die Größe der, durch Einbeziehung des Loop-Level-Diagrammes entstehenden, Korrekturen zu erhalten. Die Ergebnisse sollen eingrenzen, wann diese Korrekturen wichtig oder sogar dominant sind. Der Einfluss der Korrekturen lässt sich gut mit Hilfe von g0 und g00 einschätzen. So gilt für g0 gerade Γntl = 1.33 Γ, die Korrekturen sind also für die Berechnung wichtig jedoch nicht dominant. Für g00 beginnen die Korrekturen gerade dominant gegenüber den Berechnungen in erster Ordnung zu werden (es gilt hier Γntl = 2 Γ). Wie anhand von Tabelle 7.2 zu sehen werden die Korrekturen, abhängig von der Massenkonfiguration, ab etwa 1.6 − 2.2mS wichtig und ab etwa 2.2 − 3.4mS dominant. Für sehr kleine Massen mΦ liegt diese Grenze natürlich niedriger, es wurde jedoch gezeigt, dass die Korrekturen selbst für mΦ = 10−13mS erst ab etwa 0.65mS dominant sind. Praktisch dürften die Korrekturen daher nur sehr selten, wenn überhaupt für Werte von g < mS, eine nennenswerte Rolle spielen. Welchen Einfluss die Korrekturen bei realen Zerfallskanälen haben, sollte nun anhand der Zerfälle von f0(500), f0(980), f0(1370) und f0(1500) in Pionen gezeigt werden. Zusätzlich wurde für den Zerfall von f0(500) die Berechnung ein weiteres Mal mit endlichem (niedrigen) Cutoff durchgeführt, um dessen Auswirkungen auf die Ergebnisse zu betrachten. Dies ist dann wichtig, wenn die beobachteten Teilchen eine endliche, räumliche Ausdehnung haben (beispielsweise wenn wie hier Hadronenzerfälle betrachtet werden). Für f0(980) und f0(1500) stellen sich die Korrekturen, wie aufgrund der vorherigen Ergebnisse und des sehr kleinen Verhältnisses von Zerfallsbreite und Masse bereits erwartet, mit 1.22% beziehungsweise 0.032% als sehr gering heraus. Für f0(1370) ist das Verhältnis bereits deutlich größer, hier sind die Korrekturen mit 7.43% bereits im hohen einstelligen Prozentbereich und damit für genaue Rechnungen durchaus wichtig. Für f0(500) zeigt sich nun wiederum, dass die Korrekturen sehr groß sind, die Loop-Level-Kopplungskonstanten ist um 24.57% kleiner. Für diesen Zerfalll sollte also bereits bei einer Abschätzung das Loop-Level Diagramm einbezogen werden. Stellt man die Berechnung mit endlichem Cutoff an, so stellt sich heraus, dass sich die exakten Werte zwar durchaus verändern, die Änderungen sind jedoch nicht so groß dass die Ergebnisse drastisch abweichen. Die Kopplungskonstante wird bei dem angenommenen Cutoff Λ = 0.95 GeV um 6.47% größer. In allen Varitionen fallen die Korrekturen kleiner als 33% aus. Als letztes ist die Genauigkeit der hier erhaltenen Ergebnisse zu beurteilen. Theoretisch sollten die numerischen Berechnungen mit beliebiger Genauigkeit durchführbar sein. Bei den im Rahmen dieser Arbeit durchgeführten Berechnungen trat jedoch das Problem auf, dass die numerischen Berechnungen des Integrals für Winkel sehr nahe 0° beziehungsweise 180° chaotisch wurden. Die Winkelintegration wurde daher nur von −0.99999 bis 0.99999 durchgeführt. Da das Impulsintegral bei diesen Winkeln etwa von der Größe 0.1 − 2 ist, abhängig von der Massenkonfiguration, entstehen dadurch Fehler der Größenordnung 10−5. Die Ursache für diesen Fehler liegt vermutlich darin begründet, dass sich für diese Winkel jeweils der dritte Pol auf den ersten und der vierte Pol auf den zweiten Pol verschiebt. In diesem Fall entsteht zwar an gleicher Stelle im Zähler eine Nullstelle (schaut man sich P1, P2 und P3 an, so befinden sich an diesen Stellen auch nur einfache Pole), die numerische Berechnung kann dadurch allerdings problematisch werden. Im Rahmen dieser Arbeit wurde eine Genauigkeit von 4 Nachkommastellen allerdings als ausreichend betrachtet. Abschließend lässt sich sagen, dass die Korrekturen in (fast) allen betrachteten Fällen klein sind. In Einzelfällen können sie allerdings durchaus relevante Dimensionen erreichen, wie am f0(500) Zerfall zu sehen ist. In zukünftigen Arbeiten sollte dieses Thema also auch für Wechselwirkungen mit Ableitungen und nicht-skalare Teilchen aufgegriffen werden.
Ziel dieser Arbeit ist es einen geeigneten Szintillationsdetektor für die Messungen differentieller Neutroneneinfangquerschnitte im FRANZ-Aufbau zu finden. Dafür wurde untersucht inwiefern sich das Szintillatormaterial LaBr3(Ce) (Lanthanbromid) eignet. Verwendet wurde eine Anordnung von zwei Szintillationsdetektoren dieses Typs. Mit Hilfe von Kalibrationsquellen wurden charakteristische Größen, wie Effizienz (Nachweiswahrscheinlichkeit) und Auflösungsvermögen untersucht und die ermittelten Werte mit GEANT-3.21 Simulationen [2] verglichen.
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
kurz und kn@pp news : Nr. 30
(2014)
kurz und kn@pp news : Nr. 31
(2014)
Die Struktur der makroprudenziellen Politik in der Europäischen Union ist ausgesprochen komplex und für den außenstehenden Betrachter fast undurchdringlich geworden. Deshalb wurde mit den Titeln der drei Kapitel des vorliegenden Aufsatzes „Der Prozess“, „Das Schloss“ und „Das Urteil“ bewusst auf Werke von Franz Kafka angespielt. Während sich der erste Teil der Arbeit vor allem mit der Komplexität des funktionellen Transmissionsprozesses in der makroprudenziellen Politik beschäftigt, widmet sich das zweite Kapitel, also der „Schloss-Teil“, ihren institutionellen Verflechtungen. Und am Ende werden die Ausführungen in einem „Wert-Urteil“ zusammengefasst.
Ein Freibrief für die Notenbank bedeutet, genau genommen, die Bankrotterklärung des demokratischen Verfassungsstaates vor technokratischen Beliebigkeiten, schreibt Helmut Siekmann in diesem Namensbeitrag. Er betont, dass die Europäische Union eine unverzichtbare Einrichtung ist und ein echter Bundesstaat sein sollte. Sie sei aber im Wesentlichen (nur) ein Rechtskonstrukt, weshalb es umso wichtiger sei, dass die rechtlichen Regeln, auf denen sie beruht, genauestens beachtet werden.
Inhalt:
Prof. Dr. Dr. h.c. Helmut Siekmann: Stellungnahme für den Haushalts- und Finanzausschuss des Landtags Nordrhein-Westfalen zum Entwurf eines Gesetzes zur Offenlegung der Bezüge von Sparkassenführungskräften im Internet (Drucksache 16/4165) vom 10.02.2014
Gesetzentwurf der Fraktion der Piraten Gesetz zur Offenlegung der Bezüge von Sparkassenführungskräften im Internet vom 08.10.2013
Das Forschungsunternehmen "Romanisch und Deutsch am Hinterrhein / GR" von Prof. Dr. Theodor Ebneter (Sprachlabor der Universität Zürich) wurde in den Jahren 1978-1992 am Phonogrammarchiv der Universität Zürich als erstes bilinguistisches Projekt durchgeführt.
Für jede der vier Talschaften des Hinterrheins waren ursprünglich zwei Bände, einer für das Deutsche und einer für das Romanische, vorgesehen. […] Da die Gewährsleute ihre jeweilige Mundart gerne mit jener von Chur vergleichen, wurde die Dissertation von Oscar Eckhardt "Die Mundart der Stadt Chur" (1991)als Band 9 veröffentlicht.
Nachdem Prof. Ebneters Leitung des Phonogrammarchivs 1992 zu Ende ging, konnte mit Unterstützung des Schweizerischen Nationalfonds Band 7 "Romanisch im Boden, in Trin und in Flims" mit seinem Umfang von 622 Seiten abgeschlossen werden, der als romanistische Ergänzung zu Urs Willis 1990 publiziertem Band 8 "Deutsch im Bezirk Imboden " die Untersuchung dieser vierten und letzten Talschaft beschliessen sollte.
Der vorliegende Band 11 der Reihe "Romanisch und Deutsch am Hinterrhein / GR" ersetzt nun Willis Band 8 und schliesst zugleich das Forschungsuntemehmen mit der germanistischen Aufarbeitung des Bodens, von Trins und von Flims ab. Dieser Band wurde von Dr. Alfred Toth und Prof. Dr. Theodor Ebneter parallel zur Herstellung von Band 10 "Die romanisch-deutsche Sprachlandschaft am unteren Hinterrhein" verfasst. Die Ersetzung von Willis Band durch den vorliegenden war auch deshalb nötig, um die die deutschen Mundarten des Bezirks Imboden betreffenden Daten in Band 10 einbauen zu können. Zu diesem Zweck wurden im Winter und Frühling 1994/95 alle Ortschaften des Bezirks Imboden mit 27 Gewährspersonen in längeren Gesprächen aufgenommen.
Band 11 orientiert sich methodisch einerseits an Band 7 über die romanistische Situation des Bezirks Imboden, dessen germanistische Ergänzung er darstellt, anderseits an Band 9 über die Mundart von Chur, der innerhalb der Reihe zum erstenmal vergleichsweise herangezogen werden konnte, nachdem alle übrigen germanistischen Bände früher erschienen waren. Aus diesem Grunde wurde der Einleitung (Kap. 1), der Phonologie (Kap. 2) und der Morphologie (Kap. 3) ein Kapitel 4 "Vergleich der Dialekte des Bezirks Imboden mit der Mundart der Stadt Chur" beigesteIlt, in dem auch Aspekte der Morphosyntax (Kap. 4.3.), der Syntax (Kap. 4.4.) sowie der Lexikologie (Kap. 4.5.) behandelt werden.
Nachdem ich meine Lizentiatsarbeit [..] abgeschlossen hatte, fragte mich Prof. Ebneter an, ob ich bereit wäre, mit dem gleichen Transkritionssystem auch eine Umfrage zu diversen Verbalformen in Graubünden zu erstellen. […] Von Prof. Ebneter bekam ich eine Liste mit den gewünschten Verbformen. Ich habe zu diesen je einen Satz konstruiert, der den Gewährspersonen vorgelegt wurde. Einmal hatten die Informantinnen und Informanten die Verbformen mit vorangestelltem Subjektpronomen und einmal mit Inversion aus der standardsprachliche Vorlage in der 1. Person Singular zu übersetzen. In der Folge habe ich dann das ganze Paradigma abgefragt.
Die Resultate meiner Erhebung sind teilweise in die Verbalmorphologie des Abschlussbandes zum Forschungsprojekt "Deutsch und Romanisch am Hinterrhein" eingeflossen. Insgesamt aber sind die Verbformen noch nie integral veröffentlicht worden. Eine eigenständige gedruckte Publikation verlangte wohl auch einen Kommentar zu den Paradigmen. Mit der Möglichkeit, Texte auch digital zu publizieren, hat sich allerdings eine neue Verbreitungsform ergeben, die es erlaubt, auch "Materialien" zu veröffentlichen, die vielleicht anderen wissenschaftlich Arbeitenden nützlich sein können. Im Zeichen des zum Teil rapiden Sprachwandels gerade in der Verbalmorphologie stellen die 1988 erfassten Verbparadigmen aber auch ein Brückendokument dar, das spannende Vergleiche zwischen den Aussagen früherer Forschungen und aktuellen Daten zulässt.
Die „Rente mit 63“ hat wieder einmal den Blick auf den Renteneintritt gerichtet. In der öffentlichen Debatte werden dabei zwei Ereignisse regelmäßig vermischt: das Ende des Arbeitslebens und der Beginn der Rentenzahlung. Dabei müssen beide nicht unmittelbar aufeinander folgen. Unter bestimmten Umständen kann es finanziell attraktiv sein, die staatliche Rente nicht sofort nach dem Ausstieg aus dem Erwerbsleben zu beantragen, sondern die Ausgaben bis zum späteren Rentenbeginn durch den Abbau von Finanzkapital zu finanzieren. Dieser Beitrag gibt einen kurzen Einblick in die neueste Studie von Olivia Mitchell, Andreas Hubener und Raimund Maurer zur Alterssicherung in den USA und stellt auch Berechnungen für Deutschland auf.
Jubiläen drängen zur Standortbestimmung. Im Jahr 2014 feiert die Frankfurter Goethe Universität ihren 100. Geburtstag. Man lud zu Bilanzen ein, zum Blick nach vorn, auf Erfahrungen und Erwartungen der Rechtswissenschaft und ihrer Teildisziplinen. In diese Spannung stellt sich auch dieser Beitrag zu den Perspektiven des Fachs ‚Rechtsgeschichte‘. Es wird deswegen nur kurz um 100 Jahre (I.), wenig um die Zeit nach 1945 (II.), weit mehr um Rahmenbedingungen rechtshistorischen Forschens in der ‚Berliner Republik‘ (III.) – und um Zukunftsperspektiven des Fachs gehen (IV.).
Paul Tillich wurde 1929 nach Frankfurt/M., wo es damals noch keine Theologische Fakultät gab, auf den Lehrstuhl für Philosophie mit der Verpflichtung berufen, „Philosophie und die Soziologie einschließlich Sozialpädagogik“ zu vertreten. Der ordinierte Pfarrer verstand die Konzentration auf die Philosophie gerade nicht als Absage an die Theologie; er sah sich immer als ein Grenzgänger, ohne Überläufer zu werden. Was seine Verbindung zur „Frankfurter Schule“ anbelangt, so wurde der Jude Theodor Wiesengrund Adorno von Tillich habilitiert; mit Max Horkheimer veranstaltete er Seminare. Während seiner Frankfurter Zeit hat sich Tillich z. B. dem Verhältnis von Protestantismus und Profanität zugewandt: „Das Heilige liegt nicht außerhalb des Profanen, sondern in seiner Tiefe. Es ist der schöpferische Grund des Profanen“; Kultur ist ihrer Substanz nach Religion. 1929 schloß sich Tillich der SPD an, aus der er 1933 austrat. Dennoch mußte er am 10.5.1933 mit ansehen, wie auf dem Frankfurter Römer auch ein Exemplar seines Buches „Die sozialistische Entscheidung“ verbrannt wurde. Zusammen mit Max Horkheimer wurde Tillich am 13.4.1933 „beurlaubt“ und am 20.12.1933 aus dem Staatsdienst entlassen. Er emigrierte in die USA, wo er 1965 starb.
Auch den großen katholischen Theologen Karl Rahner SJ, der sich 1937 in Innsbruck für katholische Dogmatik habilitierte, zeichnet eine ähnliche Breite des Wissens und Denkens aus. 1964 erhielt er den „Prestigelehrstuhl“ Romano Guardinis (Lehrstuhl für christliche Weltanschauung) in München. Seine akademische Lehrtätigkeit und sein Wirken als Konzilstheologe machten ihn schon in jungen Jahren weit über Deutschland und Europa hinaus bekannt.
Ich beginne mit einer etwas vereinfachten Darstellung der sogenannten 'Letzten Dinge' (Eschata) in der traditionellen (neu)scholastischen Theologie (Vgl. Siegfried Meier, Sterben, Tod und Auferstehung, in: Schulinformationen, Paderborn, 30. Jg., Nr. 2, 2000, S. 61ff.). Diese geht davon aus, daß sich im Tod die unsterbliche Seele vom sterblichen Leib trennt. Der Leichnam verfällt, die Seele hingegen kommt ganz allein vor das Gericht Gottes. Daher nennt man dieses Gericht auch das besondere Gericht (iudicium particulare). Derjenige, der im Zustand der Heiligkeit verstorben ist und alle zeitlichen Sündenstrafen schon in diesem Leben abgebüßt hat, dessen Seele kommt sofort in den Himmel. Stirbt hingegen ein Mensch im Zustand der Todsünde, beginnt durch den Richterspruch Gottes die sofortige Verdammnis in der Hölle. Der mittelmäßige Mensch, der weder als Heiliger noch als Todsünder gestorben ist, muß eine Zeit der Läuterungsqualen im Fegefeuer erleiden. Schwere und Menge der noch nicht abgebüßten Sündenstrafen bestimmen die Dauer und Intensität des dortigen Aufenthaltes. Erst danach kann die Seele in den Himmel gelangen. Am letzten Tag der Weltgeschichte, dem sogenannten 'Jüngsten Tag', kommt es zur Auferstehung der Toten. Das bedeutet, daß die Seelen mit dem toten Körper wieder zu lebendigen Menschen vereinigt werden. Dann wird Gericht gehalten über den ganzen Menschen. Dieses Gericht wird daher als das allgemeine Gericht (iudicium universale) bezeichnet. Nach diesem Gericht gibt es nur noch Himmel und Hölle.
Was das Fegefeuer und den damit verbundenen Ablaß anbelangt, so haben sich die Reformatoren mit diesem Bild von Tod und Auferstehung kritisch auseinandergesetzt, was aber Gemeinsamkeiten, die auch im Blick auf gemeinsames Erbe antiker Philosophie begründet sind, nicht ausschließt...
Jubiläen haben es in sich! In diesem Jahr werden wir vor allem an den großen Philosophen Immanuel Kant erinnert, der am 12.2.1804 in Königsberg in Preußen gestorben ist. Sein Denkmal am Königsberger Dom hat den Krieg und auch die Russen überstanden. Am populärsten ist bis heute Kants Erläuterung von „Aufklärung“: „Aufklärung ist der Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Mut, dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung!“1 Nicht nur, daß die 1784 niedergeschriebene Abhandlung Kants nicht am Anfang der deutschen Aufklärung steht, sondern eher ihr Schwanengesang ist: In der Regel wird auch verschwiegen, daß der Autor selbst die prinzipielle Gültigkeit dieser Sätze entscheidend einschränkte, wenn er am Schluß seiner Abhandlung alle radikalen Konsequenzen ausdrücklich verwarf und das Grundgesetz des friderizianischen Preußen pries: „Räsonniert, soviel als ihr wollt, und worüber ihr wollt, nur gehorcht!“ Kant hat den Angriff Napoleons auf Europa, den Zusammenbruch Preußens und Österreichs nicht mehr erlebt. So ist ihm die bittere Erfahrung erspart geblieben, daß von den Idealen einer Revolution meistens nur verwirklicht wird, was machtpolitisch brauchbar ist...
Anonyme Protestanten?
(2014)
Selbst bei theologisch so verschiedenen Charakteren wie Dorothee Sölle und Paul Tillich wurden religionskulturelle Unterschiede zwischen Personen durch den Verweis auf Gemeinsamkeiten in ihrem Leben und Handeln als „anonyme Christen“ zumindest relativiert, wenn nicht gar durch diese umfassende Kategorie ganz eingezogen. Differenzen zwischen Selbsteinschätzung und Fremdwahrnehmung der betreffenden Personen spielen dann kaum noch eine wesentliche Rolle.
Im Rückblick auf zwei Jubiläen soll im Folgenden die Brauchbarkeit der Kategorie „Anonyme Christen“ am Sonderfall „Anonyme Protestanten“ überprüft werden.
Der Titel bedarf einer besonderen Begründung! 800 Jahre Elisabeth von Thüringen: Katholische und Evangelische Kirche begehen z. B. in Hessen mit einer Fülle von Veranstaltungen 2007 das „Elisabethjahr“. Die Ev. Kirche in Kurhessen-Waldeck und die Ev. Kirche in Hessen und Nassau haben unter dem Titel „Krone, Brot und Rosen. 800 Jahre Elisabeth von Thüringen“ einen umfangreichen Veranstaltungskalender vorgelegt. Bereits an ihrem 775. Todestag lassen die hessischen Landeskirchen und Bistümer in ökumenischer Eintracht, aber mit unterschiedlicher Akzentuierung das Elisabethjahr beginnen. „In einem war man sich schnell einig: Elisabeth kann sicher nicht als moderne Sozialapostolin gedeutet werden, die auf die reine Mitmenschlichkeit setzte; dafür waren ihre Christusfrömmigkeit und ihre Christusnachfolge zu stark ausgeprägt; sie verband praktizierte Caritas mit tiefer Gottesbeziehung. Es gab aber ein hartes Ringen um ein gemeinsames Erscheinungsbild des Gedenkens. Das Attribut ‚heilig‘ war für die evangelische Seite nicht akzeptabel. Für Protestanten ist die fürstliche Wohltäterin nur Elisabeth von Thüringen, und so steht es auch auf dem Logo für evangelische Gedenkveranstaltungen. Auf dem Logo für ökumenisch verantwortete Veranstaltungen wird kompromißhaft zusammengefügt: ‚Heilige Elisabeth. Elisabeth von Thüringen‘ “ (Gernot Facius). Wenn ich im Folgenden weiter von der „Hl. Elisabeth“ rede, soll dieser Hintergrund nicht vergessen werden.
Spuren der Elisabeth-Verehrung finden sich aber nicht nur in Deutschland und in Ungarn. Auch in Italien, Portugal, Tschechien, ja sogar in Skandinavien und den baltischen Ländern erinnert man sich an die deutsche Nationalheilige des Mittelalters...
"Du sollst dir kein Bildnis noch irgendein Gleichnis machen, weder des, das oben im Himmel, noch des, das unten auf Erden, oder des, das im Wasser unter der Erde ist" (Exodus 20,4): Dieses Gebot aus dem Dekalog hat die Religions- und Kulturgeschichte immer wieder berührt. Vor allem der reformierte Protestantismus rühmt sich seiner 'Bilderlosigkeit'. Was sind aber 'Bilder'? ...
Der vollständige Titel der vorliegenden Arbeit lautet: Sprachwandel in Chur: 'Aufnahmen des Sprachatlasses der deutschen Schweiz (SDS) konfrontiert mit der Mundart von heute'. Entsprechend dieses Programmes sollen folgende Fragen beantwortet werden:
o Was für Aenderungen können wir in der Churer Mundart ausmachen?
o In welche Richtung gehen diese Aenderungen? Lassen sich Tendenzen ausmachen?
o Welche Einflüsse führten zu den festgestellten Veränderungen?
Es ist klar, dass im Rahmen dieser Arbeit nur ein Teil allen Sprachwandels in Chur festgehalten werden konnte. Es ist aber durchaus möglich, anhand der erfassen Veränderungen Schlüsse zu ziehen, die sich auch auf die Mundart von Chur überhaupt übertragen lassen.
Schwerpunktmässig wurden für diese Arbeit Vokalismus und morphologisch-syntaktische Probleme bevorzugt behandelt. Für Konsonantismus eignet sich die Form der schriftlichen Umfrage wenig (Vgl. Kap.l.3.). Der Wandel im mundartlichen Wortschatz ist zu gross, als dass er auch nur annähernd vollständig behandelt werden könnte. Und Stiefkinder mussten auch satzmelodische und rhythmische Probleme bleiben. Dafür wurden anhand ausgesuchter Beispiele Phänomene erfasst, bei welchen der SDS nicht als Grundlage dienen konnte.
Wichtig ist für diese Arbeit, dass mit "der Mundart von heute" auch wirklich heutige Mundart erfasst wurde. Es sollte also keineswegs eine "richtige" Churer Mundart rekonstruiert (auch wenn dies mit den Verweisen auf die SDS-Karten implizit natürlich gemacht worden ist), sondern vielmehr mit den Aussagen der Gewährspersonen (Gwp) gearbeitet werden. In diesem Sinne kann Sekundärliteratur Erhellung bringen, soll aber nicht Untersuchungsgegenstand sein.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
Als am 11.10.1987 der Stern- Reporter Sebastian Knauer den toten, erst kurz zuvor vom Amt des Ministerpräsidenten in Kiel zurückgetretenen, Uwe Barschel (CDU) in der Badewanne seines Genfer Hotelzimmers fotografierte1, schuf er eine Fotografie, deren Bekanntheit und Streitbarkeit bis heute nicht verblasst ist.
Die Stellungnahme befasst sich mit einem wichtigen Aspekt der Offenlegung der Bezüge von Entscheidungsträgern im Bankensektor. Komplementär zu der Diskussion um die Veröffentlichung der Vergütung von Vorstandsmitgliedern börsennotierter Unternehmen ist auch auf Landeseben versucht worden, die Transparenz der Vergütung von Führungskräften kommunaler oder landeseigener Unternehmen zu erhöhen. Namentlich sind die Träger der Sparkassen durch den neuen § 19 Abs. 6 des Sparkassengesetzes von Nordrhein-Westfalen verpflichtet worden, darauf „hinzuwirken“, dass die „gewährten Bezüge jedes einzelnen Mitglieds des Vorstands, des Verwaltungsrates und ähnlicher Gremien unter Namensnennung“ veröffentlich werden. Diese Vorschrift ist jedoch weitgehend wirkungslos geblieben; nicht zuletzt weil das OLG Köln in einer einstweiligen Verfügung die Vorschrift mangels Gesetzgebungskompetenz des Landes als nichtig behandelt hat. In dieser Situation ist am 8. August 2013 der Vorschlag eines Gesetzes „zur Offenlegung der Bezüge von Sparkassenführungskräften im Internet“ durch die Fraktion der Piraten im Landtag Nordrhein-Westfalen eingebracht worden. Der Entwurf ist Gegenstand der Stellungnahme, die Helmut Siekmann für den Haushalts- und Finanzausschuss des Landtags Nordrhein-Westfalen erstellt hat. Sie stellt maßgebend darauf ab, dass die Sparkassen als Anstalten des öffentlichen Rechts einen öffentlichen Auftrag zu erfüllen haben und den Grundsätzen des Verwaltungsorganisationsrechts unterliegen. Als Teil der (leistenden) Verwaltung müssen sie Transparenz- und Kontrollansprüchen der Bürger und ihren Repräsentanten in den Parlamenten genügen.
Der vorliegende Artikel analysiert systematisch die Erreichung der MiFID-Ziele anhand der wissenschaftlichen Literatur. Ziel der MiFID ist es, die Rahmenbedingungen für einen effizienten und kostengünstigen Wertpapierhandel zu schaffen. Erreicht werden soll dies durch die Verschärfung des Wettbewerbs, die Integration der Märkte, die Offenlegung von Handelsintentionen und -geschäften sowie die Stärkung der rechtlichen Position der Investoren. Im Ergebnis zeigt sich, dass die Förderung des Wettbewerbes als erfolgreich bewertet wird, aber die regulatorischen Möglichkeiten der Marktintegration nicht ausgeschöpft werden. Ferner wird die Forderung nach einheitlichen Transparenzbestimmungen für alle Ordermechanismen nur teilweise umgesetzt. Der Anleger erfährt letztlich gegenüber Finanzintermediären durch die MiFID keinen höheren Schutz.
Im Zeitalter von Globalisierung und Massenmigration ergeben sich derzeit nicht nur neue Fragestellungen und Perspektiven für die germanistische Exilforschung, es lässt sich auch ein wachsendes Interesse der Öffentlichkeit am Thema des Exils beobachten. Entscheidende Impulse erhielt die Auseinandersetzung in jüngster Vergangenheit ins besondere durch Herta Müller und ihre Forderung, ein "Museum des Exils" zu gründen. Das Exil in diesem Sinne "in der gegenwärtigen deutschen Erinnerungskultur zu verankern", ist erklärtes Ziel der vom Literaturarchiv Marbach und der Deutschen Nationalbibliothek in Frankfurt am Main initiierten virtuellen Ausstellung 'Künste im Exil', die im September 2013 offiziell freigeschaltet wurde. Das Netzwerkprojekt interessiert sich dabei vor allem auch für die "unerwarteten Verbindungslinien zwischen historisch spezifischen Exil-Situationen". […]
Mit Beiträgen zu Marica Bodrožić, Saša Stanisic, Olga Grjasnowa, Doron Rabinovici, Abbas Khider und Michael Lentz versammelt das Heft einige exemplarische Lektüren zu Exiltexten der Gegenwart. Zum Weiter lesen regt die von Philipp Wulf erstellte Bibliographie zu Texten von in Deutschland lebenden Exilautoren an, die auf der Internetseite der Walter A. Berendsohn Forschungsstelle eingestellt ist. Die Arbeit des "Writers in exile"-Programms stellt Franziska Sperr in ihrem Artikel vor. Yvonne Siebels berichtet über digitale Exil-Portale, zu der auch die virtuelle Ausstellung Künste im Exil gehört. Andreas Marquet stellt den Beitrag zur Tänzerin und Autorin Jo Mihaly vor, mit dem die Forschungsstelle in der digitalen Ausstellung vertreten ist.
Fünf Jahre nach Beginn der Banken- und Staatsschuldenkrise („Finanzkrise“) kämpfen wir weiterhin mit den elementaren Problemen: Bei Märkten und Marktteilnehmern fehlt es an Stabilität und Vertrauen. Viele Banken stehen immer noch nicht auf eigenen Füßen und nehmen die ihnen in Europa traditionell zukommende zentrale Rolle für Wachstum und Entwicklung nicht wahr. Den guten Absichten, auf die sich die großen politischen Mächte während der ersten G-20 Treffen 2008 und 2009 verständigt hatten, ist eine Reihe von sinnvollen Ideen und Konzepten gefolgt. Die Voraussetzungen für einen grundlegenden reformerischen Erfolg sind somit gegeben – doch nun muss die Umsetzung folgen. Dazu bedarf es mutiger Entscheidungen. Im Jahr 2014 muss die europäische Politik gleich mehrere Weichen stellen. Der Bundesregierung kommt dabei die Schlüsselrolle zu. Sie muss den Mut haben zu radikaler Ordnungspolitik!
Das ursprüngliche Ziel des Erneuerbare-Energien-Gesetz war die Verringerung der Emissionen. Eigentlich hat die Politik bereits ein Instrument an der Hand, das dieses Ziel fokussiert und kostensparend erreichen kann: den Handel mit CO2-Zertifikaten. Der Autor argumentiert, dass das Nebeneinander von CO2-Handel und EEG höchst unproduktiv ist und schleunigst beendet werden sollte. Ein plausibleres Argument für den politischen Erfolg des EEG und das derzeitige Herumdoktern im Detail ist, dass die Politik mit dem EEG Industriepolitik betreiben und die Kosten auf zukünftige Parlamente und Generationen überwälzen kann.