Refine
Year of publication
- 2014 (1315) (remove)
Document Type
- Article (330)
- Contribution to a Periodical (173)
- Part of Periodical (171)
- Book (130)
- Report (117)
- Review (107)
- Doctoral Thesis (82)
- Working Paper (64)
- Part of a Book (59)
- Other (19)
Language
- German (1315) (remove)
Has Fulltext
- yes (1315) (remove)
Is part of the Bibliography
- no (1315) (remove)
Keywords
- Rilke, Rainer Maria (34)
- Literatur (29)
- Deutsch (25)
- Ukraine (22)
- Russland (21)
- Deutschland (16)
- USA (16)
- Rezension (14)
- Krim (13)
- Begriff (12)
Institute
- Präsidium (354)
- Gesellschaftswissenschaften (157)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (61)
- Geschichtswissenschaften (55)
- Rechtswissenschaft (45)
- Kulturwissenschaften (41)
- Medizin (40)
- Wirtschaftswissenschaften (33)
- Physik (30)
- Neuere Philologien (25)
Der Titel bedarf einer besonderen Begründung! 800 Jahre Elisabeth von Thüringen: Katholische und Evangelische Kirche begehen z. B. in Hessen mit einer Fülle von Veranstaltungen 2007 das „Elisabethjahr“. Die Ev. Kirche in Kurhessen-Waldeck und die Ev. Kirche in Hessen und Nassau haben unter dem Titel „Krone, Brot und Rosen. 800 Jahre Elisabeth von Thüringen“ einen umfangreichen Veranstaltungskalender vorgelegt. Bereits an ihrem 775. Todestag lassen die hessischen Landeskirchen und Bistümer in ökumenischer Eintracht, aber mit unterschiedlicher Akzentuierung das Elisabethjahr beginnen. „In einem war man sich schnell einig: Elisabeth kann sicher nicht als moderne Sozialapostolin gedeutet werden, die auf die reine Mitmenschlichkeit setzte; dafür waren ihre Christusfrömmigkeit und ihre Christusnachfolge zu stark ausgeprägt; sie verband praktizierte Caritas mit tiefer Gottesbeziehung. Es gab aber ein hartes Ringen um ein gemeinsames Erscheinungsbild des Gedenkens. Das Attribut ‚heilig‘ war für die evangelische Seite nicht akzeptabel. Für Protestanten ist die fürstliche Wohltäterin nur Elisabeth von Thüringen, und so steht es auch auf dem Logo für evangelische Gedenkveranstaltungen. Auf dem Logo für ökumenisch verantwortete Veranstaltungen wird kompromißhaft zusammengefügt: ‚Heilige Elisabeth. Elisabeth von Thüringen‘ “ (Gernot Facius). Wenn ich im Folgenden weiter von der „Hl. Elisabeth“ rede, soll dieser Hintergrund nicht vergessen werden.
Spuren der Elisabeth-Verehrung finden sich aber nicht nur in Deutschland und in Ungarn. Auch in Italien, Portugal, Tschechien, ja sogar in Skandinavien und den baltischen Ländern erinnert man sich an die deutsche Nationalheilige des Mittelalters...
"Du sollst dir kein Bildnis noch irgendein Gleichnis machen, weder des, das oben im Himmel, noch des, das unten auf Erden, oder des, das im Wasser unter der Erde ist" (Exodus 20,4): Dieses Gebot aus dem Dekalog hat die Religions- und Kulturgeschichte immer wieder berührt. Vor allem der reformierte Protestantismus rühmt sich seiner 'Bilderlosigkeit'. Was sind aber 'Bilder'? ...
Der vollständige Titel der vorliegenden Arbeit lautet: Sprachwandel in Chur: 'Aufnahmen des Sprachatlasses der deutschen Schweiz (SDS) konfrontiert mit der Mundart von heute'. Entsprechend dieses Programmes sollen folgende Fragen beantwortet werden:
o Was für Aenderungen können wir in der Churer Mundart ausmachen?
o In welche Richtung gehen diese Aenderungen? Lassen sich Tendenzen ausmachen?
o Welche Einflüsse führten zu den festgestellten Veränderungen?
Es ist klar, dass im Rahmen dieser Arbeit nur ein Teil allen Sprachwandels in Chur festgehalten werden konnte. Es ist aber durchaus möglich, anhand der erfassen Veränderungen Schlüsse zu ziehen, die sich auch auf die Mundart von Chur überhaupt übertragen lassen.
Schwerpunktmässig wurden für diese Arbeit Vokalismus und morphologisch-syntaktische Probleme bevorzugt behandelt. Für Konsonantismus eignet sich die Form der schriftlichen Umfrage wenig (Vgl. Kap.l.3.). Der Wandel im mundartlichen Wortschatz ist zu gross, als dass er auch nur annähernd vollständig behandelt werden könnte. Und Stiefkinder mussten auch satzmelodische und rhythmische Probleme bleiben. Dafür wurden anhand ausgesuchter Beispiele Phänomene erfasst, bei welchen der SDS nicht als Grundlage dienen konnte.
Wichtig ist für diese Arbeit, dass mit "der Mundart von heute" auch wirklich heutige Mundart erfasst wurde. Es sollte also keineswegs eine "richtige" Churer Mundart rekonstruiert (auch wenn dies mit den Verweisen auf die SDS-Karten implizit natürlich gemacht worden ist), sondern vielmehr mit den Aussagen der Gewährspersonen (Gwp) gearbeitet werden. In diesem Sinne kann Sekundärliteratur Erhellung bringen, soll aber nicht Untersuchungsgegenstand sein.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
Als am 11.10.1987 der Stern- Reporter Sebastian Knauer den toten, erst kurz zuvor vom Amt des Ministerpräsidenten in Kiel zurückgetretenen, Uwe Barschel (CDU) in der Badewanne seines Genfer Hotelzimmers fotografierte1, schuf er eine Fotografie, deren Bekanntheit und Streitbarkeit bis heute nicht verblasst ist.
Die Stellungnahme befasst sich mit einem wichtigen Aspekt der Offenlegung der Bezüge von Entscheidungsträgern im Bankensektor. Komplementär zu der Diskussion um die Veröffentlichung der Vergütung von Vorstandsmitgliedern börsennotierter Unternehmen ist auch auf Landeseben versucht worden, die Transparenz der Vergütung von Führungskräften kommunaler oder landeseigener Unternehmen zu erhöhen. Namentlich sind die Träger der Sparkassen durch den neuen § 19 Abs. 6 des Sparkassengesetzes von Nordrhein-Westfalen verpflichtet worden, darauf „hinzuwirken“, dass die „gewährten Bezüge jedes einzelnen Mitglieds des Vorstands, des Verwaltungsrates und ähnlicher Gremien unter Namensnennung“ veröffentlich werden. Diese Vorschrift ist jedoch weitgehend wirkungslos geblieben; nicht zuletzt weil das OLG Köln in einer einstweiligen Verfügung die Vorschrift mangels Gesetzgebungskompetenz des Landes als nichtig behandelt hat. In dieser Situation ist am 8. August 2013 der Vorschlag eines Gesetzes „zur Offenlegung der Bezüge von Sparkassenführungskräften im Internet“ durch die Fraktion der Piraten im Landtag Nordrhein-Westfalen eingebracht worden. Der Entwurf ist Gegenstand der Stellungnahme, die Helmut Siekmann für den Haushalts- und Finanzausschuss des Landtags Nordrhein-Westfalen erstellt hat. Sie stellt maßgebend darauf ab, dass die Sparkassen als Anstalten des öffentlichen Rechts einen öffentlichen Auftrag zu erfüllen haben und den Grundsätzen des Verwaltungsorganisationsrechts unterliegen. Als Teil der (leistenden) Verwaltung müssen sie Transparenz- und Kontrollansprüchen der Bürger und ihren Repräsentanten in den Parlamenten genügen.
Der vorliegende Artikel analysiert systematisch die Erreichung der MiFID-Ziele anhand der wissenschaftlichen Literatur. Ziel der MiFID ist es, die Rahmenbedingungen für einen effizienten und kostengünstigen Wertpapierhandel zu schaffen. Erreicht werden soll dies durch die Verschärfung des Wettbewerbs, die Integration der Märkte, die Offenlegung von Handelsintentionen und -geschäften sowie die Stärkung der rechtlichen Position der Investoren. Im Ergebnis zeigt sich, dass die Förderung des Wettbewerbes als erfolgreich bewertet wird, aber die regulatorischen Möglichkeiten der Marktintegration nicht ausgeschöpft werden. Ferner wird die Forderung nach einheitlichen Transparenzbestimmungen für alle Ordermechanismen nur teilweise umgesetzt. Der Anleger erfährt letztlich gegenüber Finanzintermediären durch die MiFID keinen höheren Schutz.
Im Zeitalter von Globalisierung und Massenmigration ergeben sich derzeit nicht nur neue Fragestellungen und Perspektiven für die germanistische Exilforschung, es lässt sich auch ein wachsendes Interesse der Öffentlichkeit am Thema des Exils beobachten. Entscheidende Impulse erhielt die Auseinandersetzung in jüngster Vergangenheit ins besondere durch Herta Müller und ihre Forderung, ein "Museum des Exils" zu gründen. Das Exil in diesem Sinne "in der gegenwärtigen deutschen Erinnerungskultur zu verankern", ist erklärtes Ziel der vom Literaturarchiv Marbach und der Deutschen Nationalbibliothek in Frankfurt am Main initiierten virtuellen Ausstellung 'Künste im Exil', die im September 2013 offiziell freigeschaltet wurde. Das Netzwerkprojekt interessiert sich dabei vor allem auch für die "unerwarteten Verbindungslinien zwischen historisch spezifischen Exil-Situationen". […]
Mit Beiträgen zu Marica Bodrožić, Saša Stanisic, Olga Grjasnowa, Doron Rabinovici, Abbas Khider und Michael Lentz versammelt das Heft einige exemplarische Lektüren zu Exiltexten der Gegenwart. Zum Weiter lesen regt die von Philipp Wulf erstellte Bibliographie zu Texten von in Deutschland lebenden Exilautoren an, die auf der Internetseite der Walter A. Berendsohn Forschungsstelle eingestellt ist. Die Arbeit des "Writers in exile"-Programms stellt Franziska Sperr in ihrem Artikel vor. Yvonne Siebels berichtet über digitale Exil-Portale, zu der auch die virtuelle Ausstellung Künste im Exil gehört. Andreas Marquet stellt den Beitrag zur Tänzerin und Autorin Jo Mihaly vor, mit dem die Forschungsstelle in der digitalen Ausstellung vertreten ist.
Fünf Jahre nach Beginn der Banken- und Staatsschuldenkrise („Finanzkrise“) kämpfen wir weiterhin mit den elementaren Problemen: Bei Märkten und Marktteilnehmern fehlt es an Stabilität und Vertrauen. Viele Banken stehen immer noch nicht auf eigenen Füßen und nehmen die ihnen in Europa traditionell zukommende zentrale Rolle für Wachstum und Entwicklung nicht wahr. Den guten Absichten, auf die sich die großen politischen Mächte während der ersten G-20 Treffen 2008 und 2009 verständigt hatten, ist eine Reihe von sinnvollen Ideen und Konzepten gefolgt. Die Voraussetzungen für einen grundlegenden reformerischen Erfolg sind somit gegeben – doch nun muss die Umsetzung folgen. Dazu bedarf es mutiger Entscheidungen. Im Jahr 2014 muss die europäische Politik gleich mehrere Weichen stellen. Der Bundesregierung kommt dabei die Schlüsselrolle zu. Sie muss den Mut haben zu radikaler Ordnungspolitik!
Das ursprüngliche Ziel des Erneuerbare-Energien-Gesetz war die Verringerung der Emissionen. Eigentlich hat die Politik bereits ein Instrument an der Hand, das dieses Ziel fokussiert und kostensparend erreichen kann: den Handel mit CO2-Zertifikaten. Der Autor argumentiert, dass das Nebeneinander von CO2-Handel und EEG höchst unproduktiv ist und schleunigst beendet werden sollte. Ein plausibleres Argument für den politischen Erfolg des EEG und das derzeitige Herumdoktern im Detail ist, dass die Politik mit dem EEG Industriepolitik betreiben und die Kosten auf zukünftige Parlamente und Generationen überwälzen kann.
Plus Puls : 2014, 1
(2014)
Wissenschaftliche Koordination der „SÖF-Energiewende“ +++ Energiewende: Neue Möglichkeiten der zivilgesellschaftlichen Beteiligung +++ GAIA Best Paper Award für ISOE-Wissenschaftler +++ Weltbiodiversitätsrat: ISOE-Forscherin als Expertin nominiert +++ Abwasser als Ressource +++ Neue Infrastrukturen verknüpfen Wasser und Energie +++ Weltwassertag: Feierlichkeiten in Outapi/Namibia +++ Workshop zu Grauwassernutzung +++ Lehrveranstaltungen im Sommersemester +++ ISOE baut Kommunikation in Social Media aus +++ Termine +++ Publikationen
Der Beitrag zeigt, dass zivilrechtliche (Sanktions-)Normen verhaltenssteuernd wirken und Marktstrukturen beeinflussen, i.e. sie haben regulierende Wirkung. Die angemahnte Konsequenz dieser Beobachtung liegt darin, dass sich eine zeitgenössische Zivilrechtswissenschaft für eine methodisch abgesicherte Folgenbeurteilung bei der Rechtsanwendung öffnet, d.h. diese bereits bei der Interpretation der lex lata berücksichtigt. Wie dieses Desiderat umgesetzt werden kann, wird anhand von drei einschlägigen Beispielen illustriert. Dabei zeigt sich, dass nicht verkannt werden darf, dass die funktionale Betrachtung jenseits des Wirtschafts- und bürgerlichen Vermögensrechts an Grenzen stoßen kann. Dies kann aber nicht abstrakt behauptet, sondern muss stets konkret begründet werden, um den dann angezeigten Methodenwechsel zu rechtfertigen.
Der langsame Neutroneneinfang-Prozess (s-Prozess) ist für die Erzeugung von rund der Hälfte der Elemente zwischen Eisen und Blei verantwortlich. Sein Reaktionspfad enthält entlang des Stabilitätstals einige Verzweigungspunkte an instabilen Isotopen, deren Neutroneneinfangquerschnitte die Produktion schwererer Elemente und deren Isotopen-Verhältnisse beeinflussen. Kennt man ihre Zerfalls- und Neutroneneinfangraten unter den angenommenen stellaren Bedingungen ist es möglich, Rückschlüsse auf die physikalischen Umstände während des s-Prozesses zu ziehen. Einer dieser Verzweigungspunkte ist 63-Ni. Die experimentelle Bestimmung des differentiellen Wirkungsquerschnittes für den Neutroneneinfang an diesem Isotop ist das primäre Ergebnis der vorliegenden Arbeit. Der 63-Ni(n,gamma)- Wirkungsquerschnitt hat Einfluss auf die Häufigkeiten von 64-Ni, die Kupfer- und die Zink-Isotope. Die Sensitivität der Produktion dieser Nuklide in s-Prozess-Szenarien wurde ebenfalls im Rahmen dieser Arbeit anhand von Simulationen des entsprechenden Nukleosynthesenetzwerkes untersucht. Zudem wurde die Datenlage für s-Prozess-Modelle mit einer Flugzeit-Messung des 63-Cu(n,gamma)-Wirkungsquerschnitts erweitert.
Die beiden Experimente zur Querschnittsbestimmung von 63-Ni und 63-Cu fanden am Los Alamos Neutron Science Center in New Mexico, USA statt. Eine aus angereichertem 62-Ni hergestellte 63-Ni-Probe wurde im Rahmen einer Flugzeit-Messung gepulst mit Neutronen bestrahlt. Der Nachweis der prompten Gammastrahlung aufgrund von Neutroneneinfängen erfolgte mit dem 4π-BaF_2-Detektor DANCE. Die kalorimetrische Messung macht den Q-Wert der Reaktion für jedes Einfangereignis zugänglich und erlaubt die Unterscheidung von Ereignissen verschiedener Isotope. Es konnte gezeigt werden, dass diese Methode die Bestimmung von Querschnitten selbst mit Proben ermöglicht, die nur zu einem Bruchteil aus dem zu untersuchenden Isotop bestehen. Der 63-Ni(n,gamma)-Wirkungsquerschnitt wurde für den Energiebereich von 40 eV bis 500 keV mit einer maximalen Unsicherheit von 15% bestimmt. Es zeigte sich, dass theoretische Abschätzungen den Querschnitt bislang um etwa einen Faktor 2 unterschätzten. In demselben Energiebereich konnte der 63-Cu(n,gamma)-Wirkungsquerschnitt mit einer maximalen Unsicherheit von 8% vermessen werden.
Der dokumentarische Blick. Bild- und Geschichtsproduktion bei Omer Fast, Walid Raad und Sven Johne
(2014)
Der dokumentarische Blick. Bild- und Geschichtsproduktion bei Omer Fast, Walid Raad und Sven Johne Eine staubige Straße in einer kargen Landschaft irgendwo im nirgendwo. Zwei Fahrzeuge. Ein blutüberströmter junger Mann auf der Rückbank in den Armen einer Frau. Die Frontscheibe ist zersplittert. Eine Szenerie, die sich in Gedanken leicht ausmalen lässt. Es spielt noch keine Rolle ob sie wahr ist oder Fiktion. Das Bild taucht vor dem inneren Auge auf, konstruiert aus ein paar Schlagworten. Die beschriebene Szene stammt aus der Videoarbeit The Casting von Omer Fast.
Unternehmen sind heutzutage nicht mehr nur Hersteller von Gebrauchsgegenständen. Ihr Firmenname und ihr Logo bedeuten für die Kunden mehr als die Kennzeichnung der hergestellten Produkte und ihre Bedeutung scheint über das bloße Verständnis von Markenprodukten als Statussymbole und Prestigeobjekte hinaus zu gehen. Wie sonst ist zu erklären, dass Menschen vor den Geschäften der Bekleidungskette „Abercrombie & Fitch“ Schlange stehen und lange Wartezeiten in Kauf nehmen, um sich Kleidung zu kaufen? Und warum sonst, musste dem Ansturm auf den Apple-Store in Peking beim Verkaufsstart des iPhone 4GS mit der Polizei entgegengewirkt werden?
"Tank man and Ai Weiwei" : die Stilisierung zu
Heldenfiguren durch massenmediale Echtzeitübertragung
(2014)
Heute herrscht ein Drang zur exzessiven Rationalität. Unterstrichen wird diese durch die unhaltbare Dokumentation des banalen Alltags. Bei Facebook, Twitter und anderen Netzwerken darf jeder mitverfolgen, was sein nebenan zum Beispiel im Urlaub auf Bali zum Frühstück gegessen hat. Erzählungen reichen nicht mehr aus, um zu beweisen, dass ein Ereignis geschehen ist. Erst durch Fotos werden Erlebnisse authentisch oder zumindest fühlt es sich für viele noch echter an. Videos werden bei Youtube hochgeladen und ganze Fotoalben auf Facebook für die “Freunde” bereit gestellt. Diverse Massenmedien werden genutzt, um Tatsachen aufzuzeigen, wie man es auch aus dem Fernsehen kennt. Es geht um die Wiedergabe tatsächlicher Geschehnisse. Das gilt sowohl für den Alltag als auch beispielsweise für politische Angelegenheiten. Zwischen nüchternen Nachrichten und Berichterstattungen ergibt sich ein Raum für die Sehnsüchte nach eher irrationalen Geschichten, Verschwörungstheorien und modernen Mythen. Kein Wunder, dass scheinbar unauffällige Alltagsfiguren durch Presse und Fernsehen manchmal zu Heldentypen stilisiert werden. Auf der Bühne politischer Ereignisse kommt es zu einer Zusammenarbeit von Journalismus und „Übermenschfiktionen“...
Der Werther-Effekt
(2014)
Die vorliegende Untersuchung spezialisiert sich auf das Thema des Suizids und listet dabei auserwählte prominente Persönlichkeiten auf, die ihrem Leben selbst ein Ende setzen wollten. Dabei soll besonders auf ein Phänomen eingegangen werden, das in der Wissenschaft allgemein unter dem „Werther-Effekt“ bekannt ist; eine seit Jahrhunderten beobachtete Häufung von Selbstmorden, denen immer der Suizid einer bekannten Persönlichkeit voran gegangen ist. Basierend auf den empirischen Untersuchungen von David Phillips, der einen kausalen Zusammenhang zwischen prominenten Suizidenten und Selbstmördern aus der Gesellschaft bestätigt hat, soll zunächst dargelegt werden, was genau unter dem „Werther-Effekt“ zu verstehen ist. In die Diskussion immer mit eingebunden ist die Rolle der Medien. Vorangestellt wird eine Erläuterung, die erklärt, warum diese Art Selbstmord „Werther-Effekt“ genannt wird. Anhand von vier berühmten Persönlichkeiten werden unterschiedliche Beispiele für den „Werther-Effekt“ dargestellt. Mit Marilyn Monroe als berühmteste und beliebteste Schauspielerin ihrer Zeit, zeigt sich inwieweit die Berichterstattung über ihren Tod durch die Medien zum Selbstmordantrieb für die normale Bevölkerung werden kann...
Migrant Mother
(2014)
Als die Photographin Dorothea Lange im März 1936 auf dem Weg zu ihrer Familie in San Francisco den Highway entlang fuhr, hätte sie wohl nicht damit gerechnet, gleich ein Jahrhundertfoto aufzunehmen. (Abb. 1) Sie hatte soeben einen einmonatigen Aufenthalt in Süd Kalifornien hinter sich und ihre Arbeit für die Resettlement Administration waren abgeschlossen. Sie war auf dem Weg nach Hause, als sie am Rande der Straße im Vorbeifahren ein Schild mit der Aufschrift „Pea-Pickers Camp“ sah erschien ihr dies nicht ungewöhnlich. Es war die Zeit der großen Depression, in der viele Menschen arbeitslos waren und auf der Suche nach Arbeit umher zogen. Daher waren solche Camps, in denen die Wanderarbeiter ihre Zelte und Baracken errichteten, nicht selten.
Schlagen wir an einem beliebigen Tag die Fernsehzeitung auf, begegnet uns auf mindestens einem Fernsehsender eine kriminalpathologische Serie. Die Faszination des Menschen am Tod lässt dieses Format wie Pilze aus dem Boden schießen. Doch woher kommt die Lust am Morbiden? Einen emotionalen Zusammenhang kann es nicht geben, da es sich nur um fiktive Personen handelt. Doch wenn die persönliche Trauer keine Rolle spielt, warum schauen sich dann so viele Menschen Leichen in Film und Fernsehen an? Vielleicht ist es die Angst vor dem Unbekannten, vor dem Tod, die uns dazu treibt. Der Mensch strebt auf diese Weise danach, Erfahrungen mit dem Tod zu sammeln, in dem er versucht den Objekten des Todes, also den Toten, nahe zu kommen. Es ist ein Versuch mit dem Unausweichlichen umzugehen. Doch finden wir den inszenierten Tod nicht nur im Abendprogramm des Privatfernsehens. Häufig begegnet er uns auch in den Nachrichten besonders detailreich, wenn es sich dabei um den Tod eines Machthabers handelt. Der inszenierte Tod begegnet uns zum Beispiel in den verschiedenen Aufnahmen von der Hinrichtung Sadam Husseins. Die Präsentation dieser Bilder in den Medien hat noch eine weitere Dimension und um die soll es in der vorliegenden Arbeit gehen...
Zwischen Perspektiven und Disziplinen: Ist das denn noch Kunstgeschichte? Alle reden von Bilderflut. Von einem täglichen stoßwellenartigen Einbrechen von Medienbildern aus Zeitung, Fernsehen, von Werbetafeln und aus dem Internet. In Fachkreisen hat sich der Begriff Iconic Turn durchgesetzt, die ikonische Wende der Bildnutzung und Untersuchung analog zum sprachwissenschaftlichen Modell des Linguistic Turn. Das Gefühl einer Überwältigung durch die Bilder der Massenmedien zeigt sich vor allem in der Überforderung, die unüberschaubare Bildmasse, die täglich auf den Betrachter einwirkt, zu erfassen und zu erschließen. Schuld ist aber nicht nur die große Menge an Bildmaterial, durch die das persönliche und das kollektive Bildgedächtnis stets erweitert werden - und das zum Großteil unbemerkt. Die Überforderung ergibt sich vor allem aus der Unfähigkeit, die Flut der hoch komplexen, teilweise wenig greifbaren Informationsgehalte des Gesehen zu filtern und zu verarbeiten...
Beim Durchblättern einer alten SPIEGEL-Ausgabe, die irgendwo herumlag, erregte ein Pressebild meine Aufmerksamkeit. Unter Mitteilungen war ein Photo zu sehen, das eine Person zeigte, die zum Sprung von einer Balkonbrüstung angesetzt hatte. Dieses Bild fesselte deshalb meinen Blick, weil dieser sich im Sprung befindende Mensch so gar nicht hineinpassen wollte in das mondäne, distinguierte Ambiente der Innenarchitektur. Als Fremdkörper störte er die klassizistische Fassade auf eine erhebliche, jedoch sehr leise Weise...
Die folgenden wissenschaftlichen Untersuchungen basieren auf dieser Fragestellung: Lassen sich die mit dem neuzeitlichen Medium der Videokamera dokumentierten Tsunamivideos mit den kunsthistorischen Abbildungen der biblischen Sintflut vergleichen? Und wenn ja, gibt es einen ikonographischen Zusammenhang zwischen den Bildern dieser augenscheinlich so konträren „Bildträgern“? Es ergeben sich somit zwei Themenschwerpunkte: Zum einen die Übertragung der beiden Tsunamis in Südasien und Japan durch das Kommunikationsmedium Handy und der Videokamera und die mit sich bringende Überlegung bezüglich der evozierten Emotionen durch diese neue Art der Dokumentation. Denn der Betrachter steht hilflos einer „Flut“ von Bildern gegenüber, die aus seinen eigenen Reihen kommen. Er sieht nicht mehr die für politische Zwecke oder von den Medien manipulierten Bilder, sondern Echtzeitzeugnisse menschlicher Schicksalsschläge und Ängste...
"The falling man"
(2014)
Der 11. September 2001 ist einer der meist dokumentierten Tage in der Geschichte. Auch über 10 Jahre danach gibt es noch zahlreiche Reportagen zu den Terroranschlägen im Fernsehen, Gedenkfeiern werden live und weltweit übertragen, Videos, Aufnahmen und dokumentierte Einzelschicksale in Endlosschleife gezeigt und wiederholt. Die Aufnahmen der Menschen, die in den besagten Stunden aus den obersten Stockwerken des World Trade Centers stürzten, fielen oder sprangen, blieben besonders in Erinnerung und stießen auf unterschiedlichste Reaktionen. Insgesamt wurde in den Medien von etwa 200 „Jumpers“ gesprochen. Ein Foto rückte dabei besonders in den Fokus des öffentlichen Interesses „The falling man“ (Abb.1) Eine Aufnahme aus einer Serie von 12 Fotografien (Abb.2)...
Am klaren sonnigen Tag des 11. Septembers 2001 entführen neunzehn Al-Quaida Terroristen vier Flugzeuge im amerikanischen Luftraum. Um 8:46 Uhr Ortszeit kracht der American Airlines Flug AA 11 in den Nordturm des World Trade Centers. An Bord des Flugzeuges befinden sich 81 Passagiere und elf Besatzungsmitglieder. Nur 18 Minuten später, um 09:03 Uhr, fliegt Flug UA 175 mit 65 Passagieren und 9 Besatzungsmitgliedern in den Südturm.1 Um 9:30 Uhr wird der Flug AA 77 mit 58 Passagieren und sechs Besatzungsmitgliedern in die Nordwestseite des Pentagons geleitet. Um 10:03 Uhr stürzt Flug UA 93 auf ein Feld in Pennsylvania. Letzteres geschah auf Grund eines Kampfes zwischen den Flugzeugentführern und mutigen Passagieren. Spekulationen zufolge sollte das Flugzeug ins Weiße Haus fliegen. In der Zwischenzeit, um 9:59 Uhr, beginnt bereits der Südturm des World Trade Centers einzustürzen, um 10:28 Uhr folgt der Nordturm...
Die Geschichte des Mondes und seiner wissenschaftliche Erschließung ist in einem wechselseitigen Verhältnis eng an die Entdeckung neuer Technologien sowie die Geschichte der Medien geknüpft. Ausgehend von der Entwicklung des Teleskops über die Entdeckung der Fotografie Mitte des 19. Jahrhunderts, bis hin zu den Sonden ab Mitte der 1950er Jahre kulminiert diese Entwicklung in der ersten bemannten Raumfahrt. Als Höhepunkt dieser Entwicklung setzen die Astronauten Neil Armstrong und Buzz Aldrin als erste Menschen am 20. Juli 19692 selbst den Fuß auf den Mond und dokumentieren dieses Ereignis fotografisch. Doch was kommt danach? Am 8. Juli 2011 wurde das Raumfahrtprogramm der NASA eingestellt. Weitere Reisen zum Mond wurden seit dem Apollo-Programm nicht mehr unternommen...
Betrachtet man das Phänomen des „embedded journalism“ kommt einem zwangsläufig die Frage nach der Nutzbarkeit des Kriegsjournalismus auf. Anfänglich muss zunächst der Grundgedanke des embedding aus gesellschaftlicher und politischer Sicht nachvollzogen werden. Das Konzept dieser Medienberichterstattung wurde von der USRegierung für den Irakkrieg beziehungsweise den dritten Golfkrieg 2003 vorgestellt mit dem anscheinend notwendigen Grund, eine objektive und transparente Kriegsberichterstattung für die Weltöffentlichkeit zu ermöglichen und somit das Einmarschieren einer Weltmacht in ein islamisches Land rechtfertigen zu können. Der damalige US-Präsident George W. Bush rechtfertigte den Krieg mit der Aussage, dass der irakische Diktator Saddam Hussein Massenvernichtungswaffen herstellen würde und mit der Terrororganisation Al Quaida in Verbindung stünde.2 Somit erklärte er nicht nur das irakische Oberhaupt zum Feind der USA, sondern ein ganzes Land zum Feind der freien und kapitalistischen Welt...
Walter Benjamin sah die Vergangenheit nicht in Geschichten, sondern „in Bildern zerfallen.“1 Wie kaum ein anderes Ereignis in der Moderne drückte sich der Vietnamkrieg in einer Vielzahl von Bildern aus und kann in diesem Zusammenhang als erster und in seiner Konsequenz vielleicht als einziger TV-Krieg in der Geschichte bezeichnet werden2. Im Gegensatz zu “klassischen Ikonen“ verankerten die elektronisch generierten Bilder des Krieges ihren Staus als Medienikone durch ihre Zirkulation im Medienapparat...
In einer fast unüberschaubaren Vielzahl von Quellen, allen voran das Internet, stehen uns heute Bildmaterialien zu allen gesellschaftspolitischen Ereignissen zur Verfügung. Hier entsteht die grundlegende Problematik der Bildquellennachweise, vor denen auch die Redaktion dieser Publikation stand. Immer und überall zugänglich, ist jedoch nicht immer klar: was ist zu belegen, wie sind sie zu belegen und wie ist zu verfahren, wenn es keinen Urheber/Quelle gibt oder dieser nicht (mehr) nachzuweisen ist? Die Autorinnen wollen an dieser Stelle jenes Dilemma nicht in Form von Gesetzestexten wiedergeben, sondern primär ein Bewusstsein dafür schaffen, wie man sich mit der freien Verfügbarkeit von Bildmaterialien auseinandersetzt und ihr begegnet. Es sollen vielmehr Fragen aufgeworfen werden die den Sachverhalt der Materie verdeutlichen. Im Einzelnen können hier nur einige Denkanstöße gegeben werden um auf die Problematik innerhalb des Bildurheberrechtsgesetzes aufmerksam zu machen...
„Alles, was wir über unsere Gesellschaft, ja über die Welt, in der wir leben, wissen, wissen wir durch die Massenmedien“ behauptet der Soziologe Niklas Luhmann. Die Medien fungieren demzufolge als Vermittler und Träger von Informationen.2 Die Abbilder unserer Umwelt erreichen uns täglich in den verschiedensten medialen Ausprägungen. Während vor rund 100 Jahren noch die Gazette oder das Radio diese Funktionen erfüllten und nach der Etablierung des Fernsehens ein relatives Gleichgewicht der Massenmedien hergestellt war, ersetzen heute überwiegend Nachrichtensendungen im Fernsehen, Online-Informationsangebote und sogar Applikationen auf Smartphones diese Art der Vermittlung. Ein erneuter Umbruch in der Nutzung der Medien ist seit der Etablierung des World Wide Web evident...
Als Anfang der 50er Jahre eine globale Krisensituation mit dem Aufkommen neuer Kommunikationstechnologien und der Entstehung einer konsumorientierten Massenkultur korrelierte, veranlasste die Bilderflut von Atomtests und Reklameaufnahmen den Soziologen Lewis Mumford zur Auseinandersetzung mit einem Diskurs, der erst in der jüngsten Zeit seinen vorläufigen Höhepunkt finden sollte...
Die Arbeit „Zwischen Kooperation und Wetteifer – Interaktionen und mediale Organisation von Kreativität am Beispiel des koopetitiven Ideennetzwerks jovoto“ untersucht internetbasierte Kokreativität – die gemeinsame Ideenentwicklung im Mediennetzwerk. Im Unterschied zu vorangegangen Untersuchungen, die sich mit den Motiven für die häufig unentgeltlichen kokreativen Aktivitäten und dem Innovationspotential dieser Organisationsform beschäftigten, liegt der Fokus dieser Studie auf der Kommunikation der Akteure untereinander während der Kokreation. Als Fallbeispiel wird die Design-Ideenplattform jovoto ausgewählt, die Kreativität auf der Basis von Koopetition – der Gleichzeitigkeit von Kooperation und Wettbewerb – unter den Teilnehmern fördert. Die Ideenautoren im Netzwerk von jovoto entwickeln kreative Lösungen in den Bereichen Produktdesign, Kampagnen, Innovation und Architektur. Die Teilnehmer treten mit ihren Ideen im Wettbewerb gegeneinander an; gleichzeitig kommentieren und bewerten sie sich gegenseitig im Prozess der Ideenentwicklung. Aus den Bewertungen der Community ergeben sich die Gewinner des ausgeschriebenen Preisgeldes. Aus dieser Gleichzeitigkeit von Wettbewerb und Kooperation ergibt sich die Forschungsfrage dieser Untersuchung: Wie ist das Verhältnis zwischen Kooperation und Wettbewerb im Kokreationsnetzwerk jovoto bestimmt, und wie wirkt dies auf Kreativität? Um diese Frage zu beantworten, untersuche ich die auf der Plattform dokumentierten Interaktionen (Kommentar-Threads) zwischen den Ideenentwicklern und anderen Community-Mitgliedern mit qualitativen und quantitativen Methoden und analysiere zwanzig von mir geführte halbstrukturierte Leitfaden-Interviews mit den Ideenautoren auf jovoto. Zur theoretischen Einordnung der beobachteten Phänomene stütze ich mich sowohl auf Kultur- und Kommunikationstheorien des radikal-konstruktivistischen Erkenntnismodells als auch auf die kulturellen Spieltheorien von Johan Huizinga und Roger Caillois. Ich beziehe zudem Ansätze ein, die Kokreativität als eine Form der kulturellen Produktivität beschreiben. Einen weiteren Anhaltspunkt bilden Studien, die sich mit der produktiven Beziehung zwischen Kooperation und Wettbewerb auseinandersetzen. Ergänzt werden diese Erkenntnisse bspw. durch die These zur Intelligenz der Crowd in heterogenen Gruppen von Entscheidern und durch Untersuchungen zum positiven Einfluss von Differenzen und Konflikten auf die Gruppenkreativität. Ich führe diese Vorarbeiten zu einer Modellvorstellung zusammen: In dieser verknüpft der koopetitive Handlungskontext ein Kooperationsspiel mit einem Wettbewerbsspiel, und zwar mithilfe von Kreativität: Diese ermöglicht, dass der Fokus im Spiel – von der Betonung und Vergrößerung des Gemeinsamen zwischen den Teilnehmern zur Betonung ihrer Differenzen – wechseln kann. Hieraus leite ich Hypothesen ab, die ich empirisch überprüfe: Während einer sechsmonatigen Beobachtung des Plattformgeschehens habe ich Daten zu 135 Wettbewerben auf jovoto erhoben. Die Analyse von über 2.400 Kommentaren ergibt, dass die beiden Leitkategorien „Bestätigung“ und „Herausforderung“ das kokreative Kommunikationsgeschehen charakterisieren. Hiervon ausgehende qualitative und quantitative Untersuchungen zu 54 Diskussions-Threads ergeben: In der Platzierung erfolgreiche Ideen werden von intensiveren Diskussionen begleitet als weniger erfolgreiche. Bemerkenswert ist, dass sie nicht nur eine größere Zahl bestätigender Kommentare erhalten, sondern auch mehr Herausforderungen. Die im Schnitt höchste Punktzahl geht mit einem Verhältnis von rund acht Bestätigungen je Herausforderung einher. Dieses Ergebnis bestätigt die Ausgangshypothese, dass es sich bei den Ideenwettbewerben um ein Kommunikationsspiel mit kooperativer, wetteifernder und kreativer Komponente handelt: In den Interaktionen zu den Ideenbeiträgen, insbesondere den erfolgreichen, herrscht ein Wechsel zwischen Bestätigungen und Herausforderungen vor. Aus den Aussagen der Ideenautoren in den geführten Interviews wird ein zentraler Konflikt deutlich: Die Tätigkeit bringt einen hohen Aufwand und wenig Aussicht auf Gewinn mit sich. Unterm Strich scheint sie jedoch lohnenswert, da die Akteure wichtige Lernerfahrungen im Netzwerk sammeln können und die eigenen Fähigkeiten einzuschätzen lernen. Dass die kreativen Beiträge anderer Wettbewerbsteilnehmer von anderen rege diskutiert werden, belegt den Erfolg des Organisationsmodells der Kokreation. Dieser verhält sich konträr zu den Vorhersagen herkömmlicher ökonomischer Theorie, die rein eigennützige Akteure annimmt, und deutet auf die Relevanz von Theorien hin, die wechselseitiges Feedback und dessen Gratifikationen als Faktoren in der netzwerkbasierte Produktion zentral berücksichtigen.
Gerichtliche und nicht gerichtliche Konfliktlösung in zivilrechtlichen Streitigkeiten – Deutschland
(2014)
Das Arbeitspapier zeigt die Entwicklung des deutschen Zivilprozessrechts von der Preußischen Allgemeinen Gerichtsordnung von 1795 an bis zum aktuellen Zivilprozessrecht auf. Schwerpunkte sind die Rezeption des französischen Zivilprozessrechts von 1806, die Vereinheitlichung des deutschen Zivilprozessrechts durch die ZPO (1877/98) und die Prozessrechtsreformen der Weimarer Zeit und der NS-Zeit. Ausführlich behandelt wird die zivilprozessuale Reformdiskussion in der NS-Zeit (Akademie für Deutsches Recht; 1934-1943) und in der Frühzeit der Bundesrepublik Deutschland. Weitere Themen des Arbeitspapiers sind der (obligatorische) Güteversuch durch das Gericht, das schiedsrichterliche Verfahren, das außergerichtliche Güteverfahren vor einem Schiedsmann und die außergerichtliche Streitbeilegung durch Gütestellen und die Mediation (1980-2012).
Permanent conflict resolution at the high courts was one of the Holy Roman Empire’s main characteristics. This applies even to conflicts between rural communities and their lords, who could be dealt with, at least under certain circumstances, at the Imperial Chamber Court or the Aulic Council. These trials, however, were embedded in complicated processes of establishing and legitimizing claims on a local level as well as attempts to achieve a solution by violence or by arbitration. Researchers have stated that conflict resolution underwent, in the long run, a process of “juridification” (“Verrechtlichung”). This working paper proposes a method, based on Niklas Luhmann’s theory of procedural legitimation (“Legitimation durch Verfahren”), which possibly allows to detect elements of juridification and conflict resolution in the actions of parties and courts.
Das pragmatische Verhältnis des Lübecker Rats zum kaiserlichen Recht im Mittelalter und in der frühen Neuzeit ist das Thema des Aufsatzes. Anhand von acht Fallstudien lässt sich zeigen, wie flexibel der Rat, der zugleich das wichtigste Gericht für die rund hundert nach lübischem Recht lebenden Städte im Ostseeraum war, mit dieser eigentlich übergeordneten, da vom kaiserlichen Stadtherren der Reichsstadt gesetzten Rechtsordnung umging. Auch plakative Stellungnahmen gegen das angeblich mit dem Charakter der Stadt nicht vereinbare römische Recht sind nicht wirklich grundsätzlich gemeint. Ihre gelegentlich vorgeschlagene Interpretation im Sinne einer fundamentalen Ablehnung fremden Rechts in Norddeutschland ist deshalb verfehlt.
Im Jahr 2005 entschied das Bundesverfassungsgericht, dass die bestehenden Regelungen im Versicherungsvertrags- und Versicherungsaufsichtsgesetz zur Überschussbeteiligung in der Lebensversicherung den Anforderungen des Grundgesetzes nicht genügen. Denn sie sicherten die Ansprüche der Versicherten nicht angemessen gegen einseitige Gestaltungsmöglichkeiten der Versicherer ab. Nach dem Urteil änderte der Gesetzgeber die einschlägigen Regelungen, insbesondere erließ die Bundesanstalt für Finanzdienstdienstleistungsaufsicht BAFin eine neue Mindestzuführungsverordnung. Der Beitrag untersucht die Rechtslage auf dem Stand von April 2012 daraufhin, ob nun den Anforderungen des Bundesverfassungsgerichts genüge getan wird. Er kommt zu dem Ergebnis, dass dies nicht der Fall ist.
Die Private Krankenversicherung ist explizit seit Einführung der Versicherungspflicht im Jahr 2008 neben der Gesetzlichen Krankenversicherung zweite Säule eines umfassenden Krankenversicherungsschutzes in Deutschland. Sie ist – auch schon traditionell – umfassend reguliert; Versichertenwettbewerb innerhalb der PKV aber auch zur GKV findet in entsprechend enger rechtlicher Strukturierung statt. In den letzten Jahren wird die PKV zudem auch immer stärker bei der Regulierung der Leistungserbringer berücksichtigt bzw. einbezogen. Der Beitrag gibt einen komprimierten Überblick über die Regulierung der PKV als Teil des Gesundheitssystems.
Der Deutsche Juristentag 2012 ließ begutachten, wie der Wettbewerb in der Gesetzlichen Krankenversicherung zu regeln sei. Der vorliegende Beitrag ist als Begleitaufsatz hierzu erschienen. Er spürt den Motiven des Gesetzgebers und den theoretischen und konzeptionellen Gründen für Wettbewerb nach, um daraus Antworten auf die Frage nach der Wettbewerbsregulierung im Gesundheitswesen zu entwickeln. Sein Ergebnis ist, dass die spezifische Funktion von Wettbewerb innerhalb des sozialrechtlichen Krankenversicherungssystems ein spezifisches Regulierungsrecht erfordert. Dies ist gegenüber einer generellen Zuordnung dieses Sozialsystems zum allgemeinen Wettbewerbs- und Kartellrecht vorzugswürdig. Außerdem wird die Zuordnung zu den Sozialgerichten befürwortet.
Wettbewerbsrecht der GKV
(2014)
Seit inzwischen 20 Jahren führt der Gesetzgeber in die Binnenordnung der Gesetzlichen Krankenversicherung Wettbewerbselemente ein. Ausgangspunkt ist die Kassenwahlfreiheit der Versicherten. Die Krankenkassen agieren dadurch immer stärker als Wettbewerber um Versicherte. Seit einigen Jahren ist der Rechtsrahmen dieses Wettbewerbs in der Diskussion und auch prozessual und politisch umstritten. Inwieweit das allgemeine Kartellrecht, konkret die Fusionskontrolle, oder das allgemeine Lauterkeitsrecht Anwendung finden soll, ist noch nicht abschließend geklärt. Weniger grundsätzliche Probleme bereitet hingegen das Vergaberecht. Der Beitrag beschreibt die sich im Fluss befindliche Rechtsgrundlage des GKV-Wettbewerbsrechts in ihrer bisherigen Entwicklung und auf dem Stand von 2013.
In dieser Arbeit wurden eine Reihe neuer organischer Ladungstransfer (CT)-Verbindungen in Form von Einkristallen und Dünnschichten synthetisiert und grundlegend charakterisiert.
Für die Synthese kamen verschiedene bekannte und bislang unbekannte Donor- und Akzeptormoleküle zum Einsatz. Während einige bekannte Materialien wie TTF und TCNQ kommerziell erworben werden konnten, bestand im Rahmen der Kollaboration mit dem MPI für Polymerforschung zudem Zugang zu mehreren neuen Molekülen wie TMP und HATCN, die besonders mit Blick auf die Möglichkeit zur Dünnschichtpräparation ausgewählt wurden. Auf dieser Grundlage konnten zum einen mittels verschiedener Varianten der Lösungszüchtung erfolgreich neue CT-Komplexe als Einkristalle gezüchtet werden. Dabei kamen mehrere unterschiedliche Lösungsmittel zur Anwendung, die z.T. auch die gezielte Synthese bestimmter Kristallphasen erlaubten. Zum zweiten gelang die Präparation eines Teils dieser Systeme als Dünnschicht über die Methode der Molekularstrahldeposition mit verschiedenen Isolatoren wie SiO2 als Substratmaterial. Hierbei wurde zum Teil zuvor gezüchtetes Material eingesetzt, zum Teil entstand die neue Verbindung erst über diesen Prozess.
Die Proben der neuen Verbindungen wurden zunächst mittels verschiedener Methoden morphologisch und kristallographisch untersucht. Die Kristallzüchtung lieferte in vielen Fällen eine gute Kristallqualität, die sowohl für die Strukturbestimmung als auch die späteren elektrischen Messungen ausreichend war. Die Kristallstruktur konnte für mehrere neue Systeme ermittelt werden und ergab in allen Fällen eine Anordnung mit gemischten Donor-Akzeptor-Stapeln. Für die präparierten Dünnschichten konnte bei einem Großteil der Verbindungen gemäß der Untersuchungen mittels Röntgendiffraktion die gleiche(n) kristalline(n) Struktur(en) wie in den Einkristallen festgestellt werden. Es ließen sich zwei wesentliche Beobachtungen machen: a) Die Morphologie der Schichten besitzt eine ausgeprägte Tendenz zu rauem Inselwachstum; b) In praktisch allen Fällen bilden sich innerhalb der Schicht mindestens zwei stabile CT-Phasen parallel. Beide Verhaltensweisen traten nahezu unabhängig von Substrat, dessen Temperatur, Ausgangszustand (Material vorreagiert oder nicht) und Depositionstemperatur auf.
Die elektronischen Transportmessungen bestanden primär aus temperaturabhängigen Messungen
der elektrischen Leitfähigkeit, während Feldeffektmessungen mit organischen Transistorstrukturen
lediglich den Charakter einer Grundsteinlegung für tiefergehende Untersuchungen mit optimierten Schichten hatten. Die Kryostat-Messungen bis hinunter zu rund 1,5 Kelvin zeigten bei keiner der Verbindungen ein klares Anzeichen für einen Phasenübergang. Die absoluten Werte der Leitfähigkeit bei Raumtemperatur passten qualitativ zu der typischen Erwartung an ein gemischt gestapeltes CT-System, nämlich ein halbleitendes oder isolierendes Verhalten, was durch das arrhenius-artige Temperaturverhalten auch bestätigt wurde.
Dielektrische Messungen mit Kondensatorstrukturen wurden für die neuen Systeme TMP-TCNQ
und ET-DTF in der Dünnschichtform vorgenommen. Im Vordergrund stand dabei die Suche nach neuen Verbindungen, die einen neutral-ionischen Phasenübergang zeigen, der sich im Idealfall durch eine starke, peakförmige Anomalie in der Temperaturabhängigkeit der Dielektrizitätskonstanten bemerkbar machen sollte. Während sich in TMP-TCNQ keinerlei Hinweise auf einen Übergang zeigten, lieferte ET-DTF einen Verlauf, der einen strukturellen
Übergang andeutet, dessen Identität aber noch ungeklärt ist.
Zur Ergänzung wurden mit Hilfe mehrerer Kooperationspartner weitere Untersuchungen zwecks
Charakterisierung der neuen CT-Systeme vorgenommen. Die Bestimmung des Ladungstransfergrades δ mittels IR-Absorption lieferte im Wesentlichen eine Bestätigung der Beobachtung, dass die inspizierten Verbindungen gemischt gestapelte Systeme halbleitender oder
isolierender Natur sind, da δ nur geringe Werte von max. ca. 0,2 zeigte, die für solche Systeme
typisch sind. In ähnlicher Weise bestätigten Bandstruktur-Rechnungen dieses Verhalten, da die Bänder allgemein nur eine eher geringe elektronische Bandbreite zeigten. Zudem ergab sich für die trikline Phase von ET-DTF und das System TMP-F4TCNQ eine deutliche Anisotropie hinsichtlich der Dispersion, da diese erheblich verstärkt entlang der zur Stapelachse des Systems korrespondierenden Richtung des k-Raumes auftritt, also (im Einklang mit den Leitfähigkeitsdaten) 1D-Charakter besitzt. Ein weiterer Beitrag zur Suche nach neuen NI-Verbindungen entstand durch Messung der charakteristischen CT-Absorption einiger Systeme im optischen bzw. IR-Spektrum. In Kombination mit den Werten für Ionisierungsenergie und Elektronenaffinität konnte eine Einordnung in das von Torrance et al. entwickelte, sog. V-Diagramm vorgenommen werden, mit dessen Hilfe sich aussichtsreiche Molekülkombinationen für ein neues NI-System eruieren ließen.
Fünfzehnhundertsiebenundachtzig : Literatur, Geschichte und die Historia von D. Johann Fausten
(2014)
Ausgehend von der Beobachtung, dass die 1587 in Frankfurt am Main erschienene »Historia von D. Johann Fausten« überaus erfolgreich war, wird die These formuliert, dass dieser Erfolg auf der dichten Vernetzung mit zeitgenössischen Techniken, Praktiken und Diskursen beruht. Um Teile dieses Netzwerks zu rekonstruieren, beschränkt sich der Beobachtungszeitraum auf die 1580er und frühen 1590er Jahre. Innerhalb dieses Zeitraums wird etwa untersucht, wie man am »Faustbuch« weiterschreibt, welche Rolle die Hexen- und Zaubererverfolgung spielt, wie es um den Einfluss der Transformationen des Postsystems und des Kalenders bestellt ist und was man von außergewöhnlichen Zeichen zu halten hat, die auf dem Körperäußeren erscheinen. Methodisch ist die Arbeit dem New Historicism verpflichtet, dessen vermittelnde Stellung zwischen ›Literatur‹ und ›Geschichte‹ auch dazu genutzt wird, gängige disziplinäre Grenzziehungen in Frage zu stellen.
Die Dissertation gliedert sich in zwei Teile – einen methodisch-wissenschaftstheoretischen bzw. biografisch-dogmenhistorischen und einen wirtschaftsethischen Bereich. Beide Abschnitte sind wechselseitig miteinander verzahnt. Im ersten Teil geht es vorwiegend um biografische und theoriegeschichtliche Fragestellungen. Der erste Aufsatz – On the Affiliation of Phenomenology and Ordoliberalism – beschäftigt sich mit dem wechselseitigen Einfluss von Husserl, Rudolf und Walter Eucken. Der erste Aufsatz – On the Affiliation of Phenomenology and Ordoliberalism – beschäftigt sich mit dem wechselseitigen Einfluss von Husserl, Rudolf und Walter Eucken. Dabei wird eine Drei-Ebenen-Unterscheidung vorgenommen: Einflüsse lassen sich demnach nicht nur auf der biografischen, sondern gleichfalls auf der wissenschaftstheoretischen und sozialphilosophischen Ebene ausmachen. Dennoch ist Vorsicht geboten, denn der Einfluss der Phänomenologie auf das Werk Walter Euckens sollte nicht überbetont werden, in dem Sinne, dass man Eucken als angewandten Phänomenologen und die Husserlsche Phänomenologie als Metatheorie des Ordoliberalismus darstellt. Vielmehr ist von einem eklektischen Denkmuster in den Schriften Euckens auszugehen, das maßgeblich vom Werk seines Vaters beeinflusst wurde (d.i., Walter Eucken als Rudolf Euckenianer) – und dies sowohl im Bereich der Wissenschaftstheorie und Methodik als auch im Kontext des sozialphilosophischen Topos der Gesellschaftskrisis. Der zweite Aufsatz – An Ordoliberal Interpretation of Adam Smith – geht den Parallelen im Denken Adam Smiths und Euckens nach. Auffallend ist, dass Eucken Smith meist im Zusammenhang mit seiner Kritik am laissez faire- respektive Paläoliberalismus zitiert. Dabei ist seine Bezugnahme auf Smith von verzerrten Stereotypen geprägt – und dies obwohl es einige bemerkenswerte Parallelen nicht nur zwischen Eucken und Smith, sondern auch zwischen Smith und Kant gibt. Der Übergang vom sogenannten Paläo- bzw. klassischen Liberalismus hin zum Ordoliberalismus ist somit gradueller, nicht jedoch revolutionärer Art. Im Mittelpunkt des zweiten Hauptteils stehen wirtschaftsethische Themenstellungen, die eine große Affinität zum Forschungsprogramm des Exzellenzclusters 'Die Herausbildung normativer Ordnungen' aufweisen. Dabei geht es wesentlich um die Herausarbeitung des ethischen Gehalts und der stark normativen Komponenten des Ordoliberalismus. Die ersten Essays im zweiten Teilbereich der Dissertation beziehen sich primär auf Eucken und die Freiburger Schule. Die letzten beiden Aufsätze jedoch sind bestrebt, über Eucken hinauszugehen und den Ordoliberalismus i.e.S. um den Soziologischen Neoliberalismus bzw. den Wirtschafts- und Sozialhumanismus Rüstows und Röpkes zu erweitern. Die Aufsätze 'Über die normativen Implikationen des Ordoliberalismus für die moderne Wirtschaftsethik' und 'On the Economic Ethics of Walter Eucken' geben dem Leser einen Überblick über die Wirtschaftsethik der Freiburger Schule im Allgemeinen und Walter Euckens im Besonderen. Dabei wird insbesondere das ordoliberale Staats- sowie das (in der kantischen Tradition stehende) Freiheitsverständnis herausgearbeitet und der Versuch unternommen, Eucken für die moderne Wirtschaftsethik anschlussfähig zu machen. Als Ergebnis wird Euckens Ordoliberalismus, dem es um ein ausgewogenes Verhältnis von Eigeninteresse und Gemeinwohl und die Realisierung des Ideals einer funktionsfähigen und menschenwürdigen Gesellschaftsordnung geht, im Spannungsfeld von Homannscher Moralökonomik und Ulrichs Integrativer Wirtschaftsethik porträtiert. Ergänzt wird dieser Einblick in die ordoliberale Wirtschaftsethik durch das Kapitel 'Von Hayek and Ordoliberalism on Justice', das die Gerechtigkeitskonzeptionen Euckens, Rüstows und Röpkes mit derjenigen von von Hayek kontrastiert. Derart werden u.a. die Unterschiede zwischen Ordoliberalismus und Evolutorischem Liberalismus deutlich. Das Kapitel 'Individual versus Regulatory Ethics: An Economic-Ethical and Theoretical-Historical Analysis of German Neoliberalism' untersucht im Anschluss an Foucaults ‚Ambiguitätsthese‘ das Verhältnis von Individual- und Ordnungsethik und kommt zu dem Ergebnis, dass es die Besonderheit des Ordoliberalismus ist, eine weitreichende, integrative Einheit beider Ebenen vorzunehmen. Aufbauend auf der Unterscheidung von Individual- und Ordnungsethik werden im vorletzten Kapitel – 'Ordoliberalism and the Evolution of Norms' – schließlich die divergierenden Normengenese-Prozesse im Ordoliberalismus einer Analyse unterzogen. Das verblüffende Resultat lautet, dass im Ordoliberalismus zwei unterschiedliche Arten der Entstehung von Normen nebeneinander existieren – eine kulturell-evolutionäre und eine elitär-expertokratische. Mithilfe dieser Unterscheidung ist eine weitere Differenzierung zwischen von Hayek und dem Ordoliberalismus möglich. Das letzte Kapitel – Beyond Ordoliberalism? – fasst zentrale Kritikpunkte am Ordoliberalismus noch einmal zusammen und geht der Frage nach, inwiefern es realistisch erscheint, auf eine Renaissance eines aktualisierten Ordoliberalismus zu hoffen?
Organische Verbindungen sind für den Einsatz in der Elektronik und Optoelektronik von großem Interesse, da ihre Eigenschaften durch Derivatisierung gezielt verändert werden können. Eine vielversprechende Strategie ist hierbei der Einbau von Hauptgruppenelementen (z.B. Boratomen) in die Kohlenstoffgerüste.
Bislang fehlte jedoch ein detaillierter Vergleich der optischen und elektronischen Eigenschaften einer umfassend charakterisierten Kohlenwasserstoffspezies mit denen einer isostrukturellen Bor-dotierten Verbindung. In unserer Gruppe wird 9,10-Dihydro-9,10-diboraanthracen (DBA) als Bor-haltiger Baustein zum Aufbau lumineszierender Polymere genutzt. Das isostrukturelle Kohlenstoffanalogon zum DBA-Fragment stellt hierbei das Anthracen-Gerüst dar. Vor diesem Hintergrund wurden in dieser Arbeit die elektronischen, strukturellen und optischen Eigenschaften des DBA-Derivats 30 und des Anthracen-Derivats 31 umfassend untersucht und miteinander verglichen, wobei signifikante Unterschiede zwischen der Kohlenstoffverbindung 31 und dem Bor-dotierten Analogon 30 beobachtet wurden.
Der Beitrag erwägt aus bibelhermeneutischer Perspektive, wie es zu unterschiedlichen Idealisierungen des alttestamentlichen Gemeinwesens im politischen Denken der Frühen Neuzeit kam. Dabei werden zunächst allgemeine Faktoren berücksichtigt, die eine biblische Orientierung im politischen Denken ausgehend von der Reformationszeit im 16. Jahrhundert erklärbar machen. Ein Überblick über betreffende Quellentitel des 16. und 17. Jahrhunderts zeigt, dass hierbei in allen größeren Konfessionen, wenn auch in unterschiedlicher Dichte, das Ideal des alttestamentlich-jüdischen Gemeinwesens eine Rolle spielte. Entlang zweier Fallbeispiele (François Ragueau, Petrus Cunaeus) werden dann konfessionelle und transkonfessionelle Aspekte unterschieden, um neue Perspektiven auf das Konfessionalisierungsparadigma und andere Modernisierungstheorien zu eröffnen.
In der Hindu Tradition zeigen sich zwei grundsätzlich unterschiedliche Strömungen. Einmal gibt es die Richtungen, die sich die Befreiung vom Joch des durch das eigene Werk, Karma, bestimmten Rads der Wiedergeburten, Samsara, aufs Panier geschrieben haben. Zum anderen gibt es die karmistische Religion, die genau das eigene Werk zum entscheidenden, wenn nicht gar alleinigen Kriterium menschlicher Existenz erhebt. Diese karmistische Religion bildete und bildet den geistigen Hintergrund der indo-asiatischen Kultur so sehr, daß sich ihre Gegner immer noch vor ihr rechtfertigen müssen. Während die karmistische Existenzdeutung besonders unter den Buddhisten und Jainas in voller Blüte steht, haben die großen Religionen der Shaivas, Vaishnavas und Shaktas schon früh in ihren zahllosen Bewegungen massiv gegen den Karmismus Front gemacht. Dennoch gilt die Karma-Samsara-Lehre als Beschreibung des Normalfalls der Existenzgestaltung. Die ist die stets vorausgesetzte Mechanik des Existenzprozesses. Aber als ein unaufhebbares Schicksal wird sie nicht mehr so ohne Weiters im Hindutum anerkannt. Die o.g. Bewegungen sind denn auch religiöse Revolten, die auf höchst unterschiedliche Weise gegen die absolute und allgemeine Geltung der Karma-Samsara-Lehre durchaus erfolgreich Widerstand leisten. Wie in den anderen Kulturen auch ist der Kampf zwischen beiden Religionen im Hindutum das zentrale Thema der geistigen Auseinandersetzung mit der eigenen Existenz. Diese so konträre Sichtsweisen der Existenz im Hindutum, d.h. die karmistische und antikarmistische Religion, sollen im Folgenden an je einem Fallbeispiel aus noch immer gültigen heiligen Schriften vorgestellt werden.
Evaluationssatzung für Lehre und Studium der Johann Wolfgang Goethe-Universität Frankfurt a. M.
(2014)
Gegenstand des Beitrages ist das Konzeptionsproblem der juristischen Schlüsselqualifikationen, das bisher auf der Ebene der Gesetzgebung, der Wissenschaft und der Praxis ungelöst ist. Gerade diese Tatsache könnte paradoxerweise mittel- und langfristig dazu führen, dass sich das Profil rechtswissenschaftlicher Fakultäten schärft, die Schlüsselqualifikationen in ihre rechtswissenschaftliche Ausbildung systematisch, aber nicht naiv, integrieren. Dazu muss ein funktionaler Blick auf die in den universitären Alltag zu integrierenden Schlüsselqualifikationen geworfen werden. Diese sind nicht selbsterklärend, sondern lediglich Mittel, die einem bestimmten Zweck dienen, der selbst wieder begründungsbedürftig ist. Wer als Studierender von einer Profilbildung juristischer Fakultäten profitieren will, sollte sich mit den zunehmend deutlicher werdenden Entwicklungen auseinander setzen, die dazu führen, Schlüsselqualifikationen auf eine je charakteristische Weise in den Ausbildungsalltag einer Fakultät einzubinden - oder aus diesem auszuschließen. Zu wünschen wäre, dass sich über kurz oder lang ein hochschulübergreifendes Forum herausbildet. Ziel wäre es, die Praxisrelevanz der rechtswissenschaftlichen Ausbildung zu steigern und deren Hinwendung zu rechtsdidaktischen, deontologischen und konzeptionellen Fragen zu ermöglichen, ohne das wissenschaftliche Fundament der Hochschulen und deren Autonomie einzuschränken, sondern beides im Idealfall zu stimulieren. Die Verfasser, die beide seit Jahren Seminare am Fachbereichszentrum für Schlüsselqualifikationen des Fachbereichs FB 01 der Johann Wolfgang Goethe-Universität Frankfurt am Main leiten, stellen damit keine Prognose auf, dass die Integration von Schlüsselqualifikationen im hier beschriebenen Sinn flächendeckend stattfinden oder gelingen wird. Nichtsdestoweniger zeigt sich am Umgang mit den Schlüsselqualifikationen exemplarisch, welche Analysen und Ableitungen eine Hochschule aus dem gesetzlich vorgegebenen Dialog zwischen Theorie und Praxis entwickelt hat. Hieraus lassen sich wiederum Schlussfolgerungen über den Zustand der Hochschulausbildung in Deutschland ziehen. Nach Auffassung der Autoren haben Hochschulen mit inklusivem Ansatz eine bessere Chance zur Bewahrung der eigenen Autonomie als solche, die sich gegenüber tendenziell übergriffigen Akteuren aus Wirtschaft und Politik (vermeintlich) kategorisch abschotten. Hochschulen, die das Stadium einer leitbildgetreuen Dialogfähigkeit erreichen, haben es einfacher, neben ihrer Wettbewerbsfähigkeit auch ihr Kernanliegen zu behaupten. Die Bedeutung von Hochschulen, die ihre Augen vor einer Aufweichung des ihnen zukommenden Forschungs-, Lehr- und Bildungsauftrags verschließen, wird, so die Prognose der Autoren, in Gesellschaft, Wirtschaft und Politik auf Dauer schwinden.
Das Paper geht der Frage nach, welche Rolle Verteilungsgerechtigkeit in Völkerrecht und Völkerrechtswissenschaft spielt. Es stellt zunächst zwei Völkerrechtsprojekte der Nachkriegszeit dar, in deren Zentrum Verteilungsfragen standen: erstens den „embedded liberalism“ Kompromiss von Bretton Woods und zweitens die von den Entwicklungsländern in den 1970er Jahren geforderte Neue Weltwirtschaftsordnung. Nach kurzer Darstellung des Scheiterns von „embedded liberalism“ und Neuer Weltwirtschaftsordnung und der Gründe für ihren Misserfolg, wendet sich das paper der Völkerrechtswissenschaft zu. Zwei zeitgenössische Projekte der Völkerrechtswissenschaft – Konstitutionalisierung des Völkerrechts und Konzeptualisierung des Völkerrechts als öffentliches Recht – werden danach befragt, welche Antworten sie auf die Krise von „welfare state and welfare world“ geben. Während sich der völkerrechtliche Konstitutionalismus nur unzureichend mit dem Verhältnis von Wirtschaft und Politik befasst, verliert die Konzeptualisierung des Völkerrechts als öffentliches Recht mit ihrem Fokus auf das Völkerrecht als Instrument der Beschränkung öffentlicher Gewalt zur Sicherung individueller Freiheit viele Verteilungsfragen gänzlich aus dem Blick. Um das Potential von Recht zur Herstellung von Verteilungsgerechtigkeit auszuloten, scheint daher eine Ausweitung der Perspektive auf transnationales Recht von Nöten. Ausgehend von Gunther Teubners gesellschaftlichem Konstitutionalismus skizziert das Paper Versuche der (transnationalen) Rechtswissenschaft, Fragen ungerechter bzw. gerechter Verteilung zu thematisieren. Das Paper schließt mit der Aufforderung, dass sich eine an Verteilungsgerechtigkeit orientierte transnationale Rechtswissenschaft folgenden Aufgaben widmen sollte: erstens der Bestimmung von Verteilungskonflikten mit Hilfe politischer Ökonomie und rechtspluralistischen Ansätzen und zweitens der Identifikation von Institutionen für einen demokratischen Experimentalismus.
Dieser Beitrag stellt das transnationale Rohstoffrecht und seine Entwicklung aus einer Konfliktperspektive dar und setzt es in Beziehung zu geopolitischen Transformationen und Wandlungen des Entwicklungsbegriffs. Sachlicher Gegenstand dieses Unterfangens sind erschöpfliche Vorkommen von Rohstoffen in Entwicklungsländern, ihre Ausbeutung und der Handel mit den gewonnenen Rohstoffen. Der Fokus liegt auf Mineralien, Öl und Gas. Der Text ist ein Versuch, Verantwortlichkeiten verschiedener Akteure für anhaltende Armut trotz Rohstoffreichtums greifbarer zu machen.
Marktverhalten folgt nicht allein rationalen Kosten-Nutzen-Kalkülen. Vielmehr kann mit Jens Beckert zwischen der marktermöglichenden, der marktbegleitenden und der marktbegrenzenden Sittlichkeit der Wirtschaft unterschieden werden. Der Beitrag erörtert anhand der Bedeutung der Corporate Social Responsibility (CSR) im US-Recht, inwieweit diese ethischen Normen des Wirtschaftens verrechtlicht sind, also durch Rechtsvorschriften sanktioniert werden. Im Ergebnis wird sich ein Zusammenhang zwischen der Rechtsrelevanz sittlicher Maßstäbe und ihrer Komplementarität mit dem wettbewerblichen Marktgeschehen ergeben. Die marktermöglichende Sittlichkeit genießt demnach intensiven Rechtsschutz, der jedoch immer lückenhafter wird, je stärker die marktbegrenzende Dimension ethischer Normen zu Tage tritt.