Universitätspublikationen
Refine
Year of publication
- 2009 (613) (remove)
Document Type
- Article (180)
- Doctoral Thesis (116)
- Part of Periodical (101)
- Book (64)
- Review (49)
- Conference Proceeding (27)
- Working Paper (17)
- Report (13)
- Diploma Thesis (11)
- Bachelor Thesis (9)
- Magister's Thesis (7)
- diplomthesis (6)
- Periodical (5)
- Part of a Book (4)
- magisterthesis (3)
- Preprint (1)
Language
- German (367)
- English (229)
- French (7)
- Portuguese (7)
- Spanish (2)
- Multiple languages (1)
Is part of the Bibliography
- no (613)
Keywords
- Europa (7)
- Deutschland (4)
- Lambda-Kalkül (4)
- China (3)
- Forschung (3)
- Frankfurt <Main> / Universität (3)
- Frankreich (3)
- Zeitschrift (3)
- reactive oxygen species (3)
- Adorno (2)
Institute
- Medizin (122)
- Präsidium (75)
- Biochemie und Chemie (47)
- Gesellschaftswissenschaften (46)
- Rechtswissenschaft (41)
- Geowissenschaften (34)
- Physik (33)
- Biowissenschaften (32)
- E-Finance Lab e.V. (24)
- Informatik (24)
Es gehört zu den Gemeinplätzen der frühneuzeitlichen Historiographie, auf die schier unglaubliche Ausdehnung der spanischen Monarchie im 16. und 17. Jahrhundert hinzuweisen – im Reich des Kaisers Karl V., dessen Politik aus nicht-mediterraner Sicht vor allem mit dem Kampf um die Reformation verbunden ist, ging bekanntlich nie die Sonne unter. Doch die Auswirkungen dieser imperialen Dimension auf Verfassung, Institutionen, Verfahren und Praktiken der frühneuzeitlichen Großmächte sind der Rechtsgeschichtsschreibung nur wenig präsent, trotz der Konjunktur von transnationaler Geschichtsschreibung und trotz wichtiger Synthesen zum Imperienvergleich. ...
Zu berichten ist über ein bedeutendes, in langjährigen Studien des Heidelberger Kirchenhistorikers entstandenes Buch. Seine Entstehungsorte waren unter anderen die Herzog August Bibliothek in Wolfenbüttel sowie die Johannes a Lasco Bibliothek in Emden. Über den Namensgeber der letzteren, Johannes a Lasco (1499–1650), einen "polnischen Baron, Humanisten und Reformator", hat Christoph Strohm einen eigenen Tagungsband herausgebracht (Tübingen 2000). Bedeutend ist "Calvinismus und Recht" aus mehreren Gründen. Es geht dem Zusammenhang von Bekenntnis und Jurisprudenz im 16. und 17. Jahrhundert nach und fragt speziell nach den Verbindungsfäden zwischen französischem und deutschem Humanismus mit dem Calvinismus sowie nach den Entstehungsgründen des Faches Öffentliches Recht ab etwa 1600. Hatte die Ablösung vom mos italicus, die Hinwendung zur modernen Systembildung und zum Naturrecht, die Betonung historischer Textstufen im römischen Recht und die Publikation mittelalterlicher papstkritischer Traktate etwas mit dem reformierten, lutherischen oder katholischen Bekenntnis zu tun? Wie gingen die Juristen mit den theologischen Hauptstücken des Bekenntnisses um, mit Taufe, Ehe und Abendmahl, wie standen sie zum Widerstandsrecht und zu den Befugnissen der Obrigkeit, die rechte Lehre zu garantieren? Ganz entscheidend kam es darauf an, ob Zwang in Glaubensdingen erlaubt sei. ...
Friedrich Gaus (1881–1955) war Leiter der Rechtsabteilung des deutschen Auswärtigen Amtes von 1922 bis 1943, ein juristischer Fachmann des Völkerrechts par excellence. Als promovierter Assessor war er 1907 in das Amt eingetreten, wo er vom Legationsrat zum Ministerialdirektor aufstieg. Bei allen wichtigen Verträgen Deutschlands war er dabei, von Brest-Litowsk bis Versailles, vom Schieds- und Vergleichsvertrag mit der Schweiz zum Vertrag von Rapallo, vor allem aber bei dem Vertrag von Locarno und bei Deutschlands Eintritt in den Völkerbund. Gaus galt als das juristische Gehirn der auswärtigen Politik. Er begleitete Stresemann bis zu dessen Tod 1929 und war bei seiner Diplomatie stets "der im Mittelpunkt stehende juristische Experte". ...
Und noch ein Buch zu Carl Schmitt! Diesmal ein Reisebericht eines Schriftstellers, der als junger Mann einmal Kontakt zu Schmitt gesucht hatte, nun aber dreißig Jahre später mit der Regionalbahn von Hagen ins Sauerland fährt, um dort den 1985 verstorbenen Wortund Ideenzauberer, das Chamäleon, das "Ungeheuer", den intellektuellen Spieler noch einmal zu imaginieren. Linder fährt also über Finnentrop in das schon sagenhaft gewordene Plettenberg, liest sich gründlich in Schmitts Œuvre ein, spricht mit allen Personen, die den kleinen Professor noch gekannt haben, vor allem seinem treuen Eckermann Ernst Hüsmert, fotografiert das Sauerland bei dem Dorf Pasel, sammelt Fotos und Faksimiles und umkreist Schmitt auf eine originelle Weise, die weit entfernt ist vom Üblichen. Linder schreibt weder ein rechtswissenschaftliches Buch noch eine chronologisch geordnete historische Biographie, sondern einen poetischen Streifzug mit einer gehörigen Portion Sympathie, aber keineswegs unkritisch. Quellenzitate aus Briefen, Tagebüchern und dem Œuvre Schmitts werden mit erfundenen, aber passenden Zitaten überblendet. ...
Seit Mitte der Sechzigerjahre gab es vielerorts Ringvorlesungen zum Thema Rechtsordnung und Juristen im Nationalsozialismus (Gießen, München, Tübingen, Berlin, später in Frankfurt, Kiel und Münster), kirchliche Akademien veranstalteten zahllose entsprechende Wochenenden. Auch die Richterakademien in Trier und Brandenburg nahmen sich schließlich der Thematik an. Das Leitwort war "Vergangenheitsbewältigung", meist eine solche der Zivil- und Strafjustiz, aber auch der Rechtswissenschaft und ihrer, wie man sagte, "Verstrickungen". Göttingen veranstaltete nun im Wintersemester 2006/07 zum zweiten Mal – nach Ralf Dreier und Wolfgang Sellert (1989) – eine solche Ringvorlesung. ...
"Passau sticht in See" ist ein Gedicht von Reiner Kunze aus dem Jahr 1979 überschrieben. "Der Dom ein / kreuzmastsegel, an dem, matrosen gleich, steinmetze klettern / Der schlot des Peschlbräus zeigt rauch, die kessel stehen unter dampf / In dreier flüsse wasser zielt der bug, ein schiff das seenot kennt". ...
"Mit dem Erscheinen des vorliegenden Registerbandes ist das 'Historische Wörterbuch der Philosophie' abgeschlossen", so Gottfried Gabriel in der Vorbemerkung. Freilich ist ein wirklich "abgeschlossenes" Lexikon nur schwer vorstellbar. Es ist eine in Stichworte gedrängte Verkürzung eines bestimmten Segments der Welt. Die Auswahl der Stichworte zeigt implizit, was eine Redaktion, aber auch eine ganze Autorengeneration "in ihrer Zeit" für wichtig hielt. Zwischen den Stichworten gibt es Leerräume, die in immer feinerer Differenzierung gefüllt werden könnten. Neue Begriffe tauchen ständig auf. Der philosophische Diskurs fließt. Nachtragsbände müssten sich anschließen, das Ganze würde im Internet als "lebendiges Lexikon" mit fortwährenden Ergänzungen sozusagen als "philosophia perennis" im Sinne von Joachim Ritter fortbestehen. Käme es zu einer zweiten Auflage, dann würde man die Feldarbeit von tausendfünfhundert Autoren nochmals aufnehmen und mit Sicherheit ergäben sich viele Verschiebungen und Ergänzungen. Mit anderen Worten: Kaum hat der Stein den Gipfel erreicht, stürzt er wieder abwärts. Lust und Verzweiflung der Lexikographen. ...
"Geborene Opfer" : Bausteine für eine Geschichte der Viktimologie – das Beispiel Hans von Hentig
(2009)
Die Entdeckung der Opferperspektive gilt in Strafrecht und Kriminologie gemeinhin als eine Errungenschaft der allerjüngsten Vergangenheit. So sei erst vor kurzem das Opfer als "Rechtsgutsträger" erkannt worden und damit aus dem "rechtlichen Nichts" erwacht. Das strafrechtsdogmatische Interesse am Opfer wird begleitet durch einen parallel laufenden kriminologischen Diskurs. Unter der Bezeichnung Viktimologie beschäftigt sich ein ganzer Zweig der kriminologischen Forschung mit dem Verbrechensopfer. Die Viktimologie selbst bestimmt dabei den Zeitpunkt ihrer Geburt auf die Jahrhundertmitte des 20. Jahrhunderts: Erst mit dem kriminologischen Methodenwechsel nach dem Zweiten Weltkrieg, als sich die Kriminologie von ihrer klassischen Fixierung auf statische Anlage- und Umweltelemente gelöst und sich der Dynamik der Verbrechensentstehung gewidmet habe, seien auch Aussagen über die Interaktion zwischen Täter und Opfer, die sog. "Täter-Opfer-Beziehung", möglich geworden. In der Literatur herrscht dabei die Ansicht vor, dass der aus Deutschland in die USA emigrierte Kriminologe Hans von Hentig erstmals in einem Beitrag für die "Kölnische Zeitung" vom 4.9.1934, später dann durch seinen Aufsatz "Remarks on the Interaction of Perpetrator and Victim" aus dem Jahr 1940, vor allem aber mit dem vierten Abschnitt seines 1948 erschienenen Buches "The Criminal and his Victim" die Viktimologie aus der Taufe gehoben habe. Teilweise wird dieses Verdienst auch anderen Autoren zugeschrieben, vor allem Benjamin Mendelsohn, einem rumänisch-israelischen Anwalt, der bereits 1937 erste Arbeiten über das Verhältnis des Vergewaltigers zu seinem Opfer publizierte. ...
Editorial
(2009)
Strafe muss sein! Ein drohender Satz, eine Universalie der Gerechtigkeit, ein pädagogisches Prinzip, eine Existenzgarantie für den strafenden Staat? Wenn Strafe denn wirklich "sein muss", wie kann sie als rechtliche ausgeübt und legitimiert werden? Hinter dem Alltagsspruch "Strafe muss sein" öffnet sich das weite Feld der Geschichte des Strafrechts und der Strafrechtswissenschaft. Dieses Feld ist von der traditionellen Rechtsgeschichte eher vernachlässigt worden. Die meisten Strafrechtler halten es für verzichtbar. Vorlesungen zur Strafrechtsgeschichte gehören nicht zum Ausbildungskanon. So kamen die Innovationen in den letzten Jahren eher von außen, von der Kulturanthropologie, von der neueren Kulturgeschichte und speziell von der erfreulich entfalteten Historischen Kriminologie. Die Rechtsgeschichte hat hiervon erheblich profitiert. Sie hat ihrerseits wieder auf die historische Forschung zum Mittelalter und zur Frühen Neuzeit zurückgewirkt. Die früher manchmal beobachteten Barrieren gegenseitiger Nichtwahrnehmung scheinen nahezu verschwunden. ...
Vor nicht so langer Zeit waren die oft sehr langfristigen Editionsprojekte der Akademien und wissenschaftlichen Institute wegen ihrer Dauer in die öffentliche Kritik gekommen. Die Wellen der Erregung haben sich inzwischen gelegt. Zu den ältesten Institutionen dieser Art gehören die Monumenta Germaniae Historica, kurz MGH. Für den im Mittelalter arbeitenden Rechtshistoriker ist unentbehrlich nicht nur die Reihe der Leges, sondern auch der Diplomata der deutschen Könige und Kaiser. Gerade in ihr ist in den letzten Jahrzehnten eine Herkulesarbeit an Materialbewältigung und Präzision mit der Edition der Diplome Friedrich I. Barbarossas in vier gewichtigen Bänden unter der Leitung von Heinrich Appelt bis 1990 geleistet worden. Begleitende Studien haben die Diplomatik bereichert und verfeinert, aber auch die Rolle des römischen Rechts genauer beleuchtet. Wichtige seither erschienene Monographien zu Barbarossa wären ohne diese Edition der Diplomata nicht denkbar gewesen. In der Reihe der Constitutiones liegt seit 1996 eine kritische Edition u. a. der Konstitutionen von Melfi Friedrichs II. vor, begleitet von einer zweibändigen Monographie des Herausgebers Wolfgang Stürner. ...
Der Band ist das Ergebnis einer Tagung, die vom 22. bis 24. Juni 2006 in Trient abgehalten worden ist. Einleitend weisen Diego Quaglioni und Gerhard Dilcher auf den Nutzen des Austauschs zwischen italienischer und deutscher Geschichtswissenschaft auf dem Feld der kaiserlichen Gesetzgebung der Staufer hin, insbesondere in Bezug auf die roncalische Gesetzgebung. Dilcher verweist auf die komplizierte Überlieferung und den ambivalenten Charakter der einzelnen roncalischen Gesetze, in denen sich mittelalterliche und deutsche Rechtstraditionen mit römisch-justinianischen Traditionen unter einem neuen Ordnungs- und Gesetzgebungswillen des Herrschers vermischten. ...
Dans l’image traditionnelle des « religions orientales », forgée dans ses caractéristiques essentielles par Franz Cumont, les villes portuaires jouent un rôle important en tant que centres de distribution. Cumont considérait comme tout naturel que les dieux du Levant aient suivi les grands flux commerciaux et humains de l’Orient vers l’Occident. Les marchands orientaux, qui constituaient le principal groupe mobile, avaient selon lui fait office de « missionnaires » dans les villes portuaires occidentales. ...
Le xviiie est le siècle de la révolution constitutionnelle moderne. Les droits de l’homme et du citoyen y furent proclamés, et le droit ancré dans la démocratie. Les choses ont commencé dans quelques États d’Amérique, leur unification a suivi, mais l’événement à proprement parler dramatique, qui allait faire de la révolution constitutionnelle un événement irréversible, fut la Révolution française de 1789. Revendiquer des constitutions fut l’élément dominant du xixe siècle, tenir la promesse de réaliser les droits de l’homme et la démocratie celui du xxe siècle. L’arc se tend sans peine de 1789 à 1989, et même après, il n’y a pas d’issue visible, pas d’alternative en vue. Même le vent froid de la globalisation n’a pas fait pâlir les espoirs utopiques orientés vers la démocratie et les droits de l’homme. ...
Der durch sein Buch zur Regierung und Verwaltungsorganisation der frühen Capetinger als Kenner dieser Epoche ausgewiesene Autor legt eine umfassende Biographie Ludwigs VI. vor, die eine empfindliche Lücke jedenfalls zu großen Teilen schließt, denn eine zusammenfassende monographische Darstellung der Zeit und Wirksamkeit dieses Königs (1108–1137) fehlt seit langem. ...
Solche Bücher gab es vor dem Ersten Weltkrieg in Deutschland auch: Prachtwerke zur nationalen Erbauung eines seiner selbst nicht mehr ganz sicheren Publikums, das ein unüberhörbares Mahlen des Zahns der Zeit doch tapfer ignorieren wollte. Wer den Band aufschlägt und in der vorangestellten "Liste d’honneur des souscripteurs" als erläuterndes Prädikat hinter einem Namen "catholique et royaliste" liest, hat rasch Gewissheit: Mit Wissenschaft hat das teure Produkt nichts zu tun, viel dagegen mit Fragen wie der, "que notre Louis IX est bien nommé saint Louis, et non Saint Louis selon une mode universitaire qui se répand depuis quelques années" […]. J’écris donc comme dans les livres de ma religion, […]. De même, pour le héros de ce livre, et suivant la mode des anciens, j’écris Roi avec majuscule quand je parle de lui, car c’est le Roi par excellence, […]« (S. 14). In diesem Stil sprechen vier umfangreiche Kapitel über den König, königliche Symbolik, seine Umgebung und die Heraldik der Kapetinger; opulent illustriert mit Reproduktionen aus Handschriften des 13.–16. Jahrhunderts (darunter aus dem um 1250 entstandenen Krönungsordo BnF lat. 1246), schönen Faksimiles der Bulle Papst Gregors IX. für Ludwig IX. von 1239, der Gründungsurkunde der Sainte-Chapelle (1246), einer zur Unlesbarkeit verkleinerten Frankreichkarte aus dem 19. Jahrhundert, Photos der Sainte-Chapelle, Beispielen der Chartreser Glasfenster, Siegeln (u. a. des Königs, seiner Mutter, Margarethes von Provence, Peters II. von Courtenay, Rudolfs II. von Vermandois, Odos III. von Burgund, des Reimser Domkapitels), Münzen, der sog. "Cassette de St-Louis" (um 1236), Fotos erhaltener Teile des Krönungsornats (Sporen, Schwert Karls des Großen), Reproduktionen verlorener Stücke nach der "Collection Gaignières" und anderer gelehrter Werke des 17. und 18. Jahrhunderts (u. a. Félibien), Historiengemälden des 17. und 18. Jahrhunderts, nicht zuletzt zahlreichen Malereien von Claude de Gallo in der Art von Kinderbuchillustrationen (Ludwig IX. im Krönungsornat und zu Pferd, Blanche von Kastilien und Margarethe von Provence, Robert I. von Artois, Karl von Anjou und viele mehr) und einer bonbonfarbenen "Reconstitution de la sainte couronne ou couronne de S. Louis" von Jörg Mauriange. ...
Aus Anlass der achthundertsten Jahrestage des Todes Eleonores von Aquitanien und des Verlusts der Normandie durch Johann Ohneland fand im Mai 2004 eine gemeinsame Tagung der Forschungszentren CESCM (Poitiers) und HIRES (Angers) statt, deren Vorträge nun im Druck vorgelegt werden. Die magistrale Einleitung von Martin Aurell (Introduction. Pourquoi la débâcle de 1204?, S. 3–14) betont zwar die Schlüsselrolle Eleonores, deren Ehe mit Heinrich II. jenes angevinische Reich entstehen ließ, das im Jahr ihres Todes zusammenbrach, hebt aber stärker auf die Zurücksetzung der Normandie gegenüber den englischen Eliten seit 1154 ab, auf geradezu xenophobische Züge in der wechselseitigen Einschätzung des Adels diesseits und jenseits des Kanals. Große der Normandie hatten kein materielles Interesse mehr daran, sich für einen König zu schlagen, der die Gewinne seinem insularen Entourage würde zukommen lassen; die Lehnsabhängigkeit der angevinischen Könige von den Kapetingern hielt diese in der Position der Herren gegenüber ungetreuen Vasallen, deren gesamter Kontinentalbesitz französisches Krongut blieb. Der kontinentale Adel nutzte das nach Kräften, Insistieren auf karolingische Tradition stützte die Unabhängigkeit der Kirchen und Klöster vom englischen König und seinen Beauftragten, während der intellektuelle Hofklerus Heinrichs II. und seiner Söhne verstört am Becket-Mord litt und seinem alten Studienort Paris nostalgische Sympathie entgegenbrachte. Unter solchen Voraussetzungen lag es nicht nur an der militärischen und politischen Unfähigkeit Johanns, wenn die französische Position der Plantagenêt in der Krise des Krieges schnell dahinschmolz. ...
Muss man eine Geschichte der Ritterschaft bei den Germanen des Tacitus beginnen? Man muss, wenn man wie Dominique Barthélemy davon überzeugt ist, dass die gegenwärtig noch herrschende Theorie von der "Erfindung der Ritterschaft" ("l’invention de la chevalerie") um 1100 in Frankreich allzu sehr von Nationalstolz und ideologischen Interessen genährt worden sei, um als historische Wahrheit akzeptiert zu werden. ...
L’intérêt des médiévistes pour les phénomènes d’arbitrage et de résolution des conflits n’est pas nouveau. Il n’est donc pas surprenant que le présent volume, qui réunit les contributions d’un colloque organisé en l’honneur de Hanna Vollrath, fasse explicitement référence à une »étude séminale« qui fut publiée il y a presque trente ans: il s’agit d’une étude de Vollrath sur »Le Moyen Âge dans la typologie des sociétés orales«. L’ensemble des contributions du présent volume confirme la fertilité de ce texte, qui a contribué à déclencher l’analyse des comportements rituels dans la recherche médiévistique allemande qu’elle continue visiblement à inspirer. ...
Philipp der Schöne drohte stets ein wenig unterzugehen zwischen dem Glanz seiner burgundischen Vorgänger von Philipp dem Kühnen bis Karl dem Kühnen, den Memorialleistungen seines Vaters Maximilian, des "letzten Ritters", und dem weltumspannenden Ausgreifen Kaiser Karls V. In den letzten Jahren aber wurde er zunehmend aus diesem Schattendasein befreit: Bereits 2003 erschien eine magistrale Biographie aus der Feder J.-M. Cauchies’, 2006 bot Philipps 500. Todestag den Anlass zu einer Ausstellung der Königlichen Bibliothek in Brüssel. Begleitet wurde dieses Projekt von dem hier vorzustellenden Katalogband, wobei der Rezensent die Ausstellung selbst bedauerlicherweise nicht besuchen konnte. ...
Dass die Rache kalt zu genießen sei, gehört zu den in ganz Europa verbreiteten Spruchweisheiten. Angesichts dieser Gleichförmigkeit hält der vorl. Band einige Überraschungen bereit, da er nicht nur Divergenzen in der diachronen Entwicklung der Rachepraxis von der Spätantike bis zum Ende des Hochmittelalters vorführt, sondern auch national unterschiedliche Ausprägungen. Während etwa Stephen D. White in seinem Beitrag zum »Imaginaire faidal« in ausgewählten »Chansons de Geste« (S. 175–198) und Bruno Lemesle für den »Comte d’Anjou face aux rébellions« (S. 199–236) die Bedeutung der Fehde als Mittel adliger Politik in einem feudal zersplitterten Frankreich aufzeigen, ist andernorts Gegenläufiges zu beobachten. So kann John Hudson (S. 341–382) darauf hinweisen, dass sich im normannisch beherrschten England Konflikte aufgrund der Durchsetzungsfähigkeit des Königtums üblicherweise in einem weniger gewalttätigen Rahmen abspielten (S. 375–377). ...
Die Suche nach dem Selbst und nach der Wahrheit – ein solcher Titel weckt zweifellos hohe Erwartungen, spricht doch diese Frage in jüngster Zeit nicht nur esoterisch ausgerichtete Geister an. Vielmehr spielt sie im Rahmen aktueller Arbeiten zur Konstruktion und Wahrnehmung von Individualität sowie zur "Produktion von Wahrheit" durch Praktiken der Befragung oder der Verschriftlichung des Rechts eine zentrale Rolle. So ist den Herausgebern des vorl. Bandes zuzustimmen, wenn sie das Prozessverfahren der Inquisition oder die Aufnahme von Aussagen zu Besitz- und Lehnsverhältnissen nicht nur mit Blick auf die hierbei produzierten Informationen selbst analysieren möchten. Vielmehr unterstreichen sie die Fruchtbarkeit der Prozesssituation und ihres Umfelds für die Untersuchung der sich hier manifestierenden Machtverhältnisse, aber auch der sozialen Verflechtungen. Beide Aspekte spiegeln sich in den Techniken der Befragung, in der Zuweisung von (oder Forderung nach) Rederaum und in der schriftlichen Aufzeichnung der mündlich und performativ produzierten Äußerungen. Alleine, und soviel sei vorweggenommen, die in den bilanzierenden Einleitungen von Verdon (S. 9–16, 77–82) und Faggion (S. 17–26, 83–97) angedeuteten möglichen Wege der Forschung werden von den Beiträgen des Bandes leider nur auf Teilstücken begangen. ...
L’ouvrage à présenter réunit les contributions de la dernière d’une série de conférences organisées par le Max-Planck-Institut für Geschichte en collaboration avec la Mission historique en Allemagne, le British Council et la Polska Misja Historyczna. Il conclut un tour d’horizon sur la question de »La mémoire culturelle des sciences [historiques] à l’époque moderne« qui restera, malheureusement, à jamais incomplet sous forme de livre, les actes de la deuxième conférence »Justice, pouvoir et violence au Moyen Âge« n’ayant pas été publiés. Mais on ne regrettera pas seulement l’absence du deuxième volet dans ce triptyque: avec la fermeture en 2006 du seul Max-Planck-Institut consacré à l’histoire générale, une coopération fertile entre les instituts historiques de plusieurs nations touche désormais à sa fin. Ceci est d’autant plus regrettable que la communauté internationale des historiens, et en particulier des médiévistes, à Göttingen avait su créer un lieu de contacts et d’échanges fertiles. ...
Nicht das Phänomen ist außergewöhnlich, das Thévénaz Modestin in ihrer Studie detailliert analysiert, sondern vielmehr die Tatsache, dass sie es trotz mancher Verluste im Original aufgrund einer glücklichen Quellenlage so präzise nachvollziehen kann: Es handelt sich um die Vereinigung der beiden Teile einer Doppelstadt, hier der bischöflichen Cité und der bürgerlichen Ville inférieure , die in Lausanne bis 1481 zwei in ihrer Verfassung getrennte Gemeinschaften bildeten. Doppelstädte dieser Art, die sich häufig durch die Gründung einer Neustadt neben einer bereits vorhandenen Anlage bildeten, sind weithin bekannt. Nur zu häufig wird man aber die Umstände der Vereinigung, die nach unterschiedlicher Dauer der Koexistenz und zum Teil auch Rivalität durchgeführt werden konnte, lediglich summarisch erhellen können, so dass mancher Aspekt der Prozesse im Dunkeln bleibt, die mit der Zusammenlegung zweier Rechtseinheiten verbunden waren. ...
À la différence du milieu universitaire français, l’existence d’une véritable »culture des manuels« dans les sciences historiques en Allemagne constitue un phénomène tout récent. Certes, il existe depuis longtemps des ouvrages fondamentaux qu’on utilise parfois depuis plusieurs générations d’étudiants. Or, la plupart de ces manuels au sens strict du terme visent avant tout la transmission des méthodes et de la théorie du travail d’historien avec un fort accent sur les »sciences auxiliaires«. En ce qui concerne les grands traits de l’époque médiévale, les étudiants furent longtemps obligés de consulter des ouvrages spécialisés qui étaient grosso modo les mêmes qu’utilisaient les chercheurs dans leur travail quotidien: le célèbre »Gebhardt« qui servait de catalogue de faits et de dates en histoire allemande, le »Handbuch der europäischen Geschichte« de Schieder ou bien les volumes sur l’histoire de certaines dynasties, parus chez Kohlhammer. S’ajoutent à ces ouvrages la série »Oldenbourg Grundriss der Geschichte« qui vise avant tout un public d’étudiants mais qui contient des bibliographies également fort utiles pour les chercheurs, ainsi que l’»Enzyklopädie deutscher Geschichte« qui paraît aussi chez Oldenbourg depuis la fin des années 1980 et dont les volumes (l’éditeur en envisage 100) se concentrent sur des sujets choisis de l’histoire allemande. ...
Unter dem Vorzeichen der "Reform" kündigen sich heute fundamentale Veränderungen der Institution Universität an. Die Prinzipien der Hochschulautonomie, der Wissenschaftsfreiheit und einer Bildung, die mehr ist als Ausbildung, werden dabei in nie gekanntem Maße ausgehöhlt. Die Konsequenzen für Universität und Gesellschaft sind noch kaum bedacht und analysiert worden. Was ist aus der modernen Universität geworden, wie sie um 1800 entworfen wurde? Wie behauptet sie ihren Anspruch gegenüber den aktuellen Forderungen nach Effizienz und Exzellenz?
Die Beiträge des Bandes widmen sich diesen Fragen aus unterschiedlichen Perspektiven.
Fractional release factors of long-lived halogenated organic compounds in the tropical stratosphere
(2009)
Fractional release factors (FRFs) of organic trace gases are time-independent quantities that influence the calculation of Global Warming Potentials and Ozone Depletion Potentials. We present the first set of vertically resolved FRFs for 15 long-lived halo carbons in the tropical stratosphere up to 34 km altitude. They were calculated from measurements on air samples collected on board balloons and a high altitude aircraft. We compare the derived dependencies of FRFs on the mean stratospheric transit times (the so-called mean ages of air) with similarly derived FRFs originating from measurements at higher latitudes and find significant differences. Moreover a comparison with averaged FRFs currently used by the World Meteorological Organisation revealed the latter to be imprecise measures due to their observed vertical and latitudinal variability. The presented data set could thus be used to improve future ozone level and climate projections.
Mit ihrer Studie zur pädagogischen Berufsarbeit und Zufriedenheit von Pädagogen liefert Julia Schütz erstmalig eine quantitative und segmentübergreifende Betrachtung der pädagogisch Tätigen in Deutschland. Sie befragt 424 Pädagogen der Elementarstufe, Sekundarstufe I und aus der Weiterbildung in Hessen und wertet die Ergebnisse kritisch aus. Der Zusammenhang von Zufriedenheit - z.B. im Hinblick auf die eigenen Lebensumstände (Alter, Gehalt, Familienstand etc.) - und dem Grad der kollektiven Professionalisierung des Bildungssegments steht dabei im Fokus der Studie.
In a recently published study on mineral waters from various manufacturers, scientists at Johann Wolfgang Goethe University Frankfurt established that some of the samples exam-ined in an in vitro test system revealed the presence of not otherwise specified substances with hormone-like activity. The scientists noted that this effect was determined more particu-larly in samples taken from mineral water in bottles made of the plastic, PET. Amongst the public at large this prompted questions about the potential health impact of drinking mineral water from PET bottles. The Federal Institute for Risk Assessment (BfR) has undertaken an initial, provisional assessment of the study findings.
Wassergefiltertes Infrarot A (wIRA) als spezielle Form der Wärmestrahlung mit hohem Eindringvermögen in das Gewebe bei geringer thermischer Oberflächenbelastung kann die Heilung akuter und chronischer Wunden sowohl über thermische und temperaturabhängige als auch über nicht-thermische und temperaturunabhängige Effekte verbessern. wIRA steigert Temperatur (+2,7°C in 2 cm Gewebetiefe) und Sauerstoffpartialdruck im Gewebe (+32% in 2 cm Gewebetiefe) sowie die Gewebedurchblutung. Diese drei Faktoren sind entscheidend für eine ausreichende Versorgung des Gewebes mit Energie und Sauerstoff und deshalb auch für Wundheilung und Infektionsabwehr.
wIRA vermag Schmerzen deutlich zu mindern (ausnahmslos bei 230 Bestrahlungen) mit bemerkenswert niedrigerem Analgetikabedarf (52–69% niedriger in den Gruppen mit wIRA verglichen mit den Kontrollgruppen) und eine erhöhte Wundsekretion und Entzündung herabzusetzen sowie positive immunmodulierende Effekte zu zeigen. Die Gesamtbeurteilung des Effekts der Bestrahlung wie auch die Wundheilung und das kosmetische Ergebnis (erhoben mittels visueller Analogskalen) waren in der Gruppe mit wIRA wesentlich besser verglichen mit der Kontrollgruppe. wIRA kann sowohl bei akuten als auch bei chronischen Wunden einschließlich infizierter Wunden die Wundheilung beschleunigen (Abnahme der Wundfläche im Median um 90% bei schwerbrandverletzten Kindern bereits nach 9 Tagen in der Gruppe mit wIRA verglichen mit 13 Tagen in der Kontrollgruppe; im Durchschnitt 18 versus 42 Tage bis zum kompletten Wundschluss bei chronischen venösen Unterschenkelulzera) oder bei stagnierender Wundheilung verbessern (mit Erreichen eines kompletten Wundschlusses und Normalisierung des thermographischen Bildes bei zuvor therapierefraktären chronischen venösen Unterschenkelulzera). Nach großen abdominalen Operationen zeigte sich ein Trend zugunsten der wIRA-Gruppe hin zu einer niedrigeren Rate von Wundinfektionen insgesamt (7% versus 15%) einschließlich später Infektionen nach der Entlassung aus dem Krankenhaus (0% versus 8%) und ein Trend hin zu einem kürzeren postoperativen Krankenhausaufenthalt (9 versus 11 Tage).
Selbst der normale Wundheilungsprozess kann verbessert werden.
Die erwähnten Effekte wurden in 6 prospektiven Studien belegt, die meisten mit einem Evidenzgrad von Ia/Ib.
wIRA stellt eine wertvolle Therapieoption dar und kann generell für die Therapie von akuten und chronischen Wunden empfohlen werden.
Basierend auf Erfahrungen in einem Forschungsprojekt mit iranischstämmigen Migranten geht der Beitrag der Frage nach, inwiefern sich die umfassend reglementierte und damit weitgehend fremdbestimmte Lebenssituation als Flüchtling im deutschen Asyl auf die biografische Selbstthematisierung in Forschungszusammenhängen auswirkt.
Unabhängig vom jeweiligen Forschungsgegenstand beeinflusst der Kontext der Interviewsituation und die darin zustande kommende Beziehung zwischen Forschenden und Beforschten grundsätzlich die Gestalt der biografischen Erzählung. Infolge der Machtprozeduren im "totalen Flüchtlingsraum", die mit institutionell weitreichenden Zugriffen auf die Biografien von Asylsuchenden verbunden sind, ließ sich in den untersuchten Interviews jedoch eine mehr oder weniger stark ausgeprägte Verschärfung des ohnehin vorhandenen Hierarchieverhältnisses beobachten. In Anbetracht der empirischen Beobachtungen wird für eine reflexive biografiewissenschaftliche Migrationsforschung plädiert, die die Machtverhältnisse im transnationalen Raum in ihren Auswirkungen auf den Forschungsprozess systematisch analysiert. Forschende und Beforschte sind dabei nicht lediglich in ihren kulturellen Differenzen zu betrachten, sondern darüber hinaus in ihren unterschiedlichen intersektionellen Positionierungen, die von weiteren Machtmomenten wie dem sozioökonomischen Status, der Nationalität, dem Geschlecht, der Sexualität usw. bestimmt werden.
Der Kulturwissenschaftler Andreas RECKWITZ beschäftigt sich in seinem Buch mit dem Titel "Subjekt" dergestalt mit einer Reihe von strukturalistischen bzw. poststrukturalistischen Autor/innen, dass er ihre Werke als Beiträge zu einer Analyse des Subjekts in der Moderne interpretiert. In dem vorliegenden Aufsatz werden nun nicht nur diese Interpretationen in groben Zügen wiedergegeben, sondern es wird auch der Versuch unternommen, ihre die Empirie aufschließende "Kraft" zu "prüfen". In dem Bezug auf einen Ausschnitt aus dem Alltag der Schule, einer Unterrichtsstunde im Fach Deutsch, zeigt sich, wie diese unterschiedlichen "subjekttheoretischen Analysestrategien" zu jeweils anderen, interessanten und aufschlussreichen Interpretationen führen können. Darüber hinaus wird aber auch deutlich, dass auf die Vorstellung von Subjektivität – und damit auch von Bildung und Mündigkeit – nicht verzichtet werden kann. Ohne diese Vorstellung wäre die pädagogische Praxis zynisch – und ihr Verständnis unmöglich.
Medium range hydrological forecasts in mesoscale catchments are only possible with the use of hydrological models driven by meteorological forecasts, which in particular contribute quantitative precipitation forecasts (QPF). QPFs are accompanied by large uncertainties, especially for longer lead times, which are propagated within the hydrometeorological model system. To deal with this limitation of predictability, a probabilistic forecasting system is tested, which is based on a hydrological-meteorological ensemble prediction system. The meteorological component of the system is the operational limited-area ensemble prediction system COSMO-LEPS that downscales the global ECMWF ensemble to a horizontal resolution of 10 km, while the hydrological component is based on the semi-distributed hydrological model PREVAH with a spatial resolution of 500 m.
Earlier studies have mostly addressed the potential benefits of hydrometeorological ensemble systems in short case studies. Here we present an analysis of hydrological ensemble hindcasts for two years (2005 and 2006). It is shown that the ensemble covers the uncertainty during different weather situations with an appropriate spread-skill relationship. The ensemble also shows advantages over a corresponding deterministic forecast, even under consideration of an artificial spread.
Two decades after the predicted “end of ideology”, we are observing a re-emphasis on party ideology under Hu Jintao. The paper looks into the reasons for and the factors shaping the re-formulation of the Chinese Communist Party’s (CCP) ideology since 2002 and assesses the progress and limits of this process. Based on the analysis of recent elite debates, it is argued that the remaking of ideology has been the consequence of perceived challenges to the legitimacy of CCP rule. Contrary to many Western commentators, who see China’s successful economic performance as the most important if not the only source of regime legitimacy, Chinese party theorists and scholars have come to regard Deng Xiaoping’s formula of performance-based legitimacy as increasingly precarious. In order to tackle the perceived “performance dilemma” of party rule, the adaptation and innovation of party ideology is regarded as a crucial measure to relegitimize CCP rule.
Trotz eines umfangreichen Angebots an Literatur und Ratgebern im Bereich des Projektmanagements scheitern auch heute noch viele IT-Projekte. Ursache sind oft Probleme im Projektteam oder Fehleinschätzungen in der Planung des Projektes und Überwachung des Projektstatus. Insbesondere durch neue Technologien und Globalisierung entstandene Arbeitsweisen wie das virtuelle Team sind davon betroffen. In dieser Arbeit wird auf die Frage eingegangen, was virtuelle Teams sind und welche Probleme die Arbeit von virtuellen Teams belastet. Dafür werden aktuell existierende Tools aus dem Bereich des Web 2.0 analysiert und aus dem Stand der angebotenen Tools vermeidbare Schwächen der Helfer herausgearbeitet. Anschließend wird ein mittels einer Anforderungsanalyse und eines Konzepts, welches neue Methoden zur Darstellung von Projektstatus und Verknüpfung mit Dokumentation und Kommunikation nutzt, das Tool „TeamVision“ erstellt, welches versucht, virtuelle Teams möglichst effizient zu managenen, Probleme schnell zu erkennen und somit die Arbeit innerhalb des Teams zu beschleunigen. Hierbei wird insbesondere das Ergebnis der Analyse benutzt, dass viele Tools einzelne Verwaltungsaufgaben getrennt durchführen. Informationen müssen vom Nutzer selbst aus den verschiedenen Grafiken, Listen oder anderen Darstellungen gesammelt und selbst assoziiert werden. Die prototypische Implementierung von TeamVision versucht den Informationsfluss beherrschbar zu machen, indem Übersichten in einem Projektbaum zusammengefasst werden, der mittels Zoomfunktionen und visueller Hilfsmitel wie Farbgebung versucht, die Informationsbeschaffung zu erleichtern.
Konzeption und Implementierung einer Kommunikation zwischen Second Life und Web 2.0 Anwendungen
(2009)
Im Rahmen dieser Arbeit haben wir ein Konzept und einen Prototypen zur Kommunikation zwischen Second Life und Web 2.0 entwickelt.
Im Rahmen dieser Diplomarbeit wird ein Konzept und ein Prototyp zur Kommunikation zwischen Second Life und Web 2.0-Anwendungen entwickelt. In der Übung zur Veranstaltung "Einführung in das Projektmanagement" wurden Meetings in Second Life abgehalten. Dabei haben die Studierenden im Rahmen der Übung Protokolle erstellt, die sie im Internet veröffentlichten. Die Protokollierung musste immer manuell durchgeführt werden und war dadurch fehleranfällig und nicht ausfallsicher. Hier entstand der Wunsch, die Protokollierung zu automatisieren und somit den administrativen Aufwand zu reduzieren.
Im Kapitel 2 werden die Grundlagen behandelt, die für das Verständnis der Arbeit notwendig sind. Hierbei werden Second Life, sowie Blog und Wiki als Repräsentanten von Web 2.0 vorgestellt. Außerdem wird eine klare Abgrenzung zwischen diesen Technologien aufgezeigt.
Die Analyse dieser Diplomarbeit umfaÿt unter anderem die verschiedenen Möglichkeiten der Übertragung der Informationen zwischen Second Life und den Web 2.0-Anwendungen.
Im Konzept ist die Gesamtarchitektur zur Kommunikation zwischen Second Life und den Web 2.0 Anwendungen enthalten. Die Hauptsystemkomponenten, die dafür notwendig sind, stellen eine Ansammlung aus Second Life Skripten, dem HTTP Supervisor und den Wiki Bot Skripten dar. Die Second Life und die Wiki Bot Skripten sind eine Ansammlung von Unterprogrammen, die jeweils auf eine Aufgabe spezialisiert sind. Die genaue Erklärung wird im Kapitel 4 Aufgrund der Unterschiede der Web 2.0 Anwendungen wurde ein Bot eingesetzt, der eine Web 2.0 Anwendung bedient. Der HTTP Supervisor dient der Vermittlung dient der Vermittlung der Daten zwischen Second Life und der Web 2.0 Anwendung. Auÿerdem speichert er die Daten in temporäre Dateien. Der Second Life Teil des Programms dient der Steuerung des gesamten Systes.
Durch die prototypische Umsetzung ist die Durchführbarkeit bewiesen, die Daten aus Second Life herauszuführen und im MediaWiki zu speichern.
Lernplattformen sind E-Learning-Systeme, deren Kernfunktionalität die Verwaltung und Verteilung von Lernmaterialien über das World Wide Web ist. In dieser Arbeit wurde untersucht, wie durch Aufzeichnung (Tracking), Auswertung und Visualisierung von Lernaktivitäten in Lernplattformen eine Verbesserung der Lernqualität erreicht werden kann. Der Ansatzpunkt dafür war, Informationen zu Lernaktivitäten in geeigneter Weise Lehrenden und Lernenden zu präsentieren, so dass diese Rückschlüsse ziehen können, um Lernprozesse eigenständig zu optimieren. Viele Lernplattformen verfolgen bereits diesen Ansatz und verfügen deshalb über entsprechende Funktionalität.
Es mussten zwei wesentliche Fragen beantwortet werden:
1. Was müssen Lernende und Lehrende über erfolgte Lernaktivitäten wissen?
2. Wie werden Lernaktivitäten in geeigneter Weise präsentiert?
Diese Fragen wurden durch Betrachtung existierender Lernplattformen (State of the Art) sowie Befragung von Experten in Form von Interviews beantwortet. Zur Beantwortung der 2. Frage wurden außerdem allgemeine Grundlagen der Auswertung und Visualisierung von Daten verwendet sowie (zu einem geringen Teil) Auswertungs- und Visualisierungsverfahren von Systemen, die keine Lernplattformen sind. Besondere Aufmerksamkeit wurde auch dem
Datenschutz gewidmet.
Beruhend auf den gewonnenen Erkenntnissen wurde dann ein Konzept für ein Auswertungs-/Visualisierungssystem entwickelt das in verschiedenen Punkten eine Verbesserung des State of the Art darstellt.
Teile des Konzepts wurden schließlich für das webbasierte Softwaresystem LernBar, das über einen Großteil der Funktionalität einer Lernplattform verfügt, prototypisch implementiert. Durch die Implementierung soll es ermöglicht werden, das Konzept im praktischen Einsatz zu evaluieren, was im Rahmen dieser Arbeit nicht möglich war.
Diese Diplomarbeit hatte das Ziel ein Konzept zu erstellen, welches es ermöglicht, interessante und weniger interessante Artikel innerhalb eines Wikis zu erkennen und diese Informationen in verständlicher Form zur Recherche visuell bereitzustellen.
Dabei sollte das Konzept möglichst offen sein, so dass theoretisch jedes Wiki an die Visualisierung hätte angebunden werden können. Hier lag bereits das erste Problem, zum Zeitpunkt der Arbeit existieren bereits mehr als 100 unterschiedliche Wikis mit unterschiedlichen Architekturen. Wegen der Unterschiede der jeweiligen Wikisysteme entschloss man sich daher zwei Konzepte zu erarbeiten, ein allgemeines, welches wie in der gestellten Zielsetzung, das Einbinden jedes Wikis ermöglicht und ein Spezialfall, der die Vorteile einer API nutzt. Der Spezialfall wurde in ähnlicher Form in einer Implementierung umgesetzt.
Zu Beginn der Diplomarbeit mussten die unterschiedlichen Möglichkeiten der Extraktion von Informationen aus einem Wiki untersucht werden. Es hatte sich ziemlich früh herausgestellt das Links, Backlinks sowie Kategorien wichtige Indikatoren zur Bewertung eines Artikels darstellen. Damit die Bewertung der Informationen nicht nur alleine auf der Struktur eines Wikis beruht, wurde ein Thesaurus zur unterstützenden Bewertung miteinbezogen. Dieser lieferte durchgehend gute Ergebnisse, wobei - wie erwartet - der Thesaurus sehr schnell an seine Grenzen gekommen war, insbesondere wenn man die Anzahl der Artikel eines großen Wikis mit der Anzahl der Wörter die im Thesaurus gespeichert sind vergleicht.
Die extrahierten und gewichteten Informationen wurden im zweiten Schritt visualisiert, dabei hatte sich der Radial-Graph als eine gute Lösung zur Darstellung der Informationen herausgestellt. Neben einem Graphen mit gewichteten Knoten wurden in der Visualisierung unterschiedliche Ansichten der extrahierten Daten bereitgestellt: eine Autorenansicht, die zum gesuchten Artikel die Autoren darstellt, eine semantische Ansicht, die Wortbeziehungen veranschaulicht sowie eine Artikelansicht, die den Nutzer neben den gewichteten Artikeln auch wie gewohnt in einer Wiki lesen lässt.
Klassische Bildmanipulation spielt sich meist im Zweidimensionalen, also in der reinen Bild-ebene ab. So werden beispielsweise Objekte aus Fotos entfernt, indem die dahinterliegende Struktur nachgezeichnet wird, oder es werden mehrere Teilbilder zu einem neuen, verfälschten Motiv zusammengesetzt. Bei der sogenannten Bildretuschierung werden unschöne Bereiche übermalt, um einen besseren Gesamteindruck zu erreichen. All diese Manipulationen haben im Grunde das gleiche Ziel: Das Erstellen einer möglichst realistischen Verfälschung der darge-stellten Szene indem die eigentlich dreidimensionalen Elemente in 2D imitiert werden.
Ziel dieser Arbeit ist es, von der reinen Zweidimensionalität eines Bildes Abstand zu nehmen und ein neues Verfahren zu entwickeln, Manipulationen im wirklichen 3D-Inhalt des Fotogra-fierten vorzunehmen. Dazu wird die klassische Bildmanipulation mit aktuellen Verfahren aus dem Bereich Multi View Stereo verknüpft. In einem ersten Schritt wird aus einer Fotoserie ein 3D-Modell mit passenden Texturen erstellt, welches anschließend nach Belieben manipuliert werden kann. Diese Veränderungen werden schließlich wieder in die Originalbilder übertragen, wodurch eine 3D-unterstützte Bildmanipulation realisiert wird.
Die praktische Umsetzung des vorgestellten Verfahrens basiert teilweise auf bereits vorhan-dener Software, die mit dem Ziel der Bildmanipulation neu kombiniert und durch eigene Um-setzungen ergänzt wird. So entsteht eine funktionierende Implementierung, die den kompletten Weg vom Original bis hin zum manipulierten Bild abdeckt.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Shader zur Bildbearbeitung
(2009)
In den letzten Jahren haben Grafikkarten eine starke Veränderung erfahren. Anfangs war lediglich die Darstellung vorberechneter Primitive möglich, mittlerweile lassen sich Vertex- und Pixelshader komplett frei programmieren. Die Spezialisierung auf den Rendervorgang hat die GPUs (Graphics Processing Units) zu massiv-parallelen Prozessoren wachsen lassen, die unter optimaler Ausnutzung ein Vielfaches der Rechenleistung aktueller CPUs erreichen. Die programmierbaren Shader haben Grafikkarten in der letzten Zeit vermehrt als weiteren Prozessor für General Purpose-Programmierung werden lassen.
Aktuelle Bildbearbeitungsprogramme zeigen, dass sich die Tendenz Richtung GPU bewegt, so wird sich auch in dieser Arbeit die enorme Rechenleistung der GPU für die Bildbearbeitung zu nutzen gemacht. Bildfilter lassen sich als Pixelshader realisieren und ermöglichen so die Ausführung direkt auf der GPU. Das vorgestellte Framework SForge wurde mit dem Ziel entwickelt, zu einem bestehenden Framework kompatibel zu sein. Als bestehendes Framework wurde auf AForge zurückgegriffen. Mit SForge können bestehende und eigene Bildfilter direkt auf der GPU ausgeführt werden, aber auch die Konvertierung von Farbräumen und Farbsystemen wurden realisiert. Das Framework arbeitet floatbasierend. Somit können auch HDR-Daten verarbeitet werden, um beispielsweise Tonemapping anzuwenden. Filter mit Parametern lassen sich über einen optionalen Dialog interaktiv ändern und modifizieren das Resultat in Echtzeit.
Rezension zu: H.-M. von Kaenel and F. Kemmers (eds.). 2009. Coins in Context I: New Perspectives for the Interpretation of Coin Finds. Studien zu Fundmünzen der Antike 23 (Mainz: von Zabern).
Im Rahmen dieser Arbeit wurde ein Kabelpulsgenerator entwickelt und untersucht, der zur Erzeugung dielektrischer Barriereentladungen, genutzt wird. Diese Barriereentladung soll zur Wassersterilisation angewendet werden. Als schnelles Schaltelement des Kabelpulsers wurde ein Lorentz-Drift-Schalter (LDS), der ebenfalls in der Arbeitsgruppe Plasmaphyik entwickelt wird, verwendet. Dieser wurde grundlegend auf dessen elektrische Eigenschaften in Bezug auf den Einsatz in einem Pulsgenerator untersucht. Zudem sollen diese Messungen zur Weiterentwicklung des LDS von Nutzen sein und werden in diesem Kapitel zusammengefasst und interpretiert.
Zur Bestimmung des Arbeitsgasdrucks wurde der Verlauf der Durchbruchspannung verschiedener Gase in Abhängigkeit des Drucks aufgenommen. Durch diese Messungen konnte die maximale Haltespannung zum jeweiligen Druck, sowie der optimale Arbeitsdruckbereich des Schalters, der möglichst nahe des Selbstdurchbruchs liegt, ermittelt werden. Es wurde ein Verlauf entsprechend der Abhängigkeit der Paschenkurve bestimmt. Dabei wurde festgestellt, dass sich die Druckbereiche der Gase Argon, Stickstoff und Luft stark von dem des Wasserstoffs unterscheiden.
Um möglichst steile Pulsflanken des Kabelpulsgenerators zu gewährleisten, wurden Messungen der Spannungabfallraten am LDS durchgeführt. Da das Plasma im Schalter als ohmsche Last angesehen werden kann, korreliert der Spannungsabfall mit dem Stromanstieg. Hierbei konnte generell ein Anstieg der Spannungsabfallzeit mit zunehmender Ladespannung festgestellt werden. Teilweise konnte ein sprunghaftes Verhalten nachgewiesen werden, was wie folgt zu interpretieren ist: Der LDS ist ein schneller Gasentladungsschalter für hohe Ströme und hohe Spannungen. Um eine laufende Entladung durch die Lorentzkraft im Elektrodenzwischenraum zu erreichen, wird eine gewisse Stromdichte benötigt, die das ”saubere” Durchzünden des Schalters gewährleistet, das Plasma an den Elektroden nach oben laufen lässt und später die Selbstlöschung einleitet. Die in der Kapazität des Koaxialkabels gespeicherte Energie reichte bei kleinen Ladespannungen nur zu einer kurzen Uberbrückung der Elektroden. Zudem konnte eine Steigerung der Spannungsabfallzeit mit zunehmendem Druck festgestellt werden, was dafur spricht den Schalter bei einem Druckbereich möglichst nahe des Selbstdurchbruchs zu betreiben, um ein optimales Entladeverhalten zu gewährleisten. Weitere wichtige Parameter eines Gasentladungsschalters sind die Delay- und Jitterwerte. Neben dem Delay wurden im Rahmen dieser Arbeit erstmals Jittermessungen am LDS durchgefuürt. Diese wurden mit den oben genannten Gasen mit unterschiedlichen Triggerpulsen gemessen. Im Wesentlichen wurde ein kürzerer und ein längerer Triggerpuls mit Pulslängen von 1 µs und 31 µs verwendet.
Weiterhin fand erstmals der Betrieb des LDS mit Wasserstoff als Arbeitsgas statt. Neben diversen Vorteilen im Entladeverhalten, erlaubt ein Betrieb des Schalters mit Wasserstoff die Verwendung von reversiblen Gasspeichern auf Titan- oder Zirkoniumbasis. Durch beheizen dieser Speicher, geben sie Gas ab und nehmen es beim Abkühlen wieder auf. Dadurch sind abgeschlossene Schaltsysteme, sogenannte ”Sealed-Off”-Systeme, fur weitere Prototypen realisierbar [Pet07].
Es wurde festgestellt, dass der Delay stark von der Triggermethode bzw. der Pulslänge des Triggers abhängt. Auch hier wird ein schneller Spannungsanstieg benötigt. Je schneller die Startelektronen durch das Triggerelement bereitgestellt werden, desto schneller zundet das Plasma im Elektrodenzwischenraum. Für einzelne Schaltvorgänge spielt der Delay eine untergeordnete Rolle, betrachtet man jedoch Repetitionsraten gewinnt jeder einzelne zeitliche Ablauf eines Schaltprozesses an Bedeutung. Bei den oben erwähnten ersten Jittermessungen konnten bei allen Gasen sehr niedrige Jitterwerte von deutlich unter 100 ns erreicht werden. Auch hier wurde eine starke Triggerpuls- und Arbeitsgasabhängigkeit festgestellt. Auffällig wurde dies bei Untersuchungen mit Luft. Hier konnte der Jitter mit dem steilen Anstieg des kurzen Triggerpulses halbiert werden. Bei Messungen mit Wasserstoff wurde ein Jitter von 13 ns erreicht. Wiederum ergab sich eine Verbesserung des Jitters mit zunehmender Ladespannung.
Des Weiteren wurde die Pulsform und deren Impedanzabh¨angigkeit am Spannungsausgang des Kabelpulsers untersucht. Unterschiedliche Impedanzwiderstände wurden angefertigt und in den Pulseraufbau integriert. Es zeigte sich eine eher geringe Änderung der Pulsform bei unterschiedlichen Impedanzwiderständen. Untersuchungen zeigten, dass die Spannungsamplitude mit dem Widerstandswert variiert, da er wie ein Spannungsteiler wirkt. Die radialsymmetrischen Impedanzwiderstände erzeugen eine weniger stufig abfallende Flanke. Die besten Resultate, was die Pulsform betrifft, wurde jedoch durch eine niederinduktivere Erdung erzielt. Es wurde ein Kabelpulsgenerator mit einem relativ ebenen Pulsplateau entwickelt, dessen Parameter, wie z.B. die Pulsbreite und die Spannungsamplitude, weitgehend unabhängig voneinander variierbar sind.
In dieser Diplomarbeit wurden zwei vom Funktionsprinzip und Aufbau her vollständig unterschiedliche Plasmabeschleuniger aufgebaut und bezüglich ihrer Eigenschaften untersucht. Der erste Aufbau ist ein Lorentzdriftbeschleuniger (LDB) mit kapazitiv erzeugten Plasmen, bei dem das Funktionsprinzip auf der Wirkung der Lorentzkraft auf bewegte Ladungsträger im Magnetfeld beruht. Der zweite Teil des Experiments stellt einen induktiven Beschleuniger (IB) dar, dessen Erzeugung und Beschleunigung von Plasmen auf Grund von Induktionskräften geschieht.
Die optischen und elektrischen Messungen von beiden Beschleunigern wurden in einem speziell konstruierten Experimentieraufbau durchgeführt. Beim Lorentzdriftbeschleuniger wurde der Einfluss der Elektrodenlänge auf den Bewegungsablauf der Plasmaentladung untersucht. Später, bei der Durchführung der Messungen mit dem induktiven Beschleuniger wurde der LDB als Schalter eingesetzt. Dabei stellte sich heraus, dass die Erosion der Elektroden aus Messing, die die Lebensdauer des Lorentzdriftbeschleunigers begrenzt, von der Stromstärke abhängt.
Als Ergebnis stellte sich heraus, dass der LDB einen einfacheren Aufbau als der IB hatte, die Ausstoßgeschwindigkeit des Plasmas war im Vergleich zum IB höher und betrug im Durchschnitt etwa 50-60 [km/s] gegenüber ≈ 21,5±6,5 [km/s] beim IB. Dagegen wurde beim IB eine größere Plasmamasse von 27 [μg] erzeugt gegenüber 2,8 [μg] beim LDB. Somit erreichte der IB eine höhere Schubkraft von ≈ 66 [N] bei einem Impuls von 0,58±0,17 [mNs] pro Puls mit Pulslängen um 0,88 ×10 -5 [s] . Im Gegensatz dazu lag die Schubkraft des LDB`s bei etwa 27-32 [N] mit einem Impuls von 0,135-0,162 [mNs] pro Puls mit Pulslängen von 5-5,75 ×10 -6 [s].
In dieser Arbeit wurden im Rahmen des HADES-Experimentes von 2007 Proton-Proton-Stöße bei einer kinetischen Energie von Tkin = 3.5GeV der Reaktion pp → ppw simuliert. Insbesondere wurde mittels einer Pluto-Simulation untersucht, welche Auswirkungen die Berücksichtigung möglicher Verteilungsfunktionen für cos(θω) und cos(θ pp), die neben 2 weiteren Parametern als voneinander unabhängige Observablen zur Beschreibung der Reaktion gewählt wurden, auf die Anzahl der simulierten Ereignisse Nsim innerhalb der Detektorakzeptanz des HADES haben könnte. Hierbei stammt die gewählte Winkelverteilung für die w-Produktion aus Messungen des nicht mehr existierenden DISTO-Spektrometers, das Proton-Proton-Stöße bei einer leicht geringeren Energie von Tkin = 2.85GeV durchgeführt hatte, während die Verteilung für die Proton-Proton-Paar-Ausrichtung auf einer Annahme basiert und vorläufig gewählt wurde. Unter Verwendung eines weiteren Modells, das den 3-Teilchen-Zerfall ω → π+π−π0 beschreibt, wurde ein theoretisches Modell von Lutz et al. [1] in die Simulation implementiert, dessen Auswirkung auf Nsim es ebenfalls zu untersuchen galt. Dieses erlaubt eine Reduzierung der Anzahl der Freiheitsgrade des Systems von 12 auf 4, was eine Akzeptanzkorrektur der Reaktion pp→ ppω ermöglicht.
Die Ergebnisse zeigten eine starke Abhängigkeit der Anzahl der simulierten Teilchen von der Proton-Proton-Ausrichtung, die zu einer Reduzierung der Ereignisanzahl von etwa 15% führt. Dies hat zur Folge, dass eine Bestimmung der Verteilungsfunktion für diese Observable absolut notwendig ist. Die Auswirkungen der w-Winkelverteilung beträgt etwa 4−9%. Ein Vergleich der Simulationsergebnisse mit und ohne Modell führte zu dem Ergebnis, dass eine geringe Änderung der Nsim von 1−2% zu Gunsten des Zerfallsmodells vorliegt. Eine Berücksichtigung in Simulationen, die der Untersuchung des betrachteten Zerfalls dienen, ist also keine Notwendigkeit.
Orts- und zeitaufgelöste Elektronendichte eines gepulsten induktiv gekoppelten Entladungsplasmas
(2009)
In der vorliegenden Bachelorarbeit wurde ein Modell für die räumlich und zeitlich aufgelöste Elektronendichteverteilung in einem gepulsten induktiv gekoppelten Plasma erstellt. Experimentell war es, bedingt durch den gepulsten Betrieb und die Wahl der Diagnostikmethode im Experiment „Prometheus“, nur möglich über die Zeit und den Ort gemittelte Elektronendichten zu messen.
Um nun den räumlichen Verlauf der Elektronendichte zu bestimmen, wurde die räumliche Elektronendichteverteilung durch eine ambipolare homogene Diffusion beschrieben. Die daraus resultierende Differentialgleichung wurde mithilfe von sphärischen Koordinaten unter Annahme von Azimutal- und Polarwinkelsymmetrie gelöst.
Der zeitliche Elektronendichteverlauf wurde durch die, für diesen Elektronendichtebereich gültige, Proportionalität zwischen elektrischer Leistung im Plasma und Elektronendichte berechnet. Die elektrische Leistung und deren zeitlicher Verlauf im Plasma ließ sich über ein Photodiodensignal im experimentellen Aufbau ermitteln.
Das so ermittelte Modell wurde auf die gemessenen integrierten Elektronendichten des Experiments „Prometheus“ angewendet. Durch das Modell ließ sich eine Aussage über die tatsächliche maximale Elektronendichte innerhalb des Entladungspulses treffen.
Single crystals of the title compound, C10H11NO4, an intermediate in the industrial synthesis of yellow azo pigments, were obtained from the industrial production. The molecules crystallize as centrosymmetic dimers connected by two symmetry-related N—H⋯O=C hydrogen bonds. Each molecule also contains an intramolecular N—H⋯O=C hydrogen bond. The dimers form stacks along the a-axis direction. Neighbouring stacks are arranged into a herringbone structure.
‘The whole is more than the sum of its parts.’ This idea has been brought forward by psychologists such as Max Wertheimer who formulated Gestalt laws that describe our perception. One law is that of collinearity: elements that correspond in their local orientation to their global axis of alignment form a collinear line, compared to a noncollinear line where local and global orientations are orthogonal. Psychophysical studies revealed a perceptual advantage for collinear over non-collinear stimulus context. It was suggested that this behavioral finding could be related to underlying neuronal mechanisms already in the primary visual cortex (V1). Studies have shown that neurons in V1 are linked according to a common fate: cells responding to collinearly aligned contours are predominantly interconnected by anisotropic long-range lateral connections. In the cat, the same holds true for visual interhemispheric connections. In the present study we aimed to test how the perceptual advantage of a collinear line is reflected in the anatomical properties within or between the two primary visual cortices. We applied two neurophysiological methods, electrode and optical recording, and reversibly deactivated the topographically corresponding contralateral region by cooling in eight anesthetized cats. In electrophysiology experiments our results revealed that influences by stimulus context significantly depend on a unit’s orientation preference. Vertical preferring units had on average a higher spike rate for collinear over non-collinear context. Horizontal preferring units showed the opposite result. Optical imaging experiments confirmed these findings for cortical areas assigned to vertical orientation preference. Further, when deactivating the contralateral region the spike rate for horizontal preferring units in the intact hemisphere significantly decreased in response to a collinear stimulus context. Most of the optical imaging experiments revealed a decrease in cortical activity in response to either stimulus context crossing the vertical midline. In conclusion, our results support the notion that modulating influences from stimulus context can be quite variable. We suggest that the kind of influence may depend on a cell’s orientation preference. The perceptual advantage of a collinear line as one of the Gestalt laws proposes is not uniformly represented in the activity of individual cells in V1. However, it is likely that the combined activity of many V1 neurons serves to activate neurons further up the processing stream which eventually leads to the perceptual phenomenon.
In der erziehungswissenschaftlichen Diskussion um das Altern haben bislang Prozesse des Stillstands und des Verlusts wenig an Bedeutung erlangt. Im Vordergrund standen vielmehr Aktivierung und an Steigerung orientierte Entwicklung. Die vorgestellte empirische Studie nähert sich aus erziehungswissenschaftlicher Sicht der Frage des individuellen wie institutionellen Umgangs mit Verlusten und Grenzen im Alternsprozess (am Beispiel einer im Alter eintretenden Sehbehinderung, der Makuladegeneration). Die Beschäftigung mit diesem Gegenstand verlangt nach einem theoretischen Rahmen, der sowohl individuelle Lebenswelten in den Blick nimmt und gleichzeitig deren institutionell und sozial strukturierte Infrastrukturen. Dafür arbeitet die qualitativ angelegte Studie mit der Heuristik der "sozialen Welt". In diese ist eine Vielzahl pädagogischer Formen eingebettet, auf die von den Befragten jeweils unterschiedlich Bezug genommen wird. Die Relationierung von Akteursperspektiven innerhalb der untersuchten sozialen Welt zeigt dabei auf, dass man den Umgang mit einer altersbedingten Kompetenzeinbuße nicht angemessen begreifen kann, wenn man lineare Vorstellungen pädagogischen Handelns im Sinne einer Steigerung zugrunde legt. Zudem zeigt sich, dass das Pädagogische in sozialen Formen institutionalisiert ist, die eng mit nicht-pädagogischen Handlungsformen verschränkt sind.
In diesem Dossier setzen sich junge Menschen – mit und ohne Migrationshintergrund – mit den Konstruktionen, verallgemeinernden und exotisierenden Vorurteilen gegen MigrantInnen auseinander, die den gesellschaftlichen Diskurs bestimmen. Die AutorInnen, alle derzeit StipendiatInnen der Heinrich-Böll-Stiftung, bringen - mal empört und provokativ, mal beschreibend und empathisch – ihre Haltung zum polarisierenden Diskurs über „In- und Ausländer“ zum Ausdruck und zeigen, dass und wie es auch anders geht. Ihre Geschichten sind geprägt von ihren eigenen Erfahrungen aus ihrem Leben in Deutschland oder ihren Einblicken in das Leben der „Anderen“.
Ihre Analysen, Interviews, Portraits oder Erzählungen in den drei Rubriken zeigen mit dem Finger auf manche Wunde unserer Gesellschaft – auf die Hürden und Blockaden, die MigrantInnen von der gleichberechtigten Teilhabe abhalten und ihren sozialen Aufstieg behindern.
140 Liter Wasser werden für die Herstellung einer Tasse Kaffee benötigt, 1.300 Liter Wasser für ein Kilo Gerste und 3.400 Liter Wasser für ein Kilo Reis. Diese Zahlen mögen im ersten Moment unglaubwürdig erscheinen, doch sie entsprechen der Wirklichkeit. Für die Herstellung von nahezu allen Produkten wird Wasser in teils sogar sehr großen Mengen benötigt. In dem Endprodukt jedoch findet sich meist nur ein kleiner Teil des ursprünglich eingesetzten Wassers in seiner physischen Form wieder. Der überwiegende Anteil wurde während des Produktionsprozesses verdunstet oder zur Kühlung eingesetzt und wird daher als „virtuelles Wasser“ bezeichnet. Aufgrund des Exports und Imports von Produkten im Zuge des internationalen Handels kommt es somit auch zu Strömen von virtuellem Wasser zwischen den einzelnen Ländern. In dieser Bachelorarbeit wird der virtuelle Wasserhandel mit 23 verschiedenen Feldfrüchten mit dem Fokus auf Deutschland für den Zeitraum von 1998 bis 2002 untersucht. In die Berechnung dieser virtuellen Wasserströme ist ein neuartiges Modell eingegangen, das Global Crop Water Model (GCWM), welches den virtuellen Wassergehalt für unterschiedliche Feldfruchtgruppen global für jede 5-Minuten-Zelle auf Basis detaillierter Daten berechnet. Dank dieses Modells ist es möglich, eine Trennung zwischen dem virtuellen Wasser, welches aus der Nutzung des Niederschlagswassers und dem virtuellen Wasser, welches aus der Bewässerung von Ackerflächen resultiert, vorzunehmen und diese getrennt von einander zu analysieren. Mittels der Verwendung der Handelsstatistik Comtrade der Vereinten Nationen lässt sich aus den Ergebnissen des GCWM der virtuelle Wasserhandel darstellen. Es zeigt sich, dass Deutschland das meiste Wasser in seiner virtuellen Form nach Algerien, Saudi-Arabien, Belgien und in die Niederlande exportiert, wohingegen aus Brasilien, den USA, Frankreich und der Elfenbeinküste die größten virtuellen Wassermengen importiert werden.
In dieser Arbeit wurden zwei unterschiedliche Konzepte für einen Rebuncher mit mehreren Aperturen auf der Symmetrieachse des geplanten Bunchkompressors für das FRANZ-Projekt untersucht. Die besonderen Anforderungen sind die Zeitstruktur des Strahls und der geringe seitliche Abstand der unterschiedlichen Strahlwege...
Diskus : Nr. 1.09
(2009)
The privatization of Old Age and Survivors Insurance and Disability Insurance was a top priority on president Bush’s domestic political agenda. Although Bush’s reform initiative has failed and president Obama has declared not to privatize social security, the system of public old age security in the United States is still in crisis, mainly because of demographic factors and the ensuing financial problems but also because of the recent and deep economic recession in the United States. This article reviews the initiative of the Bush-Administration to partially privatize social security and analyzes the main objectives behind Bush policy as well as the main arguments against and obstacles to it. By placing Bush politics of privatizing social security in a broader context of comparative welfare state reform, this article discusses the consequences of privatizing social security systems on equality and poverty, as well as on the legitimacy of the political system in general.
Die Natur unterliegt vielfältigen durch den Menschen hervorgerufenen Umweltbelastungen. Neben Veränderungen der Landnutzung oder Konsummuster stellt der anthropogen verursachte Klimawandel einen entscheidenden Einflussfaktor dar. Nicht nur der Temperaturanstieg an sich ist Auslöser für Ökosystemveränderungen, sondern auch die Folgen des Temperaturanstiegs führen zu massiven Änderungen der Biodiversität. Ökosysteme können so aus dem Gleichgewicht geraten und aufgrund starker Umweltbelastungen schließlich zusammenbrechen. Werden keine Maßnahmen zum Schutz der Biodiversität getroffen, wird es langfristig zu folgenschweren Auswirkungen kommen, die auch die Lebensgrundlage der Menschen stark gefährden. In Deutschland liegt die Verantwortung für den Erhalt der Biodiversität bei verschiedenen Ministerien und Ämtern, die eng miteinander vernetzt sind. Die zentrale Referenz der Bundesregierung stellt dabei die nationale Strategie zur biologischen Vielfalt dar.
Der vorliegende Band analysiert die Biodiversitätsstrategie und ihre Umsetzung als wichtige Diskursarena im Diskursfeld „Klimabedingte Biodiversitätsveränderungen“. Ausgehend von einer Analyse der Akteure auf Bundes- und Länderebene sowie aus Wissenschaft und Zivilgesellschaft werden wichtige gesellschaftliche Handlungsfelder und Forschungslücken ebenso aufgezeigt wie die darin erkennbaren Wissenskonflikte.
Der vorliegende Materialienband entstand im Rahmen der problemorientierten Diskursfeldanalyse zu „Klimabedingten Veränderungen der Biodiversität“. Ziel dabei ist es, prioritäre Themen und zentrale Akteure systematisch darzustellen, sowie Konfliktlinien und zukünftige Handlungsbedarfe innerhalb des Themenfeldes zu identifizieren. Das Millennium Ecosystem Assessment bildet dabei eine zentrale Diskursarena im Diskursfeld. Im Zentrum der Analyse des Millennium Ecosystem Assessments stehen wissenschaftlich beeinflusste Positionen und die Frage nach deren gesellschaftlicher Nutzung.
Es ist von wissenschaftlicher Seite unumstritten, dass die Auswirkungen des Klimawandels bereits heute die Biodiversität auf unterschiedliche Art und Weise stark beeinflussen. Der vorliegende Bericht analysiert daher den Diskurs zum Themenfeld klimabedingte Biodiversitätsveränderungen auf wissenschaftlicher Basis. Dabei werden zunächst kurz die Vorgeschichte und die zentralen Inhalte des Millennium Ecosystem Assessment skizziert. Die Darlegung und Diskussion übergreifender Themenfelder ermöglicht die Festlegung prioritärer Diskursstränge innerhalb der Diskursarena. Diese umfassen sowohl ökosystemare Aspekte als auch wirtschaftliche Handlungsfelder und forscherliche Herausforderungen. In einem weiteren Arbeitsschritt werden umstrittene Wirkungszusammenhänge sowie wissenschaftliche Forschungsbedarfe und gesellschaftliche Handlungsbedarfe erörtert.
Traditional New Keynesian models prescribe that optimal monetary policy should aim at price stability. In the absence of a labor market frictions, the monetary authority faces no unemployment/inflation trade-off. I study the design of optimal monetary policy in a framework with sticky prices and matching frictions in the labor market. Optimal policy features deviations from price stability in response to both productivity and government expenditure shocks. When the Hosios 1990 condition is not met, search externalities make the flexible price allocation unfeasible. Optimal deviations from price stability increase with workers’ bargaining power, as firms´ incentives to post vacancies fall and unemployment fluctuates above the Pareto efficient one.
Recent empirical research suggests that measures of investor sentiment have predictive power for future stock returns at intermediate and long horizons. Given that sentiment indicators are widely published, smart investors should exploit the information conveyed by the indicator and thus trigger an immediate market response to the publication of the sentiment indicator. The present paper is the first to empirically analyze whether this immediate response can be identified in the data. We use survey-based sentiment indicators from two countries (Germany and the US). Consistent with previous research we find predictability at intermediate horizons. However, the predictability in the US largely disappears after 1994. Using event study methodology we find that the publication of sentiment indicators affects market returns. The sign of this immediate response is the same as the sign of the intermediate horizon predictability. This is consistent with sentiment being related to mispricing but is inconsistent with the sentiment indicator providing information about future expected returns.
JEL-Classification: G12, G14
Mit ihren so genannten Linsenkästen gelang Mary Bauermeister Anfang der 1960er-Jahre der Durchbruch auf dem New Yorker Kunstmarkt. Bis heute sind die fragilen, leuchtenden Objekte aus Holz, Glas, Leinwand und Papier das Alleinstellungsmerkmal der Künstlerin. Die hier vorliegende Dissertationsschrift erläutert die konsequente Entwicklung der Linsenkästen aus dem Frühwerk und unternimmt erstmals eine stilistische Einordnung in den Kunstkontext der 1960er-Jahre. Dabei wird deutlich, dass Bauermeister mehr den Künstlern der Klassischen Moderne (Duchamp, Schwitters, Klee, Kandinsky) verpflichtet ist denn ihren Zeitgenossen im Rheinland oder in der Kunstmetropole New York.
Die vorliegende Arbeit setzt sich mit dem Einfluss von Tetraquarkzuständen auf den chiralen Phasenübergang auseinander. Das Quarkmodell ist ein wirkungsvolles Instrument zum Verständnis des Verhaltens der Mesonen und Baryonen. Im Bereich von Energien unter 1:8 GeV gibt es in Bezug auf die Mesonen dennoch eine Vielzahl von Problemen. So ist bis dato nicht klar, wie sich die skalaren Resonanzen unter 1:8 GeV zusammensetzen. In der Vergangenheit wurde eine Vielzahl von Möglichkeiten diskutiert, wie beispielsweise die Existenz eines Glueballs, die von mesonischen Molekülen sowie die von Tetraquarkzuständen. Alle diese Ansätze sind mehr oder weniger in der Lage, die Phänomene bei T = 0 zu erklären. Die vorliegende Arbeit beschäftigt sich mit dem Ansatz, Tetraquarkzuständen leichte skalare Resonanzen zuzuordnen.
Im Bereich der nichtverschwindenden Temperaturen wurden durch Gitterrechnungen große Erfolge erzielt, die aaffetiven Modellen bei nichtverschwindender Temperatur als Referenz dienen. Gleichwohl fehlt ein affektives Modell bei T <> 0, das einen Tetraquarkzustand beinhaltet. Hier setzt diese Arbeit an und erweitert das Modell, das leichte skalare Resonanzen mittels Tetraquarkzuständen erklärt, zu nichtverschwindenden Temperaturen.
In dieser ersten Studie zum Thema wird das Lineare Sigma-Modell um den leichtesten Tetraquarkzustand ergänzt und sein Einfluss auf den chiralen Phasenübergang untersucht.
Es zeigt sich, dass dieser Ansatz nicht nur Fragen im Bereich der Vakuumphysik lösen kann, sondern auch solche hinsichtlich der Restaurierung der chiralen Symmetrie.
It is well known that Luis Kutner (1908-1993) played an important role in the development of the living will (advance directive, Patientenverfügung). But it is not clear when he developed his concept. We have screened the Luis Kutner Papers,deposited at the Hoover Institution Archives at Stanford University to answer this question. We found out that in the second half of 1967, Kutner dealt intensively with the issue of euthanasia. On December 7, 1967, he delivered a speech at the annual meeting of the Euthanasia Society in New York and presented the concept of the living will to the audience. So Kutner surely was a pioneer in this field, but further research is necessary to clarify, if he (or maybe Elsa W. Simon or Abraham L. Wolbarst) was the "originator" of the living will concept in the sense of passive euthanasia.
In dieser Arbeit wurde deutlich, dass die Multilevel Monte Carlo Methode eine signifikante Verbesserung gegenüber der Monte Carlo Methode darstellt. Sie schafft es den Rechenaufwand zu verringern und in fast allen Fällen die gewollte Genauigkeit zu erreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerung des Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nicht in allen Fällen die schwache Konvergenzordnung verdoppelt wurde.
Im Falle der Optionssensitivitäten ist eine Anwendung des MLMC-Algorithmus problematisch. Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstelle besitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. Die Anwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivität als Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliert werden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 am Beispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfad für das Delta simuliert.
Weitere Verbesserungsmöglichkeiten könnten in der Wahl von anderen varianzreduzierenden Methoden liegen oder durch Verwendung von Diskretisierungsverfahren mit höherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der Größenordnung O(ϵexp-2) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendem L erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet und der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese auf eine Größenordnung von O(ϵexp2) zu bringen, ist es nötig, O(ϵexp2) Pfade zu erstellen (siehe Gleichung (3.6)), was den Rechenaufwand begründet.
Motivated by the question of correctness of a specific implementation of concurrent buffers in the lambda calculus with futures underlying Alice ML, we prove that concurrent buffers and handled futures can correctly encode each other. Correctness means that our encodings preserve and reflect the observations of may- and must-convergence, and as a consequence also yields soundness of the encodings with respect to a contextually defined notion of program equivalence. While these translations encode blocking into queuing and waiting, we also describe an adequate encoding of buffers in a calculus without handles, which is more low-level and uses busy-waiting instead of blocking. Furthermore we demonstrate that our correctness concept applies to the whole compilation process from high-level to low-level concurrent languages, by translating the calculus with buffers, handled futures and data constructors into a small core language without those constructs.
We investigate methods and tools for analyzing translations between programming languages with respect to observational semantics. The behavior of programs is observed in terms of may- and mustconvergence in arbitrary contexts, and adequacy of translations, i.e., the reflection of program equivalence, is taken to be the fundamental correctness condition. For compositional translations we propose a notion of convergence equivalence as a means for proving adequacy. This technique avoids explicit reasoning about contexts, and is able to deal with the subtle role of typing in implementations of language extensions.
The paper proposes a variation of simulation for checking and proving contextual equivalence in a non-deterministic call-by-need lambda-calculus with constructors, case, seq, and a letrec with cyclic dependencies. It also proposes a novel method to prove its correctness. The calculus’ semantics is based on a small-step rewrite semantics and on may-convergence. The cyclic nature of letrec bindings, as well as nondeterminism, makes known approaches to prove that simulation implies contextual equivalence, such as Howe’s proof technique, inapplicable in this setting. The basic technique for the simulation as well as the correctness proof is called pre-evaluation, which computes a set of answers for every closed expression. If simulation succeeds in finite computation depth, then it is guaranteed to show contextual preorder of expressions.
The goal of this report is to prove correctness of a considerable subset of transformations w.r.t. contextual equivalence in an extended lambda-calculus LS with case, constructors, seq, let, and choice, with a simple set of reduction rules; and to argue that an approximation calculus LA is equivalent to LS w.r.t. the contextual preorder, which enables the proof tool of simulation. Unfortunately, a direct proof appears to be impossible.
The correctness proof is by defining another calculus L comprising the complex variants of copy, case-reduction and seq-reductions that use variable-binding chains. This complex calculus has well-behaved diagrams and allows a proof of correctness of transformations, and that the simple calculus LS, the calculus L, and the calculus LA all have an equivalent contextual preorder.
The paper argues that the current global market is organized by a system of transnational law whose development is best characterized as ambivalent. On the one side, legal juridification can lead to a hegemonic system of international law that lacks legitimacy, paradoxically creates extralegal spheres, promotes the ‘privatization’ of political areas, and, thereby, reduces the competences of states. On the other side, legal codification can also function as an engine of transnational democratization and as a barrier to an unhampered growth of transnational administrative and executive power. Scholarship on the idea of legitimacy in law and transnational governance in political and legal theory has to reflect these aspects of juridification on a world scale. Most approaches to the issue, however, have serious flaws: they neither offer an adequate empirical diagnosis of the de-embedding of international economic and legal processes, nor do they provide convincing proposals as to how such processes could be domesticated. Against this background, the paper lays out a critical analysis of legal codification processes as well as proposing an account of democratic governance, based on a realistic conception of deliberative democracy.
This article argues that proliferation of prefixes like ‘neo’ and ‘post’ that adorn conventional ‘isms’ have cast a long shadow on the contemporary relevance of traditional political ideologies. Suggesting that there is, indeed, something new about today’s political belief systems, the essay draws on the concept of ‘social imaginaries’ to make sense of the changing nature of the contemporary ideological landscape. The core thesis presented here is that today’s ideologies are increasingly translating the rising global imaginary into competing political programs and agendas. But these subjective dynamics of denationalization at the heart of globalization have not yet dispensed with the declining national imaginary. The twenty-first century promises to be an ideational interregnum in which both the global and national stimulate people’s deep-seated understandings of community. Suggesting a new classification scheme dividing contemporary political ideologies into ‘market globalism’, ‘justice globalism’, and ‘jihadist globalism’, the article ends with a brief assessment of the main ideological features of justice globalism.
In dieser Arbeit wurde die Zentralitätsabhängigkeit der K0S -Produktion in Pb+Pb Stößen für 40A und 158A GeV untersucht. Sie wurden über den Zerfallskanal K0S → π+π− der schwachen Wechselwirkung nachgewiesen und bilden zusammen mit den geladenen Kaonen den Großteil der entstehenden Strangeness einer Kollision. Die Bestimmung der Zentralität erfolgte anhand der im Veto-Kalorimeter detektierten Spektatoren. Die Messergebnisse unterliegen aufgrund der limitierten geometrischen Akzeptanz des Detektors, Effizienzverlusten in der V 0-Rekonstruktion und gewählter Qualitätskriterien einigen Verlusten. Auf diese Verluste konnte mit Hilfe eines Simulationsverfahren, dem so genannten Embedding, korrigiert werden. Dabei wurden Korrekturfaktoren für differentielle Phasenraumbereiche ermittelt und auf die gemessenen Signalinhalte der invarianten Massenspektren angewendet. Des Weiteren wurde eine Vielzahl von Studien durchgeführt um die Stabilität der Ergebnisse im Rahmen eines systematischen Fehler zu bestimmen.
Die korrigierten Transversalimpuls-Spektren und Spektren der invarianten Massen verschiedener Phasenraumbereiche und Zentralitäten wurden präsentiert. Darüber hinaus wurden der inverse Steigungsparameter, die Rapiditätsspektren, sowie die berechneten Gesamtmultiplizitäten der K0S in Abhängigkeit der Zentralität und anhand der "wounded" Nukleonen diskutiert. Die Ergebnisse konnten mit vorangegangenen Analysen von NA49, NA57 und CERES verglichen werden. Dabei wurden insbesondere geringe Unstimmigkeiten mit den NA49-Ergebnissen der geladenen Kaonen bei 158A GeV festgestellt. Des Weiteren wurde die Diskrepanz zu den NA57-Ergebnissen, welche aus Analysen anderer Teilchensorten bekannt ist, für mittlere Rapiditäten bestätigt. Die Zentralitäatsabhängigkeit der Ergebnisse wurde zusätzlich mit UrQMD-Modellrechnungen geladener Kaonen verglichen und kann durch diese näherungsweise beschrieben werden.
Die supratentorielle dekompressive Kraniektomie mit Eröffnung und Erweiterungsplastik der Dura mater ist heutzutage eine wichtige Therapiemaßnahme in der Behandlung des konservativ nicht kontrollierbaren Hirndrucks. Unter Kranioplastik versteht man den chirurgischen Verschluss des entstandenen Knochendefekts zum Schutz des direkt unter der Kopfhaut liegenden Gehirns, zur ästhetischen Wiederherstellung der Konturen sowie zur Verbesserung einer neurologischen Symptomatik („syndrome of the trephined“).
In der vorliegenden Arbeit werden die Daten von insgesamt 242 Patienten, die einer Kranioplastik unterzogen worden waren, retrospektiv analysiert. Die Patienten wurden im Zeitraum 2001-2008 in der neurochirurgischen Abteilung der Städtischen Kliniken Frankfurt am Main-Höchst operiert. Um Aufschluss über das postoperative, funktionelle und kosmetische Ergebnis zu erhalten, wurde im Anschluss an die Aktenauswertung bei diesen Patienten eine telefonische Befragung durchgeführt.
Ziel der Arbeit war es, die bisherigen Erfahrungen der Kalottenplastik und insbesondere der autogenen orthotopen Knochendeckelreimplantation im Hinblick auf die verschiedenen Kranioplastik Zeitpunkte zu untersuchen und unter klinischen Aspekten zu bewerten.
Die Frage des Kranioplastik Zeitpunktes ist essentiell für die Therapieplanung.
Das autologe Schädelknochentransplantat hat bessere Eigenschaften und Qualitäten als alle anderen alloplastischen Materialien. In Anbetracht der perfekten Histokompatibilität, der optimalen biomechanischen Eigenschaften, der guten anatomischen Fusion mit dem umgebenden Knochen und der Möglichkeit der partiellen oder totalen Revitalisation des Transplantats, besteht kein Zweifel, dass der autologe Knochen immer zu verwenden ist, wenn die Möglichkeit dazu besteht.
Die Analyse der Patientengruppen ergab, dass die ultra frühe Kranioplastik der Patienten mit großen Defekten nach dekompressiver Kraniektomie ein besseres Outcome im langfristigen Follow-up hat. Diese Patienten hatten keine gesteigerte Infektions- oder andere Komplikationsraten. Das Timing der Kranioplastik spielt eine Rolle in der Komplikationsrate nur bei den Patienten, die sekundär eine Komplikation erlitten haben. Patienten, die nach der Kraniektomie eine Nachblutung, einen Infarkt oder eine Infektion erlitten haben, hatten eine signifikant höhere Infektionsrate bei ultra früher Kranioplastik. Insbesondere soll betont werden, dass der Trend einer Häufung von Wundheilungsstörungen und Infektionen mit der Folge einer erneuten Explantation des Knochendeckels bei Patienten nach autogener Knochendeckelreimplantation mit mehr als 2 Risikofaktoren und bei Patienten mit kompliziertem Verlauf nach Kraniektomie festgestellt wurde.
Gemäß den Ergebnissen dieser Patientenserie kann die ultra frühe Kranioplastik bei ausgewählten Patienten mittels Reimplantation des Eigenknochens als ein sicheres und hilfreiches Verfahren für die schnellere Rehabilitation und Besserung der neurologischen Funktion und der Prognose bewertet werden. Ähnlich gute Ergebnisse zeigten die Pantienten in der Gruppe 1 der ultra frühen Kranioplastik die aufgrund einer Liquorzirkulationsstörung ein VP Shunt System als kombinierte Therapie in der gleichen Sitzung erhalten haben.
Somit kann zusammenfassend festgehalten werden:
Die Ergebnisse dieser Arbeit bestätigen, dass die Kranioplastik nach einer supratentoriellen dekompressiven Kraniektomie mit Reimplantation des eigenen Schädelknochens zum frühesten möglichen Zeitpunkt ein sicheres und effektives Verfahren darstellt und bei ausgewählten Patienten sogar bessere Ergebnisse als die späte Kranioplastik haben kann. Eine mögliche Erklärung dafür könnte das Auftreten und die Persistenz von neurologischen Defiziten im Rahmen des „syndrome of the trephined“ bei Patienten bieten, bei denen eine späte Kranioplastik durchgeführt wurde. In diesem Patientengut hatten die Patienten mit ultra-früher Kranioplastik das beste neurologische Outcome, die Komplikationsrate war in allen Gruppen vergleichbar.
Um Komplikationen zu vermeiden, sollten Patienten mit einer vorausgegangenen lokalen Infektion spät kranioplastiert werden.
Das neurologische Outcome der Patienten, bei denen ein kombiniertes Verfahren Kranioplastik –VP Shunt durchgeführt wurde, war vergleichbar mit anderen Patientengruppen. Somit ist eine Kranioplastik bei Patienten mit konvexen, über Kalottenniveau prolabierten Kraniektomielappen aufgrund eines Hydrocephalus keine Kontraindikation.
Mitochondrial dysfunction is well documented in presymptomatic brain tissue with Parkinson's disease (PD). Identification of the autosomal recessive variant PARK6 caused by loss-of-function mutations in the mitochondrial kinase PINK1 provides an opportunity to dissect pathogenesis. Although PARK6 shows clinical differences to PD, the induction of alpha-synuclein "Lewy" pathology by PINK1-deficiency proves that mitochondrial pathomechanisms are relevant for old-age PD. Mitochondrial dysfunction is induced by PINK1 deficiency even in peripheral tissues unaffected by disease, consistent with the ubiquitous expression of PINK1. It remains unclear whether this dysfunction is due to PINK1-mediated phosphorylation of proteins inside or outside mitochondria. Although PINK1 deficiency affects the mitochondrial fission/fusion balance, cell stress is required in mammals to alter mitochondrial dynamics and provoke apoptosis. Clearance of damaged mitochondria depends on pathways including PINK1 and Parkin and is critical for postmitotic neurons with high energy demand and cumulative stress, providing a mechanistic concept for the tissue specificity of disease.
Eucken's writings are rich in content not only from an (constitutional) economic perspective but also from an economic and business ethics perspective – an often neglected perspective of the reception of German Ordoliberalism in general and the Freiburg School of Economics in particular. The paper gives a first insight into the ethical-normative thinking of Eucken, as one of the main representatives of Ordoliberalism, and explains Eucken’s conception of Social Market Economy as a functioning and humane order as well as Eucken’s Kantian understanding of freedom. To conclude the essay tries to classify Eucken’s Ordoliberalism as a part of the spectrum of modern economic and business ethics.
Tagungsbericht des Workshops "Völkerrecht und Weltwirtschaft im 19. Jahrhundert. Die Internationalisierung der Ökonomie aus völkerrechts- und wirtschafts(theorie-)geschichtlicher Perspektive", der vom 3. bis 4. September 2009 in Frankfurt am Main stattfand. Veranstalter: Exzellenzcluster "Die Herausbildung normativer Ordnungen"; in Kooperation mit der Goethe Universität Frankfurt am Main; dem Max-Planck-Institut für europäische Rechtsgeschichte
Background, aim, and scope: The chemical substance 2,4,7,9-tetramethyl-5-decyne-4,7-diol (TMDD) is a non-ionic surfactant used as an industrial defoaming agent and in various other applications. Its commercial name is Surynol 104® and the related ethoxylates are also available as Surfynol® 420, 440, 465 and 485 which are characterized by different grades of ethoxylation of TMDD at both hydroxyl functional groups. TMDD and its ethoxylates offer several advantages in waterborne industrial applications in coatings, inks, adhesives as well as in paper industries. TMDD and its ethoxylates can be expected to reach the aquatic environment due its widespread use and its physico-chemical properties. TMDD has previously been detected in several rivers of Germany with concentrations up to 2.5 µg/L. In the United States, TMDD was also detected in drinking water. However, detailed studies about its presence and distribution in the aquatic environment have not been carried out so far. The aim of the present study was the analysis of the spatial and temporal concentration variations of TMDD in the river Rhine at the Rheingütestation Worms (443.3 km). Moreover, the transported load in the Rhine was investigated during two entire days and 7 weeks between November 2007 and January 2008.
Materials and methods: The sampling was carried out at three different sampling points across the river. Sampling point MWL1 is located in the left part of the river, MWL2 in the middle part, and MWL4 in the right part. One more sampling site (MWL3) was run by the monitoring station until the end of 2006, but was put out of service due to financial constrains. The water at the left side of the river Rhine (MWL1) is influenced by sewage from a big chemical plant in Ludwigshafen and by the sewage water from this city. The water at the right side of the river Rhine (MWL4) is largely composed of the water inflow from river Neckar, discharging into Rhine 14.9 km upstream from the sampling point and of communal and industrial wastewater from the city Mannheim. The water from the middle of the river (MWL2) is largely composed of water from the upper Rhine. Water samples were collected in 1-L bottles by an automatic sampler. The water samples were concentrated by use of solid-phase extraction (SPE) using Bond Elut PPL cartridges and quantified by use of gas chromatography-mass spectrometry (GC-MS). The quantification was carried out with the internal standard method. Based on these results, concentration variations were determined for the day profiles and week profiles. The total number of analyzed samples was 219.
Results: The results of this study provide information on the temporal concentration variability of TMDD in river Rhine in a cross section at one particular sampling point (443.3 km). TMDD was detected in all analyzed water samples at high concentrations. The mean concentrations during the 2 days were 314 ng/L in MWL1, 246 ng/L in MWL2, and 286 ng/L in MWL4. The variation of concentrations was low in the day profiles. In the week profiles, a trend of increasing TMDD concentrations was detected particularly in January 2008, when TMDD concentrations reached values up to 1,330 ng/L in MWL1. The mean TMDD concentrations during the week profiles were 540 ng/L in MWL1, 484 ng/L in MWL2, and 576 ng/L in MWL4. The loads of TMDD were also determined and revealed to be comparable in all three sections of the river. The chemical plant located at the left side of the Rhine is not contributing additional TMDD to the river. The load of TMDD has been determined to be 62.8 kg/d on average during the entire period. By extrapolation of data obtained from seven week profiles the annual load was calculated to 23 t/a.
Discussion: The permanent high TMDD concentrations during the investigation period indicate an almost constant discharge of TMDD into the river. This observation argues for effluents of municipal wastewater treatment plants as the most likely source of TMDD in the river. Another possible source might be the degradation of ethoxylates of TMDD (Surfynol® series 400), in the WWTPs under formation of TMDD followed by discharge into the river. TMDD has to be considered as a high-production-volume (HPV) chemical based on the high concentrations found in this study. In the United States, TMDD is already in the list of HPV chemicals from the Environmental Protection Agency (EPA). However, the amount of TMDD production in Europe is unknown so far and also the biodegradation rates of TMDD in WWTPs have not been investigated.
Conclusions: TMDD was found in high concentrations during the entire sampling period in the Rhine river at the three sampling points. During the sampling period, TMDD concentrations remained constant in each part of the river. These results show that TMDD is uniformly distributed in the water collected at three sampling points located across the river. ‘Waves’ of exceptionally high concentrations of TMDD could not be detected during the sampling period. These results indicate that the effluents of WWTPs have to be considered as the most important sources of TMDD in river Rhine.
Recommendations and perspectives: Based also on the occurrence of TMDD in different surface waters of Germany with concentrations up to 2,500 ng/L and its presence in drinking water in the USA, more detailed investigations regarding its sources and distribution in the aquatic environment are required. Moreover, the knowledge with respect to its ecotoxicity and its biodegradation pathway is scarce and has to be gained in more detail. Further research is necessary to investigate the rate of elimination of TMDD in municipal and industrial wastewater treatment plants in order to clarify the degradation rate of TMDD and to determine to which extent effluents of WWTPs contribute to the input of TMDD into surface waters. Supplementary studies are needed to clarify whether the ethoxylates of TMDD (known as Surfynol 400® series) are hydrolyzed in the aquatic environment resulting in formation of TMDD similar to the well known cleavage of nonylphenol ethoxylates into nonylphenols. The stability of TMDD under anaerobic conditions in groundwater is also unknown and should be studied.
In wissenschaftlichen als auch administrativen Kontexten ist die Überzeugung weit verbreitet, es müssten neue Steuerungsmodelle und Steuerungsinstrumente im Schulwesen implementiert werden. Die Einführung neuer Steuerungsmodelle und Steuerungsinstrumente wird dabei entweder am Vorbild anderer Länder ausgerichtet, so
z. B. bei der Einrichtung von Qualitätsagenturen, oder es wird an Steuerungsinstrumente angeknüpft, die auch in Deutschland eine Tradition haben, wie bspw. das Zentralabitur. Für diese unterschiedlichen Maßnahmen hat sich in den letzten Jahren der Begriff der Qualitätssicherung bzw. Qualitätsentwicklung eingebürgert. Man kann die im Schulwesen ergriffenen Maßnahmen aber auch in einen weiteren Kontext stellen und neue Steuerungsmodelle im Zusammenhang mit allgemeinen Modernisierungsbestrebungen im Staats- und Verwaltungswesen betrachten. Diese Theorieansätze, die unter dem Oberbegriff New Public Management populär geworden sind, eröffnen den begrifflich-analytischen Rahmen, der institutionelle Wandlungsprozesse verständlich macht. Die vorliegende Arbeit geht der Frage nach, ob und wie sich ein Funktionswandel der (unteren) staatlichen Schulaufsicht von einem bürokratischen Steuerungssystem zu einem schulischen Unterstützungssystem abzeichnet. Dabei geht die vorliegende Arbeit von der Grundannahme aus, dass die staatliche Schulaufsicht als Teil des Staats- und Verwaltungswesens betrachtet werden muss, wenn man eine realistische Einschätzung darüber gewinnen möchte, welche institutionellen Veränderungsprozesse sich aktuell vollziehen und welche Entwicklungsspielräume in Zukunft bestehen. Dieser Frage soll nicht nur theoretisch, sondern auch empirisch nachgegangen werden. Um dem Forschungsgegenstand gerecht zu werden, wird ein akteursorientierter Ansatz gewählt. Da man es bei vielen Reformen im öffentlichen Sektor mit einer Gemengelage von Interessen unterschiedlichster Akteure zu tun hat, bietet eine akteursorientierte Perspektive den Vorteil, institutionelle Wandlungsprozesse in einem gesellschaftlichen
System auf makro- und mikropolitischer Ebene greifbar zu machen. Im ersten Teil der vorliegenden Arbeit werden die Modernisierungsansätze vorgestellt, die unter dem Begriff New Public Management firmieren. Ergänzend dazu wird der aktuelle wissenschaftliche Diskussionsstand in Politik- und Sozialwissenschaft skizziert. Es folgt eine Beschreibung erster Wirkungen neuer Steuerungsformen in
Deutschland und im anglo-amerikanischen Raum sowie konkret am Fallbeispiel der Schulaufsichtsbehörden in England. Abschließend wird der Diskurswechsel von New Public Management zu New Public Governance beschrieben. Der Diskurs zu New Public Governance betont die Rolle von Akteuren in Modernisierungsprozessen. Der zweite Teil stellt überblicksartig die Institutionalgeschichte der staatlichen
Schulaufsicht dar, die als wichtigste Determinante für weitergehende Reformbestrebungen gelten kann. Es folgt die Darstellung aktueller Entwicklungstendenzen im schulischen Steuerungssystem. Dabei können die Neu-Gründung von Qualitätsagenturen, die Einführung von Schulinspektionen, die Bestimmung strategischer Ziele im Schulsystem und die Etablierung von Berichtssystemen als ein Lernen aus internationalen Entwicklungen beschrieben werden. Die anschließende vertiefte Diskussion von Managementansätzen macht deutlich, dass die Möglichkeiten, die untere Schulaufsicht zu einem schulischen Unterstützungssystem zu entwickeln, noch nicht ausgeschöpft sind. Es wird dahingehend argumentiert, dass die Managementansätze als ein Professionalisierungsimpuls für das Steuerungssystem gelten können: Anspruchsvolle Aufgaben im system monitoring und im Bereich der Schulentwicklung kann die untere Schulaufsicht nur auf der Basis breiten, sozialwissenschaftlichen Wissens gerecht werden. Im dritten Teil wird konkret am Beispiel der unteren Schulaufsicht in Hessen
herausgearbeitet, welche Funktionen die staatliche Schulaufsicht wahrnimmt und wie sich ein möglicher Funktionswandel auf die Arbeit der unteren Schulaufsichtsebene auswirkt. Dazu wird Interviewmaterial genutzt, dass in Gruppendiskussionen mit fachlichen Schulaufsichtsbeamten in Hessen gewonnen wurde. Um einen umfassenderen Überblick über aktuelle Entwicklungstendenzen zu erhalten, wird ergänzend dazu Material aus Experteninterviews mit Vertretern der oberen Schulaufsicht hinzugezogen. Im Rückgriff auf die Daten eines Evaluationsprojekts am Deutschen Institut für Internationale Pädagogische Forschung(DIPF), werden Leistungen und Funktionalität der unteren Schulaufsicht aus der Perspektive der fachlichen Schulaufsichtsbeamten bewertet: Zum einen aus der Binnensicht interner Organisation und zum anderen in der Außendimension als Steuerungsinstanz im Schulsystem. Der zusätzliche Vergleich mit den Schulleiterdaten soll Auskunft darüber geben, inwieweit die Bewertungen hinsichtlich derzeitiger und zukünftiger Funktionen konvergent bzw. divergent sind. Im vierten Teil werden die Ergebnisse der Untersuchung mit den theoretischen Vorüberlegungen aus den ersten beiden Kapiteln verknüpft. Es werden Entwicklungsmöglichkeiten des schulischen Steuerungssystems aufgezeigt und weitergehende Evaluationsansätze nach Maßgabe der Grundlagentheorien diskutiert.
Wie kann eine E-Learning-Strategie in einer Hochschule durch einen geeigneten Maßnahmenkatalog in einem stufenweisen Organisationsentwicklungsprozess umgesetzt werden? Welche verschiedenen Entwicklungspfade für Fachbereichsstrategien sind dabei möglich? Wie gelingt es, eine Community aufzubauen, die sich dem Ziel verpflichtet, gemeinsam eine hohe Qualität im Bereich E-Learning zu erreichen? Diesen Fragen geht der vorliegende Beitrag nach, der die Umsetzung der E-Learning-Strategie der Goethe-Universität Frankfurt mit dem Projekt megadigitale vorstellt, das 2007 mit dem mediendidaktischen Hochschulpreis Medida-Prix prämiert wurde.
Die Goethe-Universität Frankfurt hat in den letzten Jahren mit dem Projekt megadigitale hochschulweit ihre eLearning-Strategie umgesetzt und alle Fachbereiche in das Vorhaben integriert, d.h. in allen 16 Fachbereichen den Einsatz neuer Medien in der Lehre befördert. Wichtiger Bestandteil dieses kombinierten TopDown-BottomUp-Konzeptes war seit 2005 die finanzielle Förderung von eLearning-Projekten von Lehrenden. Ab 2007 wurde mit Hilfe des MedidaPrix-Preisgeldes zudem die Förderung studentischer eLearning-Vorhaben umgesetzt. Ziel war, die Ideen und Visionen von Studierenden, welche Form von eLearning und des Medieneinsatzes sie an ihrer Hochschule präferieren, aufzugreifen. Dieser Beitrag stellt die einzelnen Förderansätze, ihre Ausrichtungen, Zielsetzungen und Wirksamkeit vor und beschreibt deren Zusammenspiel mit den anderen in megadigitale implementierten Maßnahmen zur hochschulweiten Umsetzung von eLearning.
Die Goethe-Universität hat im Rahmen ihres Projektes megadigitale, das die hochschulweite Umsetzung ihrer eLearning-Strategie verfolgte, ein Vorgehensmodell entwickelt, das entlang des kompletten Prozesses der Entwicklung und Umsetzung von eLearning-Ansätzen standardisierte Analyse-, Planungs-, Konzeptions-, Implementierungs- und Qualitätssicherungsinstrumente anwendet. Dabei spielen Verfahren zur Qualitätssicherung schon von dem ersten Schritt an, in der Analysephase eine Rolle, angepasst an die verschiedenen Ebenen der Umsetzung.