Universitätspublikationen
Refine
Year of publication
- 2011 (650) (remove)
Document Type
- Doctoral Thesis (132)
- Book (126)
- Part of Periodical (118)
- Article (105)
- Report (65)
- Review (27)
- Working Paper (21)
- Bachelor Thesis (17)
- Conference Proceeding (8)
- Diploma Thesis (8)
Language
- German (650) (remove)
Is part of the Bibliography
- no (650)
Keywords
- Wikileaks (12)
- Deutschland (7)
- Workshop (6)
- Leaking (5)
- Frankfurt <Main> / Universität (4)
- Geheimnisverrat (4)
- Aufsatzsammlung (3)
- Digital Rights (3)
- Diplomatie (3)
- Europäische Währungsunion (3)
Institute
- Präsidium (138)
- Medizin (74)
- Gesellschaftswissenschaften (65)
- Geschichtswissenschaften (46)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (44)
- Wirtschaftswissenschaften (34)
- Physik (32)
- Rechtswissenschaft (31)
- Biochemie und Chemie (26)
- Biowissenschaften (24)
Mit dieser Arbeit konnte die Funktionsweise von gekoppelten Resonatoren erklärt werden. Das Verhalten von induktiv gekoppelten Beschleunigerkavitäten wurde näher studiert. Dabei wurde verstanden, wie sich Verstimmungen auf die Resonatoren auswirken und was zu tun ist um die Spannungsamplituden des gekoppelten Systems zu beeinflussen. Zudem wurden die Grundlagen für den gekoppelten Betrieb des FRANZ-Beschleunigers gelegt.
Auch Christoph Bieber, Professor an der Universität Duisburg-Essen, gab uns am Rande der Podiumsdiskussion ein kurzes Interview. Ist WikiLeaks als erste staatenlose Nachrichtenorganisation zu bezeichnen? Wie ist es um die jeweilige Ethik eines Lecks bestellt? Regulation scheint im digitalen Zeitalter jedenfalls höchst unwahrscheinlich. Das Gespräch führte Anja Schwiertz
Vor der Podiumsdiskussion In doubt we publish: Wikileaks as a threat to diplomacy and democracy? am 9. November 2011 haben wir Guido Strack vor die Kamera bekommen. Im folgenden Video spricht er über den Unterschied von leaking und whistleblowing, auch in Sachen Schutzbedürftigkeit von Informanten. Und ist Diplomatie eigentlich als Kartenspiel oder als Schachspiel zu begreifen? Das Gespräch führte Martin Schmetz.
Am Rande des Wikileaks-Workshops am 9. November 2011 sprachen wir mit Dr. Christoph Busch über das Thema Nazi-Leaks. Wie wehrhaft darf sich die Demokratie geben gegenüber Andersdenkenden? Haben Nazis ein Recht auf Geheimnis? Und wie ist das leaking solcher Informationen insgesamt zu bewerten? Das Gespräch führte Martin Schmetz. Interview mit Dr. Christoph Busch [ 4 min 53 s ].
Die Wirkung von Leaks auf der policy Ebene ist bisher schwer auszumachen. Eine Umfrage zur Veröffentlichung der sogenannten Palestine Papers versuchte eine Annäherung.
Im Rahmen einer Forschungsarbeit zur Bedeutung von Geheimnis und Leaking in Friedensverhandlungen wurde eine Expertenbefragung ins Leben gerufen, die die Wirkung der sogenannten Palestine Papers auf den Nahost-Verhandlungsprozess bewerten sollte. Die Ergebnisse zeigten, dass die Hoffnung auf eindeutige Erkenntnisse nicht nur durch die Komplexität des Konfliktes so gut wie aufgegeben werden kann...
WikiLeaks hat mit der Veröffentlichung der Afghan War Logs im Juli 2010 die Einsätze von U.S.-Spezialeinheiten in Afghanistan in den Fokus der Öffentlichkeit katapultiert: Die U.S.-Task Force 373 (TF-373) jagt in Afghanistan Terroristen und Talibanführer. Ihr Auftrag ist es, diese gefangen zu nehmen oder zu töten. Die ISAF-Staaten führen dazu eine Joint Priority Effects List (JPEL), mit den Spalten Capture und Kill, jedoch unterliegen die U.S.-Einheiten dem Mandat der Operation Enduring Freedom (OEF). Die Einsätze unterliegen stets der Geheimhaltung und finden auch im deutschen Mandatsgebiet in Nordafghanistan statt. Hier greifen U.S.-Einheiten auf deutsche Infrastruktur und auf logistische Unterstützung durch die Bundeswehr zurück.Die veröffentlichten Dokumente enthüllen somit ein Problem der deutschen Afghanistanpolitik: Durch die indirekte Beteiligung der Bundeswehr an diesen Einsätzen drängt sich die Frage auf, inwieweit hier eine demokratische Legitimation und die grundgesetzlich-etablierte parlamentarische Kontrollfunktion gegeben sind. Denn problematisch wird die Unterstützerrolle der Bundeswehr im Regional Command North (RC-North), sobald sie den Bereich des parlamentarischen Mandats verlässt. Das OEF-Mandat für die Bundeswehr – das den Einsatz von bis zu 100 Soldaten des Kommando Spezialkräfte vorsah – wurde Ende 2008 nicht verlängert; das Engagement in Nordafghanistan findet seit dem nur noch im Rahmen der Sicherheits- und Aufbaumission ISAF statt...
Die Entdeckung der rechtsextremen Terrorzelle aus Zwickau, die mutmaßlich für die Ermordung von mindestens neun Menschen verantwortlich ist, hat in der Politik und den Massenmedien eine sicherheits- und demokratiepolitisch relevante Frage aufgeworfen: Wie kann es sein, dass drei Neonazis jahrelang mordend durch Deutschland ziehen, diese dabei Kontakte zur Neonazi-Szene und NPD unterhalten haben und der Staat davon nichts bekommen hat? Der in dieser Frage implizit enthaltende Vorwurf der Inkompetenz und Tatenlosigkeit verschärft sich noch, wenn man zur Kenntnis nimmt, dass in den letzten Jahren zahlreiche Interna aus rechtsextremen Internetforen, sogenannte Nazi-Leaks, veröffentlicht wurden...
Die Zeitungen sind voll von Berichten über Trojaner – noch viel schlimmer: Staatstrojaner, die im Auftrag von Ministerien Computer ohne Wissen der Betroffenen durchsuchen können. Das Bundesinnenministerium dementiert, Innenminister Friedrichs weilte zum Zeitpunkt der ersten Berichte in Afghanistan – gleichsam auch ein erstaunliches Reiseziel für einen deutschen Innen-Minister, der sich dort über Fortschritte im Aufbau der Polizei informierte; aber das mag wohl nur folgerichtig sein, wenn “unsere Sicherheit auch am Hindukusch verteidigt wird”...
Gefährliche Kulturen?
(2011)
Kürzlich hat Thomas Steinfeld das Pamphlet des Osloer Attentäters analysiert und festgestellt, dass es vor allem von zwei stets wiederkehrenden Feindbildern durchsetzt ist: “Multikulturalisten” und “Kulturmarxisten” (SZ vom 27.07.2011). Augenfällig enthalten beide Begriffe das Wort Kultur. Für Steinfeld ist es diesem semantischen Additiv geschuldet, dass es dem rechtsextremen und fundamentalistischen Milieu so leicht gelingt, aus Einwanderern ‘Islamisten’ und aus Sozialdemokraten ‘Stalinisten’ zu machen. Wer zustimmend von Multikulturalismus spricht, befürworte zwar Vielfalt, der Begriff kann aber ebenso leicht zur Konstruktion von unverrückbar erscheinenden “kulturellen Anderen” dienen. Ähnlich diffus subsumierend operiere die Rhetorik von Kulturmarxisten. Aufgrund dieses Missbrauchspotentials sei eine starke Zurückhaltung gegenüber dem Kulturbegriff geboten. Man solle besser, so Steinfeld “auf das Wort verzichten”(ebd.)...
Im Verhältnis zwischen Staat und Öffentlichkeit ist Kommunikation immer wichtig; besonders zentral wird sie aber, wenn es um den Umgang mit Risiken geht. Risiken sind zumeist schwer abzuschätzen, schwer zu greifen. In einer Welt zunehmender medialer Vernetzung können selbst kleine oder weit entfernte Risiken zu großen Gefahren werden, welche die kommunikative Vertrauensbasis zwischen Staat und Öffentlichkeit massiv stören können...
Der Hype um WikiLeaks ist verpufft – das wurde bereits in der Begrüßung von Prof. Dr. Nicole Deitelhoff, Prof. Dr. Christopher Daase und Dr. Thorsten Thiel von der Universität Frankfurt klar. Doch eine Reihe ungeklärter Fragen und Probleme rund um das Prinzip Leaking bleiben zurück. Um diese zu diskutieren, begaben sich am vergangenen Mittwoch einige Interessierte zum Workshop “Leaking: Sicherheitsbedrohung oder subversive Demokratisierung?” an die Goethe-Universität Frankfurt. Dabei sollte es um grundlegende, wissenschaftliche Fragen gehen, die im Hype um WikiLeaks und Julian Assange oftmals untergegangen sind: Wodurch werden Leaks legitimiert und wo verläuft die Grenze zu Illegitimität? Was ist die politische Funktion des Leaking? Können oder müssen Leaks neutral sein? Und wie gefährlich sind sie für Sicherheitspolitik?...
Man sieht, schmeckt und riecht sie nicht, doch sie können tödlich sein – nukleare Strahlen sind eine unsichtbare Gefahr. Die schrecklichen und erschreckenden Bilder aus Japan – von der Flutkatastrophe und der Explosion im Atomkraftwerk Fukushima I – hören nicht auf. Diese Katastrophenbilder führen einmal mehr vor Augen, dass wir uns auf viele Risiken, Gefahren und Bedrohungen vorbereiten können; ihre Abwehr und Kontrolle scheint jedoch kaum möglich...
Spundekäs' statt Salat : verantwortungsbewusste Risiko-Kommunikation am Beispiel der EHC-Epidemie
(2011)
So… jetzt also auch noch das so gesunde Gemüse. Nach Salmonellen in Geflügel, Glykol im Wein, Würmer in Fischen, Pestiziden im Tee, Schweinemast, Gammelfleisch, Dioxin in Eiern, Nitrofen in Futterweizen, HCH in Milch und BSE in Rindfleisch der nächste Lebensmittelskandal: Der Darmkeim EHEC kontaminiert frisches Gemüse und Blattsalate. Da stellt sich doch die Frage, was man heutzutage überhaupt noch essen kann, was nicht ausschließlich aus dem eigenen Garten kommt...
Bomben auf Botnets
(2011)
Der Spruch “The internet is serious business” [Quelle] ist ein alter Witz unter Nerds und wird immer wieder gerne zitiert, wenn einige Nutzer online Dinge etwas zu ernst nehmen. Da Cybersecurity wohl endgültig im sicherheitspolitischen Mainstream [Quelle] angekommen ist, war es nur eine Frage der Zeit, bis das Internet auch dort “serious business” sein würde. Spätestens mit der Ankündigung der USA [Quelle], auf Cyberangriffe potentiell auch mit Waffengewalt zu reagieren, ist dies nun eingetreten. Ist ein Cyberangriff demnach in seiner Schwere äquivalent zu einem Angriff in der realen Welt, so muss der Angreifer mit Gegenschlägen mit konventionellen Waffen rechnen...
Unsichere Natur?
(2011)
New York: leicht bewölkt, Temperatur bis 33° C, die Regenwahrscheinlichkeit liegt bei 65 Prozent. Im UN-Hauptgebäude am East River tagt heute der Sicherheitsrat der Vereinten Nationen zu einem eher ungewöhnlichen Thema: Klimawandel. Erst zum zweiten Mal seit 2007 steht dieses Thema auf der Tagesordnung des Sicherheitsrates, dessen Vorsitz zur Zeit Deutschland inne hat...
Osama Bin Ladens "Bild-Tod"
(2011)
Nach den terroristischen Anschlägen in New York und Washington D.C. verkündete der damalige Präsident der Vereinigten Staaten, George W. Bush in einem Gespräch mit Journalisten im Pentagon am 17. September 2001: “I want justice [...]. And there’s an old poster out West I recall, that said, ‘Wanted, Dead or Alive’”. Fast 10 Jahre später ist Bushs Wunsch nach Gerechtigkeit in Erfüllung gegangen – mit einem neuen Präsidenten. Am 2. Mai 2011 teilte Präsident Obama der Öffentlichkeit mit:
“Tonight, I can report to the American people and to the world that the United States has conducted an operation that killed Osama bin Laden, the leader of al Qaeda, and a terrorist who’s responsible for the murder of thousands of innocent men, women and children. [...].We will be relentless in defense of our citizens and our friends and allies. We will be true to the values that make us who we are. And on nights like this one, we can say to those families who have lost loved ones to al Qaeda’s terror, justice has been done”.
Mit dem Tod von Osama bin Laden wird allem Anschein nach ein wichtiges Kapitel im Krieg gegen den Terror geschlossen. Präsident Obama verfolgt weiterhin aktiv das Ziel, die US-amerikanischen Truppen aus Afghanistan abzuziehen; Sicherheitsgesetze werden auch in Deutschland auf ihre Nützlichkeit und Verfassungskonformität überprüft....
Sicherheit gilt vielen als ein politisch-gesellschaftlicher Kernbegriff mit weitreichenden (institutionellen) Konsequenzen für unseren Alltag: Sicherheitsorgane wie die Polizei und das Militär tragen für Sicherheit im In- und Ausland sorge, die Bundesregierung betreibt bi– und multilaterale Sicherheitspolitik. Weitere Behörden und Ministerien beschäftigen sich mit der Frage, wie Lebensmittel-, Verkehrs- oder Berufssicherheit erhöht werden können, kurz: Sicherheit wird immer noch – wenn auch nicht ausschließlich – als Aufgabe des Staates verstanden...
Jüngst ist wieder einmal Streit entbrannt zwischen den Koalitionspartnern: Während Innenminister Friedrichs (CSU) öffentlich eine Entfristung des Anti-Terror-Pakets befürwortet, widerspricht Justizministerin Leutheusser-Schnarrenberger (FDP) vehement (siehe FAZ, SZ). Solche politischen Konflikte zwischen dem Innenministerium und dem Justizministerium scheinen in Zeiten internationaler Terrornetzwerke unumgänglich und alltäglich zu sein. Innenminister spielen par excellence Advokaten der Versicherheitlichung; Justizminister(innen) mahnen, nicht das Recht und die Freiheit vor lauter Gefahren und Risiken aus den Augen zu verlieren. Doch muss Sicherheit stets auf Kosten der Freiheit verwirklicht werden? Brauchen wir mehr Sicherheit oder mehr Freiheit? Nein, wir brauchen eine Kultur des Rechts, welche die Verfahren, nicht die Inhalte prädestiniert...
Der Leak der Botschaftsdepeschen hat offensichtlich in den USA tiefe Spuren hinterlassen. Auch über ein Jahr nach dem Beginn der Veröffentlichung der Depeschen kommen immer neue Pläne ans Licht, Leaken in Zukunft zu erschweren.
Der neueste Plan sieht vor, die Datenbanken mit den als geheim klassifizierten Dokumenten mit echt aussehenden Fake-Dokumenten zu versehen, die nicht nur die Glaubwürdigkeit der geleakten Informationen untergraben, sondern zudem auch nach Hause telefonieren sollen – so soll der Leaker bei Betrachtung seiner Beute erwischt werden.Über die technische Seite dieses Plans ist vergleichsweise wenig bekannt. Die Problematik der Glaubwürdigkeit aber ist die meiner Meinung nach noch größere, und zwar für alle beteiligten Parteien. Die potenzielle Unglaubwürdigkeit zukünftiger Leaks könnte schwerwiegende Konsequenzen haben...
Eigentlich sollte es bei der heutigen Pressekonferenz in London um das neue technische System der Plattform gehen – SSL sei nicht mehr sicher, man bastele an einem „state-of-the-art secure submission system“, hieß es. Doch davon war auf der Pressekonferenz keine Rede mehr. Stattdessen wurde die „neue Phase“ von WikiLeaks mit einer neuen Veröffentlichung eingeleitet: den #SpyFiles...
Wie schnell man fälschlicherweise ein monolithisches Bild eines Kontinents entwirft und wie vielstimmig und ausdifferenziert dagegen die Realität ist, zeigt ein Blick auf gegenwärtige Debatten um die Afrikanische Friedens- und Sicherheitsarchitektur (APSA). Eine Tagung der Friedrich-Ebert-Stiftung widmete sich unter dem Titel „Überfordert und überschätzt? Aussichten der regionalen Sicherheitspolitik in Afrika und ihrer europäischen Unterstützung“ (09./10. Februar 2011 in Berlin) eben jener differenzierteren Blickweise. Sprachen zu Beginn der Konferenz vor allem europäische Teilnehmer noch von der afrikanischen Sicherheitsarchitektur, so wurde sehr schnell neben dem vielverwendeten Akronym APSA, das Wort „Frieden“ hinzugefügt, der Begriff der Sicherheit erweitert und vor allem auf regionale, sub-regionale und nationale Besonderheiten verwiesen. Der Plural, seien es Sicherheitsarchitekturen oder Sicherheitskulturen, wurde häufiger in den Redebeiträgen...
Bis 2014 wollen truppenstellende Staaten die Verantwortung für die Sicherheit in Afghanistan an afghanische Institutionen übergeben. Eine wichtige Bedingung für den Rückzug internationaler Truppen ist die Qualität der afghanischen Sicherheitskräfte. Geberstaaten investieren daher massiv nicht nur in die Ausbildung und Ausrüstung der afghanischen Armee, sondern auch der afghanischen Polizei (Afghan National Police, ANP)...
Diskreditierung, Mobbing, Kündigung: Whistleblower seien in Deutschland völlig unzureichend geschützt, so das Whistleblower Netzwerk. Und das,obwohl bereits im November 2008 beim G20-Gipfel in Seoul formuliertwurde, dass Deutschland bis Ende 2012 gesetzliche Regelungen zum Whistleblowerschutz einführen wird. Am 21. Juli 2011 folgte zusätzlich dasUrteil des Europäischen Gerichtshofs für Menschenrechte, der im Fall der Berliner Altenpflegerin Brigitte Heinisch entschied, dass Whistleblowing durchaus von der Freiheit auf Meinungsäußerung gedeckt werden kann. Doch was ist seitdem passiert, wie steht es um den gesetzlichen Whistleblowerschutz in Deutschland?...
“Kurz mal Weltmacht” überschrieb die ZEIT letzte Woche ihren Artikel, der den Untergang von WikiLeaks und das Ende Julian Assanges nachzeichnete. Auch Hoffnungsträger scheitern, hieß es, und der finanzielle Bankrott stelle ein eher wenig rühmliches Ende dar. Und trotzdem, so das Resümee, die Idee hinter seinem Projekt bleibe am Leben. In welche Richtung sie sich für den Nahost-Konflikt verwirklicht, wagt allerdings kaum jemand zu bewerten...
„In doubt we publish: Wikileaks as a threat to diplomacy and democracy?“ –unter diesem Titel diskutierten am vergangenen Mittwoch im Anschluss anden WikiLeaks Workshop Wolfram v. Heynitz vom Planungsstab des Auswärtigen Amtes, Prof. Dr. Christoph Bieber von der Universität Duisburg-Essen und Guido Strack vom Whistleblower Netzwerk e.V.Unter der Moderation von Prof. Dr. Nicole Deitelhoff und Prof. Dr.Christopher Daase sollten einerseits generelle Fragen des Leakens thematisiert werden, aber auch Fragen nach dem Einfluss auf die internationale Diplomatie, dem Recht auf Geheimnis und den Möglichkeitenzur Regulierung von Leaking...
Lange waren “vernetzte Sicherheit” und das NATO-Pendant des “Comprehensive Approach” nicht mehr als Schlagworte, die in keiner programmatischen Rede vor allem von Sicherheitspolitikern fehlen durfte und die doch kaum ein Experte aussprechen konnte, ohne sich darüber lustig zu machen. Außerhalb engster Fachkreise war das Schlagwort der vernetzten Sicherheit für die Politik nur die Anwendung der Zivilmacht-Norm auf die legitimatorischen Herausforderungen militärischer Interventionen, sozusagen die rhetorische Vernetzung einer zunehmend kritisch beäugten Militärpolitik mit positiv besetzten zivilen Themen wie Entwicklungshilfe und Diplomatie. Über Jahre beteuerte vor allem der ehemalige Verteidigungsminister Franz-Josef Jung ebenso gebetsmühlenartig wie realitätsfern, die vernetzte Sicherheit sei bereits gelebte Realität im deutschen Engagement in Afghanistan, Kosovo und anderswo. Sowohl diese rosarote Verklärung als auch die reflexhafte Ablehnung vieler Experten hatten jedoch ihren Anteil daran, eine sinnvolle und notwendige Debatte über den Inhalt und die Umsetzung vernetzter Ansätze zwischen diplomatischen, militärischen und entwicklungspolitischen Mitteln zu verhindern...
Seit langem existiert der Wunsch, Stakeholder, Endnutzer und Bürger am Forschungsprozess über sicherheitsrelevante Themen zu beteiligen. Dies beinhaltet auch die potenziellen Auswirkungen der Forschungsprozeduren und -ergebnisse auf diese Statusgruppen. Bereits im vergangenen Sommer wurden diese Themen in zwei Workshops auf europäischer Ebene behandelt, geladen hatten die Generaldirektion (GD) Forschung und Innovation [link] bzw. die Research Executive Agency der Europäischen Kommission [link]. Unter dem Titel “Challenge of Inclusive, Innovative, and Secure Societies” wurden Synergien, aber auch Konflikte zwischen den strategischen Zielen von gesellschaftlicher Integration, Sicherheit und wirtschaftlichen Innovationen im Rahmen der EU-weiten Sicherheitsforschung analysiert. Die Themenbereiche von gesellschaftlicher Resilienz und von Vertrauen der Bürgern, die bis jetzt eher am Rande der Projektausschreibungen erschienen sind, wurden programmatisch als prioritär eingestuft...
Cybersecurity wird zunehmend als Herausforderung wahrgenommen und Leaks sind ein nicht unerheblicher Teil davon. Begegnet wird diesem Problem aber oftmals in Wildwest-Manier: Jeder ist sich selbst der nächste, allgemein verbindliche Regelungen werden nicht angestrebt. Verschiedene staatliche und nicht-staatliche Akteure nutzen dabei die ihnen zur Verfügung stehenden Mittel konsequent aus und überschreiten dabei mal mehr, mal weniger rechtliche Grenzen...
Wie wichtig sind Offline-Aktivitäten für Blogs? Das Ergebnis des Workshops,zu dem das Team des Theorieblogs am 9. April an die Humboldt-Unieingeladen hatte, war eindeutig: Offline ist – trotz aller Blogeuphorie –unersetzbar.
Rund 15 BloggerInnen (plus sieben TheoriebloggerInnen) folgten derEinladung, sich über das eigene Tun auszutauschen und sich nicht nurvirtuell, sondern auch ganz klassisch zu vernetzen...
“Aber bitte mit Sicherheit!” – und nicht mehr mit Sahne – müsste Udo Jürgens heutzutage eigentlich singen, denn das Etikett Sicherheit wird gerade im Globalisierungszeitalter sehr schnell auf viele low politics-Themen gepackt. Deren potenzielle Problemlösung, so die nachfolgende Argumentation, könnte ohne das high politics-Upgrade – also die Bedeutungsverschiebung in die Nähe des Bereichs militärischer, das staatliche Überleben gefährdender Bedrohungen –, vielleicht effektiver und/oder legitimer von statten gehen.
Die aktuelle National Security Strategy der USA ist dafür ein vitales Beispiel, indem sie z. B. Gesundheitsbedrohungen ganz offiziell einen substanziellen Sicherheitsstatus zuweist: “Pandemic disease[s] threaten the security of regions and the health and safety of the American people”. [Quelle] Warum aber mit dem Sicherheitsupgrade nicht alles besser wird, kann man gut im Bereich der internationalen Pandemieprävention zeigen. Der Beitrag versteht sich als ein normatives Plädoyer gegen zu viel Sicherheit und möchte mit den folgenden zwei Punkten zum Nachdenken anregen...
Neutroneneinfangquerschnitte werden häufig mithilfe der Aktivierungsmethode bestimmt. Hierbei wird die zu untersuchende Probe mit Neutronen der gew¨unschten Energie bestrahlt und danach in einem untergrundoptimierten Labor ausgezählt. Am Institut für Angewandte Physik der Goethe Universität Frankfurt wurde ein solcher Aufbau realisiert. Er besteht aus zwei Clover Detektoren, die gegenüberliegend in enger Geometrie angeordnet sind. Die aktivierte Probe wird mittels spezieller Probenhalter reproduzierbar und zentriert zwischen den Detektoren platziert. Die Clover Detektoren sind mit passiven Schilden (Pb) und einer aktiven Abschirmung (BGO) umgeben. Die unterschiedlichen Abschirmungen wirken sich in verschieden Energiebereichen jeweils anders aus.
Diese Arbeit befasst sich mit der astrophysikalischen Motivation und dem Aufbau, mit dem später die Ausbeute einer neutronenaktivierten Probe bestimmt werden kann. Außerdem werden die Ergebnisse der verschiedenen Untergrundmessungen miteinander verglichen.
Quasi-Monte-Carlo-Verfahren zur Bewertung von Finanzderivaten, BacDas Gebiet der Optionsbewertung ist durch die Entwicklungen zu neuen und immer komplexer werdenden Optionstypen und durch Verbesserungen im Bereich der Aktienkurs-Modelle geprägt. Diese Entwicklung und die gestiegene Leistungsfähigkeit der Parallelrechner haben das Interesse an den flexiblen Quasi-Monte-Carlo-Verfahren neu geweckt.
Die experimentellen Untersuchungen bestätigen die Überlegenheit des Quasi-Monte-Carlo-Verfahren gegenüber den klassische Monte-Carlo-Verfahren in Bezug auf niedrigdimensionale Optionstypen. Dieser Überlegenheit nimmt aber mit zunehmender Dimension ab, was eine Nachteil für das Quasi-Monte-Carlo Verfahren darstellt. Zur Verbesserung des Verfahrens gibt das Dimensions-Reduktions-Prinzip (effective dimension) und weitere Niederdiskrepanz-Folgen, wie Niederreiter-Folgen, Lattice-Regeln, usw. Weitere Verbesserungsmöglichkeiten könnten auch durch Wahl von anderen Diskretisierungsverfahren mit höherer starker Ordnung, wie z.B dem Milstein-Verfahren, erreicht werden. Mit dem Quasi-Monte-Carlo-Verfahren lässen sich auch komplizierte Optionen bewerten,
wie z.B. Bermuda-Optionen, Barrier-Optionen, Cap-Optionen, Shout-Optionen, Lokkback-Optionen, Multi-Asset-Optionen, Outperformance-Optionen, und auch mit weiteren Bewertungs-Modellen kombinieren, wie z.B. dem Black-Scholes-Modell mit variabler Verzinsung, Black-Scholes-Modell mit zeitabhängiger Volatilität, Heston-Modell für stochastische Volatilität, Merton-Sprung-Diffusion-Modell und dem Libor-Markt Modell für Zinsderivate, auf die ich in dieser Bachelorarbeit nicht mehr eingehen werde, mit denen ich mich jedoch in der Masterarbeit genauer beschäftigen werde.
Finanzderivate sind Produkte, die eine Möglichkeit bieten sich gegen künftige Preisschwankungen abzusichern oder auf eine zukünftige Preisentwicklung zu spekulieren. Die wichtigsten Arten von Finanzderivaten sind Optionen, Futures, Forwards und Swaps. Gegenstand vorliegender Bachelorarbeit werden ausschließlich Optionen sein. Auf den internationalen Finanzmärkten werden verschiedene Typen von Optionen gehandelt, weshalb sich die Frage des "fairen Preises" eines solchen Produktes stellt. Für viele gehandelte Optionen gibt es keine geschlossene Lösung zur Bestimmung des Preises, deshalb werden für diese numerische Verfahren zur Berechnung angewandt. Dabei muss beachtet werden, dass der Optionswert möglichst genau ist, jedoch sollte der Aufwand dabei ziemlich gering sein.
Ziel dieser Arbeit ist die Bestimmung eines numerischen Verfahrens, mit dem man europäische und amerikanische Multiasset-Optionen bewerten kann. Dieses Verfahren soll eine Erweiterung des bekannten Binomialverfahrens sein. Im Fokus steht dabei das Binomialverfahren, da es durch die Einschränkung auf zwei Entwicklungsmöglichkeiten in der Anwendung einfacher ist als das Black-Scholes-Modell. Dieses Verfahren ist nur für europäische und amerikanische Standard-Optionen definiert. Bei der Erweiterung muss beachtet werden, dass Multiasset-Optionen von mehreren Wertpapieren abhängen. In der Arbeit wird ein Produktbinomialverfahren entwickelt, das die Anzahl der Wertpapiere in der Dimension der entstehenden Bäume berücksichtigt. Dieses Verfahren konvergiert gegen das mehrdimensionale Black-Scholes-Modell und ist zu dessen graphischer Darstellung geeignet. Es wird jedoch auch gezeigt, dass dieses dem Fluch der Dimension unterliegt und somit der Aufwand für einen möglichst genauen Optionswert ziemlich hoch ist. Die Erweiterung dieses Verfahrens durch Dünne Gitter erzielt eine Optimierung der Laufzeit. Da der Fokus dieser Bachelorarbeit jedoch auf dem Produktbinomialverfahren liegt, wird im Folgenden auf diese Erweiterung nicht eingegangen.
Am 27. März 2011 wird im Rahmen der hessischen Kommunalwahlen auch über eine Schuldenbremse abgestimmt. Diese sieht vor, dass vom Jahr 2020 an der Landeshaushalt grundsätzlich auszugleichen ist. Alfons Weichenrieder argumentiert, dass eine in der Verfassung verankerte Schuldenregel dazu geeignet ist die im politischen Prozess angelegten Anreize zur Verschuldung zu zügeln. Auf die disziplinierende Wirkung der Finanzmärkte alleine zu vertrauen reicht nicht.
Die Mehrheit der auf High Frequency Trading basierenden Strategien trägt zur Marktliquidität (Market-Making-Strategien) oder zur Preisfindung und Markteffizienz (Arbitrage-Strategien) bei. Eine ungeeignete Regulierung dieser Strategien oder eine Beeinträchtigung der zugrunde liegenden Geschäftsmodelle durch übermäßige Belastungen kann kontraproduktiv sein und unvorhergesehene Auswirkungen auf die Marktqualität haben. Allerdings muss jede missbräuchliche Strategie effektiv durch die Aufsichtsbehörden bekämpft werden.
Das deutsche Bankensystem ruht seit Jahrzehnten auf drei Säulen: den privaten Kreditbanken, den öffentlichen Banken des Sparkassensystems und den genossenschaftlichen Banken. Das Drei-Säulen-System scheint ursächlich für die Stabilität im deutschen Bankensystem zu sein. Gerade die Krise hat gezeigt, dass es für ein Bankensystem vorteilhaft ist, wenn es darin nicht nur einen Typus von Banken gibt. Wir müssen eine Pluralität von Organisationsformen im Bankwesen erhalten und weiterentwickeln.
Risiko muss wieder kosten
(2011)
Im Rahmen dieser Arbeit wird ein Gammaspektroskopie-Aufbau unter Verwendung eines HPGe-Clover-Detektors zur Nutzung in Aktivierungsexperimenten charakterisiert und untersucht. Die für präzise Aktivitätsmessungen nach einer Aktivierung nötigen Effizienzen werden mit Hilfe der Eichquellen 60Co und 22Na unter Nutzung verschiedener Modi des Clover-Detektors abstandsabhängig errechnet. „Listmode“-Daten ermöglichen dabei eine „offline“-Verarbeitung. Begleitet werden die Messungen von aufwändigen Monte-Carlo-Simulationen in Geant4. Parallele Auswertungsmethoden erlauben einen genauen Vergleich zwischen simulierten und experimentellen Ergebnissen.
Der Karlsruhe 4π-Bariumfluorid-Detektor, entwickelt und aufgebaut Ende der Achtzigerjahre am Forschungszentrum Karlsruhe, ist ein effizienter Detektor für Gammastrahlung und bietet vielfältige Einsatzmöglichkeiten für kernphysikalische Experimente. Insbesondere für Experimente der nuklearen Astrophysik ist er geeignet, aber auch für die Forschung zur Entwicklung neutronengetriebener Reaktoren, zum Beispiel zur Transmutation radioaktiver Abfälle. Derzeit befindet sich der Detektor an der Goethe-Universität Frankfurt, wo er mit der sich dort in Entwicklung befindenden FRANZ-Neutronenquelle eingesetzt werden soll. Diese ermöglicht zum Beispiel Messungen von Wirkungsquerschnitten für den s-Prozess in astrophysikalisch relevanten Energiebereichen und bei hohen Intensitäten.
Diese Arbeit behandelt astrophysikalische Möglichkeiten die der Detektor bietet sowie dessen allgemeinen Aufbau und Eigenschaften. Es wurden eine Funktionsprüfung des Detektors, Messungen der Zeit- und Energieauflösung, Energiekalibration sowie kleine Optimierungen und Reparaturen durchgeführt.
Das vornehmliche Ziel der OGAW Richtlinien ist es einen gemeinsamen europäischen Markt für Investment-Dienstleistungen auf Basis wohldefinierten Qualitätsstandards zu erreichen. Ein grenzüberschreitender Vertrieb eröffnet die Möglichkeit der Ausweitung von Geschäftsaktivitäten auf neue wirtschaftlich attraktive Absatzmärkte. Die Stellungnahme kommentiert die im Gesetzesentwurf vorgeschlagenen regulatorischen Instrumente vor dem Hintergrund verschiedener gegebener Kriterien.
Die unkonventionellen Maßnahmen der EZB haben nicht nur zu Bilanz- und Reputationsrisiken geführt. Vielmehr haben sie auch die Grenzen der monetären Politik zur Verteilungs- und Finanzpolitik verwischt. Die Strukturen im Finanzsystem müssen durch ordnungspolitische Maßnahmen robuster gemacht werden.
Das neue Kreditinstitute-Reorganisationsgesetz, das als Artikel 1 des Restrukturierungsgesetzes vom 9. Dezember 2010 erlassen worden ist, führt für deutsche Kreditinsitute eine Bankenabgabe ein. Die Abgabe soll als Mittel der Prävention und Intervention dienen, um Finanzkrisen vorzubeugen und zu bekämpfen. Der vorliegende Beitrag bewertet die deutsche Bankenabgabe nach verfassungsrechtlicher Zulässigkeit und nach ihrer Zweckerfüllung.
Die Macht der Ratingagenturen beruht auch auf den vielen Gesetzen und Verordnungen, die eine Orientierung an den Ratings der drei großen Agenturen vorschreiben, sagt Wirtschaftsprofessor Reinhard Schmidt. Um die Macht der Ratingagenturen zu begrenzen, empfiehlt er viele dieser Regeln ersatzlos zu streichen.
Vermutlich schon bald wird sich die Politik mit der gesetzlichen Verankerung eines makroprudenziellen Mandats für die Deutsche Bundesbank befassen. Welche Ziele soll das Mandat beinhalten, die über die bereits bestehende Aufgabe der Bundesbank, zur Finanzstabilität im Euroraum beizutragen, hinausgehen? Welche Instrumente sollen bei der Ausübung des Mandats zum Einsatz kommen?
Rechtsbrüche im Euroraum
(2011)
Der Weg in die Knechtschaft
(2011)
Die Marktwirtschaft beruht auf dem Prinzip, dass sich die Akteure im Rahmen des gesetzlichen Regelwerkes frei entfalten können. Hier liegt die entscheidende Stärke eines marktwirtschaftlichen, freiheitlichen Systems. Millionen von Individuen erwägen, welche Aktivitäten welche Chance eröffnen. Kein anderes System ist in der Lage, das Potential auszuschöpfen, das in unzähligen Individuen steckt. Der Markt ist nun einmal das beste "Entdeckungsverfahren", wie Hayek erkannte. Wer im Rahmen der Spielregeln Erfolg hat, darf nach diesen Prinzipien den Gewinn behalten, muss aber auch für den Misserfolg haften.
Stellungnahme zum Antrag der SPD-Fraktion auf Einführung einer Finanztransaktionssteuer in Europa
(2011)
Die Finanztransaktionssteuer ist kein geeignetes Instrument zur Verringerung systemischer Risiken, noch ein Mittel zur Vorbeugung einer Finanzkrise. Da sie zudem nur in Deutschland, Frankreich und einzelnen anderen Staaten eingeführt würde, wäre das Steueraufkommen, aufgrund von Steuerumgehung durch Verlagerung von Finanztransaktionen ins Ausland, gering.
Europa - wohin?
(2011)
Gemäß der Krönungstheorie der europäischen Währungsunion wurde der Euro eingeführt, um die Notwendigkeit gemeinsamen Regierens in der Europäischen Union allen vor Augen zu führen und so ein geordnetes Vorrücken zur europäischen Integration zu ermöglichen. In der gegenwärtigen Phase scheint indes politischer Opportunismus die Integration zu bestimmen.
Die große Herausforderung, um das systemische Risiko im Finanzsektor zu vermindern, besteht darin, kluge Finanzarchitektur zu etablieren, die gewährtleistet, dass ein verbindlicher Anteil von Bankanleihen außerhalb des Finanzsektors gehalten wird. Die Anleihegläubiger von außerhalb des Bankensektors müssen sich dadurch auszeichnen, dass sie kein Refinanzierungsrisiko haben, wenn sie eine plötzliche Verlussituation erleben.
Wie können Optionen bewertet werden, zu denen keine geschlossenen Lösungen existieren? Die Antwort lautet: Numerische Verfahren. In Hinblick auf diese Frage wurden in der Vergangenheit meist Baumverfahren, Finite-Differenzen- oder Monte-Carlo-Methoden herangezogen. Im Gegensatz dazu behandelt diese Bachelorarbeit den Einsatz von Quadraturverfahren (QUAD) bei der Bewertung von exotischen Optionen, also Optionen, die kompliziertere Auszahlungsstrukturen besitzen wie einfache Standard-Optionen. Die Grundidee besteht darin, den Optionswert als mehrdimensionales Integral in eindimensionale Integrale zu zerlegen, die daraufhin durch Quadraturformeln approximiert werden...Die Genauigkeit des Verfahrens wird erhöht, indem die Schrittweite der Quadraturformel h verkleinert wird. Dies hat allerdings zur Folge, dass sich der Rechenaufwand erhöht. QUAD jedoch schafft es, durch Reduzierung der Dimension und Ausnutzung der herausragenden Konvergenzeigenschaften von Quadraturformeln eine hohe Genauigkeit bei gleichzeitig geringen Rechenkosten zu erreichen.
Die Methode ist allgemein anwendbar und zeigt insbesondere beim Preisen von pfadabhängigen Optionen mit diskreten Zeitpunkten ihre Stärken. Als Anwendungsbeispiele betrachten wir deshalb folgende Optionstypen: Digitale-, Barrier-, Zusammengesetzte-, Bermuda- und Lookback Optionen. Ferner existieren entsprechende Verfahren für Asiatische- oder Amerikanische Optionen, für die jedoch mehr Vorarbeit notwendig ist.
Der große Vorteil von QUAD gegenüber anderen numerischen Verfahren liegt in der Vermeidung eines (bedeutsamen) Verteilungsfehlers und in der Tatsache, dass keine Bedingungen an die Auszahlungsfunktion gestellt werden müssen. Baum- oder Finite-Differenzen-Verfahren reduzieren zwar durch Gitterverfeinerung den Verteilungsfehler, allerdings geht dies Hand in Hand mit deutlich höheren Rechenzeiten. Zum Beispiel benötigt ein Baumverfahren für die doppelte Exaktheit einen vierfachen Rechenaufwand, während die QUAD Methode bei einem vierfachen Rechenaufwand die Exaktheit mit Faktor 16 erhöht (bei Extrapolation steigt dieser Faktor bis 256).
QUAD kann als "der perfekte Baum" angesehen werden, da es ähnlich zu Multinomialbäumen auf Rückwärtsverfahren zurückgreift, andererseits aber die hohe Flexibilität besitzt, Knoten frei und in großer Anzahl zu wählen. Des Weiteren gehen nur die den Optionspreis bestimmenden Zeitpunkte in die Bewertung mit ein, sodass auf zwischenzeitliche Zeitschritte gänzlich verzichtet werden kann.
Die eigentliche Arbeit gliedert sich in sechs Abschnitte. Zunächst erfolgt eine Einführung in allgemeine Quadraturverfahren, exotische Optionen und das Black-Scholes-Modell, was im Anschluss den Übergang zum Lösungsansatz liefert. Dieser Abschnitt schließt mit einer geschlossenen Integrallösung für Optionen, die der Black-Scholes-Differentialgleichung folgen, ab. In Abschnitt 4 wird die genaue Untersuchung der QUAD Methode vorgenommen. Unter Verwendung des in Abschnitt 5 vorgestellten Algorithmus wird anschließend in Abschnitt 6 die QUAD Methode auf die zuvor genannten Optionsklassen angewandt. Die entsprechenden Resultate werden am Ende dieses Teils in Tabellen und Graphiken präsentiert. Den Abschluss bildet das Fazit und die Zusammenfassung der Ergebnisse.
Sprung-Diffusions-Modelle zur Bewertung Europäischer Optionen, BacIn dieser Arbeit wurden die Europäische Optionen in den Sprung-Diffusions-Modellen von Merton und dem Modell von Kou bewertet. So stellen die geschlossenen Lösungen für das Merton-Modell als Anwendung der Black-Scholes-Formel eine einfache Möglichkeit zur Berechnung eines Optionspreises dar. Die Verwendung einer analytischen Lösung für Merton ist allerdings nur eingeschränkt, d.h. für zwei spezielle Sprungverteilungsfunktionen (Plötzlicher Ruin und die Lognormalverteilung) möglich. Das Kou-Modell hingegen, hat eine geschlossene Lösung für Doppel-Exponentialverteilte Sprünge. Eine flexible Lösungsmöglichkeit zur Bestimmung eines Optionspreises ist die Verwendung des Monte-Carlo-Verfahrens für die Simulation der Kursbewegung mit zugrunde liegendem Sprung-Diffusions-Modell. In diesem Fall ist das Monte-Carlo-Verfahren zur Ermittlung des Optionspreises nur einmal anzuwenden. Dieses Verfahren konvergiert mit einer Konvergenzrate von 1/2.
Wie alle anderen Modelle, die auf Lévy Prozessen basieren, lässt das Kou-Modell eine empirische Beobachtung vermissen, nämlich die mögliche Abhängigkeit zwischen Renditen der Underlyings (der sogenannte "volatility clustering affect"), weil das Modell unabhängige Inkremente unterstellt. Eine Möglichkeit die Abhängigkeit mit einzubeziehen, wäre die Nutzung anderer Punktprozesse Ñ(t) mit abhängigen Inkrementen anstelle des Poisson-Prozesses N(t). Es muss natürlich die Unabhängikeit zwischen der Brownschen Bewegung, den Sprunghöhen und ~N(t) beibehalten werden. Das so modifizierte Modell hat keine unabhängigen Inkremente mehr, ist aber einfach die geschlossene Lösungsformel für Call- und Put-Optionen zu erhalten. Andererseits scheint es schwer analytische Lösungen für Pfadabhängige Optionen durch Nutzung von Ñ(t) anstelle von N(t) zu erhalten.
Im Jahre 2004 sind am Universitätsklinikum Frankfurt zwei Patienten mit X-CGD gentherapeutisch behandelt worden. Nach einer initialen Phase mit Nachweis ausreichender Mengen Oxidase-positiver Zellen im Blut der Patienten und einer deutlichen klinischen Besserung vorbestehender Infektionsherde kam es zu einem Verlust der Transgenexpression durch epigenetische Veränderungen des viralen Promotors. Ferner entwickelte sich durch Insertionsmutagenese eine klonale Expansion in der Hämatopoese und schließlich ein myelodysplastisches Syndrom mit Monosomie 7 bei beiden Patienten. In der Zusammenschau mit anderen Gentherapiestudien zur X-CGD zeigt sich, dass bislang ein langanhaltendes Engraftment funktionierender genkorrigierter Zellen nur im Zusammenhang mit einer Insertionsmutagenese beobachtet wurde. Zukünftige gentherapeutische Strategien zur Behandlung der X-CGD müssen das Risiko einer Insertionsmutagenese minimieren und gleichzeitig die Effektivität des Engraftments genkorrigierter Zellen steigern. Dies soll durch den Einsatz von SIN-Vektoren sowie einer Intensivierung der Konditionierung der Patienten erreicht werden.
Im Mittelpunkt des Gutachtens stehen die anthropologischen Grundlagen, das wirtschaftsethische Fundament und das Menschenbild der Sozialen Marktwirtschaft. Die Leitlinien des Wittenberg-Prozesses der Chemie-Sozialpartner dienen dabei als argumentative Grundstruktur. Ziel der Arbeit ist es, aufzuzeigen, dass die CSSA und der Wittenberg-Prozess auf den normativen und wirtschaftsethischen Prämissen der (originären) Sozialen Marktwirtschaft ruhen und die Sozialpartnerschaft der chemischen Industrie ein wichtiger Baustein ist auf dem Weg hin zu einer Neubegründung und Renaissance der Sozialen Marktwirtschaft vor dem Hintergrund der Globalisierung. Folgende Hypothesen sollen dabei eingehender untersucht werden: 1. Fundamental für die Wirtschaftsethik der Sozialen Marktwirtschaft ist die Unterscheidung von Individual, Unternehmens-und Ordnungsethik. 2. Das Freiheitsverständnis der Sozialen Marktwirtschaft enthält sowohl negative (im Sinne der Abwesenheit von Willkür und Zwang) als auch positive Momente (im Sinne von rationaler Selbstbestimmung und kantischer Autonomie). Darüber hinaus inkorporiert es die aus der Konstitutionenökonomik bekannten Prinzipien der Diskriminierungs und Privilegienfreiheit. 3. Das Gerechtigkeitsverständnis der Sozialen Marktwirtschaft ist synkretistisch und eklektisch; es verbindet kommutative mit distributiven Gerechtigkeitselementen. 4. Der Homo oeconomicus ist kein(!) Bestandteil der Wirtschaftsethik der Sozialen Marktwirtschaft. Diese weist vielmehr Parallelen zur Heuristik der Kulturellen Ökonomik – dem sogenannten Homo culturalis – auf. 5. Eine bedeutende Funktion innerhalb der Sozialen Marktwirtschaft kommt der Sozialpartnerschaft zu. Diese leistet einen wichtigen Beitrag zur Stärkung der sozioökonomischen Teilhabe und Inklusion auf der unternehmensethischen Ebene.
Prokaryotische Organismen werden in ihrer natürlichen Umgebung mit schwankenden Umwelteinflüssen konfrontiert oder müssen gegebenenfalls extremen Bedingungen standhalten. Um sich an derartige Veränderungen anpassen zu können und damit ein weiteres Überleben zu sichern, ist es wichtig neue genetische Informationen zu akquirieren. Die molekulare Basis dieser Anpassung sind Genmutationen, Genverlust, intramolekulare Rekombination und/oder horizontaler Gentransfer. Der vorliegende Selektionsdruck der Umwelt begünstigt schlussendlich die Spezialisierung und damit die Erschließung neuer Standorte aufgrund des Erwerbs neuer metabolischer Eigenschaften, Resistenzgene oder Pathogenitätsfaktoren. Vergleichende Analysen bakterieller Genome, welche auf Analysen der GC-Gehalte, der Codon- und Aminosäurenutzung und der Genlokalisation beruhen, zeigten, dass bei diesem evolutiven Prozess bzw. der Weiterentwicklung der bakteriellen Genome der horizontale Gentransfer als treibende Kraft eine entscheidende Rolle spielt. So indizieren Genomstudien, dass 0-22% der gesamten bakteriellen und 5-15% der archaeellen Gene horizontal erworben wurden, wobei der DNA-Transfer nicht ausschließlich zwischen Vertretern einer Domäne, sondern ebenfalls zwischen Organismen unterschiedlicher Domänen stattgefunden hat. So sind z.B. 24 bzw. 16% der Gene von Genomen hyperthermophiler Organismen wie Thermotoga maritima oder Aquifex aeolicus archaeellen Ursprungs. Ebenso finden sich Gene für Chaperone und DNA-Reparaturenzyme im Genom des thermophilen Bakteriums Thermus thermophilus wieder, welche wahrscheinlich ebenfalls durch horizontalen Gentransfer aus hyperthermophilen und archaeellen Genomen erworben wurden um eine Anpassung an extreme Standorte zu ermöglichen. Durch vergleichende Genomstudien wurde ebenfalls festgestellt, dass die durch horizontalen Gentransfer erworbenen Gene oftmals zu einer Neuorganisation von Transkriptionseinheiten und zu einer veränderten Genomorganisation führten. Dennoch finden sich immer wieder Beispiele von horizontal erworbenen Operonen in den verschiedenen Organismen. Gut charakterisierte Vertreter horizontal übertragener Operone sind dabei z.B. das archaeelle H+-ATPase-Operon, das Operon der Na+-translozierenden NADH:Ubichitonoxidoreduktase oder das Nitratreduktase-Operon.
Man unterscheidet bei dem horizontalen Gentransfer zwischen drei Mechanismen der DNAAufnahme: Konjugation, Transduktion und Transformation. Die DNA-Übertragung durch Konjugation ist durch einen spezifischen Zell-Zell-Kontakt definiert, der durch einen von der Donorzelle ausgehenden, sogenannten F-Pilus hergestellt wird. Die Donorzelle überträgt schließlich Plasmid-kodierte genetische Informationen und oftmals Eigenschaften für die eigenständige Konjugation auf eine Rezipientenzelle. Die Transduktion hingegen beschreibt die DNA-Übertragung von Bakteriophagen auf eine Wirtszelle, wobei hier eine hohe Wirtsspezifität Voraussetzung ist. Die Übertragung der DNA von einer Bakterienzelle in eine andere erfolgt dabei ohne Kontakt der Zellen. Die natürliche Transformation ist definiert als Transfer von freier DNA und ermöglicht damit im Gegensatz zu den beiden ersten spezifischen Mechanismen der DNA-Übertragung ein größeres Spektrum der Verbreitung genetischer Informationen. Freie DNA, welche entweder durch Zelllyse oder Typ-IVSekretion ausgeschieden wird und aufgrund von Adsorption an mineralische Oberflächen über längere Zeiträume stabil in der Umgebung vorliegen kann, kann unter der Voraussetzung der Existenz eines speziellen Aufnahmesystems von Bakterien aufgenommen werden. Mittlerweile sind über 44 Bakterien aus unterschiedlichen taxonomischen Gruppen beschrieben, die eine natürliche Kompetenz ausbilden können. Die bekanntesten Beispiele für natürlich transformierbare Gram-negative Bakterien sind Heliobacter pylori, Neisseria gonorrhoeae, Pseudomonas stutzeri, Haemophilus influenzae, T. thermophilus und Acinetobacter baylyi. Auch unter den Gram-positiven Bakterien finden sich einige Vertreter, die natürlich kompetent sind, wie Deinococcus radiodurans, Bacillus subtilis und Streptococcus pneumoniae. Ungeachtet der relevanten Rolle der Transformation im horizontalen Gentransfer, ist über die Struktur und Funktion der komplexen DNA-Aufnahmesysteme wenig bekannt.
Das Ziel meiner Arbeit ist die zuverlässige quantenchemische Beschreibung der Absorptionsspektren von mittelgroßen Molekülen und das Studium von photoaktiven Pigmenten. Nach einer kurzen Einführung in das Thema "elektronisch angeregte Zustände und Photoreaktionen" beschreibe ich die Formalismen, die den verwendeten Rechenmethoden zu Grunde liegen und diskutiere die Anwendbarkeit auf größere Moleküle. Hierbei liegt ein Hauptaugenmerk auf den dichtefunktionaltheoriebasierten Methoden (DFT-Methoden), vor allem auf den Eigenschaften der zeitabhängigen Dichtefunktionaltheorie (engl.: time dependent density functional theory, TDDFT). Anschließend erfolgt eine Zusammenfassung der im Laufe dieser Arbeit erhaltenen Ergebnisse.
Die moderne Quantenchemie befasst sich mit der Anwendung der in den 20er und 30er Jahren des 20. Jahrhunderts entwickelten Quantenmechanik auf chemische Probleme. Zum theoretischen Studium von Molekülen gibt es verschiedene Ansätze. Zum einen gibt es die hochgenauen ab initio Methoden, die Näherungsverfahren zur elektronischen Schrödingergleichung sind. Sie haben den Vorteil systematisch verbesserbar und auf einem sehr soliden theoretischen Gerüst aufgebaut zu sein. Die Genauigkeit der Rechnungen kann die von experimentellen Ergebnissen erreichen, allerdings beschränkt der hohe Rechenaufwand die Anwendung solcher ab initio Methoden auf kleine Moleküle wie Wasser, Methan oder Benzol.
Am anderen Ende des Spektrums der quantenchemischen Methoden sind die "semiempirischen Methoden" angesiedelt. Sie erfordern nur einen sehr geringen Rechenaufwand, wodurch es möglich ist, sehr große Systeme mit mehr als 1000 Atomen zu beschreiben. Allerdings führt der Ansatz, verschiedene Terme der Schrödingergleichung durch an experimentelle Daten gefittete Parameter zu ersetzen, zu einer geringen Genauigkeit und unvorhersehbaren Fehlern. Dies schränkt die standardmäßige Anwendung dieser Methoden stark ein, und eine Verifizierung durch genauere Methoden ist oftmals erforderlich.
Zwischen diesen beiden Polen (hoch genau aber sehr hoher Rechenaufwand und geringer Rechenaufwand, dafür aber ungenau) stehen die auf der Dichtefunktionaltheorie (DFT) basierenden Methoden. Sie zeichnen sich durch eine gute Genauigkeit bei vergleichsweise geringem Rechenaufwand aus. Dadurch hat sich die DFT in den letzten Jahren zur beliebtesten Methode für das Studium mittelgroßer Moleküle mit bis zu 400 Atomen entwickelt. DFT ist eine formal exakte Methode, bei der die berechneten Größen aus der Elektronendichte des Systems abgeleitet werden. Elektronenaustausch- und Korrelationseffekte werden durch Funktionale, den sogenannten Austauschkorrelationsfunktionalen (engl.: exchange correlation functionals, xc-functionals) beschrieben.
Die zeitabhängige Dichtefunktionaltheorie (time dependent DFT, TDDFT) ermöglicht die Beschreibung elektronisch angeregter Zustände mit einer guten Genauigkeit, aber zu einem Bruchteil des Rechenaufwands von ab initio Methoden, was TDDFT zur Methode der Wahl für das Studium der Photochemie mittelgroßer Moleküle macht. Die Fehler in den Anregungsenergien sind in der Regel systematischer Natur und den verwendeten xc-funktionalen geschuldet. Dennoch kann TDDFT nicht als "black box" Methode verwendet werden, da nicht alle elektronischen Zustände gleich gut beschrieben werden. Während energetisch niedrig liegende, lokale π -> π* und n -> π* Zustände oftmals in sehr guter Übereinstimmung mit dem Experiment sind, können Rydberg und Ladungstransferzustände (engl.: charge transfer states, ct-states) Fehler von mehreren Elektronenvolt in der Anregungsenergie haben. Doppelt oder höher angeregte Zustände können mit standard TDDFT Methoden nicht beschrieben werden. Dies kann zu Problemen bei ausgedehnten π-Systemen führen, da z.B. die angeregten Zustände von Polyenen einen hohen Doppelanregungscharakter besitzen. Trotz alledem ist TDDFT eine sinnvolle Methode zum Studium elektronisch angeregter Zustände, da ihre Probleme bekannt sind und vor allem ihr Ursprung in der Theorie gut verstanden ist. Die meisten Probleme können durch die intelligente Wahl der verwendeten xc-Funktionale vermieden werden. Kombiniert man TDDFT mit der Konfigurationswechselwirkungsmethode mit Einfachanregungen (engl.: configuration ineraction singles, CIS) erhält man sehr zuverlässig und mit vergleichbar geringem Rechenaufwand die richtige Energiereihenfolge der angeregten Zustände. Mit dieser Methode war es in dieser Arbeit möglich, die komplexe Photochemie von Bisazomethinpigmenten zu untersuchen und die experimentellen statischen und zeitaufgelösten Spektren auf molekularer Ebene zu interpretieren. Es konnte sowohl der Mechanismus aufgeklärt werden, der für die Fluoreszenzlöschung in den nicht-fluoreszierenden Derivaten verantwortlich ist, als auch die unerwartet komplizierte Photochemie der fluoreszierenden Moleküle schlüssig erklärt werden. Auch die Photoisomerisierung von Z-Hemithioindigo-Hemistilbene (HTI) zu seine E-Form wurde mit dieser Methode untersucht.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.
E-Learning als Innovation in der Lehre : Ansätze zur hochschulweiten Organisationsentwicklung
(2011)
In diesem Beitrag wird E-Learning als eine Innovation in der Lehre betrachtet und deutlich gemacht, wie durch Anreizsysteme, Qualifizierung, Beratung und eine Öffnung nach außen externe wie auch interne Erfahrungen und Neuerungen in die Universität Einzug halten können. Mit Hilfe eines Stufenkonzeptes und zentraler und dezentraler Supportstrukturen wurde an einer Universität die Einführung von E-Learning erfolgreich umgesetzt und weiterbegleitet. Dabei wurden auf verschiedenen Ebenen wie z. B. der Fachbereiche, der Lehrenden und auch der Multiplikatoren in den Fachbereichen Vernetzungsinstrumente angewandt. In diesem Zusammenspiel konnte ein deutlicher Anstieg von E-Learning erreicht werden.
Im Rahmen der vorliegenden Diplomarbeit wurde die Rolle der putativen mitochondrialen Kinase PINK1 untersucht. Die Mutationen in diesem Gen sind für die PARK6 Form von Morbus Parkinson ursächlich. Dies ist eine neurodegenerative Erkrankung, welche die Lebensqualität der Betroffenen weitgehend beeinträchtigt. Sie wird mit Dopamin-Ersatzmitteln und DBS (Deep Brain Stimulation) behandelt, beide nicht frei von Nebenwirkungen. Levodopa können bekannterweise zu schweren Fällen von Dyskinesie führen. Die Aufklärung der physiologischen Rolle von PINK1 würde den Wissenschaftlern auf dem Weg zur Früherkennung und anderen Therapiemöglichkeiten verhelfen. Die PARK6 Form der Parkinson Erkrankung wird derzeit anhand von verschiedenen Modellorganismen (M. musculus, D. melanogaster, D. rerio, C. elegans), sowie von verschiedenen Zellmodellen (HeLa, PC12, Fibroblasten aus PARK6 Patienten) untersucht. Als neuronale Zelllinie eignen sich die SH-SY5Y Zellen besonders gut für die Forschung an der durch den Verlust von dopaminergen Neuronen gekennzeichneten Parkinson-Erkrankung und sind diesbezüglich als ein relevantes Zellmodell breit akzeptiert (Xie et al.2010). In der vorliegenden Diplomarbeit wurden mit einem adenoviralen Konstrukt generierte PINK1 knockdown SH-SY5Y Zellen (M. Klinkenberg) als ein potentielles Zellmodell für die PARK6 Form von M. Parkinson analysiert. Als Kontrolle für die PINK1- abhängigen Effekte wurden NT (non target) Zellen herangezogen. Ausschlaggebend für die Wahl dieses Zellmodells war die Beobachtung, dass die PINK1 KD SH-SY5Y Zellen bei einer Reduktion des Serumgehaltes im Medium wesentlich langsamer wachsen als die NT Zellen (M. Jendrach). Die Serumdeprivation schien also der notwendige Stressfaktor zu sein, welcher zur Auslösung eines PINK1-abhängigen Phänotyps führen könnte. Daraus ergab sich die Frage, welche anderen PINK1-abhängigen Veränderungen unter Serumentzug zur Ausprägung kommen. Im Rahmen dieser Diplomarbeit wurde zunächst die relative Genexpression der PINK1 KD SH-SY5Y Zellen in Bezug auf die NT Zellen untersucht. Es zeigte sich, dass der PINK1 KD bei reduziertem Serumgehalt zur Herunterregulation weiterer Parkinsonrelevanter Gene führt, deren Produkte an verschiedenen zellulären Prozessen beteiligt sind. Die Effekte traten nur bei stabil transfizierten Zellen auf und waren durch einen transienten PINK1 KD nicht reproduzierbar. Viele dieser Gene sind für die Aufrechterhaltung der mitochondrialen Homöostase bedeutsam und deshalb wurde die mitochondriale Funktion und Erscheinung in den PINK1 KD SH-SY5Y Zellen genauer erforscht. Im Gegensatz zu früheren Befunden (Mai et al. 2010) wurde eine Herunterregulation des für die mitochondriale Teilung zuständigen Fis1-Proteins ermittelt, darüber hinaus aber keine Änderung der mitochondrialen Morphologie auch nach induziertem Zellstress beobachtet (Dagda et al. 2009, Lutz et al. 2009). Ein Defizit in der mitochondrialen Atmung wurde festgestellt, nachdem die Zellen bei 1g/L Glucose kultiviert und für 24h auf ein Galaktose-haltiges Medium transferiert wurden. Außerdem wurde ähnlich zu Amo et. 2010 al eine leicht verminderte Energieladung der betreffenden Zellen gefunden. Keine Beeinträchtigung der mtDNA-Integrität oder der Überlebensrate bei H2O2-induziertem oxidativen Stress wurde beobachtet. Weiterhin wurde untersucht, inwiefern die in den PINK1 KD SH-SY5Y Zellen beobachteten Veränderungen in der Genexpression auf weitere Zellmodelle (PINK1 KD HeLa, kortikale Neurone aus PINK1 KO und PINK1 KO / A53T alpha Synuclein überexprimierenden Mäusen) übertragbar sind. Dabei wurden einige Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO /A53T α Synuclein überexprimierenden kortikalen Neuronen ermittelt. Angesichts des Verlustes von dopaminergen Neuronen in M. Parkinson wäre es bedeutsam nachzuvollziehen, ob und wie die verminderte Expression Parkinson-relevanter Gene in diesen PINK1 KD Zellmodellen kompensiert wird, so dass die Zellen trotz der genetischen Einschränkung bei idealisierten in vitro Bedingungen gut überleben können. Hier ist es vorstellbar, dass zusätzlicher Zellstress die Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO / A53T SNCA überexprimierenden Neuronen erweitern könnte. Diesbezüglich wäre es auch relevant zu erforschen, unter welchen Umständen die potentiellen Kompensationsmechanismen versagen, so dass das Zellüberleben nicht mehr gewährleistet wird. Im Licht des altersbedingten Ausbruchs der Symptome bei M. Parkinson würden diese neuen Erkenntnisse dazu beitragen, die möglichen auslösenden Faktoren zu erfassen und so ein tieferes Verständnis der molekularen Mechanismen dieser schwerwiegenden Erkrankung zu erhalten.
In der LEBT-Sektion der Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) befinden sich zur transversalen Fokussierung des Ionenstrahls vier Solenoide. Die ersten beiden dienen dem Einschuss in das ExB-Choppersystem, die letzten beiden dem Einschuss in die erste Beschleunigerstruktur, den Radiofrequenzquadrupol (RFQ). In numerischen Transportsimulationen konnte gezeigt werden, dass insbesondere der erste Solenoid einen hohen Füllgrad aufweisen wird, was zu Strahlaberrationen und damit zu einer unerwünschten Erhöhung der Strahlemittanz führen kann.
Um diesen Effekt zu untersuchen, wurden die Fokussier- und Abbildungseigenschaften des ersten FRANZ-Solenoides analysiert. Analytische Rechnung unter Verwendung der Twissparametertransformation wurden durchgeführt, numerische Simulationen mit einem idealisiertem und einem realistischem Magnetfeldverlauf gemacht und 2 Messaufbauten mit einer Volumenquelle, dem Solenoid und einer Schlitz-Gitter-Emittanzmessanlage realisiert, um gemessene mit analytischen und numerischen Daten vergleichen zu können. Die Parameter, die ausgewertet und verglichen wurden, sind die Lage der Emittanzellipse, die Emittanz im x-x'-Phasenraum und die normierten vierten Momente (Wölbung) im Ortsraum.
Allgemein ist anerkannt, dass gute Kompensationsprojekte nicht nur Kohlenstoff festlegen, sondern möglichst weitere Nachhaltigkeitsleistungen aufweisen, die jedoch bisher bei der Durchführung und der Bewertung der Projekte häufig nicht angemessen berücksichtigt werden. In der vorliegenden Untersuchung wird erhoben, ob brauchbare Indikatoren vorliegen, die zur Bewertung weiterer ökologischer und sozialer Nutzen derartiger Projekte verwendet werden können.
Um den Kritiken gegenüber Waldprojekten zu begegnen, sollten Indikatoren zur Bewertung der Projekte möglichst so gewählt werden, dass sich mit ihnen auch räumliche Verlagerungseffekte erfassen lassen. Ebenso wichtig ist die Betrachtung ausreichender Zeiträume Waldprojekte haben aufgrund der langen Lebensdauer von Bäumen eine längere Laufzeit, als sie derzeit in vielen Bewertungssystemen berücksichtigt wird. Der langfristige Sequestrierungseffekt eines Projektes hängt entscheidend davon ab, ob das Holz alter Bäume im Wald wieder in den Kohlenstoffkreislauf kommt oder dem Wald entzogen wird. Bei ausschließlicher energetischer Nutzung des Holzes und auch bei Verarbeitung zu Zellstoff, Papier und Pappe wird kurze Zeit nach der Holzernte wieder Kohlendioxid freigesetzt. Dagegen schlagen langlebige Nutzungen des Holzes und insbesondere eine tatsächliche Substitution von Produkten aus Erdöl und Erdgas positiv zu Buche.
Wichtige Zusammenhänge bestehen zwischen dem Kohlendioxid-Minderungspotential von Waldprojekten und deren erheblichen ökologischen und sozialen Nutzen; diese entstehen bei optimalem Management in einer Art Ko-Produktion und sollten bewusst gestaltet werden; entsprechende Trade-offs sind bekannt.
Für die Beschreibung der gesamtökologischen und der sozialen Leistungen von Waldprojekten kann weitgehend auf bereits bekannten Kriterien aufgebaut werden; sie sollten aber um die Betrachtung der relevanten Ökosystemdienstleistungen ergänzt werden. Die Kohlenstofffestlegung ist eng mit zahlreichen dieser Ökosystemdienstleistungen (z.B. Humusbildung, Pufferungspotential gegenüber Stickstoff usw.) verknüpft. Waldprojekte mit hoher Biodiversität sind zudem in der Regel besser in der Lage, das Kriterium der Permanenz eines Kohlenstofflagers zu erfüllen. Auch lassen sich über die Ökosystemdienstleistungen bisher ausgeblendete sozio-kulturelle Dimensionen besser als bisher einbeziehen.
Auf diese Weise lässt sich die Darstellung der Nachhaltigkeitsleistung von Waldprojekten auf eine breitere Basis als bisher stellen – sowohl in ökologischer als auch in sozialer Hinsicht können die Kriterienkataloge der bisherigen Standards erweitert werden, die besonders auf Umweltwirkungen und sozioökonomische Effekte abheben. In den meisten Fällen sind bereits ausreichend geeignete Indikatoren bzw. Parameter vorhanden, um weitere wichtige Leistungen der Waldprojekte nachvollziehbar zu beschreiben. Für einige der betrachteten Dimensionen und Kriterien sind bisher noch keine Indikatoren vorhanden; zumeist gibt es aber auch dort Parameter, die Situationen anzeigen, welche unter Umständen genauer betrachtet werden müssten.
Bisher liegen keine allgemein anerkannten Standards hinsichtlich der Nachhaltigkeitskriterien von Waldprojekten vor. Eine neuerliche Debatte über eine Erweiterung des Kriteriensets ist notwendig, damit die zugehörigen Leistungsindikatoren allgemein akzeptiert werden. Diese Diskussion sollte jenseits der Nachhaltigkeitsleistungen der Waldprojekte selbst auch deren Vergleichbarkeit mit technischen Kompensationsprojekten im Blick haben. Die Kriteriendebatte war bisher durch die technischen Projekte dominiert und leider auch auf deren Bewertung verengt. Anders als technische Projekte haben Waldprojekte häufig sowohl für den Naturhaushalt als auch für die Gesellschaft viele weitere Nutzen, die eine nachhaltige Entwicklung begünstigen. Diese werden aber bisher nur unzureichend für die Qualitätssicherung und Kommunikation der Projekte genutzt.
Analog zum Gold Standard (GS) sollten die diskutierten Kriterien zu einem Standard für Waldprojekte verknüpft werden, mit dem sich die Nachhaltigkeitsleistungen dieser Kompensationsprojekte verlässlich bestimmen und überprüfen lassen. In Testläufen könnten die identifizierten Kriterien und Indikatorvorschläge erprobt und dabei modifiziert bzw. verfeinert werden.
Meeting Abstract : 82. Jahresversammlung der Deutschen Gesellschaft für Hals-Nasen-Ohren-Heilkunde, Kopf- und Hals-Chirurgie. Freiburg i. Br., 01.-05.06.2011.
Ca. 3 Millionen Erwachsene in der Bundesrepublik Deutschland leiden unter Tinnitus, wobei eine bei jedem dieser Patienten zur Heilung führende Therapie bisher noch nicht existiert. Ansatzpunkt einer neuartigen Therapie ist die Wiederherstellung des normalen elektrischen Entladungsmusters im Hörnerv mittels elektrischer Stimulation. Hiermit berichten wir über unsere ersten Erfahrungen mit dem Tinnelec, einem Implantat mit einer einzelnen Stimulations-Elektrode die in der Rundfensternische platziert wird.
Zurzeit haben wir 4 einseitig ertaubten Patienten mit Tinnitus auf dem betroffenen Ohr jeweils ein Tinnelec-System implantiert. Die Dauer des Tinnitus betrug mindestens ein Jahr und gängige Tinnitus-Therapien wie z.B. Infusionstherapie waren erfolglos geblieben. Ein psychogener Tinnitus wurde ausgeschlossen. Der durch den Tinnitus verursachte Leidensdruck wurde anhand einer VAS Scala (Visuelle Analog Scala) und eines Tinnitus-Handicap-Inventory (THI) Fragebogens beurteilt. Die Reizapplikation betrug mind. 4 Stunden täglich. Als Stimulationsparameter wurde eine Reizmusterannäherung an den Tinnitus angestrebt.
Bei drei Patienten wurde unter der Stimulation der Tinnitus erträglicher, eine zeitweise komplette Unterdrückung des Tinnitus schon innerhalb der ersten Therapie-Wochen wurde jedoch nur in einem der Fälle berichtet. Diese Ergebnisse wurden auch durch das THI und VAS unterstützt.
Die Tinnelec-Implantation erscheint für Tinnitus Erfolg versprechend zu sein. Weitere Studien bei Tinnitus-Patienten ohne zusätzliche Hörbeeinträchtigung sind jedoch notwendig bis endgültige Schlussfolgerungen betreffend dieses Implantats gezogen werden können. In jedem Fall bleibt die Option einer Cochlea-Implantation im selben Ohr, nach Explantation des Tinnelec, bestehen.
Meeting Abstract : 10. Deutscher Kongress für Versorgungsforschung, 18. GAA-Jahrestagung. Deutsches Netzwerk Versorgungsforschung e. V. ; Gesellschaft für Arzneimittelanwendungsforschung und Arzneimittelepidemiologie e. V. 20.-22.10.2011, Köln
Hintergrund: Multimedikation als Folge von Multimorbidität ist ein zentrales Problem der Hausarztpraxis und erhöht das Risiko für unangemessene Arzneimittel-Verordnungen (VO). Um die Medikation bei älteren, multimorbiden Patienten zu optimieren und zu priorisieren, wurde eine computergestützte, durch Medizinische Fachangestellte (MFA) assistierte, komplexe Intervention (checklistengestütztes Vorbereitungsgespräch sowie Überprüfung eingenommener Medikamente durch MFA, Einsatz des web-basierten ArzneimittelinformationsDienstes AiD, spezifisches Arzt-Patienten-Gespräch) entwickelt und in einer 12-monatigen Pilotstudie auf Machbarkeit getestet. Ein auf 9 Items reduzierter MAI [1] wurde eingesetzt, um dessen Eignung als potentielles primäres Outcome der Hauptstudie zu prüfen.
Material und Methoden: In die Pilotstudie in 20 Hausarztpraxen mit Cluster-Randomisation auf Praxisebene in Kontrollgruppe (Regelversorgung b. empfohlenem Standard) vs. Interventionsgruppe (komplexe Intervention b. empfohlenem Standard) wurden 5 Pat./Praxis eingeschlossen (≥65 Jahre, ≥3 chron. Erkrankungen, ≥5 Dauermedikamente, MMSE ≥26, Lebenserwartung ≥6 Monate). Zur Bewertung des MAI wurden an Baseline (T0), 6 Wo. (T1) & 3 Mon. (T2) nach Intervention erhoben: VO, Diagnosen, Natrium, Kalium & Kreatinin i.S., Größe, Gewicht, Geschlecht, Cumulative Illness Rating Scale (CIRS) [2] durch die Hausarztpraxis; Symptome für unerwünschte Arzneimittelwirkungen im Patienten-Telefoninterview.
Für den MAI wurde die Angemessenheit jeder VO in den 9 Kategorien Indikation, Effektivität, Dosierung, korrekter & praktikabler Applikationsweg, Arzneimittelwechselwirkung, Drug-disease-Interaktion, Doppelverordnung, Anwendungsdauer 3-stufig bewertet (1 = korrekt - 3 = unkorrekt) und für die Auswertung auf Patientenebene summiert. Die Bewertung erfolgte ohne Kenntnis der Gruppenzugehörigkeit. Deskriptive Statistiken und Reliabilitätsanalysen, ungewichtete Auswertung und Gewichtung n. Bregnhoj [3].
Ergebnisse: Es wurden N=100 Patienten in die Studie eingeschlossen, im Mittel 76 Jahre (Standardabweichung, SD 6; Range, R: 64-93) , 52% Frauen, durchschnittlich 9 VO/Pat. (SD 2; R 4-16), mittlerer CIRS-Score 10 (SD 4; R 0-23). Basierend auf N=851 VO (100 Pat.) zu T0 betrug der Reliabilitätskoeffizient (RK, Cronbachs Alpha) der ungewichteten 9 Items 0,70. Items 1-5 wiesen akzeptable Trennschärfen auf (0,52-0,64), die der Items 6, 7 & 9 fielen mit 0,21-0,29 niedriger aus, die des Item 8 betrug 0,06. Auf der Basis der 9 gewichteten Items fiel die interne Konsistenz des MAI erwartet höher aus (0,75). Die Reliabilitätsanalysen auf VO-Ebene zeigten einen RK von 0,67 (ungewichtet) vs. 0,75 (gewichtet), die Trennschärfen waren vergleichbar. Zur Zwischenauswertung betrug der MAI (T1-T0) in der Interventionsgruppe (5 Praxen, 24 Pat.) -0,9 (SD 5,6), in der Kontrollgruppe (7 Praxen, 35 Pat.) -0,5 (SD 4,9); die Differenz zwischen beiden Gruppen Mi–Mk -0,4 [95% Konfidenzintervall: -3,4;2,6].
Schlussfolgerung: Der MAI ist als potentielles primäres Outcome in der Hauptstudie geeignet: wenige fehlende Werte, Darstellung von Unterschieden prä-post und zwischen den Gruppen, akzeptable interne Konsistenz. Der niedrige Trennschärfekoeffizient des Items 8 weist darauf hin, dass dieses Item nicht mit dem Gesamt-Skalenwert korreliert, auch die Items 6, 7 und 9 korrelieren wesentlich schwächer mit dem Gesamt-Skalenwert als die Items 1 bis 5. Eine Wichtung z.B. der Items 2, 5, 6 und 9 könnte erwogen werden, um den Fokus der Intervention in der Hauptzielgröße angemessen abzubilden.
Einleitung: Angestoßen durch die Änderung der Approbationsordnung haben die berufspraktischen Kompetenzen in Deutschland eine höhere Priorität erhalten und werden in den medizinischen Fakultäten deswegen vermehrt vermittelt. Dadurch entstand die Notwendigkeit, den Prozess mehr und mehr zu standardisieren. Auf Initiative der deutschsprachigen Skills Labs wurde der GMA-Ausschuss für praktische Fertigkeiten gegründet, der einen kompetenzbasierten Lernzielkatalog entwickelte, dessen Entstehung und Struktur hier beschrieben wird. Ziel des Kataloges ist es, die praktischen Fertigkeiten im Medizinstudium zu definieren und damit den Fakultäten eine rationale Planungsgrundlage für die zur Vermittlung praktischer Fertigkeiten notwendigen Ressourcen zu geben.
Methodik: Aufbauend auf schon vorhandenen deutschsprachigen Lernzielkatalogen wurde mittels einem mehrfach iterativem Kondensationsprozesses, der der Erarbeitung von S1-Leitlinien entspricht, vorgegangen, um eine breite fachliche und politische Abstützung zu erhalten.
Ergebnisse: Es wurden 289 verschiedene praktische Lernziele identifiziert, die zwölf verschiedenen Organsystemen, drei Grenzbereichen zu anderen Kompetenzbereichen und einem Bereich mit organsystemübergreifenden Fertigkeiten zugeordnet. Sie wurden drei verschiedenen zeitlichen und drei verschiedenen Tiefendimensionen zugeordnet und mit dem Schweizer und dem Österreichischem Pendant abgeglichen.
Diskussion: Das vorliegende Konsensusstatement kann den deutschen Fakultäten eine Grundlage zur Planung der Vermittlung praktischer Fertigkeiten bieten und bildet einen wichtigen Schritt zu einem nationalen Standard medizinischer Lernziele.
Blick in die Zukunft: Das Konsensusstatement soll einen formativen Effekt auf die medizinischen Fakultäten haben, ihre praktischen Unterrichtsinhalte entsprechend zu vermitteln und die Ressourcen danach zu planen.
Bei den vorliegenden Zielvereinbarungen zwischen dem HMWK und den zwölf hessischen Hochschulen handelt es sich um Leistungsvereinbarungen, die auf dem Hochschulpakt für die Jahre 2011 bis 2015 (vom 18. Mai 2010) aufbauen. Wurden im Hochschulpakt vornehmlich strategische Regelungen hinsichtlich der Finanzierung der Hochschulen und der hochschulpolitischen Ziele getroffen, werden nunmehr mit den inzwischen zum dritten Male abgeschlossenen Zielvereinbarungen vor allem strategische Schwerpunkte in der Hochschulentwicklung gesetzt. ...
Basierend auf dem im Wissenschaftskontext diskutierten Postulat, dass ADHS-Symptomatiken auf Defizite in der Selbstregulation zurückzuführen sind, befasst sich die vorliegende Arbeit auf theoretischer und empirischer Ebene mit verschiedenen Facetten kognitiver und emotionaler Selbstregulation bei Kindern mit ADHS.
In diesem Zusammenhang wurde unter Verwendung eines computerbasierten Task-Switching-Paradigmas die kognitive Flexibilität von Kindern mit und ohne ADHS in den Blick genommen. Hierbei zeigte sich, dass die Bewältigung des flexiblen Aufgabenwechsels vergleichsweise höhere Anforderungen an die ADHS-betroffenen Kinder stellt. So ließen sich im Task-Switching-Paradigma zwar bezüglich der generellen Wechselkosten keine Gruppenunterschiede auffinden. Jedoch wurden für die ADHS-betroffenen Kinder signifikant höhere spezifische Wechselkosten aufgefunden als für die Kontrollkinder. Dieser Gruppenunterschied war auch dann zu beobachten, wenn Differenzen in der Inhibitionsleistung statistisch kontrolliert wurden.
Im Rahmen einer weiteren Untersuchung, bei welcher der Fragebogen zur Erhebung der Emotionsregulation bei Kindern und Jugendlichen (FEEL-KJ; Grob & Smolenski, 2005) zum Einsatz gebracht wurde, wurde zudem überprüft, ob sich Kinder mit und ohne ADHS im Hinblick auf die von ihnen im Alltag angewandten Strategien der Emotionsregulation unterscheiden. Zusammengenommen deuten die Ergebnisse darauf hin, dass Kinder mit ADHS zur Regulation ihrer negativen Emotionen vergleichsweise seltener von adaptiven Strategien Gebrauch machen, während sich im berichteten Gebrauch von maladaptiven Strategien keine Gruppenunterschiede zeigten. Des Weiteren wurde deutlich, dass diejenigen ADHS-betroffenen Kinder, die in ihrem Alltag besonders selten adaptive Emotionsregulationsstrategien einsetzen, auch besonders stark unter psychosozialen Beeinträchtigungen leiden.
Schließlich wurde in einer anwendungsorientierten Studie untersucht, welchen Beitrag der kombinierte Einsatz selbstberichtsbezogener und computergestützter Messungen der Selbstregulation zur Absicherung von ADHS-Diagnosen leistet. Hierbei wurden im Rahmen von ROC-Analysen für (1.) eine computerbasierte GoNoGo-Aufgabe, (2.) die Impulsivitätsskala des Inventars zur Erfassung von Impulsivität, Risikoverhalten und Empathie bei 9- bis 14-jährigen Kinder (IVE; Stadler, Janke & Schmeck, 2004) und (3.) den z-transformierten Summenwert aus beiden Verfahren die jeweilige diagnostische Sensitivität und Spezifität bestimmt. Dabei konnte nur für das kombinierte Messverfahren ein klinischer Cut-Off-Wert bestimmt werden, der eine perfekte Sensitivität bei gleichzeitig zufrieden stellender Spezifität gewährleistete. Folglich belegen die Studienergebnisse insgesamt gesehen, dass selbstregulationsbezogene Messverfahren einen Beitrag zur ADHS-Diagnosestellung leisten können, wobei eine Kombination mehrerer Messverfahren zu einer deutlich gesteigerten Diskriminationsfähigkeit führt.
Zusammenfassend lässt sich festhalten, dass den Ergebnissen der vorliegenden Dissertationsschrift folgend ADHS als eine Störung der Selbstregulation beschrieben werden kann. Im Speziellen unterstützen die gewonnenen Befundmuster die in der Forschung zunehmend diskutierte Auffassung, dass ADHS auf divergente Selbstregulationsdefizite zurückzuführen ist, die sich sowohl auf die kognitiven als auch auf die emotionalen Facetten der Selbstregulation beziehen. Dieses Wissen kann aus anwendungsbezogener Perspektive einen zentralen Beitrag zur Verbesserung der diagnostischen und therapeutischen Praxis leisten.
Professionelle Fehlerkompetenz von Lehrkräften – Wissen über Schülerfehler und deren Ursachen
(2011)
Die Ergebnisse nationaler und internationaler Vergleichsstudien rücken das Thema Bildungsqualität in den letzten Jahren vermehrt in den Blickpunkt öffentlicher und wissenschaftlicher Diskussion und führen zu einer verstärkten Auseinandersetzung mit Bedingungen des Ge- bzw. Misslingens von Schülerlernen. Als bedeutsamer Einflussfaktor auf den Lernerfolg wird dabei die Lehrperson bzw. deren Kompetenz ausgemacht (vgl. bspw. Blömeke, Kaiser & Lehmann 2008; Lankes 2008; Schaper & Hochholdinger 2006; Zlatkin-Troitschanskaia, Beck, Sembill, Nickolaus & Mulder 2009). In der Folge dieser Diskussion werden deshalb nicht mehr nur Leistungs- und Kompetenzerwartungen als Standards für Lernende, sondern auch für Lehrende definiert (vgl. bspw. Terhart 2006). Die in diesem Zusammenhang aufgeworfenen Fragen sind allerdings nicht neu (vgl. z.B. Cochran-Smith 2001), stellt doch das Expertenparadigma bereits seit den 1980er Jahren eine der zentralen Leitlinien der empirischen Bildungsforschung dar. ...
Die Themenschwerpunkte Lehr-Lern-Forschung und Professionalisierung werden aus Sicht aktueller Forschungsprojekte sowohl empirisch als auch theoretisch analysiert. Im Vordergrund stehen die Wirksamkeit spezifischer Unterrichtsmethoden und Fördermaßnahmen sowie professionelle Kompetenzen des Bildungspersonals.