Refine
Year of publication
Document Type
- Article (13385)
- Part of Periodical (8537)
- Book (5974)
- Doctoral Thesis (3639)
- Part of a Book (2842)
- Review (2562)
- Contribution to a Periodical (2366)
- Working Paper (1016)
- Report (1014)
- Conference Proceeding (515)
Language
- German (43303) (remove)
Keywords
- Deutsch (787)
- Literatur (744)
- Rezension (434)
- Deutschland (388)
- Frankfurt <Main> / Universität (341)
- Rezeption (286)
- Geschichte (258)
- Film (224)
- Vorlesungsverzeichnis (224)
- Hofmannsthal, Hugo von (218)
Institute
- Präsidium (5149)
- Medizin (2376)
- Extern (1768)
- Gesellschaftswissenschaften (1384)
- Rechtswissenschaft (1036)
- Geschichtswissenschaften (916)
- Biochemie und Chemie (888)
- Neuere Philologien (830)
- Wirtschaftswissenschaften (787)
- Physik (696)
Aufgrund soziokultureller Unterschiede im Bereich der Rechtsordnungen und demnach auch in den Terminologien kommen beim juristischen Übersetzen etliche Divergenzen zum Vorschein. Im Falle der Null- oder partiellen Äquivalenz zwischen den Termini der Ausgangs- und Zielsprache (AS und ZS) drohen nicht nur Missverständnisse zwischen den Parteien, sondern auch fatale Folgen. Um dem vorzubeugen, muss der Übersetzer als Kenner der Rechtsbegriffe und ihrer Rolle in den Rechtssystemen als Mediator nicht nur interlinguale, sondern v.a. interkulturelle Konflikte in Bezug auf das (Miss)Verstehen lösen. Die theoretischen Ansätze werden durch Erfahrungen aus einer weitläufigen Enquete unter sowohl Auftraggebern als auch unter beeidigten Übersetzern ergänzt
Die Unternehmensbesteuerung ist eines der Instrumentarien das im Wettbewerb um den mobilen Faktor Kapital von den Industriestaaten eingesetzt wird. Hinsichtlich der wissenschaftlichen Forschung, die den Zusammenhang zwischen der Unternehmensbesteuerung und dem unternehmerischen Kapitalstock untersucht, ist mittlerweile eine beträchtliche Zahl von Literatur entstanden. Aus der vorhandenen Literatur sind jedoch zwei Schwächen zu erkennen. Erstens basieren viele der empirischen Analysen auf makroökonomischen Zeitreihendaten und zweitens finden vor allem Reduzierte-Form-Modelle Anwendung. Die vorliegende Dissertation gliedert sich in die Reihe empirischer Arbeiten unter Verwendung von Mikrodaten ein, die Aspekte der Unternehmensbesteuerung untersuchen. Die Arbeiten liefern einen Beitrag zum tieferen Verständnis aus den Teilbereichen der Finanzierunkstruktur, der gemeinsamen Bemessungsgrundlage sowie der Messung der marginalen Steuerbelastung. Dabei konzentrieren sich die Analysen auf die Aktivitäten deutscher Unternehmen im In- und Ausland sowie ausländischer Unternehmen in Deutschland. Grundlage der empirischen Untersuchungen sind vor allem vertrauliche Mikrodaten der Deutschen Bundesbank. Im Rahmen der deskriptiven und multivariaten Analyse werden Hinweise für den Zusammenhang zwischen der Besteuerung und dem unternehmerischen verhalten nachgewiesen. Damit dienen die Resultate auch als Diskussionsgrundlage für die Ausgestaltung künftiger Steuerpolitik in Deutschland und der EU.
Künstliche Intelligenz (KI), also intelligente Software, führt heutzutage Aufgaben aus, die man einst nur Menschen zutraute. Schon heute ist sie in vielen Bereichen unserer Gesellschaft angekommen – man denke an selbstfahrende Fahrzeuge, medizinische Diagnostik, Übersetzungsprogramme, persönliche Gesprächsassistenten, Suchfunktionen und Robotik. Doch wie weit können wir KI-Systemen vertrauen?
Das Ziel dieser Dissertation war es, die biologische Relevanz der F1Fo-ATP-Synthase für den Alterungsprozess des Ascomyceten P. anserina aufzuklären sowie die Funktion der Dimerisierungsuntereinheiten PaATPE und PaATPG genauer zu untersuchen. Folgende Ergebnisse wurden dabei erzielt:
1. Der Verlust einer Dimerisierungsuntereinheit führt in P. anserina zum Verlust der Dimerisierungsfähigkeit der F1Fo-ATP-Synthase. Dieses Ereignis resultiert in einer vorzeitigen Anhäufung von Seneszenzmerkmalen, einer starken Verkürzung der Lebensspanne und einem beschleunigten Alterungsprozess. Der Phänotyp der Stämme ∆PaAtpe und ∆PaAtpg lässt sich erfolgreich revertieren. Dadurch konnte bestätigt werden, dass der beobachtete Phänotyp der Deletionsstämme auf den Verlust der Dimerisierungsgene zurückzuführen ist.
2. Die konstitutive Überexpression des PaAtpe-Gens führt zu einer Verlängerung der Lebensspanne, die allerdings nicht abhängig von einer Erhöhung der Dimer-Menge, sondern auf eine Verlängerung der Mitochondriennetzwerke und eine erhöhte Atmung zurückzuführen ist.
3. Obwohl die Lebensspannen der untersuchten PaAtpg_OEx-Stämme voneinander abweichen, ist der auf den Organismus ausgeübte Effekt der PaAtpg-Überexpression positiv. Dabei lässt sich eine Erhöhung der Dimer-Menge auch in diesen Stämmen nicht nachweisen und eine Veränderung der Mitochondrienmorphologie tritt nur in einem der fünf untersuchten Stämme auf, was hier allerdings mit dem größten Effekt auf die Lebensspanne korreliert.
4. Die gleichzeitige Überexpression der Gene PaAtpe und PaAtpg führt interessanterweise zu einer Aufhebung der durch die PaAtpe-Überexpression hervorgerufenen positiven Effekte. Die generierte Doppelmutante weist somit wildtypische Eigenschaften auf. Eine Erhöhung der Dimer-Menge kann trotz Überexpression beider Gene nicht festgestellt werden.
5. Trotz gleicher Funktion in der Dimerbildung der F1Fo-ATP-Synthase ist das Expressionsniveau der Dimerisierungsgene in P. anserina unterschiedlich. Bereits im Wildtyp wird das PaAtpe-Gen weniger transkribiert als das PaAtpg-Gen. Letzteres wird durch die PaAtpe-Überexpression sowohl in den PaAtpe_OEx-Mutanten als auch in der Doppelmutante herunterreguliert. Auch im Wildtyp kommt es zu einer altersabhängigen Herunterregulierung des PaAtpg-Gens.
6. Im Wildtyp nimmt die Dimer-Menge im Alter ab und es kommt zu einer altersbedingten Änderung der Superkomplexe von S1 zu S0. Dies sind Hinweise auf eine altersabhängige Remodellierung der Cristae-Membran, die möglicherweise zum Seneszenzphänotyp von P. anserina beiträgt. Somit ist die Aufrechterhaltung des Dimers von großer Bedeutung für die Gewährleistung mitochondrialer Funktionen des Organismus.
Die F1Fo-ATP-Synthase spielt in ihrer dimeren Form eine bedeutende Rolle in der Aufrechterhaltung der Mitochondrienfunktion und gewährleistet den Ablauf von lebenswichtigen mitochondrialen Prozessen, die für die Erhaltung der zellulären Homöostase von essentieller Bedeutung sind.
Betriebliche Integration von Pflegefachkräften aus dem Ausland gelingt häufig nicht gut, weil die Unterschiede in den Fachlichkeitsverständnissen und in den Erwartungen an die Arbeitsorganisation zu Auseinandersetzungen zwischen den neu migrierten und etablierten Pflegefachkräften führen. Das Working Paper stellt die Ursachen für die Hauptkonfliktlinien dar und reflektiert, mit welchen Strategien die Einrichtungen der Gesundheits- und Pflegebranche die betriebliche Integration unterstützen können. Die Herausforderungen der betrieblichen Akteure und Lösungsansätze werden in zwei Interviews mit Vertretern des Krankenhaussektors verdeutlicht.
Für ein Assessment Center zur Auswahl von Versicherungs-Außendienstmitarbeitern wurde geprüft, ob Beobachterexperten und Beobachternovizen zu ähnlichen oder zu unterschiedlichen Schlussfolgerungen über die Teilnehmer kommen. Eine ähnliche Schlussfolgerung sollte dabei Indikator dafür sein, dass ein Beobachtertraining (hier: Verbesserung der Beobachterexpertise durch wenigstens einmalige Teilnahme an einem AC als Beobachter) ohne Auswirkungen bleibt. Verglichen wurden die Ergebnisse dieser Beobachtergruppen mit dem AC-Leiter als "Oberexperten" und der AC-Assistenz. Im Rahmen der vorliegenden Untersuchung wurden die Daten von 37 AC mit insgesamt 267 Kandidaten und 171 Beobachtern in zwei unterschiedlichen Datensätzen überprüft. Es konnte nachgewiesen werden, dass sowohl Experten wie auch Novizen eine hohe Übereinstimmung mit der Gesamtrangfolge über die Teilnehmer hatten; hinsichtlich der übungsbezogenen und der merkmalsbezogenen mittleren Korrelationen sowie der mittleren Korrelationen innerhalb der einzelnen Übungen wurden kaum signifikante Unterschiede zwischen den einzelnen Beobachtergruppen festgestellt. Aus diesem Grunde kann geschlossen werden, dass die Teilnahme an einem AC als Beobachter nicht notwendigerweise die Beobachterexpertise verbessert. Angesichts der hohen Übereinstimmung der Beobachtergruppen mit der Gesamtrangfolge über die Teilnehmer kann geschlossen werden, dass für den vorliegenden einfachen AC-Typ verbunden mit der spezifischen Art der Ergebnisgewinnung der Verzicht auf ein Beobachtertraining nicht notwendigerweise eine Verschlechterung der AC-Ergebnisse bedeutet.
Während des Fressens als auch während des Putzens unterbrechen Blesshühner ihre jeweilige Aktivität um zu sichern (‘vigilance’). Je größer eine Gruppe ist, desto niedriger ist die Sicherungsrate des einzelnen Individuums. Dafür werden verschiedene Erklärungen geboten: 1) Vögel können von der Aufmerksamkeit ihrer Artgenossen profitieren, da viele Augen einen herannahenden Prädator eher entdecken, 2) der Verdünnungseffekt besagt, dass die Wahrscheinlichkeit, Opfer eines Beutegreifers zu werden, in größeren Gruppen geringer ist als in kleineren oder, 3) Vögel konkurrieren in größeren Gruppen stärker um begrenzte Nahrungsressourcen (Konkurrenzhypothese). Sollte die Konkurrenz um vorhandene Ressourcen tatsächlich zumindest teilweise für den Rückgang der individuellen Sicherungsrate mit zunehmender Gruppengröße verantwortlich sein, dann sollten putzende Blesshühner eine höhere Sicherungsrate zeigen. Daten zum Sicherungsverhalten wurden in drei Wintern erhoben. Gruppengröße und Nachbardistanz besaßen einen signifikanten Einfluss auf die Sicherungsrate. Dabei korrelierte die Gruppengröße negativ und die Nachbardistanz positiv mit der Sicherungsrate. Um diese Effekte unter Kontrolle zu halten, wurden jeweils die standardisierten Residuen der Sicherungsrate berechnet. Der Unterschied in der Sicherungsrate zwischen Fressen und Putzen war signifikant. Dies bedeutet, dass Blesshühner während des Putzens tatsächlich häufiger sichern als beim Fressen. Dies könnte ein Beleg für die Konkurrenzhypothese sein. Allerdings können diese Ergebnisse durch verschiedene Aspekte überlagert werden, wie z.B. die Distanz zum Ufer, eine eingeschränkte Sicht während des Putzens oder die Gruppengeometrie.
Da Vögel in der Regel vor einem sich annähernden Menschen fliehen bzw. auffliegen, kann die Fluchtdistanz als ein Maß genommen werden, mit dem sich einerseits die „Ängstlichkeit”, andererseits auch der Konflikt zwischen Bleiben und Auffliegen quantifizieren lässt. Hier untersuchte ich die Fluchtdistanz zweier Aaskrähenpopulationen, einer in Sachsen und einer in Schwaben. Mithilfe statistischer Methoden wurde eine Vielzahl von Einflussvariablen kontrolliert. Die Fluchtdistanz sank, je mehr Menschen sich in der Nähe aufhielten. Je weiter entfernt von einem sicheren Platz und je weiter entfernt von der nächsten Siedlung, auf desto größere Distanz flogen die Krähen auf. Sächsische Aaskrähen (im Raum Leipzig) flogen bereits bei einer Distanz von 86,8 m auf, schwäbische im Raum Stuttgart dagegen erst bei 67,2 (basierend auf den geschätzten Randmitteln eines Allgemeinen Linearen Modells). Einige mögliche Ursachen für dieses Verhalten werden diskutiert.
Schwanzwippen ist bei einer Reihe von Vogelarten ein sehr
auffälliges Verhalten, dennoch ist die Funktion dieses Verhaltens bislang wenig geklärt. In dieser Arbeit werden verschiedene
Hypothesen vorgestellt und diskutiert. Dabei erscheinen
Hypothesen am überzeugendsten, die dieses Verhalten in
einem Räuber-Beute-Kontext platzieren. Wippen signalisiert
die Wachsamkeit eines Individuums an einen potenziellen
Beutegreifer. Mögliche weitere Interpretationen sind Alarmsignale
oder Kommunikation innerhalb eines Paares, sowie
eine lokomotorische Funktion. Die letzten drei Hypothesen
wurden bislang allerdings noch nicht experimentell getestet
oder durch Beobachtungen bestätigt.
Georg Adam, 1874–1948
(2021)
Dieses Porträt über Georg Adam gibt einen Vortrag wieder, den Norbert Randow (1929–2013) am 18. November 1960 anlässlich der 150-Jahr-Feier der Humboldt-Universität zu Berlin gehalten hat. Gedruckt erschien der Beitrag 1962 in der "Wissenschaftlichen Zeitschrift" der Humboldt-Universität unter dem Titel "Der Slawenfreund Georg Adam und sein Verhältnis zur bulgarischen Literatur". Die am Schluss des Vortrags angekündigte größere Studie zu Leben und Werk Georg Adams kam nicht zustande, da Randow 1962 wegen "Beihilfe zur Republikflucht" zu einer mehrjährigen Haftstrafe verurteilt wurde und anschließend seine slawistisch-bulgaristischen Forschungsvorhaben nicht wieder aufnehmen konnte. Stattdessen wurde er - seinem großen Vorbild Georg Adam folgend - herausragender Übersetzer aus slawischen Sprachen, insbesondere aus dem Bulgarischen und Weißrussischen. Der von Norbert Randow in den 50er Jahren übernommene Nachlass Georg Adams ist in großen Teilen Bestandteil des an die Humboldt-Universität gelangten Randow-Nachlasses, ein kleinerer Teil Korrespondenz ist an das Bulgarische Literaturarchiv in Sofia gegangen.
Eine Anleihe ist die Aufnahme von Kapital gegen die Ausgabe von Inhaberschuldverschreibungen. Die Inhaberschuldverschreibungen verbriefen Ansprüche auf Rückzahlung und Verzinsung des zur Verfügung gestellten Kapitals. Die inhaltliche Gestaltung der Ansprüche ist in das Belieben der Emittentin gestellt. Welche Leistung geschuldet ist und welche Einwendungen erhoben werden dürfen, muß sich allerdings aus der Urkunde ergeben, §§ 793, 796 BGB. Die Urkunde enthält Anleihebedingungen. Anleihebedingungen haben, soweit sie das Verhältnis zwischen Schuldner und Gläubiger betreffen,* zwei Komponenten: Die Angaben über Verzinsung und Rückzahlung bilden die Leistungskomponente der Anleihe. Ihre Sicherheitskomponente umfaßt dagegen Bestimmungen über den Schutz der Gläubiger vor Verschlechterung der verbrieften Ansprüche, beispielsweise Kündigungs- und Negativklauseln. Ungeklärt ist bislang, ob diese Anleihebedingungen der Einbeziehungs- und Inhaltskontrolle nach dem AGB- Gesetz unterliegen. An Behauptungen, daß das AGB- Gesetz auch für Anleihebedingungen gelte, fehlt es nicht. Nach Begründungen aber sucht man vergebens. Dem Betrachter der Emissionspraxis von DM- Auslandsanleihen jedenfalls müssen sich Zweifel an der Anwendbarkeit des AGB- Gesetzes geradezu aufdrängen. Die Emittentin veräußert die Teilschuldverschreibungen nicht direkt an Anleger, tritt diesen also nicht als Verwender der Anleihebedingungen gegenüber. Der Ersterwerb der Anleihe vollzieht sich stattdessen im Verhältnis der Emittentin und Emissionsbank. Zwischen diesen aber werden die Anleihebedingungen ausgehandelt. Der Anleger erwirbt von seiner Bank oder an der Börse also eine im einzelnen ausgehandelte Forderung. Ihm hat kein Verwender die Bedingungen gestellt, wie in § 1 Abs. 1 Satz 1 AGB- G beschrieben. Diese - noch im einzelnen darzustellenden - Umstände lassen die Anwendung des AGB- G auf Anleihebedingungen problematisch erscheinen. Das dogmatische Unbehagen läßt sich auch nicht ohne weiteres durch den Hinweis auf zwingende Gebote des Verbraucherschutzes beseitigen. Der Blick über die Grenzen und auf andere große Anleihemärkte der Erde lehrt vielmehr, daß eine AGB- rechtliche Kontrolle von Anleihebedingungen alles andere als selbstverständlich wäre: Der englische Unfair Contract Terms Act 7977 erfaßt Anleiheverträge nicht, und auch US- amerikanischen Juristen ist die Vorstellung fremd, bond covenants als contracts of adhesion zu begreifen. Es darf daher nicht verwundern, wenn Beobachter des hiesigen Kapitalmarktes besorgt fragen, ob in Deutschland in diesem Falle andere Regeln gelten als international üblich. Die Frage nach Geltung des AGB- G für Anleihebedingungen hat aber nicht nur praktisches Interesse, sondern auch ihren dogmatischen Reiz: Der Fall, daß zwei Parteien individualvertraglich eine Vielzahl standardisierter Forderungen produzieren, um sie anschließend marktlieh abzusetzen, führt in einige kaum erforschte Grenzgebiete des Rechts der Allgemeinen Geschäftsbedingungen.
Der Gemeinsame Vertreter kann in das Fadenkreuz der Anleihegläubiger geraten und in das des Emittenten. Er hat daher das rechte Maß zu finden zwischen Engagement, Sorgfalt und Konfliktbewältigung bei der Erfüllung seiner Aufgaben. Das gilt insbesondere dann, wenn der Schuldner in die Krise geraten ist und im Kreis der Anleihegläubiger der Ruf nach einem „aktiven“ und engagierten Vertreter laut wird.
Um einen „Hilferuf“ handelt es sich dabei nicht immer. Vielmehr haben sich einzelne Investoren darauf spezialisiert, Anleihebedingungen zu durchforsten, um etwaige – und sei es auch nur „technische“ - Verstöße gegen dort enthaltene rechtliche Vorgaben zu entdecken. Sind sie fündig geworden, aber durch „no-action“-Klauseln daran gehindert, selbst tätig zu werden, schauen sie auf den Gemeinsamen Vertreter und erwarten von ihm die aggressive Wahrnehmung ihrer Rechte. Dazu kann gehören, aktiv die Fälligstellung zu fordern und so Drohpotential gegen den Emittenten aufzubauen;2 freilich, das muss nicht jedem Gläubiger recht sein, z.B. solchen, die bei zunächst eintretenden Kursverfall aus anlagerechtlichen Gründen gehalten ist, sich kostspielig vom Engagement zu trennen.
Konflikte innerhalb derselben Anleihegläubigerklasse sind damit programmiert. Und sie übertragen und bündeln sich dann in der Person des Gemeinsamen Vertreters – jedenfalls dann, wenn er exklusiv damit betraut ist, über die Ausübung von Gläubigerrechten zu befinden. Der gemeinsame Vertreter steht dann vor der Frage, ob er den Erwartungen aggressiver Obligationäre nachgeben soll oder nicht.3 Er muss deshalb wissen, was seine Rolle ist. Dazu ist die Reichweite seiner Interventionsmöglichkeiten und –pflichten im Spannungsfeld zwischen gesetzlicher und rechtsgeschäftlicher Aufgabenzuweisung, business judgment rule, Haftungsbeschränkung und der Beschlusskontrolle näher zu bestimmen; ansonsten wird es nicht zur gewünschten Koordinierung des Gläubigerverhaltens durch den Gemeinsamen Vertreter kommen.
Im Folgenden soll eine Diskussion über die dabei entstehenden Rückkoppelungseffekte angestoßen werden, welche sich mit dem gesetzgeberischen Idealbild nicht so recht zu vertragen scheinen.
Eine große Anzahl pharmakologischer und klinischer Studien zeigt die Wirksamkeit des standardisierten Ginkgo biloba Extraktes EGb 761 bei vaskulären und kognitiven Stö-rungen, wie der Alzheimer-Krankheit, der vaskulären Demenz und der peripheren arte-riellen Verschlusskrankheit. Experimentelle Ergebnisse weisen darauf hin, dass Terpen-laktone und Flavonolglykoside für die meisten pharmakologischen Wirkungen von EGb 761 verantwortlich sind. Allerdings gibt es wenige Studien, die die orale Biover-fügbarkeit von Terpenlaktonen und besonders von Flavonolglykosiden aus Ginkgo bilo-ba im Blut oder Zentralnervensystem untersuchten. Deshalb wurde in dieser Arbeit die Fähigkeit der Flavonoidglykosiden bzw. deren Metaboliten die Blut-Hirn-Schranke zu überwinden im Tierversuch an männlichen Sprague-Dawley-Ratten erforscht. Unter-sucht wurden dabei orale Einfach- und Mehrfachgaben von EGb 761 über einen Zeit-raum von 8 Tagen in den Dosierungen 100 bzw. 600 mg Extrakt pro kg Körpergewicht. Zusätzlich wurde die Verteilung der Ginkgoflavonolmetabolite in den unterschiedlichen Bereichen des Gehirns untersucht (Hippocampus, frontaler Cortex, Striatum und Klein-hirn). Zu diesem Zweck wurde eine HPLC-Fluoreszenzmethode für die Ermittlung der Plasma- und Gehirnkonzentrationen der Flavonoidmetaboliten (Derivate von Quercetin, Kämpferol und Isorhamnetin) entwickelt und validiert. In beiden Studien (Einfach- und Mehrfachgabe) wurden Flavonoidmetaboliten im Plasma und im Gehirn nachgewiesen. Dabei wurden Metaboliten in allen untersuchten Gehirnbereichen gefunden. Bei der Dosierung von 100 mg/kg war Kämpferol vorzugsweise im frontalen Cortex lokalisiert, während die anderen Flavonole in allen Regionen vergleichbare Konzentrationen auf-wiesen. Bei der höheren Dosierung von 600 mg/kg waren die Konzentrationen der Fla-vonolmetaboliten in allen Gehirnbereichen vergleichbar. Obgleich die vier untersuchten Gehirnbereiche nur 38% des gesamten Gehirns darstellten, wurden die meisten Gink-goflavonole in diesen Regionen gefunden. Im übrigen Gehirngewebe wurden nur be-grenzte Mengen von Flavonolen nachgewiesen. Zusammenfassend kann festgehalten werden, dass es erstmalig gelungen ist, im Tier-versuch die Bioverfügbarkeit einer der therapeutisch aktiven Substanzklassen von Ginkgo biloba - die Flavonoide - sowohl im Plasma als auch im ZNS nachzuweisen.
Mit der vorliegenden monumentalen Monographie veröffentlicht der Verfasser, der seit Ende 2018 als Professeur agrégé de droit public an der Université Paris Saclay (Université d’Evry-Val d’Essonne) tätig ist, seine in Frankeich mehrfach ausgezeichnete thèse de doctorat aus dem Jahre 2015. Die Arbeit, die bereits vom amerikanischen Politikwissenschaftler Aurelian Craiutu begeistert rezensiert wurde (in: French Studies. A Quarterly Review 73,2 [2019] 335–336), verdient unbedingt auch einem deutschen Lesepublikum vorgestellt zu werden. Die zentrale These des Verfassers lautet, dass das englische parlamentarische System in der französischen Rechts- und politischen Kultur seit dem 18. Jahrhundert und über das ganze 19. Jahrhundert hinweg eine rechtspolitische Vorbildfunktion hatte. "Le modèle réformiste de la Constitution de l’Angleterre", lautet also das Fazit der Untersuchung, "a intellectuellement dominé la France du XIXe siècle". ...
Die serbische Revolution : aus serbischen Papieren und Mittheilungen ; mit einer Charte von Serbien
(1829)
Es geht um Werbung, Betrug oder die Optimierung von Geschäftsmodellen: Verbraucherdaten sind ein kostbares Gut, das Kreditgeber und Versicherer genauso interessiert wie Händler und Kriminelle. Kai Rannenberg, Professor für Mobile Business & Multilateral Security an der Goethe-Universität, forscht zur Cybersicherheit. Dirk Frank hat mit dem Wirtschaftsinformatiker über Datenschutz, Hackerangriffe und das Auto als »Handy auf Rädern« gesprochen.
Plattformen für Social Communities im Internet, wie Facebook, StudiVZ und XING, haben in den vergangenen Jahren rasant an Popularität gewonnen. Auf ihnen versammeln sich bereits heute Millionen von Nutzern weltweit. Sie verbinden sich über virtuelle Freundeslisten und tauschen sich über gemeinsame Interessen und Aktivitäten aus. Immer häufger werden dazu auch mobile Endgeräte wie Handys verwendet, erlauben diese doch ständig in Kontakt mit der Community zu bleiben. Allerdings wollen viele Nutzer längst nicht jedem Mitglied einer Community alles preisgeben. Doch wie lässt sich die Privatsphäre in solchen Communities besser schützen? Dieser Frage geht das Forschungsprojekt PICOS nach.
Die Dissertation betrachtet zunächst die Anatomie der Lautentstehung und die Historie von Untersuchungen zu Sprechtraktakustik (u.a. Ibn Sina, Hook, Mical, Kratzenstein, Kempelen, Faber, Wheatstone, Helmholz, Riesz, Dunn, Chiba, Kajiyama, Kelly, Lochbaum, Saito, Itakura, Burg ) und geht insbesondere auf das Rohrmodell zu Beschreibung der Vokaltraktakustik ein.
Mittels Finiter-Differenzen wird die Aksutik der Sprechens dann dreidimensional beschrieben, und die zuätzlich auftretenden Effekte betrachtet. Fur die sich beim Sprechen schnell bewegende Mundhöhle wird ein Verfahren entwickelt und untersucht, mittels Sprachsignalen durch inverse Filterung und MRT-Aufnahmen die räumliche Konfiguration zu bestimmen. Für den Nasaltrakt wurden dreidimensional abbildende Verfahren aus der medizinischen Diagnostik verglichen (MRT und CT), und anhand eines Computer-Tomographischen Datensatzes die akustischen Vorgänge dreidimensional bestimmt.
E.T.A. Hoffmanns Erzählung "Der Sandmann" ist dank Freuds Interpretation zu einem seiner wichtigsten Werke geworden. Die Novelle, die die Leser mit dem jungen Studenten Nathanael, der mit sich ein Kindheitstrauma trägt, bekannt macht, ist ein komplexes Werk, das auch den weltbekannten Mediziner fasziniert hat. Diese Arbeit befasst sich mit der schon erwähnten Novelle, mit Freuds Artikel "Das Unheimliche" und mit der sehr relevanten Verfilmung aus dem Jahr 2012. Das Motiv des Unheimlichen kommt in dieser Arbeit als eine Kontaktstelle vor, die auf drei verschiedenen Ebenen interpretiert wird: aus der Perspektive des Unheimlichen in der Novelle, aus Sigmund Freuds Perspektive und wie es im Film auftaucht. Ziel dieser Arbeit ist es zu beweisen, dass das Motiv des Unheimlichen in der Verfilmung anders als im Buch begriffen werden kann, d.h. dass Freuds Motiv des Unheimlichen im Text als gruseliger und verwirrender empfunden werden kann.
W marcu 1944 roku Frankfurt nad Menem został zniszczony w znacznym stopniu w wyniku ataków bombowych brytyjskiego lotnictwa. W sierpniu 1945 roku Kurt Blaum, nadburmistrz Frankfurtu w latach 1945–1946, utworzył Radę Miejską, która natychmiast rozpoczęła pracę nad organizacją odbudowy. Miasto przejęło pokryte gruzem parcele oraz utworzyło spółkę, której zadaniem było usuwanie i recykling gruzu. Jednocześnie nadburmistrz Blaum opracowywał nowe przepisy, które ostatecznie znalazły się w podsumowaniu uchwalonej w 1948 roku w Hesji Ustawie o Odbudowie. W praktyce pierwszeństwo realizacji w okresie urzędowania nadburmistrza Waltera Kolba (1946–1956) miały projekty odbudowy budynków użyteczności publicznej oraz uszkodzonych w niewielkim stopniu domów prywatnych, szczególnie na peryferiach. Dopiero w następnych latach rozpoczęto właściwe planowanie odbudowy, z czym związana była również restrukturyzacja urzędów budowlanych w 1947 roku. W tym samym czasie rozpisany został konkurs na plan reorganizacji ciągów komunikacyjnych. Stare Miasto nie zostało w nim ujęte, dopiero rok później włączono tę część aglomeracji do koncepcji. Debata nad jej kształtem doprowadziła do znacznych kontrowersji między zwolennikami tradycyjnych i nowoczesnych rozwiązań urbanistycznych. Tradycjonaliści chcieli odbudowy większości ulic i linii budynków Starego Miasta, wiernej rekonstrukcji znaczących zabytków oraz odbudowy pozostałych budynków z zachowaniem przedwojennego charakteru miasta. W przeciwieństwie do nich zwolennicy koncepcji nowoczesnych planowali budowę luźno stojących bloków mieszkalnych – bez uwzględnienia wcześniejszego układu przestrzennego miasta. Ostatecznie zawarto kompromis, w którym przewidywano odejście od ciasnego układu Starego Miasta oraz bardziej rozproszoną zabudowę poprzez uproszczenie dawnego układu przestrzennego.
Die stoffliche Belastung des unteren Belmer Baches stammt aus dem intensiv landwirtschaftlich genutzten Einzugsgebiet. Das Makrozoobenthos ist bereits vor dem Eintritt in den urbanisierten Bereich artenarm. Gründe hierfür sind die saprobielle Belastung und die Strukturarmut der Gewässersohle und Ufer. Ein Vergleich der Artenzahlen zwischen einer Referenzprobestelle vor demund einer Probestelle im urbanen Bereich zeigt kaum Unterschiede. Die Beeinträchtigung durch die längszonale Isolierung und die Temperaturerhöhung von [delta] 1 °C im urbanen Gewässerabschnitt werden durch die abwechslungsreiche Ufervegetation und die wasserbauliche Erhöhung der Strukturvielfalt der Gewässersohle ausgeglichen. Eine Temperaturerhöhung von [delta] 5 °C und eine kontinuierliche Sinkstofffracht unterhalb eines Klärwerkzulaufs reduzieren das Makrozoobenthos auf wenige dominante Taxa.
Rezension zu Theodor Fontane und Wilhelm Wolfsohn - eine interkulturelle Beziehung. Briefe, Dokumente, Reflexionen. Hg. von Hanna Delf von Wolzogen u. Itta Shedletzky. Bearb. von Hanna Delf von Wolzogen, Christine Hehle u. Ingolf Schwan. Tübingen: Mohr Siebeck, 2006. XXVI, 548 S. (Schriftenreihe wissenschaftlicher Abhandlungen des Leo Baeck Instituts. 71).
Spruchweisheit der Haya
(1968)
Frau Anna Rascher war vor dem ersten Weltkrieg im Dienste der Bethel-Mission in Ruanda (Ostafrika) tätig und kehrte später wieder nach Afrika zurück, wo sie unter den Haya am Victoriasee arbeitete. Sie hat sich besonders mit der Sprache dieses Volkes befaßt und eine Reihe bisher nicht veröffentlichter Studien über das Haya geschrieben. Ihr "Leitfaden zum Erlernen des Ruhaya" (140 S., vervielfältigt durch Missionar Theophil Hopf) ist 1955 in Bethel erschienen. Die vorliegenden von ihr zusammengestellten Sprichwörter wurden seinerzeit am Seminar für Afrikanische Sprachen der Universität Hamburg druckfertig gemacht. Erklärungen sind von der Übersetzung durch einen Gedankenstrich getrennt. Die Übersetzung ist bisweilen sehr frei und will mehr den Sinn des Sprichworts erfassen als eine wortgetreue Wiedergabe sein. Ernst Dammann
Im vorliegenden Artikel soll nachgewiesen werden, dass die erzählerische Unzuverlässigkeit in Shida Bazyars "Drei Kameradinnen" passförmig ist zu einer im 21. Jahrhundert in Mitteleuropa diskursiv formulierten Unerfassbarkeit und Unfassbarkeit der Welt und des Selbst sowie zu einem Misstrauen gegenüber Objektivität und der Objektivier- und Vermittelbarkeit des eigenen Standpunkts. Leitende These dabei ist, dass fantastische Exkurse, Selbstkorrekturen, Leerstellen, die Gleichzeitigkeit mehrerer Wahrheiten, Realitätsreferenzen und deren Brechung sowie Fiktionsbrechungen tragfester auf eine Realität referieren, die als unerfassbar gilt, als eine geschlossene Romanhandlung es hätte erreichen können.
Es sollte untersucht werden, wie sich das Fehlen der beiden bisher in Säugetieren charakterisierten Melatoninrezeptoren (Mel1A und Mel1B) auf die Lokalisation und die zirkadiane Verteilung der Peptide GRP und NPY im SCN von Mäusen auswirkt. Hierzu wurde der Anteil der für diese beiden Peptide immunreaktiven Perikaryen und Nervenfasern in Tieren untersucht, denen entweder der Mel1A Rezeptor (Genotyp aaBB), der Mel1B Rezeptor (Genotyp AAbb) oder beide Rezeptoren fehlten (Genotyp aabb) fehlten. Die Ergebnisse wurden mit Tieren des Wildtyps (Genotyp AABB) verglichen. Im Hinblick auf die Lokalisation konnte ein Einfluss ausgemacht werden. In den Tieren des Wildtyps waren die Immunreaktionen für beide Peptide diffus über den SCN verteilt, während in den Tieren des Genotyps AAbb eine stärkere GRP-Immunantwort im dorsomedialen Bereich festgestellt wurde. Hingegen war die NPY-Immunantwort im ventrolateralen Bereich des SCN bei den Tieren des Genotyps aaBB verstärkt. Das Fehlen beider Rezeptoren in den aabb Tieren führt für beide Peptide zu einem stark verkürzten Maximum in der Immunantwort. Die Melatoninrezeptoren dürften also eine wichtige Funktion für die Steuerung des Gehalts der Peptide über einen längeren Zeitraum hinweg besitzen. Das Fehlen eines einzelnen Rezeptors ergibt allerdings keinen so einheitlichen Befund. Bei der Untersuchung der Immunantwort in den Genotypen AAbb und aaBB konnte ein GRP-Profil mit mehreren Maxima und Minima ausgemacht werden. Bei den aaBB-Tieren kam es zu einer Verschiebung der NPY-Immunantwort, so dass diese in der späten Licht- und in der Dunkelphase erhöht war, während sie bei den anderen Genotypen in der gesamten Lichtphase maximale Werte erreichte. Die Befunde aus der vorliegenden Arbeit geben deutliche Hinweise darauf, dass das Fehlen der Melatoninrezeptoren einen Einfluss auf den Gehalt und die Lokalisation der untersuchten Peptide hat. Die hier durchgeführten Untersuchungen ergeben allerdings noch kein klares Bild über die konkreten Wirkungsmechanismen dieser Effekte. Es wäre nun interessant herauszufinden wodurch diese Veränderungen zustande kommen. Hierbei sind mehrere Möglichkeiten denkbar, da der Gehalt eines Peptids in der Zelle durch verschiedene Mechanismen verändert werden kann. Die Regulation kann z.B.schon bei der Bildung der Peptide stattfinden, also auf der Ebene der Translation oder Transkription. Durch in situ-Hybridisierung kann Gehalt an mRNA sichtbar gemacht werden, und so Veränderungen der Transkription des Gens nachgewiesen werden. Andererseits kann für eine verminderte Immunreaktion in der Zelle auch eine verstärkte Freisetzung des Peptids in die Cerebrospinalflüssigkeit verantwortlich sein, in der es z. B. durch Microdialyse nachgewiesen werden kann (Kalsbeek et al. 1995). Wenn weder die Produktion, noch die Ausschüttung des Peptids für eine veränderte Immunreaktion verantwortlich sind, ist vermutlich der Abbau betroffen. In eukaryotischen Zellen stellt der Abbau von Proteinen mit Hilfe von Proteasomen einen wichtigen Abbauweg dar. Proteine, die zum proteasomalen Abbau in der Zelle bestimmt sind, werden zuvor durch Bindung mehrerer Einheiten des Polypeptids Ubiquitin, das als eine Art "Adresse" funktioniert, gekennzeichnet. Um den proteasomalen Abbau eines beliebigen Proteins zu zeigen, muß daher zunächst nachgewiesen werden, daß Ubiquitin an dieses Protein bindet (Ciechanover et al. 1984). Dies könnte z.B. mit Hilfe der Immunpräzipitation durchgeführt werden. So ergibt sich aus der vorliegenden Arbeit eine Vielzahl neuer Möglichkeiten die Wirkmechanismen der Melatoninrezeptoren im SCN weiter aufzuklären.
Der bodenbewohnende Milbenkanker Cyphophthalmus duricorius Joseph, 1868 (Fam. Sironidae) galt mehr als 60 Jahre lang als die einzige in Österreich vorkommende Art der Weberknecht-Unterordnung Cyphophthalmi. Neuere Aufsammlungen zeigen jedoch, dass mindestens zwei weitere Cyphophthalmi-Arten in Österreich existieren: 1) Siro cf. crassus Novak & Giribet, 2006 wurde an einer Lokalität in der SW Steiermark nahe der slowenischen Grenze gefunden und repräsentiert eine zweite Gattung von Sironiden in Österreich. 2) Ein weiterer, morphologisch distinkter Sironide („Sironidae gen. et sp. nov.?“) − derzeit noch unbeschrieben und taxonomisch nicht zugeordnet − stammt aus Böden im Grenzgebiet Steiermark-Kärnten. Obwohl bislang kein syntopes Vorkommen belegt ist, können alle drei Arten in einem kleinen Areal von wenigen Quadratkilometern gefunden werden.
In der vorliegenden Studie wurden 7 Dentin-Adhäsive (Adper Prompt-L-Pop, Prompt L-Pop, Xeno III, I-Bond, One-up-Bond, Prime&Bond NT, Scotchbond 1) bezüglich ihrer Zytotoxizität anhand primärer Gingivafibroblasten im Zellkulturtest untersucht. Die Studie wurde in Vorversuche und Hauptversuche unterteilt. Die Vorversuche dienten unter anderem dazu, im vornherein den pH-Wert zu bestimmen und die Dentin-Adhäsive auf ihre Viskosität in der Petrischale hin zu untersuchen. In den Hauptversuchen wurden die Eluate nach 24 und nach 48 Std. anhand der Parameter „lebende Zellen“ und „tote Zellen“ mittels des Cell Counters ausgewertet. Dem gegenüber stehen deskriptive Ergebnisse die keine statistische Relevanz haben. Die Ergebnisse bezüglich der Zytotoxizität lassen sich wie folgt zusammenfassen: • Scotchbond1, I-Bond und Prime&Bond NT weisen signifikant weniger lebende Zellen auf als die Zellkontrolle. Zueinander erwiesen sich die Materialien als nicht signifikant unterschiedlich. • Adper Prompt-L-Pop, Prompt-L-Pop, Xeno III und One-up-Bond sind bezüglich der Parameter „lebende Zellen“ und „tote Zellen“ nicht signifikant unterschiedlich zur Zellkontrolle. • Der Parameter „tote Zellen“ ergab keinerlei statistische Signifikanz. • Die qualitative Auswertung stimmt mit der quantitativen Ergebnisdarstellung überein. Unter der Limitation dieser in-vitro-Studie kann keine Empfehlung für die klinische Anwendung der Dentinadhäsive „Scotchbond 1“, „I-Bond“ und „Prime&Bond NT“ abgegeben werden.
Darstellungen von Abwesenheit : Trauerarbeit mit Vanitassymbolen bei Anna Seghers und David Bailly
(2008)
In Anna Seghers Erzählung 'Der Ausflug der toten Mädchen' (1963) wird mit den Mitteln der Phantastik eine Begegnung über zeitliche und räumliche Grenzen hinweg inszeniert: Ein Schulausflug, der vor dem ersten Weltkrieg stattfand, wird in die Gegenwart der im mexikanischen Exil lebenden Erzählerin geholt. Das Besondere bei dieser Darstellung des Vergangenen ist die nachträgliche Perspektive: der Ausflug wird nicht neutral geschildert, sondern im Wissen um die Zukunft, die sich in diesem Falle als die Gewissheit über Vernichtung und Tod ausnimmt. Das Wissen der Erzählerin kontaminiert somit die Schilderung von der heiteren Versammlung der Jugendlichen, wobei bei jeder Gelegenheit die Allgegenwart des Todes hervorgehoben wird. Die Art der Darstellung gestaltet sich nach dem Prinzip 'heute Leben - morgen Tod' und lässt sich, wie ich zeigen möchte, als moderne Umsetzung des Eitelkeitstopos lesen, der auf der Spannung zwischen Anwesenheit und Abwesenheit basiert. Daher wird im Folgenden dieser Text vor dem Hintergrund der Vanitas-Tradition betrachtet und dem 'Stilleben mit Vanitassymbolen' von David Bailly aus dem 17. Jahrhundert gegenübergestellt werden. Die plastische Darstellung des Abwesenden in Verbindung mit der Thematik der Vergänglichkeit, beides Elemente, die besonders ausgeprägt in der Gattung Stillleben anzutreffen sind, stellen zentrale Merkmale sowohl des Textes von Seghers als auch des Gemäldes von Bailly dar.
Ausgangspunkt folgender Überlegungen ist die These, dass neben der positiven Auffassung von der Natur als göttliche Schöpfung die Vorstellung einer bösen und feindlichen Natur das abendländische Denken durchzieht. Im Folgenden sollen Momente dieser Negativierung von Welt in einigen zentralen theologischen bzw. philosophischen Diskursen des Abendlandes kurz skizziert werden. Diese Gedanken bilden den kulturgeschichtlichen Hintergrund vor dem im zweiten Teil einzelne literarische Texte unter dem Aspekt der Ablehnung bzw. Dämonisierung der Natur untersucht werden.
The article intends to present some facts about the medieval history of the Saxons in the Wallachian town of Câmpulung Muscel/Langenau. German-speaking colonists were settled in Langenau around the 13th century, and their traces can be followed until the middle of the 18th century. A German language document from the 16th century will serve as an illustration, depicting the relations between the Transylvanian Saxons from Râșnov/Rosenau and the population of Câmpulung Muscel/Langenau. The linguistic peculiarities of the document are discussed, as well as the problems of its transcription, which led to different publication variants. This document is also interesting because it contains many Romanian names of persons.
Physiologie der Geschäfte
(1901)
Einführung Seit Einführung der Diffusionstensorbildgebung- (DTI) basierten Traktographie von zerebralen Bahnsystemen besteht der Verdacht einer zu dünnen Ausdehnung der Faserbahnen in der unmittelbaren Nachbarschaft von zerebralen Läsionen. Der gegenüber der tatsächlichen Ausdehnung verminderte Durchmesser verjüngt sich zusätzlich mit zunehmendem Abstand von dem sog. seed-Volume (“seed-VOI”). Die unterrepräsentierte Ausdehnung der Faserbahnen stellt in der neurochirurgischen Operationsplanung und intraoperativen Neuronavigation ein erhebliches Problem bei der Beurteilung der Resektionsgrenzen von Tumoren bzw. der Grenze dringlich zu erhaltender eloquenter Faserbahnen dar. Mit einem zusätzlichen, auf die Läsion fokussierten Traktographie-Algorithmus – Lesion-based Fibertracking (LBFT) – soll die Auswertbarkeit von Faserbahnen in der Umgebung von intrazerebralen Läsionen verbessert werden. Der Algorithmus von LBFT wird vorgestellt und das Verfahren anhand der Darstellung von Bahnen des Tractus corticospinalis (TCS) mit dem Standardverfahren verglichen. Methode In 40 Patienten mit intrazerebralen Läsionen in Nachbarschaft zu kortikospinalen Bahnen (Pyramidenbahn) wurde eine Diffusionstensor-bildgebung und fMRT basierte Faserbahndarstellung des Tractus corticospinalis auf Grundlage eines „tensor-deflection-Algorithmus“ (TEND) durchgeführt. Hierfür wurden Bahnen von den kortikalen motorischen Repräsentationen der Hand, des Fußes und der Zunge zum Hirnstamm visualisiert. Im Standardverfahren wird ein würfelförmiges Volumen – das sog. seed-Volume oder Ursprungsvolumen – im Gyrus praecentralis entsprechend der anatomischen und funktionellen Bildgebung definiert. Ein zweites würfelförmiges Volumen, lokalisiert im Hirnstamm selektiert ausschließlich Fasern welche durch beide Volumen verlaufen. Die resultierenden Fasern werden bezüglich ihres Verlaufes durch typische anatomische Landmarken kontrolliert und ggf. korrigiert. Anschließend wird das Faserbündel mittels einer Oberflächenrekonstruktionstechnik („surface rendering“) dreidimensional rekonstruiert (iPlan 2.5Cranial, BrainLab®, Feldkirchen, Germany). Für das neue Verfahren des LBFT wird die Region definiert, in welcher die Faserbahn des Standardverfahrens der Läsion am nächsten kommt und hier, um die Faserbahn des Standardverfahrens, ein neues seed-Volume platziert, welches das Standardfaserbündel um 10 mm überragt. Traktographie und Segmentierung werden analog dem Standardverfahren durchgeführt. Fasern, die nicht den Gyrus praecentralis erreichen oder nicht durch den Pedunculus cerebri verlaufen, werden eliminiert. Die Faserzahl, die Größe der Faserbahnen und die Größendifferenz zwischen den Bahnen des Standardverfahrens und LBFT werden verglichen und das Verfahren auf inter- und intra-rater Reliabilität geprüft. Ergebnisse Das Standardverfahren und LBFT waren in allen 40 Patienten durchführbar. Die Faserzahl bei LBFT erhöhte sich signifikant gegenüber dem Standardverfahren um 383,27% (p<0,0001). Der maximale Durchmesser in der Ebene, in welcher das Faserbündel der Läsion am nächsten kommt, sowie der Durchmesser in Richtung der Läsion erhöhen sich signifikant um 171,75 % bzw. 196,45 % (jeweils p<0.0001). Daraus folgt eine durchschnittliche Zunahme des Durchmessers in Richtung der Läsion um 4.48mm (± 2.35). Fazit Die Fehleinschätzung des Durchmessers und der Distanz des TCS zu subkortikalen Läsionen bei Anwendung des Standardverfahrens DTI-basierter Traktographie stellt ein erhebliches Problem in der funktionellen neurochirurgischen Operationsplanung und intraoperativen Neuronavigation dar. Durch den zusätzlichen Schritt des LBFT kann die Fehleinschätzung korrigiert und der in vorhergehenden Studien eingeforderte Sicherheitsabstand standardisiert robust und reliabel realisiert werden.
Es wird ein Überblick über die Lage der Kasseler Braunkohlenvorkommen und ihre geologischen Besonderheiten gegeben. Der Tiefbaubetrieb und die durch die geologischen Verhältnisse bedingten, bergbaulichen Schwierigkeiten werden geschildert. Von den bedeutenderen Werken werden die wesentlichen betrieblichen Daten anqegeben. Eine Tabelle der Gruben gibt eine Übersicht über die Zechen des gesamten Reviers. Graphisch bzw. tabellarisch ist die Entwicklung der Fördemnq, der Belegschaftszahlen und der Leistung dargestellt. Es folqen Angaben über Durchschnittslöhne und soziale Einrichtungen. Abschließend werden Sorten, Preise und Absatzlage der Erzeugnisse des Kasseler Reviers behandelt.
Die Gattung Maro ist nach PLATEN et al. (1995) in Deutschland mit vier Arten vertreten, die alle sehr selten und deshalb in der Roten Liste Deutschlands (PLATEN et al. 1996) aufgeführt sind. Die jetzt erstmals für Sachsen nachgewiesene Art M. sublestus FALCON ER, 1915 wird dort als stark gefährdet (2) aufgeführt. Der einzige bislang publizierte Nachweis der Art für Deutschland stammt aus Sachsen-Anhalt (MORITZ 1973). Für dieses Bundesland wird M. sublestus von SACHER (1993) ebenfalls als stark gefährdet eingestuft. In Artenlisten anderer Bundesländer, insbesondere in der für Sachsen (TOLKE & HIEBSCH 1995), wird die Art nicht erwähnt.
Die Spinnengemeinschaft der Stamm- und stammnahen Bodenregion von vier Forststandorten auf rekultivierten Kippenböden des Niederlausitzer Braunkohlenreviers wurde untersucht. Von 1997-1998 wurde die Stammzönose mittels Stammeklektoren und zusätzlich 1998 die epigäische Spinnenfauna der stammnahen Bereiche durch Bodenfallen erfasst. Als Referenz zu den untersuchten Kippenstandorten diente ein alter Kiefernreinbestand auf natürlich geschichtetem Boden. Von den erfassten Spinnen (6368 Individuen) waren 50,2% juvenil. Die adulten Tiere konnten 123 Arten aus 23 Familien zugeordnet werden. Eine Art, Clubiona leucaspis, war neu für Sachsen, 23 Arten werden in der Roten Liste Deutschlands (n = 16), Brandenburgs (n = 13) und Sachsens (n = 15) aufgeführt. Die unterschiedliche Vorgeschichte (rekultiviert oder natürlich) und der Baumbesatz (Kiefer oder Birke) der Untersuchungsflächen bedingte zum Teil deutliche Unterschiede hinsichtlich verschiedener populationsökologischer Parameter (Familien-, Artenzahl, Diversität, Aktivitätsbiomasse). Die Ergebnisse werden hinsichtlich der daraus resultierenden Folgen für den Natur- und Artenschutz, die Dominanzstruktur der Spinnenzönosen, die natürliche Schädlingsregulation diskutiert. Die Abwesenheit einzelner Taxa (hier: Coelotes terrestris und Hahnia helveola) wird als Indikator für eine Unterbrechung der Faunentradition interpretiert.
Friedrich Hassaurek
(1885)
General August Willich
(1878)
Enthält: 1. Einleitung, Kiefer und Fichte, 1866 + 2. Tanne, Lärche, Laubhölzer, und entomologischer Anhang, 1868
Transkulturalität, Transnationalität, Transgender, Transspecies – Innerhalb des letzten Jahrzehnts erleben die politischen und wissenschaftlichen Debatten um Theorien, die sich dem Präfix 'trans-' (lat. 'jenseits, über, über – hin') verpflichtet sehen, eine bemerkenswerte Konjunktur. Grundlegend verbindet sich mit diesen Konzepten die Vorstellung eines übergreifenden und umfassenden Diskurses, der für durchlässige Konturen plädiert. Analytisch ermöglichen die Theorien des 'trans' die konzeptuelle Erfassung von Phänomenen, die sich in einem Prozess des Werdens befinden und aus entgegengesetzten Strukturen, Logiken, Dynamiken und Funktionsweisen bestehen. 'Trans' verweist folglich nicht auf geschlossene Identitätsvorstellungen, sondern enthält fluide Grenzverläufe. Die damit verbundenen subversiven Vorstellungen finden sowohl verstärkt Gehör in gesamtgesellschaftlichen Kontexten als auch innerhalb wissenschaftlicher Disziplinen, die sich abseits einer Fortschreibung kanonischer Inhalte neu konzipieren.
Im Rahmen der vorliegenden Arbeit sollte mit der Aktivierung des Peroxisomen Proliferator-aktivierten Rezeptors eine Rationale und ein möglicher Wirkmechanismus für die traditionelle Anwendung von Gewürz- und Arzneipflanzen bei der Therapie des Typ 2 Diabetes aufgezeigt werden. Vor diesem Hintergrund wurden über fünfzig traditionell bei Diabetes angewandte Pflanzen ausgewählt und mit Ethanol extrahiert. Die erhaltenen Trockenextrakte wurden daraufhin in einem von mir etablierten Reporter-Gen Assay auf eine mögliche Aktivierung der drei Subtypen des PPAR hin untersucht. Von den getesteten Extrakten wurde für fünfundzwanzig, also annähernd die Hälfte, eine signifikante Aktivierung des PPARgamma nachgewiesen. Von diesen zeigten wiederum vierzehn außerdem eine signifikante Aktivierung des PPARalpha, lediglich drei dieser Extrakte zeigten auch eine signifikante Aktivierung des PPARdelta. Somit konnte ich eine mögliche Rationale und einen potentiellen Wirkmechanismus für die volksmedizinische Anwendung dieser Pflanzen bei Diabetes aufzeigen. Von den wirksamen Extrakten wiesen am PPARgamma sieben eine ausreichend hohe Aktivität auf, dass wir auch bei niedrigeren Testkonzentrationen noch einen signifikanten Effekt und somit eine Konzentrationsabhängigkeit des aufzeigen konnten. Für PPARa konnten wir lediglich für drei der Extrakte eine Konzentrationsabhängigkeit aufzeigen, bei PPARdelta für keinen der Extrakte. Die beiden am stärksten aktiven Extrakte aus Rosmarinus offic. und Salvia offic. zeigten bereits ab etwa 10 mg/L signifikante Aktivität am PPARgamma, so dass wir für diese beiden Extrakte mit 20 bzw. 40 mg/L EC50-Konstanten bestimmen konnten. Diese halbmaximale Aktivierungskonstante liegt damit für den potenteren Rosmarin-Extrakt lediglich um den Faktor 200 höher als die des bei Diabetes eingesetzten Arzneistoffs Pioglitazon (Actos®). Die weitere Untersuchung dieser beiden Extrakte ergab, dass in beiden Carnosolsäure bzw. Carnosol enthalten waren, welche bei der Untersuchung im Reporter-Gen Assay EC50-Konzentrationen von 20 bzw. 40 mikroM für die Aktivierung des PPARgamma aufwiesen. Damit sind diese Reinsubstanzen bereits nur noch um den Faktor siebzig schwächer wirksam als Pioglitazon. Vergleicht man hingegen mit Bezafibrat (Cedur®), einem als Lipidsenker eingesetzten Arzneistoff, welcher aufgrund seiner pan-PPAR-agonistischen Wirkung mit EC50-Konzentrationen von je etwa 50 mikroM von besonderem Interesse ist, so sind die beiden Diterpene Carnosolsäure und Carnosol im Hinblick auf PPARgamma äquipotent oder eher stärker aktiv. Der Gehalt an diesen beiden Diterpenen in den von mir hergestellten Extrakten war nun zwar mit in Summe drei bzw. neun Prozent um den Faktor zehn bzw. drei zu niedrig, als dass sich der PPARgamma Agonismus der beiden Extrakte hierdurch hinreichend erklären ließe. Allerdings konnten wir für einen kommerziell erhältlichen und auf 40% Carnosolsäure angereicherten Rosmarin-Extrakt einen EC50-Wert von 10 mg/L bestimmen für die Aktivierung von PPARgamma bestimmen. Eine Aktivität, welche sich zu 70% allein auf den Gehalt an Carnosolsäure zurückführen lässt. Neben dem Nachweis der PPARgamma Aktivität von Carnosolsäure und Carnosol einerseits und der von ethanolischen Rosmarin- und Salbei-Extrakten andererseits, konnte ich somit einen hinreichenden Beweis führen, dass Carnosolsäure zumindest für Rosmarin, vermutlich auch für Salbei, als eines der aktiven Prinzipien anzusehen ist. Meine Befunde liefern damit eine mögliche Erklärung und Wirkmechanismus für die in Tiermodellen gefundene hypoglykämische Wirksamkeit von Rosmarin, Salbei und Carnosolsäure. Darüber hinaus legen meine Untersuchungen nahe, dass in beiden Pflanzen weitere PPARgamma Aktivatoren enthalten sind. Da Carnosol selbst bereits ein Oxidationsprodukt der Carnosolsäure darstellt, kämen hier weitere auch bereits beschriebene Oxidationsprodukte sicherlich in Frage. Diese Oxidationsprodukte stellen allerdings zumeist nur labile Übergangsprodukte dar und sind aus diesem Grunde auch als nicht Reinstoffe erhältlich. Der Nachweis einer PPAR Aktivität könnte somit angesichts der benötigten Inkubationsdauer im Reporter-Gen Assay so nicht geführt werden. Neben den bereits angeführten Ergebnissen ist die hohe Rate von positiven Treffern in meinem Screening selbst einer der interessantesten Befunde. Die signifikante Aktivierung von PPARgamma durch nahezu die Hälfte der getesteten Extrakte lässt die Vermutung zu, dass PPAR agonistische Substanzen im Pflanzenreich sehr weit verbreitet sein könnten. Zwar bestehen zu Recht Vorbehalte gegenüber der Testung von Vielstoff-Gemischen bzw. den hierbei erhaltenen Ergebnissen. Viele pflanzliche Inhaltsstoffe z.B. Gerbstoffe können zu einer unspezifischen Hemmung der Aktivität von Enzyme führen. Das verwendete Testsystem setzt allerdings neben Membrangängigkeit der aktiven Prinzipien die spezifische Aktivierung der Expression eines Gens, dessen Aktivität anschließend bestimmt wird, voraus. Die Art des verwendeten Assay macht damit die Erfassung unspezifischer Effekte eher unwahrscheinlich. Darüberhinaus mag für die Güte der Ergebnisse meines Screenings sprechen, dass unabhängig von uns für einige der gescreenten Pflanzen z.B. Kurkuma und Chili mit den Kurkuminoiden und Capsaicin kürzlich PPAR aktive Prinzipien beschrieben wurden. Vielmehr lässt sich die Hypothese formulieren, dass eine ganze Reihe sekundärer pflanzlicher Inhaltsstoffe zumindest mäßig aktive PPAR Agonisten darstellen. An prominenter Stelle wäre hier die Substanzklasse der Terpene zu nennen, von denen eine ganze Reihe sowohl linearer etwa Farnesol und Phytansäure, als auch cyclischer z.B. Tumeron, Abietansäure, Oleanolsäure und Ursolsäure bereits als PPAR-Aktivatoren beschrieben wurden. Angesichts der hohen Lipophilie dieser Substanz-Klasse und einer relativ großen und wenig selektierenden Bindungstasche des PPAR lässt sich auch für andere Terpene ein PPAR Agonismus erwarten. Der positive Effekt, den eine überwiegend pflanzliche Ernährung nach epidemiologischen Erkenntnissen auf die Gesundheit bewirkt, mag deshalb in Teilen auf PPAR-agonistische Prinzipien zurückzuführen sein. Neben dem höheren Anteil an mehrfach ungesättigen Fettsäuren im Vergleich zu tierischer Nahrung könnten enthaltene Terpene hier durchaus einen relevanten Beitrag leisten. In einem weiteren in Kooperation durchgeführten Projekt konnte darüber hinaus gezeigt werden, dass die schwache Aktivität des phenolischen Stilben-Derivats Resveratrol am PPARgamma einen Beitrag leistet zur Beeinflussung des Polyamin-Stoffwechsels und der hierdurch bedingten Regulation der Zell-Proliferation. Weiterhin konnte mit Hilfe der in unserem Reporter-Gen Assay erhaltenen Ergebnisse gezeigt werden, dass ein virtuelles Computer-basiertes Screening einer Substanzbibliothek effektiv ist, bei der Findung von PPAR Leitstrukturen.
Der Essay thematisiert eine in der Frühen Neuzeit noch weit verbreitete Praxis des Schreibens: das Abschreiben von Texten. Bei näherer Betrachtung dieser Schreibpraxis im Kontext von Geschichtsschreibung zeigen sich unterschiedliche Motivationen und Funktionen des Abschreibens von Texten. Nach der ersten Fixierung einer Geschichte treten eine Reihe weiterer Schreibertypen in Erscheinung, die die Geschichte durch unterschiedlich starke Eingriffe in den Text, durch Kommentare oder auch durch Fortsetzungen transformieren. Die Praxis des Abschreibens selbst wie auch dessen unterschiedliche Funktionen in einer Epoche auch noch nach Erfindung des Buchdrucks stellen nicht nur eine klare Unterscheidung zwischen legitimer Nachahmung und illegitimem Plagiat in Frage, sondern relativieren auch die heute verbreitete Bewertung von Texten mit Begriffen wie Originalität und Kreativität.
Schülerinnen und Schüler mit Migrationshintergrund in Deutschland schneiden in nationalen und internationalen Schulleistungsstudien deutlich schlechter ab als Schülerinnen und Schüler ohne Migrationshintergrund. Auch hinsichtlich der Lesekompetenz im Deutschen sind die Ergebnisse eines großen Teils der Schülerinnen und Schüler mit Migrationshintergrund immer wieder bedenklich schlecht. Um die Frage, welche Förderung gegen Defizite in der Deutsch-Lesekompetenz bei dieser Schülergruppe eingesetzt werden sollte, hat sich in Deutschland eine wissenschaftliche Auseinandersetzung mit breiter öffentlicher Wirkung entwickelt. Die drei Beiträge der vorliegenden Dissertation liefern aus unterschiedlicher Perspektive einen Beitrag zur Erforschung der Lesekompetenz von Personen mit unterschiedlicher Sprachbiographie.
Beitrag I (Rauch & Hartig, 2010) zeigte, dass es möglich ist, mit den Mitteln der mehrdimensionalen Item Response Theorie den diagnostischen Nutzen eines Deutsch-Lesekompetenztests zu erhöhen. Für Schülerinnen und Schüler, die zu Hause nicht das Deutsche zur Kommunikation nutzen, zeigte sich, dass sie insbesondere bei Basisfähigkeiten, die zur Bewältigung höherer Lesekompetenzprozesse notwendig sind, gegenüber ihren deutschsprachigen Mitschülerinnen und Mitschülern benachteiligt sind. Beitrag II (Rauch, Jurecka & Hesse, 2010) belegte, dass Türkisch-Deutsch bilinguale Schülerinnen und Schüler über niedrigere Deutsch-Lesekompetenzen verfügen als ihre monolingual Deutsch aufgewachsenen Mitschülerinnen und Mitschüler. In der Englisch-Lesekompetenz wurde kein Gruppenunterschied nachgewiesen. Es fand sich darüber hinaus ein signifikant positiver Effekt der Türkisch-Lesekompetenz auf die Englisch-Lesekompetenz, aber nicht auf die Deutsch-Lesekompetenz. Beitrag III (Rauch, Jude & Naumann, in Druck) zeigte, dass Türkisch-Deutsch bilinguale Schülerinnen und Schüler, die in beiden Sprachen Texte selbständig lesen und verstehen können, besser im Englisch-Lesekompetenztest abschneiden als monolingual aufgewachsene Schülerinnen und Schüler. Türkisch-Deutsch bilinguale Schülerinnen und Schüler, die über niedrigere Lesekompetenzen im Türkischen und Deutschen verfügen, schnitten im Englisch-Lesekompetenztest schlechter ab als beide anderen Vergleichsgruppen. Zudem zeigte Beitrag III, dass Sprachbewusstheit den Zusammenhang zwischen Biliteralität und drittsprachlicher Lesekompetenz teilweise mediiert.
Aus den Ergebnissen kann gefolgert werden, dass es für die Förderung der Deutsch-Lesekompetenz von Schülerinnen und Schülern, die zu Hause nicht das Deutsche zur Kommunikation nutzen, sinnvoll ist, insbesondere auf die Förderung der Bildung von adäquaten Makrostrukturen und die Vermittlung von Lesestrategien abzuheben. Die unterschiedlichen Befunde zur Interdependenz von Kompetenzen im Türkischen einerseits und im Deutschen und Englischen andererseits wurden auf die Art des schulischen Unterrichts in Deutsch und Englisch zurückgeführt. Während Schülerinnen und Schüler mit Herkunftssprache Türkisch im Englischunterricht, der das Englische im formalen Sprachunterricht vermittelt, in der Lage sind, Bezüge zu ihrer Herkunftssprache herzustellen, ist dies im Deutschunterricht, der das Deutsche selbst weitgehend voraussetzt, nicht möglich. Ein Teil des wiederholt in der Literatur berichteten Befundes, dass bilinguale Schülerinnen und Schüler, die in ihren beiden Sprachen lesen können, in drittsprachlichen Lesekompetenztests besser abschneiden als monolinguale Schülerinnen und Schüler, scheint auf erhöhte Sprachbewusstheit zurückzuführen zu sein. Dieses besondere Potential bilingualer Schülerinnen und Schüler könnte durch Herkunftssprachlichen Leseunterricht und einen auf Sprachbewusstheit ausgerichteten Unterricht weiter ausgeschöpft werden.
Die vorliegende Arbeit befasst sich mit der Hypothese, dass der „Life Orientation Test (-Revised)“ (LOT-R), der als Selbstberichtsfragebogen zur Erfassung von dispositionellem Optimismus konstruiert wurde, nicht nur „Optimismus“ erfasse, sondern auch „Pessimismus“; Pessimismus wird im Rahmen dieser „OP-Hypothese“ nicht als der Gegenpol von Optimismus aufgefasst, sondern als ein partiell unabhängiges Konstrukt. Die OP-Hypothese wird typischerweise mit sog. „konfirmatorischen“ Faktorenanalysen untersucht. Die OP-Hypothese wird zunächst aus theoretischer Perspektive analysiert, insbesondere auch deshalb, weil die Begriffe „Optimismus“ und „Pessimismus“ im Rahmen der OP-Hypothese nicht auf dieselbe Art verwendet werden wie sonst in der Psychologie oder in anderen Wissenschaften üblich. Dabei zeigt sich, dass keine angemessene theoretische Herleitung der OP-Hypothese möglich ist: Was „Pessimismus“ ist, wenn es nicht der Gegenpol von Optimismus ist, bleibt unklar. Ausgehend von dem Befund, dass die theoretische Herleitung der OP-Hypothese unangemessen ist, wird diese Hypothese aus methodologisch-testtheoretischer Perspektive und mittels zweier empirischer Arbeiten kritisch überprüft. Aus methodologischer und mathematisch-statistischer Perspektive wird dargestellt, dass die empirischen Befunde, die für die OP-Hypothese sprechen, nicht eindeutig sind; die OP-Hypothese ist also unterdeterminiert. Die Gültigkeit eines reflexiven Messmodells, das für die Untersuchung der OP-Hypothese mittels konfirmatorischer Faktorenanalysen erforderlich wäre, kann nicht ohne Weiteres angenommen werden. Die mathematisch-statistischen Annahmen der „experimentellen Unabhängigkeit“ und der „lokalen Homogenität“, die ein reflexives Messmodell konstituieren, sind für Selbstberichtsfragebogen in vielen Fällen verletzt. Noch gravierender ist das Ergebnis, dass sich aus „konfirmatorischen“ Faktorenmodellen, die für die OP-Hypothese sprechen, keine ausreichenden Informationen über den empirischen Gehalt der Hypothese ergeben. In grundsätzlicher Form und anhand einfacher Beispiele wird gezeigt, dass für eine gegebene Kovarianzmatrix, die die Datenbasis einer „konfirmatorischen“ Faktorenanalyse darstellt, grundsätzlich unendlich viele Alter-nativmodelle konstruiert werden können, von denen zumindest eine Teilmenge auch mit sinnvollen Interpretationen verbunden ist. Angesichts der Existenz solcher Alternativmodelle müssen andere Kriterien zur Überprüfung der OP-Hypothese herangezogen werden als „konfirmatorische“ Faktorenmodelle. Anhand einer empirischen Untersuchung mit dem LOT-R wird gezeigt, dass ein „Methodeneffektmodell“ eine bessere Anpassung an die Daten ermöglicht als das mit der OP-Hypothese verbundene Modell. Das Methodeneffektmodell beinhaltet die Annahme, dass die Antworten auf LOT-R-Items nicht ausschließlich durch die individuelle Ausprägung in „Optimismus“ bedingt werden, sondern zum Teil auch unerwünschte Effekte der Itemformulierungen abbilden. Entsprechend lässt sich eine Korrelation des „Methodenfaktors“ mit sozial erwünschtem Antwortverhalten beobachten. Schließlich wird in einer weiteren empirischen Untersuchung gezeigt, dass mit der Skala „Personaler Optimismus“ ein Instrument zur Erfassung von dispositionellem Optimismus vorliegt, welches nicht unter der faktorenanalytischen Mehrdimensionalität leidet, die den LOT-R kennzeichnet. In der Zusammenschau der methodologischen und empirischen Ergebnisse muss die OP-Hypothese als zu gering begründet zurückgewiesen werden. Über den Rahmen des speziellen Inhaltsgebietes „Optimismus“ hinaus weist die vorliegende Arbeit aber auch auf die Notwendigkeit multipler Betrachtungsebenen bei der Untersuchung persönlichkeitspsychologischer Fragestellungen hin. Nachteilig für die persönlichkeitspsychologische Forschung könnten sich insbesondere die unreflektierte Verwendung von Selbstberichtsfragebogen auf der Seite der Datenerhebung und die unreflektierte Verwendung von „konfirmatorischen“ Faktorenanalysen auf der Seite der Datenauswertung auswirken.
Am 01.10.1990 nahm die Naturschutzstation "Elbe-Dübener Heide" im jetzigen Forstamt Tornau im Zentrum der Dübener Heide ihre Arbeit auf. Das zu betreuende Territorium umfasst die Landkreise Bitterfeld, Gräfenhainichen, Jessen und Wittenberg. Zum Gebiet der Mitteieibe und der Dübener Heide kommen auch noch Flächenanteile des Flämings, der Glücksburger und Annaburger Heide hinzu.
Das Gebiet des ehemaligen Salzigen Sees verfügt über eine ausgesprochen mannigfaltige Raumausstattung, die Pflanzengemeinschaften und Arten unterschiedlichster Ansprüche optimale Lebensbedingungen bietet. Entsprechend dieser Strukturvielfalt an Lebensräumen ist auch die Anzahl verschiedener Vegetationsbestände beachtlich. Eine große Zahl von Florenelementen kommt in Deutschland nur im Herzynischen Trockengebiet vor oder bleibt auf das Mansfelder Hügelland beschränkt. Besonders kontinental verbreitete, wärme- und lichtliebende Trockenrasen- und Salzsteppenpflanzen prägen das Artenspektrum dieses Raumes (122). Auch heute noch bietet das Gebiet optimale Einwanderungs- und Ausbreitungsmöglichkeiten, so dass eine erhebliche Zahl südlich und südöstlich verbreiteter Neophyten anzutreffen ist.
Das Thema der vorliegenden Promotion war die Aufklärung von Neutralisationsmechanismen auf Lymphozyten und Makrophagen unterschiedlicher primärer HIV-1-Subtypen im Verlauf der Krankheitsprogression. Ausgangspunkt für die Experimente war die Tatsache, dass humane Seren von HIV-1 infizierten Patienten bereits kurz nach der Serokonversion autologe Virusisolate auf Makrophagen, nicht aber auf Lymphozyten neutralisieren können (Ruppach et al., 2000). Bei Neutralisationsexperimenten mit einem dem V3-loop des gp120 komplementären P1 -Peptids (Subtyp B), sollte der Nachweis von neutralisierenden Antikörpern im Serum erbracht werden. Weiterhin sollte gezeigt werden, inwieweit die Neutralisation auf Makrophagen durch V3-Antikörper begründet ist. Nach erfolgter Neutralisation auf Makrophagen mit und ohne P1-Peptidvorinkubation konnte gezeigt werden, dass es zu keinen Veränderungen im Neutralisationsverhalten durch Vorinkubation mit einem V3-Peptid gekommen war. Daraus ließ sich folgern, dass es nicht die V3-Antikörper sind, die eine Neutralisation auf Makrophagen hervorrufen können. Als nächstes wurde das Neutralisationsverhalten eines frühen lsolates (8 Monate nach der Infektion) und einer späten Folgeprobe (27 Monate nach der Infektion) durch autologes Serum auf Lymphozyten und auf Makrophagen verglichen. Dabei konnte gezeigt werden, dass sowohl Ursprungs- wie auch Folgeisolat auf Makrophagen eine große Neutralisationsaktivität aufweisen, die auf Lymphozyten fehlt. Um besser eingrenzen zu können, welche Antikörper bei Neutralisationsreaktionen auf Makrophagen eine Rolle spielen, wurden Neutralisationsexperimente mit Serumimmunglobulinen eines frühen Isolates durchgeführt. Als Ergebnis konnte festgehalten werden, dass autologe IgG' s auf Makrophagen eine Neutralisationsreaktion herbeiführen können. Weiterhin stellte sich die Frage, ob autologe Immunglobuline in der Lage sind, heterologe Virusisolate zu neutralisieren. Dabei zeigte sich, dass im Test unterschiedlicher Subtypen, es zu einer hohen Kreuzneutralisationsaktivität gekommen war. Zusammenfassend konnte im Verlauf der Promotion erfolgreich dargestellt werden, dass die Serumimmunglobuline für die Neutralisation auf Makrophagen verantwortlich sind und, dass diese heterologe Eigenschaften besitzen.
Kurz vor Silvester sah sich der designierte Vorsitzende des deutschen Flughafenverbandes (ADV) Christoph Blume einer heftigen öffentlichen Kritik ausgesetzt. Grund war sein Vorschlag die zukünftigen Flughafenkontrollen nicht auf technisches Screening zu beschränken, sondern durch aktives Profiling deren Effizienz zu optimieren http://www.rp-online.de/politik/deutschland/Flughafenchef-will-Kontrollen-nach-Herkunft_aid_946638.html. Die öffentlichen Proteste waren heftig...
Gefährliche Kulturen?
(2011)
Kürzlich hat Thomas Steinfeld das Pamphlet des Osloer Attentäters analysiert und festgestellt, dass es vor allem von zwei stets wiederkehrenden Feindbildern durchsetzt ist: “Multikulturalisten” und “Kulturmarxisten” (SZ vom 27.07.2011). Augenfällig enthalten beide Begriffe das Wort Kultur. Für Steinfeld ist es diesem semantischen Additiv geschuldet, dass es dem rechtsextremen und fundamentalistischen Milieu so leicht gelingt, aus Einwanderern ‘Islamisten’ und aus Sozialdemokraten ‘Stalinisten’ zu machen. Wer zustimmend von Multikulturalismus spricht, befürworte zwar Vielfalt, der Begriff kann aber ebenso leicht zur Konstruktion von unverrückbar erscheinenden “kulturellen Anderen” dienen. Ähnlich diffus subsumierend operiere die Rhetorik von Kulturmarxisten. Aufgrund dieses Missbrauchspotentials sei eine starke Zurückhaltung gegenüber dem Kulturbegriff geboten. Man solle besser, so Steinfeld “auf das Wort verzichten”(ebd.)...
In einem der letzten Blogposts hat Martin Haase „humanitäre Interventionen“ als Neusprech bezeichnet, da sie eigentlich „Krieg“ meinen. Dem wird in der Regel entgegen gehalten, dass diese Subdifferenzierung sich nicht auf die Praxis des Krieges, des „Bombenwerfens, Tötens und Besetzens“ bezieht, sondern auf die Kriegsmotivation. Es handelt sich nicht um einen Angriffkrieg um Ölfelder zu erobern, sondern um einen Krieg um Genoziden Einhalt zu gebieten. Die Bezeichnung „humanitäre Interventionen“ hat nur den Anspruch eine Motivlage zu benennen, nicht die Praxis des Kriegführens selbst.
Tom Koenigs reagierte in einem Twitter-Kommentar:..
Künftig ist eingeschränkt der Einsatz der Bundeswehr im Innern erlaubt – und niemand kommentiert. Niemand? Doch: die Juristin und Schriftstellerin Juli Zeh ruft in der Süddeutschen Zeitung ein fassungsloses „Hallo?“ (SZ 01.09.2012, S. 2) in die schweigende Öffentlichkeit. Wie kann es sein, das eine „heilige Kuh“ der deutschen Sicherheits- und Erinnerungskultur nach dem Zweiten Weltkrieg geschlachtet werde, ohne dass es zu öffentlichen Protesten oder zu anhaltenden Debatten komme?
Schuld daran sei der Terroranschlag am 11. September 2001. Die Bilder der einstürzenden Türme treten in Konkurrenz zu den Bildern des brennenden Europas der Jahre 1939-1945. Aus dem Nie wieder Krieg! wird ein Nie wieder 9/11! Eine solche Verschiebung sei dem „apokalyptischen Szenario“ der Bilder von New York geschuldet, das „sachliches Denken behindere“. Kein Richter könne sich vorstellen, zuschauen zu müssen, wie Flugzeuge ungehindert in den Reichstag steuern. Zwar sei kein Beschuss erlaubt, nur das Abdrängen und Warnschießen durch Kampflugzeuge (oder durch Drohnen), gleichwohl sei damit ein entscheidendes „Leck“ in eine der wichtigsten Nachkriegserrungenschaft der Bundesrepublik geschlagen worden...
Vor dem Hintergrund der Kontingenz des kulturwissenschaftlichen Forschungsprogramms, also Ursache-Wirkungsrelationen, die weder notwendig noch unmöglich sind, wird in diesem Beitrag ein Konzept von Sicherheitskultur aus Sicht der Akteur-Netzwerk-Theorie vorgestellt. Aus dieser Perspektive erklärt sich der Wandel von Sicherheitskulturen nicht aus einer einzigen Variable, sondern aus vernetzten Interaktionen zwischen menschlichen und nicht-menschlichen Akteuren. Der Versuch mithilfe von nicht-menschlichen Akteuren die gesellschaftliche Ordnung zu stabilisieren produziert dabei stets neue Unschärfen und Kontingenzen, die mit weiteren Stabilisatoren eingehegt werden müssen. Ein solches Konzept von Sicherheitskultur ermöglicht es den Blick auf quasi kausale Interobjektivitäten und deren Unvorhersagbarkeiten zu richten, die mit einer auf rein menschliche Akteure gerichteten Sozialwissenschaft unsichtbar blieben.
Apokalypsen beruhen auf tradierten Bildern, fiktiven Imaginationen und kulturellen Deutungsmustern. Damit sind weder reproduzierbar noch wissenschaftlich mit validen Methoden beschreibbar. Auch das traditionell starke Risikokonzept der Sozialwissenschaften zur Beschreibung der Zukunft ihres Forschungsgegenstandes greift hier nicht. Der folgende Beitrag unternimmt deshalb den Versuch, im Rahmen dieser sozialwissenschaftlichen Ansätze nach den spezifisch sicherheitskulturellen Aspekten von Apokalypsen zu fragen. Dazu wird eine Typisierung vorgeschlagen, die sich historisch auf das 20. Jahrhundert beschränkt und sich in drei Phasen unterteilt. Kreisten zu Beginn des 20. Jahrhunderts die apokalyptischen Bedrohungsszenarien noch um die Subjekte (die apokalyptische Bedrohung der Menschheit ging von der modernen Gesellschaftsordnung, d.h. von der Menschheit selbst aus), so geriet gegen Mitte des 20. Jahrhunderts zunehmend die objektive Welt der Dinge und Technologien unter Verdacht, eine Apokalypse auszulösen. Inzwischen scheint sich mit Übergang zum 21. Jahrhundert eine dritte Phase von apokalyptischen Szenarien auszudifferenzieren: Existentielle Bedrohungen gehen nicht mehr von identifizierbaren Bedrohungen wie gesellschaftlichen Entfremdungen oder Atomwaffen aus. Vielmehr gelten das Nicht-Identifizierbare, die Ununterscheidbarkeit als existentielle Bedrohung. Auf die Apokalypse der Subjekte und der Apokalypse der Objekte, so der Vorschlag dieses Papiers, folgt die ‚apokalyptoide’, d.h. Apokalypse-ähnliche Situation.
Wer Lehrer werden will, muss nach Studium und Berufsausbildung staatlich organisierte Examen bestehen. Die Noten dieser Prüfungen sind bis auf die zweite Stelle nach dem Komma entscheidend dafür, ob jemand ein Angebot auf Einstellung erhält oder nicht. Betrachtet man die Prozeduren der Auswahl von Lehrkräften und die Qualitätsprüfung ihrer Arbeit genauer, dann wird ein bislang zu selten beachtetes Problem sichtbar: Verbindliche Gütemaßstäbe und darauf aufbauende Verfahren der Beurteilung ihrer Leistungen gibt es derzeit nicht. Die Einstellung neuer Lehrkräfte hängt mehr von der jeweiligen Bewerberlage für Schulstufen oder Fächer ab als von sachlichen Kriterien. Das hat langfristige negative Wirkungen, weil zu oft geeignete Bewerber abgewiesen und häufig weniger geeignete Bewerber eingestellt werden, die dann über viele Jahre die Arbeit an Schulen belasten. Rationale Entscheidungen wären aber nur möglich, wenn sachlich begründete und graduierbare Kriterien für die Qualität der Lehrerarbeit vorlägen und wenn Bewerber anhand dieser Kriterien überprüft werden könnten. ...
Vorwort
(1993)
Mit der "Verordnung über die Festsetzung von Naturschutzgebieten und einem Landschaftsschutzgebiet von zentraler Bedeutung als Naturpark Drömling" vom 12. September 1990 erhielt das Land Sachsen-Anhalt einen durch Kapitel XII, Nr. 30, m, des Anhangs zum Einigungsvertrag vom 23. September 1990 rechtsgültig übergeleiteten Naturpark moderner Prägung. Seit dieser Zeit ist die Landesregierung auf der Grundlage des deutschen Nationalparkprogrammes (von 1990) und des Beschlusses über die Zuordnung der Naturparkverwaltung Drömling zum Umweltministerium (vom 3. September 1991) sowie des Landesnaturschutzgesetzes (vom 11. Februar 1992) und der Schutzgebietskonzeption des Umweltministeriums (von 1992) bemüht, den überregional bemerkenswerten Naturraum im Naturpark Drömling als großräumige Vorbildlandschaft zu gestalten, in der gleichrangig sowohl Natur- und Landschaftsschutz mit landschaftsbezogener Erholung als auch ökologisch orientierte Land- und Forstwirtschaft bzw. ökologisch verträgliche, endogene Regionalentwicklung eine Bedeutung haben. Mit dieser Zielstellung und den bisher erreichten Ergebnissen einer Koordinierung zwischen den einzelnen Nutzungsformen gilt der drei Jahre junge Naturpark bereits als das vorbildliche Modellobjekt für die weiteren geplanten Naturparkvorhaben im Land Sachsen-Anhalt.
Glutamat ist der häufigste Neurotransmitter im menschlichen Hirn. Die Konzentration des Glutamats in der extrazellulären Flüssigkeit wird durch Glutamat-Transporter (Sekundärtransporter) kontrolliert. Liegt es in zu hoher Konzentration im synaptischen Spalt vor, kommt es zur Schädigung von Nervenzellen, ein Prozess, der als Exzitotoxizität bezeichnet wird. Eine Fehlfunktion oder fehlerhafte Produktion der Glutamat-Transporter im zentralen Nervensystem wird bei verschiedenen Krankheiten, wie der amyotrophen Lateralsklerose, der Ischämie, der Epilepsie, der Schizophrenie und der Alzheimer-Krankheit vermutet. Ziel dieser Arbeit war die Funktions- und Strukturanalyse der Glutamat-Transporter GLT-1 aus Rattus norvegicus und GltP aus E. coli, um die Familie der Glutamat-Transporter und die Entstehung der mit diesen Transportern in Verbindung gebrachten Krankheiten besser zu verstehen. Um die für diese Analysen gebrauchten Mengen an Protein herzustellen, mussten die Proteine heterolog produziert werden, da sie in natürlichen Geweben nicht in ausreichender Menge vorkommen. In dieser Arbeit wurde Glutamat-Transporter GLT-1 aus Rattus norvegicus funktional mit dem Semliki Forest Virus Expressionssystem überproduziert. Dazu wurden verschiedene Vektorkonstrukte hergestellt. Die routinemäßige Überproduktion des Transporters wurde im 8 l - Maßstab durchgeführt. In Zellen, die für die Produktion von GLT-1 mit rekombinanten, aktiven SF-Viren infiziert wurden, konnte eine sehr hohe Aktivität des Glutamat-Transporters nachgewiesen werden. Die Menge des hergestellten GLT-1 wurde in Bindungsexperimenten mit (2S,4R)-4-Methylglutamat quantifiziert: jede Zelle enthielt 3,5 x 106 Transporter: 61,04 pmol GLT-1/mg Gesamtprotein. Das entspricht einer Ausbeute von etwa 2-3 mg/8 l Zellkultur. Die hier durchgeführte Überproduktion des GLT-1-Glutamat-Transporters ist die erste Überproduktion eines eukaryotischen Sekundärtransporters mit dem Semliki Forest Virus Expressionssystem, bei dem große Mengen an aktivem Protein hergestellt werden konnten. Zudem ist die Ausbeute an funktionalem GLT-1 mit 61 pmol/mg Gesamtprotein verglichen mit den in der Literatur vorliegenden Daten zur Überproduktion eukaryotischer sekundärer Transporter mit anderen Expressionssystemen die höchste, die bis dato erreicht werden konnte. Der größte Anteil des heterolog produzierten GLT-1 war glykosyliert. Die gelelektrophoretische Analyse des aufgereinigten Transporters ergab zwei Banden, die ein apparentes Molekulargewicht von etwa 70-75 kDa und etwa 53-58 kDa hatten. In einer Western-Blot-Analyse konnten beide Banden des GLT-1-Transporters mit einem anti-His-Antikörper und einem anti-GLT-1-Antikörper nachgewiesen werden. Durch Deglykosylierung mit PNGase F und einer Trennung beider Banden durch Lektin-Affinitätschromatographie konnte gezeigt werden, dass es sich bei der 70-75 kDa-Bande um die glykosylierte Form und bei der 53-58 kDa-Bande um die nicht glykosylierte Form des Glutamat-Transporters handelte. Es wurde gezeigt, dass zwischen der Aktivität des GLT-1 und dessen Glykosylierung kein Zusammenhang besteht. Denn beide Formen lagen als vollständige, funktionale Transporter vor und transportierten nach Rekonstitution in Liposomen Glutamat. Der prokaryotische Glutamat-Transporter GltP aus E. coli wurde in dem E. coli-Stamm C43 (DE3) überproduziert. Die Ausbeute war etwa 2 mg pro Liter Kultur. Die Funktionalität des Transporters nach Rekonstitution in Lipidvesikel wurde durch spezifische Aufnahme von Glutamat gezeigt. Für die Solubilisierung beider Transporter aus den Zellmembranen wurden verschiedene Detergentien getestet. GltP ließ sich am besten mit DM oder DDM aus der Membran extrahieren, für die Solubilisierung des GLT-1 wurde mit großer Effizienz DDM oder CYMAL-7 eingesetzt. GltP und GLT-1 wurden mit einer Ni2+-NTA-Affinitätschromatographie in großer Menge und hoher Reinheit angereichert werden. Die Aufreinigungsprozedur beeinträchtigte nicht die Funktionalität des prokaryotischen GltP. Bei dem eukaryotischen Transporter GLT-1 war nach der Ni2+-NTA-Säule keine Transportaktivität mehr messbar. Durch Zusatz von Asolectin in den Wasch- und Elutionspuffern während der Aufreinigung konnte die Funktionalität des Transporters jedoch erhalten werden. Aufreinigungen mit anderen Lipiden unter anderem in Kombination mit Cholesterin lieferten einen Glutamat-Transporter, der in seiner Konformation stabilisiert, jedoch nach Rekonstitution nicht aktiv war. Eine weitere Steigerung der Ausbeute an aktivem GLT-1 konnte durch den Einsatz von Reduktionsmitteln, wie DTT oder b-Mercaptoethanol, die die Aggregation des Transporters verhinderten, erreicht werden. GltP katalysiert den elektrogenen Transport von Glutamat bzw. Aspartat unter Symport von mindestens zwei Protonen. GLT-1 transportiert ein Molekül Glutamat zusammen mit drei Na+-Ionen und einem Proton im Austausch gegen ein K+-Ion. Durch Transportmessungen konnte der hochspezifische Glutamat-Transport der aufgereinigten Transporter belegt werden. Der Glutamat-Transport des in Liposomen rekonstituierten GltP zeigte eine klare Abhängigkeit von einem anliegenden Protonengradienten. Aufgereinigtes und rekonstituiertes GLT-1 transportierte nur Aspartat bzw. Glutamat, wenn ein Na+ und ein K+-Gradient vorhanden waren. Die Aspartat- bzw. Glutamat-Aufnahme konnte bei beiden Transportern durch den kompetitiven nichttransportablen Inhibitor (2S,4R)-4-Methylglutamat blockiert werden. Der Assoziationsgrad der Glutamat-Transporter GltP und GLT-1 und das Gleichwicht zwischen den verschiedenen oligomeren Zuständen wurde in dieser Arbeit eingehend mit biochemischen Methoden untersucht: 1. „Cross-linking“-Studien, 2. Blaue Nativgelelektrophorese, 3. Analytische Ultrazentrifugation, 4. Laserlichtstreuung, 5. Gelfiltrationschromatographie. Die dabei erhaltenen Ergebnisse bewiesen eine tetramere Assoziierung beider Proteine. Die Gelfiltrationsexperimente zeigten, dass die Transporter in Detergenzlösung in unterschiedlichen Assoziationsgraden vorliegen. Das Gleichgewicht zwischen den oligomeren Formen war reversibel und abhängig von der Art und Konzentration des Detergenz, der Proteinkonzentration und der Temperatur. Zur Untersuchung der Struktur der Glutamat-Transporter wurden vor allem mit GltP zahlreiche 2D-Kristallisationsexperimente durchgeführt. Trotz Variation aller denkbar möglichen Parameter konnten keine Kristalle erhalten werden. Das beste Ergebnis war ein guter Einbau des Proteins in Lipidvesikel (etwa 80%). Da keine Kristalle erhalten wurden, wurde für beide Proteine eine Einzelpartikelanalyse durchgeführt. Dabei wurde nach zweidimensionaler Alignierung und Klassifizierung die „random conical tilt“-Methode angewendet. Die daraus resultierenden dreidimensionalen Dichtekarten des GltP und GLT-1 waren sehr ähnlich und wiesen vier nicht exakt symmetrische Massen in annähernd quadratischer Anordnung auf. Die Auflösung war 26 Å bzw. 36 Å. Die Größe der Einzelpartikel (für GltP: Höhe 37 Å, Breite 75 Å bzw. 86 Å, Länge 100 Å). ihre annähernd quadratische Anordnung und ihre Symmetrie lassen vermuten, dass es sich dabei um Tetramere der Glutamat-Transporter handelt, die aus zwei nicht symmetrischen Dimeren zusammengesetzt sind. Die hier präsentierten Daten sind die ersten zur dreidimensionalen Struktur von Glutamat-Transportern. Schließlich wurde nachgewiesen, dass der in BHK-Zellen heterolog exprimierte Glutamat-Transporter GLT-1 vorwiegend in „lipid rafts“ lokalisiert ist. Die Größe der „rafts“, die anhand der Größe der „Proteininseln“ in Gefrierbrüchen bestimmt wurde, war etwa 200 nm im Durchmesser. Die „GLT-1-Inseln“ bzw. „lipid rafts“ konnten durch das teilweise Entfernen von Cholesterin aus der Membran zerstört werden. Damit ging eine Reduktion der Glutamat-Transporter-Aktivität von etwa 20% einher. Es ist das erste Mal, dass „lipid rafts“ durch die natürliche Assemblierung von Proteinen mit Hilfe von Gefrierbruchanalysen und Elektronenmikroskopie beobachtet wurden.
Behandlung adipöser Typ-2-Diabetiker mittels gastraler Stimulation über das Tantalus-1-System
(2011)
Diabetes mellitus Typ 2 und Adipositas führen im Rahmen des Metabolischen Syndroms zu einer starken Erhöhung von Mortalität und Morbidität. Neue Ansätze in der Therapie beschäftigen sich mit dem mangelnden Sättigungsgefühl als Ursache der Adipositas. Grundidee der gastralen Stimulation ist, durch eine elektrische Stimulation des Magens einen Sättigungsreiz auszulösen, in dessen Folge es zu einer verminderten Nahrungsaufnahme kommt. Neuere placebokontrollierte Studien konnten keinen Vorteil der kontinuierlichen gastralen Stimulation über das IGS – System gegenüber der konservativen Therapie nachweisen. Dennoch lassen frühere Erfolge in Studien an Mensch und Tier vermuten, dass die elektrische Stimulation des Magens zu einem Gewichtsverlust führen kann, die Technologie jedoch weiter entwickelt werden muss. Die Stimulation über das Tantalus – 1 – System unterscheidet sich in zahlreichen Punkten vom IGS – System. Die Abgabe elektrischer Reize erfolgt dabei nur nach dem Eintreffen von Nahrung im Magen. Durch eine Applikation während der Refraktärzeit des Aktionspotentials der Muskelzelle wird die Stärke der Magenkontraktionen erhöht. Dies soll über eine gesteigerte Aktivität der afferenten Bahnen zu einem früheren Einsetzen des Sättigungsgefühls und einer verminderten Nahrungsaufnahme führen. Bisher wurde das System klinisch nur in einer Studie an 12 Patienten getestet.
In der präsentierten wissenschaftlichen Arbeit wurde die Wirksamkeit des Tantalus – 1 – Systems im Rahmen einer offenen, nicht - randomisierten prospektiven klinischen Studie erstmalig bei Typ 2 Diabetikern mit einem BMI zwischen 30 und 50 kg/m² über einen Beobachtungszeitraum von 12 Monaten überprüft. 9 Männern und 15 Frauen mit einem Durchschnittsalter von 49,38 ± 6,67 Jahren wurde das System laparoskopisch implantiert. Auswertbare Daten lagen von 20 Patienten vor. Es erfolgte eine Einteilung der Patienten in eine Gruppe mit begleitender Insulintherapie (7 Patienten) und eine Gruppe ohne Insulintherapie (13 Patienten). Beide Gruppen unterschieden sich zu Beginn nicht signifikant im Alter, Taillenumfang, Gewicht, HbA1c - bzw. Nüchternblutglucose – Wert oder hinsichtlich der Geschlechteraufteilung, jedoch im Ausgangs – BMI.
Die Dauer der Operation betrug im Durchschnitt 128,2 ± 35,9 Minuten. Die Patienten mit begleitender Insulintherapie erreichten bis Monat 12 einen Gewichtsverlust von 1,32 ± 8,21 kg, einen EWL von 0,96 ± 16,83 % sowie eine Verminderung des BMI um 0,53 ± 3,00 kg/m², des Taillenumfangs um 1,15 ± 5,60 cm, des HbA1c um 0,55 ± 0,84 % und der Nüchternblutglucose um 50,67 ± 104,31 mg/dl. Die Patienten ohne begleitende Insulintherapie erzielten innerhalb des einjährigen Beobachtungszeitraums einen Gewichtsverlust von 5,68 ± 10,94 kg/m², einen EWL von 9,78 ± 17,01 % sowie eine Verminderung des BMI um 1,96 ± 3,29 kg/m², des Taillenumfangs um 4,65 ± 5,94 cm, des HbA1c um 0,96 ± 1,42 % und der Nüchternblutglucose um 37,58 ± 60,26 mg/dl.
Bezüglich des Körpergewichts liegen die erzielten Veränderungen damit unter denen in der Vorläuferstudie. Nur 5 von 20 Patienten erreichten innerhalb des einjährigen Beobachtungszeitraums eine Gewichtsabnahme > 5 %. Auffällig war vor allem, dass in beiden Gruppen der Grossteil des Gewichtsverlustes in den ersten 6 Wochen nach Implantation erreicht wurde, in welchen das Gerät noch nicht aktiviert war. Nach Woche 20 nahm in beiden Gruppen das durchschnittliche Körpergewicht wieder zu.
Vor allem zu Beginn der Therapie wurden deutliche Verbesserungen des Glucosestoffwechsels aufgezeigt. So lag der HbA1c - Wert bereits in Woche 10 in der Gruppe der Patienten ohne begleitende Insulintherapie 1,47 ± 1,11 % unter dem Ausgangswert. Die mittleren Werte stiegen im Folgenden wieder an, dennoch erzielten 1/3 der Patienten der Gruppe ohne Insulintherapie nach 12 Monaten einen HbA1c < 6,5 %, was den Zielvorgaben der Deutschen Diabetischen Gesellschaft für eine zufriedenstellende Blutglucose – Einstellung entspricht. Bei 6 der Patienten dieser Gruppe konnte die antidiabetische Medikation vermindert oder abgesetzt werden. Lediglich bei einem Patienten musste die Medikation erhöht werden. Ein statistischer Zusammenhang zwischen Körpergewichts – und HbA1c – Veränderung konnte nicht nachgewiesen werden.
Insgesamt ergab sich eine weite Streuung der Ergebnisse. Einzelne Patienten erzielten durchaus Erfolge. So waren es in der Gruppe der Patienten ohne Insulintherapie 4 Patienten, welche innerhalb eines Jahres einen Gewichtsverlust ≥ 5 kg und eine Verminderung des HbA1c von ≥ 1,0 % erzielten. Ein Patient verlor innerhalb eines Jahres 35,8 kg und verbesserte den HbA1c um 2,45 %. Bezüglich der Ausgangswerte konnte kein Charakteristikum gefunden werden, welches ein unterschiedliches Ansprechen der Patienten auf die Therapie erklärt. In weiteren placebokontrollierten Studien mit einer größeren Patientenanzahl und einem längeren Beobachtungszeitraum sollte das System weiter untersucht werden.
Am Unterlauf größerer Flüsse, in küstenbegleitenden Schwemmlandebenen und in grundwasserbeeinflussten Rodungsinseln der montanen extrazonalen Buchenstufe wachsen in Griechenland wechselnasse Wiesen, deren Vorkommen bislang nur vermutet, aber für das griechische Festland noch nicht durch Vegetationstabellen belegt worden war. Von folgenden Syntaxa werden Aufnahmen aus Thessalien mitgeteilt und kommentiert: Molinio-Arrhenatheretea R. Tüxen 1937, Trifolio-Hordeetalia Horvatic 1963, Trifolion resupinati Micevski 1957, Cynosuro-Caricetum hirtae Micevski 1957, Alopecuro-Ranunculetum marginati Zeidler 1954, Narcisso tazettae-Caricetum distantis (Economidou 1969) ass. Nova, Plantaginetea majoris R. Tüxen et Preising ex R. Tüxen 1950 (s.l., incl. Agrostietea stoloniferae Oberdorfer et Müller ex Görs 1968), Agrostietalia stoloniferae Oberdorfer ex Oberdorfer et al. 1967, Beckmannion eruciformis Soö 1933 und Scirpo-Alopecuretum cretici Micevski 1957.
Es gibt in der botanischen Taxonomie (bisher) nur einen Autor wissenschaftlicher Pflanzennamen namens Medikus oder Medicus ohne gleichnamige Nomenklatoren neben ihm. Die in BRUMMITT & POWELL (1992) angeführten Standardautoren „L.W.MEDICUS“ und „W.MEDICUS“ sind als nomenklatorisch irrelevant zu ignorieren. Die Autorbezeichnung „MEDIK.“ gilt ausnahmslos für alle infrage kommenden Taxa. Autorbezeichnungen wie „MED.“, „MEDIC.“ oder „MEDICUS“ sind entsprechend zu standardisieren.
Die Autorbezeichnung „A. Br.“ kodiert nach dem empfohlenen internationalen Standard des Autorenlexikons von BRUMMITT & POWELL (Authors of Plant Names, Kew 1992) den amerikanischen Botaniker Addison Brown (1830–1913). Sie wird jedoch traditionell in hohem Maße unklar und verwirrend verwendet für Taxa, die der nahezu zeitgleich wirkende Deutsche Alexander Braun (1805–1877) aufgestellt hat. Durch unkritisch in Datenbanksysteme importierte Datensätze werden viele Namen infolgedessen als scheinbare Homonyme dieser beiden Autoren verwaltet. Alle von Alexander Braun beschriebenen Taxa sollten deshalb konsequent mit dem Standardkürzel „A. Braun“ versehen sein und nur mit diesem in Datenbanken eingepflegt werden.
Die Autorbezeichnung "Perr. & Song." ist zu vermeiden. Das erste Akronym generiert eine Autorenverwechslung, das zweite ist kein Element des internationalen Standards der nomenklatorischen Autorbezeichnungen nach Brummitt & Powell (1992). Keine aktuelle deutsche Exkursionsflora oder Standardliste benutzt die korrekte Standardbezeichnung E. P. Perrier & Songeon. Ausschließlich diese soll in entsprechende Datenbanken eingepflegt und in gedruckten Neuauflagen benutzt werden.
Schriftenschau
(2012)
Hintergrund und Fragestellung: Die Verwendung von Opioiden zur therapeutischen und peri-interventionellen Analgesie bei Patienten mit pancreato-biliären Krankheitsbildern ist durch ihre Nebenwirkung auf die Aktivität der glatten Muskulatur begrenzt. Wir untersuchten die Auswirkungen der intravenösen Gabe der synthetischen Opioide Tilidin und Pentazocin auf die Motilität des Sphinkter Oddi. Methoden: Zwanzig Patienten mit Verdacht auf Sphinkter Oddi-Dysfunktion wurden in eine prospektive Doppelblindstudie aufgenommen. Die Sphinkter Oddi-Motilität wurde mittels endoskopischer Manometrie sowohl nach i.v.-Injektion von 0,9% NaCl-Lösung als auch nach randomisierter Verabreichung von entweder 30 mg Pentazocin (n=10) oder 50 mg Tilidin (n=10) beurteilt. Ergebnisse: Pentazocin erhöhte den Basaldruck des Sphinkter Oddi signifikant von 32 ± 21 mmHg bei Kochsalzgabe auf 41 ± 19 mmHg (p = 0.002), während Tilidin den Basaldruck nicht veränderte: 34 ± 15 mmHg bei Kochsalzgabe gegenüber 36 ± 16 mmHg unter Tilidin (p = 0,16). Außerdem erhöhte Pentazocin die phasische Kontraktionsamplitude des Sphinkter Oddi auf 121 ± 18 mmHg gegenüber 108 ± 16 mmHg bei Kochsalzgabe (p = 0.004). Tilidin hatte hier keine Auswirkungen: 125 ± 24 mmHg bei Kochsalzgabe gegenüber 125 ± 21 mmHg unter Tilidine (p = 0.93). Die Frequenz und Dauer der phasischen Sphinkterkontraktionen wurden weder von Pentazocin noch von Tilidin beeinflußt. Schlußfolgerung: Im Gegensatz zu Pentazocin hat Tilidin keine Wirkung auf die Sphinkter Oddi-Motilität. Daher kann Tilidin sowohl zur endoskopischen Manometrie als auch zur Analgesie bei pankreatikobiliären Erkrankungen benutzt werden.
Zwischen dem 01.01.1988 und dem 30.10.1995 wurden in der Chirurgischen Klinik I – Klinik für Allgemein-, Visceral-, Gefäß- und Thoraxchirurgie - der Städtischen Kliniken Offenbach am Main an 856 Patienten insgesamt 942 Hernioplastiken durchgeführt. Das Ziel dieser retrospektiven Aufarbeitung ist es mittels Analyse der Krankengeschichten und postoperativer Fragebogenerhebung, die eigenen Ergebnisse nach Leistenhernien-operationen und der mit diesem Thema verbundenen Probleme vor dem Hintergrund einer großen Anzahl unterschiedlicher Operationsverfahren zu überprüfen. Die Rücklaufquote der Fragebogenaktion betrug 67,6%. Damit fanden 566 Primär- und 71 Rezidivhernien Eingang in die Studie. Patienten mit Femoralhernien und kindliche Leistenhernien wurden nicht berücksichtigt. Die Fragebogenaktion erfolgte 36 bis 130 Monate postoperativ, damit lag die Nachkontrollzeit im Mittel bei 77 Monaten (6 Jahre und 5 Monate). Primäre Leistenhernien wurden in 68,2% nach Bassini, in 28,1% nach Shouldice, in 1,6% nach Lichtenstein, in 1,6% nach Lotheissen und in 0,5% im Rahmen einer Laparotomie operiert. Rezidivleistenhernien wurden in 64,8% nach Bassini, in 12,7% nach Shouldice, in 19,7% nach Lichtenstein und in 2,8% nach Lotheissen operiert. An intraoperativen Komplikationen kam es nur in einem Fall zur akzidentiellen Verletzung der Arteria femoralis. Ansonsten traten keine weiteren intraoperativen Komplikationen auf. Die Rate der allgemeinen Komplikationen lag bei 4,1%. Hier dominierten die Pneumonien und Harnwegsinfekte. Bei konsequent durchgeführter low-dose-Heparinisierung kam es nur in einem Fall zu einer tiefen Beinvenenthrombose. Die Letalitätsrate lag bei 0,6%. Hier zeigte sich der Anstieg der Letalität bei Notfalleingriffen wegen Inkarzeration. Lokale Frühkomplikationen wie beispielsweise Hämatome oder Wundinfektionen traten in 7,4% der Fälle auf. Adipositas scheint zu einer erhöhten Rate an Wundinfektionen zu führen. Dabei ließ sich weder ein Einfluß der Ärztequalifikation auf die Komplikationsrate feststellen, noch war eine Verfahrensabhängigkeit zu beobachten. Insgesamt 11,9% der Patienten klagten über Schmerzen, die in 7,1% der Fälle ausstrahlenden Charakter im Sinne eines Ilioinguinalis- oder Ramus-genitalis-Syndromes hatten. Eine Exhairese des Nervus ilioinguinalis reduzierte die Inzidenz von ausstrahlenden Schmerzen. Dieser Vorteil wird jedoch mit vermehrten Auftreten von Sensibilitätsstörungen im Versorgungsgebiet des Nervens erkauft. Nach Rezidiveingriffen war die Inzidenz von chronischen Leistenschmerzen erhöht. Ein sicherer Einfluß der Verfahrenswahl auf die Inzidenz von chronischen Leistenschmerzen war nicht zu erkennnen. Ausnahme bildete das Verfahren nach Lichtenstein. Die Implantation von alloplastischen Material scheint zu einer erhöhten Inzidenz von chronischen Leistenschmerzen zu führen. Die Gesamtrezidivrate lag bei 10,0%. Nach Primäreingriffen lag die Rezidivrate bei 9,0%. Bei primären direkten Leistenhernien ist das Shouldice-Verfahren (Rezidivrate: 4,6%) dem Bassini-Verfahren (Rezidivrate: 11,4%) deutlich überlegen. Beim Betrachten aller Primärhernien zeigt sich der Vorteil des Shouldice-Verfahrens nicht so deutlich (8,0% beim Bassini-Verfahren versus 7,0% beim Shouldice-Verfahren). Somit ist bei kleinen indirekten Leistenhernien das Einsetzen des Bassini-Verfahrens nach der Originalmethode mit einem Mitfaßen der Fascia transversalis zu vertreten. Bei der Verfahrenswahl sollte somit der klinische Befund berücksichtigt werden, damit die chirurgische Therapie maßgeschneidert werden kann, denn die eigentliche Prüfstrecke bei Primärhernien stellen große mediale und kombinierte Leistenhernien dar. An dieser Stelle ist prinzipiell eine einheitliche Klassifikation der Leistenhernien, wie von Schumpelick oder Nyhus vorgeschlagen, zu fordern, damit Gleiches mit Gleichem verglichen werden kann. Abzulehnen bleibt die die Implantation eines Vicrylnetzes in die Bruchlücke mit einer Rezidivrate von insgesamt 20,3%. Die Re-Rezidivrate aller Rezidiveingriffe lag bei 18,3% und spiegelt die Schwierigkeit der operativen Versorgung der Rezidivhernie wider. Die Re-Rezidivrate des Shouldice-Verfahrens von 20,0% ist auf Grund der niedrigen Fallzahl (n=5) sicherlich nicht aussagekräftig und dürfte bei höheren Fallzahlen deutlich niedriger liegen. Erstaunlich ist die niedrige Re-Rezidivrate des Bassini-Verfahrens bei Rezidivhernien von 8,6%, die in der Mehrzahl der Publikationen deutlich höher liegt. Auf den ersten Blick ernüchternd stellt sich die Rezidivrate beim Lichtenstein-Verfahren mit 35,3% dar. Vor dem Hintergrund, daß das Lichtenstein-Verfahren nur bei Rezidivhernien und bei einer großen Primärhernie angewandt wurde, läßt sich insgesamt ein nicht ganz so schlechtes Bild gewinnen, obgleich eine weitere deutliche Senkung der Rezidivrate wünschenswert wäre. Zahlreiche Veröffentlichungen ermutigen zu einer vermehrten Anwendung präperitonealer Prothesen. Jedoch sollte die Anwendung des Lichtenstein-Verfahrens auf Rezidivhernien, bzw. Mehrfachrezidivhernien und voluminöse Hernien beschränkt bleiben. Insgesamt läßt sich feststellen, daß die Operation der Leistenhernie eine für alle Erfahrungsgruppen gut geeignete Operation darstellt. Die Rezidivraten unterschieden sich hinsichtlich der Ärztequalifikation nicht wesentlich. Unter dem Vorbehalt der kleinen Fallzahlen der „Nicht-ITN-Verfahren“ läßt sich die Tendenz erkennen, daß bei alternativen Anästhesieverfahren, insbesondere bei Spinal- und Lokalanästhesie, die Rezidivrate niedriger liegt. Denkbar als Grund der höheren Rezidivrate beim Intubationsverfahren wäre der häufig auftretenden Hustenreiz bei der Extubation und damit verbundenen erhöhten intraabdominellen Druckspitzen mit der Gefahr des Einreisens einzelner Nähte. Auch unter dem Gesichtspunkt der Risikominderung und der wachen Kooperation des Patienten mit der Möglichkeit intraoperativen Beurteilung der anatomischen Verhältnisse und Suffizienz der Reparation durch den Valsalva-Preßversuch läßt insbesondere die Lokalanästhesie attraktiv erscheinen. In dieser Studie traten nach zwei Jahren erst 68,8% der festgestellten Rezidive auf. Damit würde ein Zweijahres-follow-up, wie in vielen Studien angewandt, nicht zur Bestimmung der Rezidivrate ausreichen. Unter dem Gesichtspunkt des Zeitpunktes des Auftretens des Rezidives, zeigte sich, daß das Lichtenstein-Verfahren häufig zu Frührezidiven neigt. Zwischen den beiden gängigen Operationsmethoden - Bassini und Shouldice - gab es jedoch keine statistisch signifikante Unterschiede hinsichtlich der Rezidivzeitpunkte. Erwartungsgemäß bestätigte sich, daß Rezidive vermehrt bei direkten und kombinierten Leistenhernien, sowie bei Patienten mit Risikoerkrankungen auftreten. Somit sollten beim Vergleich von Rezidivraten den Risikofaktoren der Kollektive Beachtung geschenkt werden, um eine direkte Vergleichbarkeit zu ermöglichen. Eine simultane Zweitoperation führte jedoch nicht zu einer erhöhten Gesamtrezidivrate, jedoch zu einer erhöhten Frührezidivrate.
Der Eisenbahngüterverkehr verliert weiterhin Marktanteile an den Straßengüterverkehr. Dies ist nicht nur eine Folge der Tatsache, daß sich die geringeren externen Effekte der Bahn nicht genügend "auszahlen", die Bahn weist bei ihrer jetzigen Betriebsweise auch systembedingte Nachteile auf. Für den immer bedeutsameren Transport von Nicht-Massengütern in kleinen Mengen ist wohl der LKW als wesentlich kleinere Einheit als der Eisenbahnzug geeigneter. Eine Möglichkeit für die Bahn, diesem Problem zu begegnen, besteht in der Einführung einer neuen Transporttechnologie, die auf einzeln angetriebenen Güterwagen basiert, die ohne Fahrer automatisch gesteuert ihren Weg vom Start- zum Zielort selbsttätig finden. Die gesellschaftliche Erwünschtheit von mehr Schienengüterverkehr wird zu einem Gutteil mit der größeren Umweltfreundlichkeit, den geringeren externen Effekten der Eisenbahn begründet. Ob allerdings dieser Vorteil der Bahn erhalten bleibt, wenn versucht wird, die Vorteile eines dezentral gesteuerten automatischen Fahrens zu realisieren, stand bisher nicht fest. Die Arbeit untersucht diese Fragestellung durch die Rückführung externer Effekte auf naturwissenschaftlich-technische Grundlagen und kommt zu dem Ergebnis, daß 1. externe Nutzen in nennenswertem Umfang nicht einzuberechnen sind - weder im üblichen Sinne als statische technologische externe Effekte noch unter Berücksichtigung evolutionärer, dynamischer Aspekte; daß weiterhin 2. eine Einführung eines automatisierten und dezentralisierten Eisenbahngüterverkehrs eine deutliche Reduzierung der externen Effekte des Verkehrs erwarten läßt, und daß dabei 3. die Luftverschmutzung durch Abgase etwa "in der Mitte" zwischen heutigem Straßen- und Schienenverkehr liegt, Stau- und Unfallkosten jedoch im wesentlichen weiterhin den günstigeren Werten der Bahn entsprechen. Die Arbeit zeigt insgesamt, daß entgegen der ursprünglichen Befürchtung die externen Kosten eines automatisierten und dezentralisierten Schienengüterverkehrs dicht bei denen der bisherigen Bahn liegen. Trotzdem sind externe Kosten zu internalisieren, wo dies möglich scheint - nicht zuletzt, weil Ausmaß und Richtung des technischen Fortschritts durch Signale über die wirklichen Knappheiten gelenkt werden müssen. Die praktische Durchführbarkeit eines Schienengütertransports mit dezentral gesteuerten fahrerlosen Gütertriebwagen müßte in einem nächsten Schritt in der Praxis erprobt werden, weiterer Forschungsbedarf bleibt auch bei der Frage der Unfallsicherheit eines solchen Systems bestehen.
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...
Die in THE FILTH AND THE FURY geschilderten Ereignisse um die Sex Pistols und die Punkszene im London der späten 1970er Jahre gehören mittlerweile zu den Standards der Popgeschichte – von ihrer Performance der Nummer 1-Single God Save the Queen (The Fascist Regime) auf einem Boot auf der Themse parallel zu den pompösen Feierlichkeiten des Krönungsjubiläum 1977, bis hin zum Tod der „No Future“-Ikone Sid Vicious und seiner Freundin Nancy Spungen in New York. Der Poptheoretiker Greil Marcus hat in seinem Buch Lipstick Traces detailliert die Verbindungen zwischen Punk und avantgardistischer Aktionskunst erläutert, und Jon Savage verfasste mit England´s Dreaming eine epische soziokulturelle Chronologie der Szene.
Fragestellung: Eine neu entwickelte Vertebroplastieschraube (Omega 21-System, Biomet©) wurde in Ihrem ersten klinischen Einsatz durch postoperative CT- und nativradiologische Kontrollen in Bezug auf den Füllungsgrad im Wirbelkörper und die Zementaustrittsrate paravertebral, intradiscal und intraspinal untersucht. Methode: Im Zeitraum von November 2005 bis Januar 2006 wurden 21 Patienten mit einer mono- oder multisegmentalen Spondylodese, in Kombination mit Vertebroplastieschrauben versorgt. Die Indikationen, welche zum Einsatz dieses Schraubentyps geführt haben, waren Revisionen von gelockerten Pedikelschrauben (5), Osteolysen im Wirbelkörperbereich, hervorgerufen durch Metastasen verschiedener Primärtumore (9) und osteoporotische Frakturversorgungen (7). Die Art des Zementaustrittes wurde nach der Klassifikation von Yeom et al.(2003) evaluiert. Ergebnisse: Bei 21 Patienten wurden 54 Wirbelkörper mit insgesamt 97 Vertebroplastieschrauben versorgt. Im Durchschnitt wurde pro Schraube ein Volumen von 2 ccm PMMA-Zement (Osteopal V©) mittels 1 ccm-Spritzen appliziert. In 35 (65%) Wirbelkörpern konnte ein Zementaustritt im CT nachgewiesen werden. 21 (60%) Wirbelkörper zeigten die Austrittsform vom Typ S (Segmentvene). Typ B-Austrittsformen (Vena basivertebralis) konnten in 9 Wirbelkörpern und Typ C-Austrittsformen (Korticalisdefekte) in 5 (14%) nachgewiesen werden. Während der Nachuntersuchungsperiode zw. 2-14 Monaten zeigte sich keine Schraubenlockerung. Weiterhin konnte klinisch in einem Fall eine Fußheberparese postoperativ diagnostiziert werden. Darüberhinaus fanden sich keine weiteren Komplikationen, die mit der neu entwickelten Schraube in Zusammenhang gebracht werden konnten. Schlussfolgerung: Die Durchführung der gleichzeitigen Vertebroplastie unter Verwendung eines Pedikelschraubensystemes ist durch die Entwicklung der Vertebroplastieschraube deutlich vereinfacht worden. Vertebroplastieschrauben führen weiterhin zu einer verbesserten Augmentation in pathologisch verändertem Knochen mit gleichmäßiger Distribution des injizierten Zementes. Hierdurch ergeben sich Indikationserweiterungen und Verkürzungen von Spondylodesestrecken. Die Zementaustrittsrate von 65% liegt unter den publizierten Austrittsraten von konventionellen Vertebroplastien.