Refine
Year of publication
Document Type
- Article (31128)
- Part of Periodical (11550)
- Book (8266)
- Doctoral Thesis (5713)
- Part of a Book (3967)
- Working Paper (3385)
- Review (2939)
- Contribution to a Periodical (2368)
- Preprint (2084)
- Report (1560)
Language
- German (42718)
- English (29217)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (258)
- Italian (198)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (75568) (remove)
Keywords
- Deutsch (1076)
- Literatur (868)
- taxonomy (760)
- Deutschland (553)
- Rezension (511)
- new species (449)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (326)
- Geschichte (300)
Institute
- Medizin (7691)
- Präsidium (5170)
- Physik (4464)
- Extern (2738)
- Wirtschaftswissenschaften (2686)
- Gesellschaftswissenschaften (2369)
- Biowissenschaften (2184)
- Biochemie und Chemie (1975)
- Frankfurt Institute for Advanced Studies (FIAS) (1686)
- Center for Financial Studies (CFS) (1628)
Die küstennahe Ausbildung des Osningsandsteins bei Bad Iburg im Liegenden der Osningüberschiebung
(1979)
Vor der Küste der Rheinischen Masse liegen im Gebiet des nordwestlichen Teutoburger Waldes bei Bad Iburg im Querschnitt linsenartige feinkörnige Sandsteinmassen mit einer Mächtigkeit bis zu 260 m. Sie gehören der Unterkreide an und bilden die Fazies des Osningsandsteins. Seitlich und landeinwärts werden sie von wattähnlichen, zum Teil gröberen, mit 15-20 m geringmächtigen und glaukonitführenden, z. T. tonigen Sandsteinen vertreten, in denen im Falle des Dörenberges Anzeichen für eine vom Festland kommende ehemalige Stromrinne völlig fehlen. Der Befund am Hohnsberg spricht dafür, daß er eine durch Tiefenerosion hervorgerufene Rinnenausfüllung, der Form nach Seegatten der friesischen Küste vergleichbar oder mehr noch dem ausgefüllten Bett eines dem Meere zufließenden Stromes, ist. Die bisherige Annahme, in den mächtigen Sandsteinvorkommen ehemalige Flußdelten zu sehen, kann nicht mehr gelten.
Ann Cotten gilt dem Feuilleton als das aktuelle "Wunderkind der deutschen Literatur" und als die "klügste und schwierigste Dichterin in deutscher Sprache". [...] Ann Cotten nervt. [...] Doch was hat es mit dem Nerven auf sich? Ist das, was hier als Pose an- und vermeintlich vorgeführt wird, nicht etwas ganz anderes? Bereits diese ersten Hinweise zeigen, dass Cottens Spiel mit den Stillagen zwischen Virtuosität und Kalauer aufgeht: Es entlarvt die Kritik - sowohl in ihrem positiven als auch in ihrem negativen Urteil als Mansplaining, das mit Formeln wie 'Wunderkind', 'talentierte Autorin', Dekonstruktion etc. genau das einhegt, was mit dieser Literatur in Frage steht. Das Nerven, so manieriert es auch daherkommen mag, stellt eine intensiv reflektierte poetologische Dimension von Cottens Literaturauffassung und ihres Schreibens dar - ja man könnte von einer Poetik des Nervens sprechen. [...] Wenn Cotten, wie zu sehen sein wird, die Kategorie des Existenziellen wieder einführt, die vom (Post)Strukturalismus in Abhebung unter anderen von Sartre verabschiedet wurde, dann liebäugelt sie auch mit Autoren, die von ganz anderer Warte aus nerven. Zu ihnen zählt auch der in der Poetikvorlesung mehrfach genannte Peter Handke. Peter Handke nervt Ann Cotten, aber sie liest ihn auch und kann etwas mit ihm anfangen - inwiefern, wird zu sehen sein. Mit Handke steht ein weiteres ehemaliges 'Wunderkind' des Literaturbetriebs zur Debatte, bei dem jedoch seit ein paar Jahrzehnten eine Abwendung von den avantgardistisch-sprachkritischen Anfängen und eine Hinwendung zu einer mystischen Weltanschauung kritisch diagnostiziert wird. Die Empörung bei der Vergabe des Literaturnobelpreises an Handke im Herbst 2019 betraf vor allem seine proserbische Haltung sowie sein 'Frauenbild' und steigerte sich auch bis zum 'Durchdrehen'. Ist man bei Cotten über die dekonstruktivistische Pose genervt, so enerviert man sich bei Handke poetologisch gesehen darüber, dass er deren Einsichten zumindest in seinen jüngeren Werken trotzig negiere. [...] Seit der Tetralogie rund um die "Langsame Heimkehr" (1979) zeichnet sich bei Handke ein neuer Weltzugang und damit verbunden eine epische Erzählweise ab, denen Peter Hamm, knapp vier Monate nach dem Massaker von Srebrenica, in seiner Laudatio bei der Verleihung des Schillerpreises an Handke Folgendes attestiert: "Peter Handke hat das Schwierigste und Höchste gewagt, was ein Schriftsteller nach Kafka überhaupt wagen konnte, nämlich erzählend wieder für Weltvertrauen zu werben und Weltvertrauen zu schaffen". Man kann darin freilich auch einen gefährlichen Eskapismus sehen - ob man Handke als schwierig erachtet, oder ihm attestiert, Schwieriges zu leisten, ist auch eine Frage der Perspektive. Oder aber man kann die Vermutung formulieren, dass solche Zuschreibungen den Blick auf die Sache, wie auch bei Cotten, eher verstellen, und so drängen sich verschiedene Fragen auf: Wieso arbeitet sich Cotten an einem Autor mit solchem Ruf ab? Weshalb liest sie ihn? Was hat sein Nerven mit ihrem Nerven zu tun? Und was ist das eigentlich, 'nerven'? Zeit also für eine Rekonstruktion von Cottens Handke-Lektüre.
Seit Erlass des Schuldverschreibungsgesetzes von 2009 (SchVG) zeichnet sich ab, dass die Emissionspraxis der deutschen Staatsanleihen im Hinblick auf kollektive Gläubigermechanismen („Collective Action Clauses“ – CACs), wie sie das SchVG erstmals rechtssicher ermöglicht, substantiellen Änderungen unterliegen wird. Während die Haltung inländischer öffentliche Emittenten noch bei Verabschiedung des SchVG reserviert war, hat sich die Situation seit Mai 2010 grundlegend geändert: Verschiedene Mitgliedstaaten der Eurozone sind mit Verbindlichkeiten in ihrer Währung in Schwierigkeiten geraten und mussten um internationale Hilfe nachsuchen. Vor dem Hintergrund der politischen Forderung nach einer Beteiligung der bestehenden Gläubigerschaft („private sector involvement“, „PSI“) musste schließlich Griechenland im Frühjahr 2012 eine Umschuldung (mithilfe entsprechender Klauseln) bemühen. Politische und rechtliche Festlegungen der Eurogruppe über die künftige Dokumentation der (verbrieften) Staatenschuld im Hinblick auf eine potentiell erforderlich werdende Umschuldung folgten. Bei den nationalen Umsetzungsarbeiten sind auch gewisse „Unzulänglichkeiten“ des durch das SchVG geschaffenen gesetzlichen Gestaltungsrahmens aufgegriffen worden.
Die nachfolgende Abhandlung zeichnet im Einzelnen die verschiedenen Entwicklungslinien nach, beginnend (i) mit dem SchVG und der darin zum Ausdruck gekommenen traditionellen Haltung der öffentlichen Hand zu CACs, leitet über (ii) zur GriechenlandUmschuldung („PSI“) und deren rechtlichen Besonderheiten und Ergebnisse unter dem (neuen) Blickwinkel einer Beteiligung privater Gläubiger, soll (iii) die von der Eurogruppe gezogenen Konsequenzen in Gestalt der Empfehlungen des Wirtschafts- und Finanzausschusses für „Umschuldungsklauseln“ der Mitgliedsstaaten der Eurozone im Hinblick auf Art. 12 Abs. 3 des ESM-Vertrags erläutern und schließlich (iv) einen Überblick über die gesetzgeberischen Schritte in Deutschland zur Umsetzung der Empfehlungen liefern.
In der vorliegenden Studie wurden studienbegleitende und retrospektive Untersuchungen an 6903 HIV-infizierten Patienten bezüglich der Infektion und Erkrankung durch atypische Mykobakterien und insbesondere des Verlaufs der disserninierten Erkrankung durch Mykobakterium avium intracellulare (MAI) bei AIDS-Patienten und den Erfolg bzw. die Wirksamkeit der antimykobakteriellen und auch der antitetroviralen Therapie durchgeführt. Diese Studie wurde an der Universitätsklinik Frankfurt am Main in der Zeit von 1982 bis 2002 erstellt. Zusammenfassend lassen sich folgende Aussagen aufgrund dieser Untersuchung treffen: 1) Die Gesamtinzidenz der disserninierten MAI-Erkrankung bei HIV-infizierten Patienten war im Frankfurter Raum mit 10,1 % bzw. 4,3/100PYF trotz Verzichts auf eine medikamentöse antimykobakterielle Primärprophylaxe in dieser Region im weltweiten Vergleich eher niedrig. 2) Seit 1996 gab es bei HIV-infizierten Patienten kaum noch Neuerkrankungen mit MAL. Die Inzidenz ist deutlich rückläufig. 3) Diese Entwicklung korrelierte mit der seit dieser Zeit eingesetzten hochpotenten antiretroviralen Therapie mit Proteinaseinhibitoren und nicht nuldeosidalen Reverse-Transkriptase- Inhibitoren (HAART). 4) Unter der heute noch empfohlenen Standardtherapie mit Makroliden und Ethambutol stellte sich insgesamt nur bei 53,3 % der über 30 Tage therapierten Patienten eine Keimelimination ein. 5) Der Einfluß dieser verbesserten Therapie auf den Verlauf der disseminierten MAI-Erkrankung ist als weitaus größer anzusehen als der Einfluss der antimykobakteriellen Kombinationstherapie mit oder ohne Makrolide und geht mit einer deutlich verlängerten Überlebenszeit der Patienten einher. 6) Unter der Kombinationstherapie mit Makroliden erfolgte bei 10 % der Patienten in kurzer Zeit ein Therapieabbruch wegen gastrointestinaler Nebenwirkungen. 7) Aufgrund dieser Ergebnisse ist eine Primärprophylaxe der MAI-Erkrankung mit antimykobakterieller Therapie generell nur bei einer CD4-Zellzahl unter 50 mikro-l gerechtfertigt und eine Sekundärprophylaxe dieser Erkrankung mit antimykobakterieller Therapie wäre bei Ansprechen der hochpotenten antitetroviralen Therapie nicht zu empfehlen.
Based on the commonly used and well-established state-of-the-art DNA sequencing method, i. e. Sanger sequencing, the major target of future research is to develop a fast, cost-effective and gelelectrophoresis-free sequencing method. The aim of the new sequencing technologies is to detect DNA mutations faster and more accurate in order to develop individual therapies for patients (personalized medicine). For this purpose, a lot of novel sequencing techniques like pyrosequencing, mass-spectrometry-assisted sequencing, sequencing by hybridization etc. have been put into practice and already led to commercialized sequencers. The sequencing technology we were mostly interested in is the so-called sequencing-by-synthesis method (SBS). This PhD thesis covers the synthesis of modified nucleosides – the so-called reversible terminators – and their evaluation as reversible terminators. These 3′-modified and dye-labeled nucleotides are incorporated by the polymerase into the DNA-template, then the DNA-synthesis is stopped. After detection of the fluorescent signal, the reversible terminator has to be cleavable in a way (i. e. the polymerase-blocking modification) that the DNA-synthesis can continue. As a result of the polymerase-acceptance tests that have been carried out with the two triphosphates cyanoethoxymethyl(CEM)-dTTP and cyanoethyl(CE)-dTTP as substrates it became clear that the latter one was better incorporated than the first one. Based on this knowledge all four key compounds for the whole reversible terminators possessing the cyanoethyl (CE) group where synthesized within this PhD thesis. Additionally to the synthesis of the modified key compounds, the cleavability of the cyanoethyl function had to be evaluated which is an essential requirement of a reversible terminator for SBS. For addressing this issue, three different CE- and CEM modified monophosphates were created. For each of these three monophosphates an individual synthetic strategy has been developed within this PhD work, each of these strategies and subsequent phosphorylation led to the desired modification. These previously unknown model compounds mimicking the solubility of short oligonucleotides were employed the for qualitative cleavage experiments after their purification and spectroscopical characterization. With these three monophosphates suitable cleavage conditions for a quantitative removal of the CE and the CEM group were examined. In case of the CE function we selectively improved the cleavage conditions while varying the solvent, the reaction temperature as well as the amount of cleaving agent used, in order to make the conditions applicable for an SBS experiment. Due to the fact that the CE function was the most important modification for our SBS experiment, we could even optimize the cleavage efficiency by employing co-solvents like DMSO or DMF. An additional cleavage experiment was carried out by using a short CE-modified oligomer which led to further results that were comparable to the ones obtained from the cleavage experiments of the monomers. One big difference is the required amount of TBAF as cleaving agent for the quantitative removal of the CE-modification from the oligomer. In this case, 7500 equivalents of TBAF are needed for complete CE cleavage at 45 °C compared to the amount of 40 to 80 equivalents TBAF for the monomer (monophosphate). As a conclusion of this result we assume that the amount of cleaving agent and the solubility of the oligomer plays an important role in the CE cleavage efficiency. This assumption was already supported by Saneyoshi et al. who demonstrated for CE-modified RNA oligonucleotides that the CE-cleavage rate is strongly lowered with the increasing of the oligomer length. Thus we could demonstrate that the CE function is quantitatively removable from an oligomer without destroying it. With these results in hands we could prove that the CEM and the CE group are quantitatively cleavable and therefore applicable as blocking groups for reversible terminators. The conditions for the CE cleavage are used for the ArraySBS-“proof-of-principle” which is currently under investigation.
Dass der schlechte Leumund der Rhetorik um 1800 keineswegs zu deren flächendeckendem Verschwinden geführt hat, zeigt der Beitrag von Andreas Keller. Da die Rhetorik sich selbst traditionellerweise immer schon habe unsichtbar machen müssen, um wirken zu können, und da so gut wie jede sprachliche Äußerung rhetorisch verfasst sei, könne allerdings so oder so nur die Analyse des jeweiligen "Wahrnehmungsgrad[s] ihrer Auffälligkeit und Dominanz" verlässliche Auskunft über ihr Fortleben erteilen. Auch wenn insbesondere das auf Innerlichkeit verpflichtete Ideal der Bildung um 1800 vielfach in Konkurrenz oder Opposition zur Rhetorik geraten sei, habe es schnell Versuche vor allem im Rahmen der Pädagogik gegeben, eine "adressatenaktivierende Bildungsrhetorik" zu entwickeln. Zwar stelle die Systemphilosophie deren Hauptgegner dar, doch könne man die Rhetorik mit gutem Recht als "verborgene[ ] Leitdisziplin auch im 19. Jahrhundert" bezeichnen.
"Toughness has been rather out of fashion, as a masculine virtue", so William Gibson schon 2002. Die 'toughe Frau' scheint dagegen noch in aller Munde: zumindest im deutschsprachigen Raum gilt 'tough' als reflexartig einspringende Vokabel für die Kennzeichnung weiblicher Erfolgstypen: "kämpfende Amazone", "eiserne Lady" oder 'superwoman' bleiben als denkbare Synonyme ohne jede Chance. In hoffnungslos inflationärem Gebrauch schreiben die Titelzeilen der Lifestyle- und Frauenmagazine nahezu jeder in den Fokus gerückten Person das Epitheton zu, das zumindest in dieser Verwendung als unübersetzbar gelten muss, vielleicht aber auch gar keiner Übersetzung bedarf: handelt es sich doch - entgegen allem Anschein - um ein deutsches Wort, vermutlich so urdeutsch wie 'Handy'.
Seit Jacob Burckhardts Thesen zum Individualismus in der Renaissance gilt das 'Selbst' als eine eingehend diskutierte Größe, die ungeachtet ihrer diversen Erscheinungsformen nicht nur als das bündige Kennzeichen einer Schwellenzeit, sondern geradezu als ihr alleiniges Produkt angesehen wurde: die Epoche zwischen Spätmittelalter und Aufklärung steht schlichtweg für den 'Ursprung' der modernen Individualität. [...] Dem wohl prominentesten oratorischen Initiator, der explizit für eine 'reformatio mundi' steht, widerfuhr seitens der historiographischen Nachwelt bezeichnenderweise beides, eine ergebene Verklärung als Führergestalt sowie die Apotheose im prometheischen Schema: Martin Luther gilt bis heute nicht nur als 'Rebell' oder 'Revolutionär', sondern vor allem auch als 'Schöpfer der deutschen Schriftsprache'. Spätestens hier gilt es zu differenzieren. Gerade die Person des Wittenberger Gelehrten, Predigers und Seelsorgers gibt Anlass zur sorgsamen Klärung eines frühneuzeitlichen Selbst-Bewusstseins. Das Selbst-Verständnis des Augustinermönchs gründet zunächst ausschließlich in theologischen Traditionen und ist daher vor allem mit Komposita wie 'Selbsterforschung', 'Selbstgespräch' ('soliloquium') und 'Selbsterkenntnis' ('cognitio sui') in Verbindung zu bringen. Diese Kategorien aber sind primär und unlösbar an die Sündhaftigkeit jedes einzelnen Menschen gekoppelt [...] Und dennoch - in diesem der Moderne eher fremd anmutenden Katalog der genannten Komposita begegnet tatsächlich auch die 'SelbstÜbersetzung': als Praxis und Phänomen wie in Form erhellender Paraphrasierungen. Voraussetzung für die Praxis scheint zunächst ein Geschehen auf der machtpolitischen Ebene zu sein. Mit dem Rückgang der von Papst und Kaiser getragenen Universalherrschaft im westlichen Europa, mit dem Schwinden eines nachantiken Herrschaftsanspruchs ('translatio imperii') im Sinne des mittelalterlichen römischen Reichsgedankens ist gleichermaßen auch der rasch fortschreitende Rückgang des Lateinischen als flächendeckende Gelehrten- und Verwaltungssprache eingeleitet. Indem nun die einzelnen regionalen Teilherrschaften nach politischer Autonomie streben, erhält auch die polyphone Sprachkultur Europas einen neuen Stellenwert: weitgehend noch pränationale, also eher territoriale Interessenkollektive verlegen sich auf die Regelung ihrer Angelegenheiten im eigenen Idiom. Dieses kann damit aus dem Schattendasein eines als 'laienhaft' und 'illiterat' verachteten Ungenügens heraustreten und sich als vollgültiges Pendant der antiken Vorgaben erweisen. [...] Ein zweites Novum tritt zeitgleich hinzu. Zwecks parteigebundener Regelung der lokalen und bald auch der bi- oder multilateralen Angelegenheiten erhalten die antiken Vorgaben der Redekunst eine neue und sehr zentrale Funktion: das vor Ort im Sinne bestimmter Interessen auftretende Einzel- oder Kollektivsubjekt (Territorialgewalt) artikuliert sich sprachlich-persuasiv, vertritt einen lokalen Standpunkt ('opinio' / 'point de vue') und versucht seine Zuhörer durch Überzeugung zu einem politisch wirksamen Handeln zu bewegen. Hierfür dient der Autortext, ebenso aber auch seine zweckgerichtete Übersetzung. In dieser konkretisiert sich ein Subjekt nicht nur als Mittler zwischen Parteien, Ständen und Interessen, sondern auch zwischen Sprachen und Kulturen.
BMPs control postnatal dendrite growth and complexity in sympathetic neurons / von Afsaneh Majdazari
(2012)
The vertebrate nervous system is a complex network of billions of neurons connected by dendrites and axons, integrated to functional circuits and areas/organs in the central and peripheral nervous system. The cells of the nervous system origin from common progenitors, which take on different cell fates based on intrinsic and extrinsic factors. These factors determine general neuronal traits, but also the morphology and the type of connections made to other cells. Mechanisms underlying axonal and dendritic growth are well described in contrast to the initiation of neurite growth, which remains to be fully elucidated, especially concerning dendrite formation. Recently BMPs have been identified as candidate dendrite inducing factors in sympathetic, cortical and hippocampal neurons. Here we focus on the in vivo role of BMPs on dendrite growth in sympathetic neurons as their development and differentiation processes have been analyzed in detail.
Rezension zu Matías Martínez, Michael Scheffel (2019): Einführung in die Erzähltheorie, München: C.H. Beck Verlag. 234 S. ISBN: 978-3-406-74291-0 ; Matías Martínez, Michael Scheffel (2020): Anlatım Teorisine Giriş, Çev: Arif Ünal, İstanbul: Runik Kitap.272 S. ISBN: 978-605-06194-6-1
Zum Schutz von Umwelt und Bevölkerung vor unerwünschten Nebenwirkungen wird vielfach der Einsatz von Chemikalien auf ein notwendiges Minimum reduziert. Gerade in der Trinkwasseraufbereitung muss deren Wirkung sorgfältig und zuverlässig kontrolliert werden, da es bei einer Unterdosierung leicht zur Kontamination mit Mikroorganismen kommt. Ein Verfahren mag zum Nachweis solcher Mikroorganismen als geeignet erscheinen, wenn es intakte Keime anzeigt. Gerade in vorbehandelten Proben können jedoch nach einer unvollständigen Desinfektion geschädigte Zellen enthalten sein, die sich unter günstigen Bedingungen erholen (Resuscitation), d. h. ihre Vermehrungsfähigkeit wiedererlangen und dadurch Infektionen auslösen können. Also sollten dafür verwendete Medien auch solche Erreger erfassen, da ansonsten falsch negative Ergebnisse die Folge sind. Im mehrstufigen Nachweis von Escherichia coli nach den Deutschen Einheitsverfahren zur Wasser, Abwasser und Schlammuntersuchung (DEV) wird eine Lactose-Pepton-Lösung als Primärkulturmedium beschrieben, die schon für das Membranfilter-Verfahren als nicht optimal eingestuft wurde. Diese Problematik hatte sich in der vorliegenden Arbeit auch für die Flüssig- keitsanreicherung, das zweite Verfahren nach den DEV, gezeigt. Als Ursache für die verminderten Angehraten im DEV-Medium konnte das darin in einer Kon- zentration von 20 µg/l enthaltene Bromkresolpurpur identifiziert werden. Um das Wachstum bestimmter Mikroorganismen anhand ihrer spezifischen Stoffwechselleistungen anzuzeigen, werden geeignete Substrate in Kombination mit entsprechenden pH-Indikatoren verwendet, zu denen auch das Bromkresolpurpur zählt. Für ungeschädigte Keime hatte letzteres im Vergleich mit anderen, Selektionsmitteln enthaltenden Nährmedien besser abgeschnitten und wurde als weniger giftig" bezeichnet. Bei den in dieser Arbeit untersuchten chlorungsvorgeschädigten Zellen bewirkte es eine signifikante Wachstumshemmung. Im Zuge der weiteren Untersuchungen konnte gezeigt werden, dass eine Verminderung der Bromkresolpurpur-Konzentration auf 10 µg/l nur noch bei einem Teil und auf 5 µg/l bei keinem der verwendeten Stämme mehr eine signifikante Veränderung der Angehrate bewirkte. Die Funktion als Farbindikator wurde dadurch nicht beeinträchtigt.
Für Hepatitis-Viren sind für Westeuropa im allgemeinen und Deutschland im besonderen niedrige bis sehr niedrige Belastungen dokumentiert. In der vorliegenden Arbeit wurde die Prävalenz der serologischen Marker der verschiedenen Erreger in Proben, die dem Institut für Medizinische Virologie der Universitätsklinik Frankfurt am Main vorgelegt wurden, untersucht. Aus den Jahren 1995 - 2002 wurden 220.468 Tests auf Hepatitis-Virus-Antikörper sowie HBs-Antigen und HGV-RNA in die Analysen einbezogen. Dabei ließ sich ein starker Rückgang der jährlichen Testzahlen vom Höchststand in 1996 mit 30.566 auf nur noch 20.435 in 2002 (-33%) belegen. Außerdem wurden die Präferenzen bei den einzelnen Erregern deutlich: 98% aller Untersuchungen entfielen auf die Hepatitis-Viren A-C und ganze 4.114 Tests auf die Viren D-G. Bei der Hepatitis-A-Infektion, die fast immer folgenlos ausheilt und eine lebenslange Immunität hinterlässt, spiegelten die Antikörper-Prävalenzen die kumulative Wahrscheinlichkeit für den Erregerkontakt mit einem altersabhängig hohen Gesamtdurchschnitt (48,02%) wider. Der Nachweis von viralem Antigen bzw. Genom zeigte die aktuelle Infektionslage (für HBV mit 3,9% und HGV mit 6,06%). Bei Erkrankungen, die zu einem komplizierten Verlauf neigen und/oder keine langfristige Immunität hinterlassen, standen unterschiedliche Antikörper-Prävalenzen für das jeweilige Risiko (im Mittel HBV 19,15%, HCV 11,51%, HDV 6,55%, HEV 3,98%). Diese Zahlen liegen über den in anderen Untersuchungen für die deutsche Gesamtbevölkerung angegebenen Werten. Das ist insofern nicht verwunderlich, als hier kein Normalkollektiv untersucht wurde, sondern belastete Probanden, bei denen bereits eine Infektion vermutet wurde oder die einer erhöhten Infektionsgefahr ausgesetzt waren. Die Auswertung der Daten für spezifische Risikogruppen belegte die höhere Belastung von HIV-Positiven und i.v. -Drogenabhängigen für fast alle Hepatitis-Viren, während sich für Empfänger von Organen, Blut- und Blutprodukten vielfach eine unterdurchschnittliche oder zumindest eine gegenüber früheren Untersuchungen gesunkene Belastung als Bestätigung für vorgeschriebene Screening-Methoden zeigte. Ein ähnliches Bild bot das medizinische Personal, das lediglich bei den akuten HBV-Erkrankungen über dem Durchschnitt lag. Die Aufnahme der Hepatitis-B-Impfung in den Impfkalender der STIKO (Ständige Impfkommission am Robert-Koch-Institut) zeigte schon in den ersten acht Jahren einen beachtlichen Erfolg: bereits in dieser kurzen Zeit stieg die Anti-HBs-Prävalenz bei den Unter-10-Jährigen von anfangs 21,53% auf 82,50%. Dabei hatten in 1995 lediglich 40% die Antikörper durch eine Immunisierung, folglich 60% aufgrund einer Infektion entwickelt. Bis zum Jahr 2002 verschob sich dieses Verhältnis auf 96,49% vs. 3,51% zu Gunsten der Impfung.
A twentieth century-long coupled atmosphere-ocean regional climate simulation with COSMO-CLM (Consortium for Small-Scale Modeling, Climate Limited-area Model) and NEMO (Nucleus for European Modelling of the Ocean) is studied here to evaluate the added value of coupled marginal seas over continental regions. The interactive coupling of the marginal seas, namely the Mediterranean, the North and the Baltic Seas, to the atmosphere in the European region gives a comprehensive modelling system. It is expected to be able to describe the climatological features of this geographically complex area even more precisely than an atmosphere-only climate model. The investigated variables are precipitation and 2 m temperature. Sensitivity studies are used to assess the impact of SST (sea surface temperature) changes over land areas. The different SST values affect the continental precipitation more than the 2 m temperature. The simulated variables are compared to the CRU (Climatic Research Unit) observational data, and also to the HOAPS/GPCC (Hamburg Ocean Atmosphere Parameters and Fluxes from Satellite Data, Global Precipitation Climatology Centre) data. In the coupled simulation, added skill is found primarily during winter over the eastern part of Europe. Our analysis shows that, over this region, the coupled system is dryer than the uncoupled system, both in terms of precipitation and soil moisture, which means a decrease in the bias of the system. Thus, the coupling improves the simulation of precipitation over the eastern part of Europe, due to cooler SST values and in consequence, drier soil.
Understanding plant-plant interactions is essential in planning and implementing effective grassland management strategies. Positive and negative interactions generally co-occur in plant communities and the net effect of these interactions may depend on the disturbance regime, including grazing. Shrubs can act as biotic refuges by physically protecting neighbouring plants from herbivores. As a result, we would expect that in pastures the diversity and flowering success of plants is higher in the close vicinity of shrubs compared to the open vegetation. Nevertheless, we can also assume a competitive trade-off cost for plants that grow together with shrubs. In this study, we assessed the small-scale effects of dwarf shrubs (30–40 cm in diameter) on species density and flowering success. Specifically, we considered three types of microsites: (i) shrub interior, (ii) edge of shrub, and (iii) open pasture (more than 2 meters away from the shrub). We surveyed these three types of microsites using 10 × 10 cm sized plots both in grazed and ungrazed meadow steppe, in central Hungary. The highest species density was found at the edge of shrubs, both in grazed and ungrazed vegetation. Meanwhile, species density did not differ significantly between shrub interiors and the open pasture. However, in grazed vegetation, species flowering success was significantly higher in shrub interiors and edges than in the open pasture; no significant trend was observed for this measure in ungrazed vegetation. In contrast to previous studies, we did not detect a competitive effect of small-sized shrubs on plants in ungrazed vegetation. Our results indicate that small-sized shrubs protect other plants from herbivores and that the edge effect plays an important role for the maintenance of small-scale species diversity in pastures. Overall, our results underline the beneficial effect of biotic refuges in pastures and we suggest that retaining a sparse population of small-sized native shrubs is advantageous from a conservation point of view.
Within the context of eHealth interventions, a shared understanding of what constitutes engagement in and with eHealth technologies is missing. A clearer understanding of engagement could provide a valuable starting point for guidelines relating to the design and development of eHealth technologies. Given the cross-disciplinary use of the term “engagement,” investigating how engagement (and its components) is conceptualized in different domains could lead to determining common components that are deemed important for eHealth technological design. As such, the aim of this paper was 3-fold: (a) to investigate in which domains engagement features, (b) to determine what constitutes engagement in these different domains, and (c) to determine whether there are any common components that seem to be important. A comprehensive systematic scoping review of the existing literature was conducted in order to identify the domains in which engagement is used, to extract the associated definitions of engagement, and to identify the dimensionality or components thereof. A search of five bibliographic databases yielded 1,231 unique records. All titles, abstracts, and full texts were screened based on specific inclusion and exclusion criteria. This led to 69 articles being included for further analyses. The results showed that engagement is used in seven functional domains, categorized as follows: student (n = 18), customer (n = 12), health (n = 11), society (n = 10), work (n = 9), digital (n = 8), and transdisciplinary (n = 1) domains. It seems that some domains are more mature regarding their conceptualization and theorizing on engagement than others. Further, engagement was found to be predominantly conceptualized as a multidimensional construct with three common components (behavior, cognition, and affective) shared between domains. Although engagement is prolifically used in different disciplines, it is evident that little shared consensus as to its conceptualization within and between domains exists. Despite this, engagement is foremost seen as a state of being engaged in/with something, which is part of, but should not be confused with, the process of engagement. Behavior, cognition, and affect are important components of engagement and should be specified for each new context.
Zacharias Conrad von Uffenbach, Schöff und Rathsherr der Stadt Frankfurt am Main, geboren den 22. Februar 1683, hatte bekanntlich eine für die damalige Zeit sehr bedeutende Privatbibliothek zusammengebracht, und insbesondere weder Kosten noch Mühe gescheut, eine Sammlung von Handschriften anzulegen, deren Anzahl so sehr anwuchs, dass er im Jahre 1720 in Halle ein Verzeichniss derselben in einem starken Foliobande herauszugeben sich veranlasst sah. Noch bei Lebzeiten entschloss er sich, einen Theil seines grossen Bücher- und Manuscripten-Schatzes zu veräussern, und liess aus diesem Grunde einen aus vier starken Bänden bestehenden Katalog in 8° erscheinen. So behielt er nur den kleinsten Theil seiner Bücher und die werthvollsten Manuscripte bis zu seinem 1734 erfolgten Tode, „um, wie er sich selbst ausdrückt, sich seinen Verlust wegen der Übrigen erträglich zu machen." Unter den zurückbehaltenen Manuscripten befanden sich die unten näher verzeichneten, die die Geschichte der Stadt Frankfurt betreffen, welche durch Vermächtniss des Besitzers auf die hiesige Stadtbibliothek gelangten. Die bei seinem Tode noch vorhandenen Bücher und Manuscripte wurden dahier öffentlich verkauft und füllte der Katalog vier Bände in 8°. Es hat zwar schon Kirchner in der Einleitung zu seiner Geschichte der Stadt Frankfurt (1. Band. S. 32—36) ein Verzeichniss der von Uffenbach'schen Handschriften gegeben, allein eine Vergleichung mit dem untenstehenden wird zeigen, dass dasselbe sehr mangelhaft und unzureichend ist; daher wohl dem Forscher auf dem Gebiete vaterstädtischer Geschichte ein Dienst durch die Herausgabe des nachfolgenden vollständigeren Verzeichnisses dieser Handschriften geleistet sein möchte.
Die vorliegende Arbeit befasst sich mit der übergeordneten Frage nach dem Einfluss der Multikollinearität bei der Spezifikation und Schätzung von latenten nichtlinearen Effekten in Strukturgleichungsmodellen. Da das Multikollinearitätsproblem in latenten nicht-linearen Strukturgleichungsmodellen bisher in der Literatur kaum Beachtung gefunden hat, wird als erstes die Frage beantwortet, welche Relevanz das Vorliegen von Multikollinearität in nichtlinearen Strukturgleichungsmodellen hat. Dabei wird aufgezeigt, dass Multikollinearität von Prädiktoren nicht nur bei linearen Strukturgleichungsmodellen ein Problem darstellt, sondern vor allem bei nicht-linearen Strukturgleichungsmodellen aufgrund des Vorhandenseins nicht-linearer Terme. Da nicht-lineare Terme untereinander in einem höheren Zusammenhang stehen können als lineare Terme eines Strukturmodells, kann es zu Scheineffekten und zu verzerrten Schätzungen der nichtlinearen Effekte kommen. Ein Teststärkeverlust tritt immer ein. Als zweites wird gezeigt, dass die am stärksten vertretene Ansatzklasse zur simultanen Schätzung von Interaktionseffekten und quadratischen Effekten, nämlich die Klasse der Produkt-Indikator-Ansätze, seit ihrer Erstpublikation durch Kenny und Judd (1984) Spezifikationsfehler aufweist, welche in ähnlicher Form auch in jüngeren Publikationen enthalten sind (z.B. bei Lee, Song & Poon, 2004). Spezifikationsfehler machen die ganze Ansatzklasse für Multikollinearität „anfällig“, so dass es theoretisch zu verzerrten Schätzungen oder Scheineffekten kommen muss. Es wird gezeigt, wie man die Spezifikationsfehler korrigieren kann, d.h. wie man die bestehenden Ansätze erweitern muss. Da die latente Prädiktorkorrelation Bestandteil der Spezifikationsfehler ist, stellt sich die Frage, wie groß die Verzerrungen sind, die sich bei der Anwendung der (unkorrigierten) Produkt-Indikator-Ansätze ergeben, wenn die Multikollinearität steigt. Um diese Frage zu beantworten, wird eine Simulationsstudie durchgeführt. Sie zeigt, dass der Zwei-Stufen-Ansatz von Ping (1996) verzerrte Schätzungen der nicht-linearen Effekte produziert. Dieser Ansatz ist ein Vertreter der Produkt-Indikator-Ansätze und enthält die besagten Spezifikationsfehler. In der Simulationsstudie wird außerdem gezeigt, dass die korrekte Erweiterung des Ansatzes von Jöreskog und Yang (1996) zu erwartungstreuen Schätzungen führt. Als drittes wird der Frage nachgegangen werden, welche theoretischen und empirischen Unterschiede zwischen den neuen verteilungsanalytischen Ansätzen LMS (Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007), einerseits, und den klassischen Produkt-Indikator-Ansätzen, andererseits, zu erwarten sind. Dazu werden die theoretischen Eigenschaften der verteilungsanalytischen Verfahren, LMS und QML, untereinander und mit der Klasse der Produkt-Indikator-Ansätze verglichen. Ihre theoretischen Eigenschaften werden beim Vorliegen von Multikollinearität betrachtet. Illustriert werden die theoretischen Unterschiede anhand einer Simulationsstudie, die die Ansätze hinsichtlich ihrer Schätzeigenschaften bei steigender Multikollinearität miteinander vergleicht. In der Simulationsstudie werden die theoretisch herausgearbeiteten Vorteile der verteilungsanalytischen Verfahren, LMS und QML, bestätigt. In der Zusammenschau der theoretischen Überlegungen und der Ergebnisse aus den Simulationsstudien zeigt sich, dass Multikollinearität für alle Ansätze zur simultanen Schätzung multipler nicht-linearer Effekte eine Herausforderung ist. Die forschungspraktische und inhaltliche Relevanz des Multikollinearitätsproblems wird anhand eines Beispiels veranschaulicht. Für in jüngster Zeit diskutierte komplexere Modelle (z.B. moderierte Mediatormodelle) wird Multikollinearität ein Kernproblem sein, dem sich alle Ansätze werden stellen müssen oder für das neue Ansätze entwickelt werden müssen.
Die vorliegende Arbeit befasst sich mit der übergeordneten Frage nach dem Einfluss der Multikollinearität bei der Spezifikation und Schätzung von latenten nichtlinearen Effekten in Strukturgleichungsmodellen. Da das Multikollinearitätsproblem in latenten nicht-linearen Strukturgleichungsmodellen bisher in der Literatur kaum Beachtung gefunden hat, wird als erstes die Frage beantwortet, welche Relevanz das Vorliegen von Multikollinearität in nichtlinearen Strukturgleichungsmodellen hat. Dabei wird aufgezeigt, dass Multikollinearität von Prädiktoren nicht nur bei linearen Strukturgleichungsmodellen ein Problem darstellt, sondern vor allem bei nicht-linearen Strukturgleichungsmodellen aufgrund des Vorhandenseins nicht-linearer Terme. Da nicht-lineare Terme untereinander in einem höheren Zusammenhang stehen können als lineare Terme eines Strukturmodells, kann es zu Scheineffekten und zu verzerrten Schätzungen der nichtlinearen Effekte kommen. Ein Teststärkeverlust tritt immer ein. Als zweites wird gezeigt, dass die am stärksten vertretene Ansatzklasse zur simultanen Schätzung von Interaktionseffekten und quadratischen Effekten, nämlich die Klasse der Produkt-Indikator-Ansätze, seit ihrer Erstpublikation durch Kenny und Judd (1984) Spezifikationsfehler aufweist, welche in ähnlicher Form auch in jüngeren Publikationen enthalten sind (z.B. bei Lee, Song & Poon, 2004). Spezifikationsfehler machen die ganze Ansatzklasse für Multikollinearität „anfällig“, so dass es theoretisch zu verzerrten Schätzungen oder Scheineffekten kommen muss. Es wird gezeigt, wie man die Spezifikationsfehler korrigieren kann, d.h. wie man die bestehenden Ansätze erweitern muss. Da die latente Prädiktorkorrelation Bestandteil der Spezifikationsfehler ist, stellt sich die Frage, wie groß die Verzerrungen sind, die sich bei der Anwendung der (unkorrigierten) Produkt-Indikator-Ansätze ergeben, wenn die Multikollinearität steigt. Um diese Frage zu beantworten, wird eine Simulationsstudie durchgeführt. Sie zeigt, dass der Zwei-Stufen-Ansatz von Ping (1996) verzerrte Schätzungen der nicht-linearen Effekte produziert. Dieser Ansatz ist ein Vertreter der Produkt-Indikator-Ansätze und enthält die besagten Spezifikationsfehler. In der Simulationsstudie wird außerdem gezeigt, dass die korrekte Erweiterung des Ansatzes von Jöreskog und Yang (1996) zu erwartungstreuen Schätzungen führt. Als drittes wird der Frage nachgegangen werden, welche theoretischen und empirischen Unterschiede zwischen den neuen verteilungsanalytischen Ansätzen LMS (Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007), einerseits, und den klassischen Produkt-Indikator-Ansätzen, andererseits, zu erwarten sind. Dazu werden die theoretischen Eigenschaften der verteilungsanalytischen Verfahren, LMS und QML, untereinander und mit der Klasse der Produkt-Indikator-Ansätze verglichen. Ihre theoretischen Eigenschaften werden beim Vorliegen von Multikollinearität betrachtet. Illustriert werden die theoretischen Unterschiede anhand einer Simulationsstudie, die die Ansätze hinsichtlich ihrer Schätzeigenschaften bei steigender Multikollinearität miteinander vergleicht. In der Simulationsstudie werden die theoretisch herausgearbeiteten Vorteile der verteilungsanalytischen Verfahren, LMS und QML, bestätigt. In der Zusammenschau der theoretischen Überlegungen und der Ergebnisse aus den Simulationsstudien zeigt sich, dass Multikollinearität für alle Ansätze zur simultanen Schätzung multipler nicht-linearer Effekte eine Herausforderung ist. Die forschungspraktische und inhaltliche Relevanz des Multikollinearitätsproblems wird anhand eines Beispiels veranschaulicht. Für in jüngster Zeit diskutierte komplexere Modelle (z.B. moderierte Mediatormodelle) wird Multikollinearität ein Kernproblem sein, dem sich alle Ansätze werden stellen müssen oder für das neue Ansätze entwickelt werden müssen.