Refine
Year of publication
- 2010 (2780) (remove)
Document Type
- Article (974)
- Doctoral Thesis (378)
- Book (338)
- Part of Periodical (337)
- Part of a Book (212)
- Contribution to a Periodical (144)
- Review (141)
- Working Paper (84)
- Report (71)
- Conference Proceeding (31)
Language
- German (1694)
- English (842)
- mis (105)
- Portuguese (49)
- French (32)
- Croatian (29)
- Multiple languages (12)
- Italian (7)
- dut (3)
- Spanish (3)
Is part of the Bibliography
- no (2780) (remove)
Keywords
- Mosambik (114)
- Mozambique (114)
- Moçambique (113)
- Filmmusik (96)
- Deutsch (75)
- Christentum (65)
- Bibel (63)
- bible (63)
- christianity (63)
- Literatur (40)
Institute
- Extern (296)
- Medizin (295)
- Präsidium (235)
- Gesellschaftswissenschaften (99)
- Biowissenschaften (98)
- Biochemie und Chemie (97)
- Physik (87)
- Geschichtswissenschaften (68)
- Geowissenschaften (59)
- Wirtschaftswissenschaften (55)
European pea crabs - taxonomy, morphology, and host-ecology (Crustacea: Brachyura: Pinnotheridae)
(2010)
Pinnotherids are small crabs symbiotic to a variety of invertebrates. The European species infest bivalves and sea squirts. Their way of life is parasitic and poses a threat to commercially exploited bivalves. While juveniles of both sexes still look very similar - being agile swimmers and partially free living - a metamorphosis takes place in the female after mating and results in a conspicuous sexual dimorphism. Thereafter, the female settles in its host definitely and is morphologically strongly adapted to the parasitic life phase. A very high reproductive output was demonstrated among several pea crab species infesting bivalves. Despite from that, hardly any information is present in the literature on the pinnotherids’ reproductive biology and the underlying morphology.
Due to their cryptic way of life, the sexual dimorphism, and the different morphotypes of the female, the taxonomy of the Pinnotheridae is a serious challenge. Two widely accepted species are recognized on European coasts: Pinnotheres pisum and Nepinnotheres pinnotheres. Pinnotheres pectunculi was so far only known from the bivalve Glycymeris glycymeris in its type locality Roscoff (France), while Pinnotheres ascidicola and Pinnotheres marioni were described as living exclusively in ascidians without careful comparison with the previously described species. In order to produce standardized comparative descriptions, pea crabs were collected and studied from different hosts and localities in the Northeast Atlantic and in the Mediterranean. Nepinnotheres pinnotheres and Pinnotheres pisum were redescribed with consideration to characters of female and male. According to our morphological analysis, Pinnotheres ascidicola and Pinnotheres marioni are junior synonyms of Nepinnotheres pinnotheres, whereas the status of Pinnotheres pectunculi as a valid species was ascertained. Important characters are the mouthparts, the male gonopods, and especially chelipeds that showed consistent characteristics among different crab stages of both sexes.
Based on our sampling, we estimated the host-range of the European species. Nepinnotheres pinnotheres lives in ascidians and in the pen shell Pinna nobilis. Pinnotheres pisum infests numerous bivalve species - Pinna nobilis included. For Pinnotheres pectunculi novel host records are presented, all from the bivalve family Veneridae. Furthermore, feeding of the Pinnotheres-species was observed. They use a setae comb ventrally on the claw to brush mucus (and the accumulated food particles) from the bivalve gills. Feeding strategies and host-ecology will be thoroughly discussed in consideration to other Pinnotheridae.
We investigated the reproductive systems of European pinnotherids by histological methods, scanning and transmission electron microscopy, and confocal laser scanning microscopy.
The Eubrachyura have internal fertilization: paired vaginas enlarge into storage structures, the spermathecae, which are connected to the ovaries by oviducts. Sperm is stored until the oocytes are mature and transported into the spermathecae, where fertilization takes place. In the investigated pinnotherids, the vagina is of the ‘concave pattern’. Musculature is attached alongside flexible parts of the vagina-wall to control the dimension of its lumen. The genital opening is closed by a muscular mobile operculum.
The spermatheca can be divided into two distinct regions by function and morphology. The ventral part includes the connection with vagina and oviduct and is regarded as the zone where fertilization takes place. It is lined with cuticle except where the oviduct enters the spermatheca by the ‘holocrine transfer tissue’. At ovulation, the oocytes have to pass through this multi-layered glandular epithelium, which has a holocrine mode secretion. The dorsal part of the spermatheca is lined by a highly secretory apocrine glandular epithelium, which was to date only found in fiddler crabs of the genus Uca.
The male internal reproductive system consists of paired testes and corresponding vasa deferentia. The sperm morphology of pinnotherids conforms to other thoracotremes, with slight differences between Nepinnotheres pinnotheres and Pinnotheres pisum. Spermatozoa become enveloped into spermatophores in the secretory proximal vas deferens. The medial vas deferens is strongly enlarged and stores spermatophores embedded in seminal plasma. The distal vas deferens holds tubular appendices, which extend into the ventral cephalothorax and slightly into the pleon. These appendices produce and store vast quantities of seminal plasma. The copulatory system of the Brachyura is formed by paired penes and two pairs of gonopods, which function in sperm transfer. In pinnotherids, the long first gonopods transfers the sperm mass to the female. It holds the ejaculatory canal inside, which opens proximally and distally. The second gonopod is solid, short and conical. During copulation, the penis and the second gonopod are inserted into the base of the tubular first gonopod. The second gonopod functions in the transport of the sperm mass inside the ejaculatory canal towards its distal opening. The specific shape of the second gonopod is strongly adapted for a sealing of the tubular first gonopod with longitudinal cuticle foldings that interlock inside the first gonopod. The presented results are discussed concerning their function in reproduction and in respect of the systematic account.
The role of secretion in sperm transfer, storage and fertilization among the Brachyura is still under debate. It is notable that structure and function of secretion are more complex in pinnotherids and probably more efficient than in other brachyuran crabs, which will be discussed, in view of the parasitic way of life and the high fecundity of pinnotherids.
Background: European robins, Erithacus rubecula, show two types of directional responses to the magnetic field: (1) compass orientation that is based on radical pair processes and lateralized in favor of the right eye and (2) so-called 'fixed direction' responses that originate in the magnetite-based receptors in the upper beak. Both responses are light-dependent. Lateralization of the 'fixed direction' responses would suggest an interaction between the two magnetoreception systems. Results: Robins were tested with either the right or the left eye covered or with both eyes uncovered for their orientation under different light conditions. With 502 nm turquoise light, the birds showed normal compass orientation, whereas they displayed an easterly 'fixed direction' response under a combination of 502 nm turquoise with 590 nm yellow light. Monocularly right-eyed birds with their left eye covered were oriented just as they were binocularly as controls: under turquoise in their northerly migratory direction, under turquoise-and-yellow towards east. The response of monocularly left-eyed birds differed: under turquoise light, they were disoriented, reflecting a lateralization of the magnetic compass system in favor of the right eye, whereas they continued to head eastward under turquoise-and-yellow light. Conclusion: 'Fixed direction' responses are not lateralized. Hence the interactions between the magnetite-receptors in the beak and the visual system do not seem to involve the magnetoreception system based on radical pair processes, but rather other, non-lateralized components of the visual system.
Lorenz von Stein und die Französische Revolution : Zeitgeschichte als Theorie der Gesellschaft
(2010)
Vascularization of the vertebrate brain takes place during embryonic development from a preformed perineural vascular plexus. As a consequence of the intimate contact with neuroectodermal cells the vessels, which are entering the brain exclusively via sprouting angiogenesis, acquire and maintain unique barrier properties known as the blood-brain barrier (BBB). The endothelial BBB depends upon the close association of endothelial cells with pericytes, astrocytes, neurons and microglia, which are summarized in the term neuro-vascular unit. Although it is known since decades that the CNS tissue provides the cues for BBB induction and differentiation in endothelial cells, the molecular mechanism remained obscure. Only recently, the canonical Wnt/beta-catenin pathway and the Wnt7a/7b growth factors have been implicated in brain angiogenesis on the one hand and in BBB induction on the other. This breakthrough in understanding the differentiation of the brain vasculature prompted us to review these findings embedded in the emerging concepts of Wnt signaling in the vasculature. In particular, interactions with other pathways that are crucial for vascular development such as VEGF, Notch, angiopoietins and Sonic hedgehog are discussed. Finally, we considered the potential role of the Wnt pathway in vascular brain pathologies in which BBB function is hampered, as for example in glioma, stroke and Alzheimer's disease.
Dynamische Proteininteraktionen sind die Grundlage biologischer Prozesse, ihr korrekter Ablauf ist essentiell für die intakte Physiologie aller Organismen. Die Aufklärung der Struktur und Funktion von Proteinen inklusive ihrer komplexen Interaktionen, ist entscheidend für das Verständnis biologischer Prozesse. Methoden zur Untersuchung von Protein-Interaktionen sind in der Regel auf die Modifikation von Proteinen angewiesen. Zum Einen ist die selektive Markierung von Proteinen mit spektroskopischen Sonden – insbesondere mit Fluorophoren – ein wichtiger Ansatz zur in vivo und in vitro Interaktionsanalyse. Zum Anderen gewinnen festphasenbasierte Analysemethoden zunehmend an Bedeutung. Multivalente Chelatoren (MCH) bieten vielseitige Möglichkeiten, rekombinante Proteine reversibel an spektroskopische Sonden oder Oberflächen anzubinden und haben dadurch ein enormes Potential für Anwendungen zur funktionalen Charakterisierung von Proteinen. Ziel dieser Arbeit war es, die Energetik und Dynamik der Interaktion von MCH mit Oligohistidinen zu charakterisieren, um diese insbesondere zur Organisation von Proteinen in Mikro- und Nanostrukturen einzusetzen. Die Interaktion der MCH mit Histidin-Tags unterschiedlicher Länge und Sequenz wurde in Lösung und an Oberflächen charakterisiert. Es zeigte sich, dass die zunehmende Länge und die Redundanz auf Seiten des Histidin-Tags in einer erhöhten Affinität resultierten. Das Einführen einzelner Spacer-Aminosäuren resultierte hingegen in einer drastischen Reduktion der Komplexstabilität. Ein Alanin-Scanning zeigte, dass vor allem die zentralen Histidine besonders wichtig für eine stabile Bindung sind. Dieser Effekt lässt sich dadurch erklären, dass es sich bei der MCH-Oligohistidin-Interaktion um einen äußerst dynamischen Prozess handelt, bei dem die Metallkoordinationsstellen mit ständig wechselnden Histidinen interagieren. Diese Permutation erhöht die Entropie des Komplexes, und ist somit Grund für die erhöhte Affinität mit steigender Redundanz des Histidin-Tags. Anhand von Chelator-Dichte-Arrays konnte gezeigt werden, dass die Stabilität der Bindung von Histidin-getagten Proteinen nicht nur mit der Multivalenz der Chelatoren, sondern auch mit der MCH-Dichte ansteigt. In Kompetitionsexperimenten mit Hexa- und Dekahistidinen auf den MCH-Dichte-Arrays wurden veränderte Stabilitäten beobachtet. Die Stabilität von H6 ver5. veringert sich in Anwesenheit von H10, wobei sich die scheinbare Affinität von H10 in Anwesenheit von H6 erhöht. Dies wird auf die gleichzeitige Interaktion mit verschiedenen MCH-Molekülen auf der Oberfläche, die Oberflächenmultivalenz, zurückgeführt. Um diesen Effekt anhand von MCHMolekülen mit definiertem Abstand zu untersuchen, wurde ein Tris-NTABiotin-Konjugat (BTTris-NTA) hergestellt und auf Streptavidin-Oberflächen bzw. fluoreszenzmarkiertem Streptavidin eingesetzt. Echtzeit TIRFS-RIf-Kompetitionsexperimente zeigten eine veränderte Bindungskinetik für H6 in Anwesenheit von H10, welche darauf zurückzuführen ist, dass H6 aktiv durch H10 verdrängt wird. Dieser Effekt ist offenbar auf die dynamische Interaktion des Oligohistidins mit multiplen Chelatoren auf der Oberfläche zurückzuführen, welche den aktiven Austausch von H6 gegen H10 ermöglicht. Sowohl auf Oberflächen als auch in Lösung wurden für die Interaktion von Streptavidin-gebundenem BTTris-NTA mit Oligohistidinen um Faktor 3-5 erhöhte Affinitäten, im Vergleich zu freiem Tris-NTA, festgestellt. Interaktionsanalysen in Lösung zeigten maximale Komplex-Stöchiometrien von 1:2 für die Interaktion von Streptavidin-BTTris-NTA mit Oligohistidinen. Diese Stöchiometrien sowie die erhöhte Affinität lassen sich durch die gleichzeitige Interaktion von zwei benachbarten an Streptavidin gebundenen BTTris-NTA-Molekülen mit einem Oligohistidin erklären. Die räumliche Nähe der Tris-NTA-Moleküle erhöht die Redundanz auf Seiten des Chelators, was sich wiederum positiv auf die Entropie auswirkt und damit zu einer erhöhten Affinität führt. Diese Ergebnisse bestätigen den postulierten Effekt der Oberflächenmultivalenz. Es wurde gezeigt, dass BTTris-NTA die reversible Biotinylierung Histidingetagter Proteine ermöglicht, und damit eine Brücke zwischen den zwei am meisten eingesetzten Werkzeugen der Biochemie, dem Histidin-Tag und dem Biotin-(Strept)Avidin-System, schlägt. BTTris-NTA findet in verschiedenen Bereichen Anwendung: zur Umwandlung kommerzieller (Strept)Avidin-Oberflächen in Tris-NTA-Oberflächen, in Phage-Display-Screenings und Western Blot Analysen sowie zur Markierung von Rezeptoren auf Zelloberflächen. Die Biotinylierung über BTTris-NTA ermöglicht es zudem, auch Proteine geringer Konzentrationen (<10 nM) effizient auf Streptavidinoberflächen zu immobilisieren. Diese Selbstassemblierung Histidin-getagter Proteine wurde zur Organisation von Proteinen auf Oberflächen in Mikro- bis Nanometer-Dimensionen genutzt.
Tauopathien sind eine Gruppe von neurodegenerativen Erkrankungen zu denen auch die Alzheimer Demenz zählt, die als gemeinsames pathologisches Merkmal die intrazelluläre Akkumulation von neurofibrillären Bündeln (NFTs) aufweisen. Diese bestehen aus hyperphosphoryliertem Tau-Protein, das hierdurch seine physiologische Funktion, die Assemblierung von Mikrotubuli zu fördern und diese zu stabilisieren, verliert. Der genaue Mechanismus, der bei diesen Erkrankungen zur Neurodegeneration führt und mit Demenz, Parkinsonismus und motorischen Störungen einhergehen kann, ist bisher weitgehend ungeklärt. Da mitochondriale Dysfunktion bei vielen neurodegenerativen Erkrankungen eine entscheidende Rolle spielt, wurde in der vorliegenden Arbeit anhand eines Zellmodells zum Einen der Effekt durch die Überexpression von gesundem Wildtyp-Tau (hTau40) und zum Anderen die Auswirkungen der P301L-Mutation, wie sie auch bei der frontotemporalen Demenz mit Parkinsonismus (FTDP-17) auftritt, auf die mitochondriale Morphologie und Funktion untersucht. Die grundlegende Charakterisierung deckte eine weitreichende Einflussnahme von Tau auf den Energiestoffwechsel der Zellen auf. Die Überexpression von Tau führt zu einer verminderten Expression der Komplexe I, II und IV sowie einer veränderten Aktivität der mitochondrialen Atmungskettenkomplexe I-III. Zudem weist die verminderte Aktivität der Citrat-Synthase auf eine Beeinträchtigung des Citratzyklus hin. Der maßgebliche Unterschied zwischen den Tau überexprimierenden Zellen besteht in dem deutlich erniedrigtem Gehalt (NADH:HAR-Aktivität) und der drastisch erniedrigten Aktivität (NADH:DBQ-Aktivität) von Komplex I in den TauP301L-Zellen, wohingegen die hTau40-Zellen trotz eines vermindertem Gehalts im Vergleich zu den Kontroll-Zellen eine deutlich erhöhte Aktivität (DBQ/HAR-Aktivität) aufweisen. Diese gegensätzliche Aktivität von Komplex I führt zu weitreichenden Veränderungen der Zellphysiologie, was sich am deutlichsten in der daraus resultierenden metabolischen Aktivität (NADH-Spiegeln), den ATP-Spiegeln und dem mitochondrialen Membranpotential zeigt. Diese Parameter sind in den hTau40-Zellen aufgrund der hohen Komplex I-Aktivität erhöht und in den TauP301L-Zellen entsprechend erniedrigt. Ebenso spiegeln sich diese funktionellen Parameter in der veränderten Morphologie, Dynamik sowie der Ultrastruktur der Mitochondrien wieder. Die Cristae-Struktur sowie die Dichte der Matrix lassen eindeutige Rückschlüsse auf die aus den unterschiedlichen Komplex I-Aktivitäten resultierenden ATP-Spiegel zu. Weiterhin gibt es in der Literatur Hinweise, dass zum Einen die Transportrichtung der Mitochondrien von der Affinität der Motormoleküle von dem ATP-Gehalt der Mitochondrien abhängig zu sein scheint und zum Anderen, dass die Hemmung von Komplex I zu einem retrograden Transport und perinukleären Morphologie der Mitochondrien führt. Dies konnte ebenfall in den TauP301L-Zellen gezeigt werden. Zusätzlich sind hier die mitochondriale Bewegung sowie die Dynamik (Fusion und Fission) verringert. Interessanterweise spiegeln viele der funktionellen und strukturellen Veränderungen der TauP301L-Zellen den Alterungsprozess wieder, da es im Alter zu einer erhöhten Rate an oxidativen mtDNA-Schäden, einer verminderten Aktivität von Komplex I sowie zu einer verringerten Effektivität und Kapazität der oxidativen Phosphorylierung kommt, die in niedrigeren ATP-Spiegeln resultiert. Anhaltspunkte aus der Literatur bringen auch die morphologischen und dynamischen Veränderungen der Mitochondrien mit dem Alterungsprozess in Verbindung, wodurch das in dieser Arbeit verwendete Zellmodell anscheinend den Alterungsprozess widerspiegelt, der bei vielen neurodegenerativen Erkrankungen den Hauptrisikofaktor für die Erkrankung darstellt. Die Mutation P301L führt weiterhin dazu, dass die Zellen eine erhöhte Vulnerabilität gegenüber sekundären Insulten aufweisen. Obwohl die Toxizität der einzelnen Stimuli – seien es nun Inhibitoren der einzelnen Atmungskettenkomplexe oder oxidativer sowie nitrosativer Stress – sich unterschiedlich auf die gemessenen physiologischen Parameter der Zellen auswirkte, so zeigt sich durchgängig bei den TauP301L-Zellen ein stärkerer Abfall der metabolischen Aktivität und der ATP-Spiegel. Zudem führte die Überexpression von hTau40 zu einer geringeren Vulnerabilität gegenüber den sekundären Insulten. Trotz der geringen Auswirkungen von oligomerem und fibrillärem Aß1-42 auf die mitochondriale Funktion der SH-SY5Y Zellen kann nicht ausgeschlossen werden, dass in vivo nicht doch ein Teufelskreislauf besteht, sodass sich die Toxizität von Aß und Tau potenziert. Insgesamt machen die Ergebnisse dieser Arbeit deutlich, dass mitochondriale Dysfunktion auch bei Tauopathien eine entscheidende Rolle in der Pathogenese spielt und sich hierdurch neue Aspekte zur therapeutischen Intervention ergeben.
Teerfleckenpilze (Ascomycota, Phyllachorales) kommen weltweit vor, haben aber einen deutlichen Verbreitungsschwerpunkt in den Tropen. In dieser Studie wird die Diversität der Phyllachorales in Panama untersucht und taxonomische Grundlagenforschung durch molekulare Untersuchungen und ökologische Beobachtungen ergänzt. Arten der Phyllachorales bilden schwarz glänzende Flecken oder Krusten auf Blättern und Stängeln von Pflanzen. Die Fruchtkörper dieser Mikropilze sind meistens in das Wirtsgewebe eingesenkt, können aber auch oberflächlich angelegt sein. Die Größe der teerfleckenähnlichen Infektionen variiert zwischen 0,2 mm bis zu mehreren Zentimetern. Teerfleckenpilze mit eingesenkten Fruchtkörpern entwickeln in den meisten Fällen schildförmige, epidermale Deckstrukturen oberund/oder unterhalb der Perithecien. Die unitunicaten Asci können einen kleinen apikalen Ring besitzen, der sich in Jodlösung nicht blau färbt. Die hyaline Ascosporen sind meistens glatt und können von einer schleimigen Hülle umgeben sein. Die assoziierten Andromorphstadien sind durch fadenförmige Spermatien gekennzeichnet. Nur wenige morphologische Merkmale werden als verlässlich betrachtet und stehen für die Bestimmung von Arten zur Verfügung. Derzeit sind 1.226 Arten von Phyllachorales weltweit beschrieben. Puerto Rico gilt als eines der am besten untersuchten Länder in Bezug auf Teerfleckenpilze. Ungefähr 100 Arten sind derzeit von Puerto Rico bekannt, weitere Erstnachweise werden erwartet. Im Gegensatz dazu wurden in Panama bisher nur wenige mykologische Untersuchungen durchgeführt. Zwischen 1927 und 1991 wurden nur 39 Teerfleckenpilze nachgewiesen, obwohl die Landfläche Panamas achtmal größer ist als die von Puerto Rico und eine fast viermal höhere Pflanzendiversität aufweist. Aufgrund der Vielzahl potentieller neuer Wirtspflanzen in Panama und des von Teerfleckenpilzen bevorzugten tropischen Klimas wird eine weitaus höhere Anzahl an Arten der Phyllachorales erwartet. Zwischen 2005 und 2008 wurden mehreren Exkursionen in den Provinzen Bocas del Toro und Chiriquí durchgeführt, um die tatsächliche Diversität pflanzenparasitischer Mikropilze in Panama zu untersuchen. Über 1.000 Belege wurden von insgesamt vier Wissenschaftlern während 7 Sammelreisen von jeweils 2‐4 Wochen gesammelt. 185 Belege zeigen mehr oder weniger deutliche Symptome von Teerfleckenkrankheit und entsprechen 42 Arten der Phyllachorales, die bisher noch nicht für Panama bekannt sind. 81 Teerfleckenpilze aus Panama werden in dieser Arbeit mit detaillierten Beschreibungen, Zeichnungen und Fotos vorgestellt. Von den 66 bis zur Art bestimmten Phyllachorales werden 27 erstmalig für Panama, 19 für Zentralamerika und 3 für die Neue Welt genannt. Die Erstnachweise von Camarotella costaricensis, Coccodiella miconiicola, Ophiodothella galophila, Phyllachora amphibola, Ph. engleri und Ph. zanthoxylicola wurden bereits vorab publiziert. 21 Arten werden hier zum ersten Mal vorgestellt: Catacauma paramoense, Coccodiella miconiae, Ophiodothella cuervoi, Phyllachora acaciae subsp. pusaethae, Ph. acalyphae, Ph. araliarum, Ph. balansae, Ph. buddleiae, Ph. cynodontis, Ph. galavisii, Ph. gouaniae, Ph. leeae, Ph. meliosmae, Ph. microtheles, Ph. ocoteae, Ph. paraguaya, Ph. phyllanthophila var. phyllanthophila, Ph. puncta subsp. dalbergiicola, Ph. ruelliae, Ph. serjaniae und Ph. smilacicola. Zusätzlich konnte erstmals der Hyperparasit Perizomella inquinans auf Ph. ocoteae für Panama und der Teerfleckenpilz Ph. guazumae für Costa Rica nachgewiesen werden. Von den 15 bisher noch unbestimmten Teerfleckenpilzen sind 9 Arten der Gattungen Camarotella und Phyllachora wahrscheinlich neu für die Wissenschaft und 6 Arten müssen bis zur Bestimmung noch weiter untersucht werden. 10 Taxa wurden aufgrund von Synonymisierung, Zitierungsfehlern oder mangelhaftem Material ausgeschlossen. Für eine sichere Bestimmung der Arten aus Panama wurden alle weltweit bekannten Teerfleckenpilze auf nah verwandten Wirtspflanzen miteinander verglichen. Dazu wurden intensive Literaturrecherche und detaillierte lichtmikroskopische Studien durchgeführt. 190 Typen und autoritative Belege wurden zusätzlich aus 22 Herbarien weltweit ausgeliehen und untersucht. Dabei wurden einige Gruppen von Teerfleckenpilzen auf bestimmten Wirtsfamilien teilweise überarbeitet und Schlüssel für die Bestimmung der jeweiligen Arten erstellt. Ein Vergleich der charakteristischen Merkmale wird als tabellarische Übersicht in den Anmerkungen vorgestellt. Aufgrund der intensiven taxonomischen Arbeit konnten 7 neue Synonyme aufgedeckt werden. Catacauma contractum ist ein Synonym von Ph. gouaniae, Ph. clypeata von Ph. paraguaya, Ph. insueta von Ph. serjaniae, Ph. paulliniae von Ph. galavisii und Ph. swieteniae von Ph. balansae. Für Ph. roureae werden gleich zwei neue Synonyme vorgeschlagen, Ph. connari und Ph. panamensis. Einige der untersuchten Herbarbelege waren nur bruchstückhaft vorhanden oder in sehr schlechtem Zustand. Viele Belege konnten aufgrund mangelnder Informationen nicht gefunden oder wegen sehr langen Lieferungszeiten oder fehlender Kooperationen noch nicht untersucht werden. Die Erstbeschreibungen vieler Arten in der Literatur sind lückenhaft und für die wenigsten Arten sind Abbildungen vorhanden. Dadurch ist eine sichere Artbestimmung ohne Untersuchung des zugehörigen Herbarmaterials oft unmöglich. In dieser Arbeit werden alle 81 untersuchten Teerfleckenpilze mit detaillierten Beschreibungen, Zeichnungen und Fotografien dargestellt, um zukünftige Bestimmungsarbeiten zu erleichtern. 16 Teerfleckenpilze wurden im Rahmen dieser Arbeit zum ersten Mal illustriert: Catacauma paramoense, Ophiodothella cuervoi, O. galophila, Phyllachora acaciae var. enterolobii, Ph. acalyphae, Ph. araliarum, Ph. bonariensis, Ph. engleri, Ph. galavisii, Ph. leeae, Ph. meliosmae, Ph. ocoteae, Ph. ruelliae, Ph. smilacicola, Ph. verbesinae und Polystigma pusillum. Darüber hinaus wurden Ph. acaciae subsp. pusaethae, Ph. cecropiae, Ph. leptochloae, Ph. puncta subsp. dalbergiicola und Ph. weirii in ihrer Darstellung vervollständigt. Für einige Arten werden bislang unveröffentlichte morphologische Merkmale vorgestellt, z.B. chondroide Hyphen, Schleimhüllen oder Andromorphstadien, und die mögliche Verwendung dieser Merkmale zur Artabgrenzung diskutiert. Zusätzlich zu den morphologischen Merkmalen werden molekulare Daten hinzugezogen. Zu Beginn dieser Arbeit standen Sequenzen von nur acht verschiedenen Arten der Phyllachorales s.str. zur Verfügung, davon 3 aus der Gattung Phyllachora. Aufgrund der Tatsache, dass Arten der Phyllachorales auf lebendes Pflanzenmaterial angewiesen sind, ist es bisher noch nicht gelungen, diese Pilze in Kultur zu halten. Die Isolation von DNA‐Material aus eigenen Herbarbelegen oder von auf Silicagel getrockneten Proben erwies sich als wenig erfolgreich. Es war notwendig, das frisch gesammelte Material direkt vor Ort in Panama zu verarbeiten. Die Extraktion von reinem und geeignetem Pilzgewebe stellte sich aufgrund der sehr geringen Fruchtkörpergröße und der engen Anhaftung an das Pflanzengewebe als sehr mühsam dar. Trotzdem wurden 10 neue DNA‐Sequenzen, die jeweils für die kleine bzw. große ribosomale Untereinheit kodieren, von 7 Teerfleckenpilzen, Coccodiella miconiae, Coccodiella sp., Phyllachora engleri, Ph. graminis, Ph. leeae, Ph. ulei und Ph. zanthoxylicola, auf 10 verschiedenen Wirtspflanzen erfolgreich isoliert. Erste molekulare Untersuchungen mittels Maximum Likelihood, Maximum Parsimony und Bayesianischer Analyse eines kombinierten Datensatzes unterstützen die Zugehörigkeit der Phyllachorales zur Unterklasse Sordariomycetidae und deuten auf eine paraphyletische Entwicklung der Gattung Phyllachora hin. Die Typusart, Phyllachora graminis, könnte mit Arten der Gattung Coccodiella enger verwandt sein als mit anderen Arten der Gattung Phyllachora. Bisher fehlen aber noch entsprechende morphologische Merkmale die diese These unterstützen. Weitere Untersuchungen mit einem erweiterten Datensatz sollten unternommen werden. Aufgrund der biotrophen Lebensweise und der damit verbundenen engen Anpassung an die jeweilige Wirtspflanze wird eine hohe Spezifität der Teerfleckenpilze angenommen. Die Identifikation der Wirtspflanze bildet daher eine wichtige Grundlage bei der Bestimmung des Pilzes. Durch die Abwesenheit fertiler Strukturen, wie Blüten und Früchte, wurde eine eindeutige Bestimmung oft erschwert. Pflanzenspezialisten, Fachliteratur, Herbarmaterial und Internetdatenbanken wurden hinzugezogen, um eine möglichst genaue Bestimmung der Wirtspflanzen zu erreichen. Die 81 für Panama vorgestellten Teerfleckenpilze parasitierten auf ungefähr 93 verschiedenen Wirten aus 72 Gattungen und 43 Pflanzenfamilien. 73 Wirtspflanzen wurden bis zur Art bestimmt, 20 können mit Gattungsnamen angesprochen werden und sind von den bisher bestimmten Arten sicher verschieden. 5 Arten sind derzeit noch gänzlich unbestimmt. Von den 73 vollständig bestimmten Pflanzenarten werden 29 zum ersten Mal als Wirte für den entsprechenden Parasiten vorgestellt: Acalypha diversifolia für Phyllachora acalyphae, Anthurium concinnatum für Phyllachora engleri, Buddleja nitida für Phyllachora buddleiae, Cissus trianae für Phyllachora leeae, Croton draco und Croton hirtus für Phyllachora tragiae, Dalbergia brownei für Phyllachora puncta subsp. dalbergiicola, Dichanthelium acuminatum und Dichanthelium viscidellum für Phyllachora bonariensis Speg., Dicliptera iopus für Phyllachora ruelliae, Dioscorea trifida und Dioscorea urophylla für Phyllachora ulei, Entada polystachya für Phyllachora acaciae subsp. pusaethae, Inga punctata und Inga sierrae für Phyllachora amphibola, Luehea seemannii für Phyllachora paraguaya, Ocotea veraguensis für Phyllachora ocoteae, Oreopanax xalapensis für Phyllachora araliarum, Ossaea micrantha für Coccodiella miconiicola, Paspalum paniculatum und P. pilosum für Phyllachora paspalicola, Paullinia bracteosa für Phyllachora galavisii, Phyllanthus anisolobus für Phyllachora phyllanthophila var. phyllanthophila, Serjania atrolineata für Phyllachora serjaniicola, Serjania mexicana für Phyllachora serjaniae, Vaccinium floribundum für Catacauma paramoense und Ophiodothella cuervoi, Xylosma flexuosa für Trabutia xylosmae und Zanthoxylum melanostictum für Phyllachora zanthoxylicola. Teilweise wurden diese Erstnachweise schon vorab publiziert. Arten der Familien Fabaceae, Melastomataceae und Poaceae sind besonders häufig mit Teerfleckenpilzen infiziert und scheinen bevorzugte Wirtspflanzen für Arten der Phyllachorales zu sein. Für ökologische Studien wurden bestimmte Teerfleckenpilze an ausgesuchten Standorten wiederholt zu verschiedenen Jahreszeiten gesammelt und untersucht. Dabei zeigte sich, dass Arten der Ordnung Phyllachorales in zwei Habitaten besonders häufig anzutreffen sind: (1) in offenen, gestörten Gebieten mit Ruderalvegetation und deutlicher Trockenperiode sowie (2) in dichten, ungestörten Bergregenwäldern mit hoher relativer Luftfeuchtigkeit und kontinuierlichem Niederschlag. Eine hohe Pflanzendiversität korreliert nicht mit einer hohen Diversität an Teerfleckenpilzen. Vergleichende Untersuchungen zeigten, dass das Vorkommen von Arten der Phyllachorales wahrscheinlich stärker vom Vorkommen und der Dichte bevorzugter Wirtspflanzen abhängt als von ökologischen Faktoren wie z.B. Vegetationstyp, Höhenlage, relativer Lichtintensität, durchschnittlichem Jahresniederschlag oder jahreszeitlicher Temperaturentwicklung. Die in dieser Studie vorgestellten Teerfleckenpilze stammen aus nur 5 von 12 Provinzen Panamas: Bocas del Toro und Chiriquí im Westen sowie Colón, Kuna Yala und Panamá im Zentrum des Landes. Mithilfe einer Datenbank wurde eine Vielzahl verfügbarer Literaturdaten mit Internet‐Datensätzen ergänzt und daraus eine Verbreitungskarte von Arten der Phyllachorales in der Welt erstellt. Für viele Länder sind nur wenige oder gar keine Teerfleckenpilze bekannt. Das lückenhafte Vorkommen in Panama und anderen Ländern der Welt entspricht aber keinesfalls der natürlichen Verbreitung dieser Pilze, sondern gibt die unterschiedliche Intensität von Forschungsaktivitäten in Bezug auf die Teerfleckenpilze wieder. Weitere Erstnachweise und neue Arten der Ordnung Phyllachorales werden für Panama und die Welt erwartet, denn unser Wissenstand über diese Gruppe ist sehr lückenhaft und weite Gebiete sind bislang noch unzureichend untersucht.
A comprehensive evaluation of seasonal backward trajectories initialized in the Northern Hemisphere lowermost stratosphere (LMS) has been performed to investigate the origin of air parcels and the main mechanisms determining characteristic structures in H2O and CO within the LMS. In particular we explain the fundamental role of the transit time since last tropopause crossing (tTST) for the chemical structure of the LMS as well as the feature of the extra-tropical tropopause transition layer (ExTL) as identified from CO profiles. The distribution of H2O in the background LMS above Θ=320 K and 340 K in northern winter and summer, respectively, is found to be governed mainly by the saturation mixing ratio, which in turn is determined by the Lagrangian Cold Point (LCP) encountered by each trajectory. Most of the backward trajectories from this region in the LMS experienced their LCP in the tropics and sub-tropics. The transit time since crossing the tropopause from the troposphere to the stratosphere (tTST) is independent of the H2O value of the air parcel. TST often occurs 20 days after trajectories have encountered their LCP. CO, on the other hand, depends strongly on tTST due to its finite lifetime. The ExTL as identified from CO measurements is then explained as a layer of air just above the tropopause, which on average encountered TST fairly recently.
Blood vessels form de novo through the tightly regulated programs of vasculogenesis and angiogenesis. Both processes are distinct but one of the steps they share is the formation of a central lumen, when groups of cells organized as vascular cords undergo complex changes to achieve a tube-like morphology. Recently, a protein termed epidermal growth factor-like domain 7 (EGFL7) was described as a novel endothelial cell-derived factor involved in the regulation of the spatial arrangement of cells during vascular tube assembly. With its impact on tubulogenesis and vessel shape EGFL7 joined the large family of molecules governing blood vessel formation. Only recently, the molecular mechanisms underlying EGFL7's effects have been started to be elucidated and shaping of the extracellular matrix (ECM) as well as Notch signaling might very well play a role in mediating its biological effects. Further, findings in knock-out animal models suggest miR-126, a miRNA located within the egfl7 gene, has a major role in vessel development by promoting VEGF signaling, angiogenesis and vascular integrity. This review summarizes our current knowledge on EGFL7 and miR-126 and we will discuss the implications of both bioactive molecules for the formation of blood vessels.
Die beiden untersuchten Texte, Sophokles' Antigone und Gorgias von Platon, wurden in dieser Arbeit als Momentaufnahmen für verschiedene Formen, Gerechtigkeit im 5. und 4. Jahrhundert v. u. Z. zu denken, interpretiert, um so einen möglichst authentischen Eindruck von Gerechtigkeit zu jener Zeit zu erhalten. Die Methode der Begriffsgeschichte hatte vorgegeben, dass beide Texte zunächst unabhängig von einander untersucht und die Ergebnisse anschließend zusammengeführt werden sollten. In der Analyse fächerten die Quellen zunächst jeweils in sich ein breites Spektrum unterschiedlicher Auffassungen von Gerechtigkeit auf, die Verbindung beider Betrachtungen machte darüber hinaus Strukturen von Ähnlichkeit und Differenz sichtbar. Daraus ergab sich ein Schema, das die sehr unterschiedlichen Aspekte als verschiedene Eckpunkte eines Prozesses verstehbar machte, der vor dem Hintergrund des in der Einleitung gegebenen historischen Kontextes interpretiert werden konnte. In der Einführung wurde bald deutlich, dass die verschiedenen Vorstellungen von Gerechtigkeit immer auch die Themenkomplexe von Ethik und Moral, von Wahrheit und Wirklichkeit mit einschließen mussten. Mit Victor Ehrenberg ließ sich die Überlegung zu Gerechtigkeit in dem größeren Kontext des Bedeutungswandels von Themis über Dike zu Nomos verstehen. Diese erste Begriffsgeschichte des Konzepts „Gerechtigkeit“ bereitete die Analyse von Gerechtigkeit in den Quellen vor. Das Untersuchungsfeld konnte damit für den Zeitraum der Quellen auf den Begriff des „Nomos“ eingrenzt werden. Dass das besondere Spannungsverhältnis von Nomos und Physis bis in die unterschiedlichen in den Quellen vertretenen Positionen der Gerechtigkeit hineinwirken musste, zeigte sich dann später in der Quellenanalyse. ...
This paper analyzes loan pricing when there is multiple banking and borrower distress. Using a unique data set on SME lending collected from major German banks, we can instrument for effective coordination between lenders, carrying out a panel estimation. The analysis allows to distinguish between rents that accrue due to single bank lending, rents that accrue due to relationship lending, and rents that accrue due to the elimination of competition among multiple lenders. We find the relationship lending to have no discernible impact on loan spreads, while both single lending and coordinated multiple lending significantly increase the spread. Thus, contrary to predictions in the literature, multiple lending does not insure the borrower against hold-up. JEL Classification: D74, G21, G33, G34
A comprehensive evaluation of seasonal backward trajectories initialized in the northern hemisphere lowermost stratosphere (LMS) has been performed to investigate the factors that determine the temporal and spatial structure of troposphere-to-stratosphere-transport (TST) and it’s impact on the LMS. In particular we explain the fundamental role of the transit time since last TST (tTST) for the chemical composition of the LMS. According to our results the structure of the LMS can be characterized by a layer with tTST<40 days forming a narrow band around the local tropopause. This layer extends about 30K above the local dynamical tropopause, corresponding to the extratropical tropopause transition layer (ExTL) as identified by CO. The LMS beyond this layer shows a relatively well defined separation as marked by an aprupt transition to longer tTST indicating less frequent mixing and a smaller fraction of tropospheric air. Thus the LMS constitutes a region of two well defined regimes of tropospheric influence. These can be characterized mainly by different transport times from the troposphere and different fractions of tropospheric air. Carbon monoxide (CO) mirrors this structure of tTST due to it’s finite lifetime on the order of three months. Water vapour isopleths, on the other hand, do not uniquely indicate TST and are independent of tTST, but are determined by the Lagrangian Cold Point (LCP) of air parcels. Most of the backward trajectories from the LMS experienced their LCP in the tropics and sub-tropics, and TST often occurs 20 days after trajectories have encountered their LCP. Therefore, ExTL properties deduced from CO and H2O provide totally different informations on transport and particular TST for the LMS.
Im Mittelpunkt dieser Arbeit steht eine Untersuchung zum internationalen Talent-austausch, zur Mobilität und zur Ausbildung von medizinischen und natur-wissenschaftlichen Hochschulabsolventinnen und -absolventen des institutionellen BMEP-Programms (BMEP/Biomedical-Exchange-Program) während des Studiums und beim Übergang ins Berufsleben. Das transatlantische Biomedical Exchange Programm ist ein Programm zum Talentaustausch von Graduierten und Post-Graduierten mit den USA und verankert Innovations- und Wissenstransfer-Forschung von universitärer und industrieller Welt in der Life-Science-Industrie1). Das Programm wurde im Jahr 1979 von Prof. Dr. John Boylan, Prof. of Medical and Physiology an der University of New York, Buffalo und Medical School Farmington (Connecticut) und Prof. Dr. Hilmar Stolte von der Medizinischen Hochschule Hannover ins Leben gerufen. Es handelt sich um eine soziologische Aufgabenstellung mit der thematischen Zielsetzung im Bereich der Karriereforschung. Die Untersuchung hat geklärt, ob internationale Ausbildung und interdisziplinäres Wissen einen Wissensvorsprung bedingen, der sich im Hinblick auf internationale Karrieren und Führungspositionen in unserer heutigen Wissens-gesellschaft auswirkt. Um die Arbeit in den bestehenden Forschungskontext einzuordnen, ist es notwendig, sowohl soziologische als auch ökonomische Teilgebiete der Karriere-, Qualifikations- sowie Mobilitätsforschung zu berücksichtigen, was in den Kapitel 3 und Kapitel 4 dargestellt wird. Die Arbeit ist eine erstmalige empirische Untersuchung über das institutionelle, transatlantische und interdisziplinäre Biomedical-Exchange-Program (BMEP) zum Talentaustausch von medizinischen und naturwissenschaftlichen Studenten mit den USA auf der Ebene von universitärer und industrieller Welt. Um die Effektivität und Leistungsfähigkeit des institutionellen BMEP-Programms zu evaluieren, wurden je drei ehemalige Absolventen pro Jahrgang des Programms der Jahrgänge 1979-2004 mit Hilfe eines Fragebogens befragt. Die Untersuchung befasst sich schwerpunktmäßig mit den ursprünglichen Intentionen und Motiven der Teilnehmer, den Schwierigkeiten, die sich auf diesem Wege in die USA ergeben haben und den Absichten, die verwirklicht werden konnten. Sie fragt, ob erfolgreiche internationale Karrieren durch die Teilnahme am BMEP-Programm entstanden sind, sowie Unternehmertum, Selbständigkeit und internationale Science Frontier-Kontakte und ob im Laufe des Programms Publikationen entstanden sind. ....
Mikrozensus online
(2010)
Diese Arbeit untersucht, unter welchen Voraussetzungen Online-Befragungen effizient in die Datenerhebung des Mikrozensus zu implementieren sind. Zu konstatieren ist folgende Ausgangssituation: Seit nun mehr zehn Jahren gehören Online-Befragungen zu dem festen Repertoire der Umfrageforschung. Sowohl in der Markt- und Meinungsforschung, hier hat der Anteil von Online-Befragungen in Vergleich zu den etablierten Befragungsformen seit dem Jahre 2000 um rund 30 % zugenommen, als auch in der sozialwissenschaftlichen Forschung ist diese Form der Datenerhebung nicht mehr wegzudenken. Den großen Stellenwert, den Online-Befragungen mittlerweile in der Umfrageforschung erlangt haben, konnten sie bis dato in der amtlichen Statistik nicht erreichen. Zwar etablierten sich Online-Erhebungen auch hier im Rahmen des angestrebten Bürokratieabbaus, dies aber nur im Bereich der Unternehmensstatistiken. Einzig den Unternehmen stehen mit den beiden Internetportalen IDEV (Internet Datenerhebung im Verbund) und eSTATISTIK.core gegenwärtig zwei innovative Online-Meldeverfahren zur Verfügung, die im Zuge des angestrebten Bürokratieabbaus zur Entlastung der Unternehmen von ihren Aufgaben im Rahmen der amtlichen Statistik beitragen. Im Bereich der amtlichen Bevölkerungsstatistik findet diese Innovation ganz im Gegensatz zu der übrigen sozial-wissenschaftlichen Forschung wenig Anklang. Gleichwohl sind nicht nur Unternehmen, sondern auch Bürger durch die verpflichtende Teilnahme an amtlichen Statistiken in einem erheblichen Maße belastet. Zwar ist die Teilnahme bei den meisten bevölkerungsstatistischen Befragungen freiwilliger Natur, aber alleine der Befragungsumfang – ein Interview im Mikrozensus dauert beispielsweise für eine erwerbstätige Person ca. 30 Minuten – bedeutet für die betroffenen Haushalte einen beachtlichen Zeitaufwand der, wie diese Arbeit darlegt, durch Online-Befragungen spürbar zu vermindern ist. Will man die Anwendungsmöglichkeiten von Online-Befragungen für bevölkerungsstatistische Erhebungen wie den Mikrozensus sachgerecht beurteilen, ist zu berücksichtigen, dass Bevölkerungsbefragungen der amtlichen Statistik unter anderen Voraussetzungen stattfinden als nicht amtliche Befragungen. Zwar gelten für beide die gesetzlichen Datenschutzbestimmungen, die amtlichen Statistiken unterliegen aber überdies dem Legalitätsprinzip. Das Legalitätsprinzip, welches für jede durchzuführende Bundesstatistik ein eigenes Gesetz vorsieht, schafft nicht nur die rechtliche Grundlage für Bundesstatistiken, sondern reglementiert auch restriktive ihre Durchführung. Vor jeder Bundesstatistik steht somit ein Gesetz, dass den Befragtenkreis, den Berichtszeitraum, die Periodizität der Erhebung, die Erhebungsmethodik und insbesondere die Auskunftspflicht explizit anordnet. Es werden hiermit Rahmenbedingungen gesetzt, deren Erfüllung unabdingbar für den Einsatz von Online-Befragungen innerhalb der Mikrozensuserhebung sind. Außer den vorgefundenen gesetzlichen Rahmenbedingungen sind bei der Anwendung von Online-Befragungen auch die spezifischen Vorzüge und Probleme dieser Datenerhebungsmethodik zu bedenken, um diese substanziiert in einer Mikrozensuserhebung zum Einsatz bringen zu können. Als Vorteile von Online-Befragungen gelten gemeinhin die erweiterte Funktionalitäten in der Fragebogengestaltung. Diese reduzieren einerseits die oben beschriebene Belastung der Bürger bei einer Teilnahme an Befragungen, andererseits tragen sie zu einer nachhaltigen Steigerung der Datenintegrität bei. Ebenso ist mit Online-Befragungen durch den Wegfall von Interviewer- und Wegekosten eine augenfällig kosteneffizientere Erhebungsdurchführung möglich. Den beschriebenen Vorteilen stehen jedoch auch Schwächen, wie beispielsweise Stichprobenrepräsentativität oder Erreichbarkeit der Befragten gegenüber. Diese sind für eine effiziente Einbindung von Online-Befragungen in den Mikrozensus gleichwohl zu bedenken. Aufbauend auf einer ausführlichen Beschreibung der aktuellen Mikrozensuserhebung wird nach einer systematischen Darstellung der Vor- und Nachteile von Online-Befragungen ihre Umsetzung im Mikrozensus erörtert. Von großer Bedeutung für die Umsetzung Erhebung sind die bei der Durchführung entstehenden Kosten, die Stichprobengewinnung und deren Repräsentativität sowie im Falle des Mikrozensus die Einhaltung der Auskunftspflicht. Im Lauf der Arbeit wird gezeigt, dass Online-Befragungen als eigenständige Erhebungsmethodik angesichts der mangelnden Stichprobenrepräsentativität sowie des nicht flächendeckenden Internetzugangs der deutschen Bevölkerung nicht in der Lage sind, die im Mikrozensus etablierten Befragungsformen vollständig zu ersetzen. Ihr Einsatz als Ergänzung zu den beiden etablierten Erhebungsformen aber durchaus möglich und sinnvoll ist. Betrachtet man den Einsatz von Online-Befragungen im Mikrozensus unter ökonomischen Gesichtspunkten, so lassen sich im Hinblick auf die hohe Wiederverwertbarkeit von elektronischen Fragebögen in erheblichem Umfang Kosten bei der Erstellung von Erhebungsunterlagen einsparen. Auch lässt sich das Mahnverfahren, in das nicht auskunftsbereite Haushalte gelangen, sowohl zeitlich als auch personell rationeller gestalten. Für die Kontrolle der eingegangenen Erhebungsunterlagen ist angesichts der hohen Automatisierung von Online-Befragungen ein geringerer Arbeitsaufwand notwendig. Der ökonomische Aspekt bezieht sich nicht alleine auf die Durchführungskosten. Der Mikrozensus ist ein wichtiger nationaler Bestandteil der europäischen amtlichen Statistik. Wie die Arbeit nachweist verkürzt sich infolge der direkten Datenerfassung durch den Befragten und des geringeren Kontrollaufwands der erhobenen Daten die Zeit für die Datenaufbereitung. Damit ist eine schnellere Bereitstellung der Mikrozensusergebnisse für die Zwecke der nationalen und europäischen amtlichen Statistik möglich. Der Kosteneffizienz stehen naturgemäß in anderen Bereichen höhere Ausgaben gegenüber. So ist bei einer Einführung von Online-Befragungen mit Mehrausgaben in Rahmen der Hard- und Softwarebeschaffung zu rechnen. In Anbetracht der bereits vorhanden informationstechnologischen Ausstattung (Server, Laptops, IT-Fachkräfte) in den Statistischen Landesämter schlägt die Durchführung von Online-Befragungen mit einem geringen finanziellen Mehraufwand zu Buche. Auch ermöglichen Online-Befragungen, die bereits hohe Datenintegrität noch zu steigern. Neben den bereits in CAPI-Befragungen erprobten Verfahren wie Plausibilitätskontrollen oder der automatischen Filterführung, die fehlerhafte Dateneingaben vermeiden, lässt sich zur Sicherung der hohen Datenqualität das bereits seit Langem in der Dateneingabe verwandte Signierungsverfahren für die Erfassung von Beruf und Wirtschaftszweig verwenden. Übertragungsfehler, die infolge der manuellen Dateneingabe auftreten, sind damit weitgehend auszuschließen. Neben den beschriebenen ökonomischen Aspekten und dem der Datenintegrität ist es die Bürgernähe, welche eine Erweiterung des im Mikrozensus verwandten Methodenmixes um Online-Befragungen rechtfertigt. Durch das anspruchsvolle Frageprogramm, das im umfangreichen Selbstausfüllerbogen zu bearbeiten ist, sind die vom Mikrozensus betroffenen Haushalte durch ihre Teilnahme einer erheblichen zeitlichen Belastung ausgesetzt. Mit den erweiterten Funktionalitäten von Online-Fragebögen (z. B. automatische Filterführung und Signierungsverfahren) lässt sich die Bearbeitungszeit für die selbstausfüllenden Haushalte erheblich verringern. Dies wirkt sich nicht nur positiv auf die Datenqualität aus, sondern vermittelt auch ein Bild von der amtlichen Statistik als ein innovatives am Bürger orientierten Institution. Zusammenfassend kann festgehalten werden, dass Online-Befragungen dank der beschriebenen Vorteile eine sinnvolle Ergänzung zu den bereits etablierten Datenerhebungsverfahren im Mikrozensus bilden. Ihr Einsatz darüber hinaus auch in anderen bevölkerungsstatistischen Erhebungen sinnvoll sein kann.
Dass unser Lebensstil und Konsum auf Dauer das Klima bedrohen, die Vielfalt der Arten reduzieren, das Trinkwasser immer knapper werden lassen, ist der Bevölkerung durchaus bewusst. Doch nur eine Minderheit ist bereit, im Alltag auf das Auto zu verzichten, für Urlaubsreisen nicht das Flugzeug zu benutzen, ökologische Lebensmittel zu kaufen oder beim Kauf von Möbeln auf das Zertifikat »nachhaltige Holzwirtschaft« zu setzen. Wie lässt sich der Widerspruch zwischenWissen um den eigenen Ressourcenverbrauch und Sorge um die Umwelt einerseits und wenig nachhaltigem Konsumverhalten andererseits erklären?
Wer nutzt den Online-Gebrauchtwarenmarkt? : Umweltorientierte, Prosumenten und andere User auf eBay
(2010)
E-Learning ist das Thema zahlreicher Debatten. Die Beiträge in diesem Buch zielen darauf ab, die Diskussion zu intensivieren und zu vertiefen. Dabei fokussieren die Autoren die Bereiche Hochschule und Weiterbildung als wichtige Einsatzgebiete von E-Learning, mit dem Ziel einer Verbindung beider Bereiche. Dies geschieht aus Sicht der Wirtschaftsinformatik, der Erziehungswissenschaft und der Wirtschaftspädagogik.
Die Autoren zeigen in ihren Beiträgen, wie pädagogische Gesichtspunkte mit Fragen der Organisation und der Informationstechnik verknüpft werden können und leiten daraus Einsatzchancen für E-Learning-Konzepte ab.
Der Einsatz von E-Learning-Angeboten wird seit Mitte der 1990er Jahre intensiv diskutiert (Baumgartner et al. 2002, S. 13) und sowohl von der Industrie als auch von staatlichen Stellen gefördert (Kerres et al. 2005). Neben dem Wunsch nach genereller Modernisierung (Bachmann et al. 2004, S. 1) soll der Einsatz von E-Learning vor allem zu einer Verbesserung der Betreuungsintensität der Lernenden, insbesondere in Massenveranstaltungen an deutschen Hochschulen führen (Grüne et al. 2006; Hiltz 1995; Mathes 2002; Schwickert et al. 2005). E-Learning soll es ermöglichen, die Lernenden intensiver und individueller zu betreuen, und so zu einer Erhöhung des empfundenen Servicegrades beitragen (Alavi 1994; Schutte 1997).
Seit der Abschaffung der zentralen Vergabestelle für Studienplätze (ZVS) müssen Hochschulen solche vermuteten Wettbewerbsvorteile nutzen und sich aktiv um die Steigerung der Bewerberzahlen und die Zufriedenheit der Lernenden bemühen, was zu der Forderung führte, den Einsatz von E-Learning-Angeboten in der Hochschullehre auszudehnen (BLK 2002, S. 1; BMBF 2000). In der Folge wurden große Summen für die Entwicklung und die Implementierung innovativer E-Learning-Angebote bereitgestellt, ohne deren langfristigen Erfolg sicherstellen zu können (Marshall et al. 2004).
In diesem Beitrag untersuchen wir, wie eine nachhaltige Implementierung von E-Learning-Projekten in Hochschulen durch organisatorische Gestaltungsmaßnahmen gefördert werden kann. Die Untersuchung erfolgt aus dem Blickwinkel der Wirtschaftsinformatik, die sich mit dem Potenzial von Informations- und Kommunikationstechnik (IKT) für die Verbesserung von Geschäftsprozessen beschäftigt (Laudon et al. 2007; Lyytinen 1985; WKWI 1994)...
In diesem Beitrag untersuchen wir den Erfolg von E-Learning-Maßnahmen in einer Massenveranstaltung an der Goethe-Universität Frankfurt am Main. Mit Bezug auf das Modell von Seufert und Euler gehen wir auf die didaktische Dimension der Nachhaltigkeit von E-Learning-Aktivitäten ein (Seufert et al. 2003a, S. 6; Seufert et al. 2003b, S. 18f.). Die didaktische Dimension sehen Seufert und Euler als die zentrale und wichtigste Dimension der Nachhaltigkeit von E-Learning-Angeboten an. Der Einsatz von E-Learning-Maßnahmen muss sich daran messen lassen, ob er Lernziele besser erreicht als alternative, weniger aufwändige Lernszenarien (Seufert et al. 2004, S. 11)...
Dem vorliegenden Buch liegt die erkenntnisleitende Annahme zugrunde, dass der ebenso komplexe wie hybride Gegenstandsbereich „E-Learning“ keiner akademischen Fachkultur exklusiv zurechenbar ist oder ihr gar „allein gehört“. Aus diesem Umstand wird gewöhnlich die Notwendigkeit eines stärker inter- und multidisziplinär ausgerichteten Forschens und Arbeitens an den Hochschulen abgeleitet. Doch trotz schlüssiger Begründung der Notwendigkeit, den Blick über den Tellerrand der eigenen Disziplin zu richten und die Kooperation mit Vertretern anderer Fachkulturen zu verstärken, scheinen beim Thema E-Learning die Grenzen zwischen den Disziplinen besonders undurchlässig zu sein. So kommt es, dass die vielfach beschworenen Synergieeffekte im Prozess des wissenschaftlichen Forschens eher die Ausnahme als die Regel darstellen. In der Tat sollte man sich vor diesbezüglichen Illusionen hüten. Denn der Weg zu einer konstruktiven interdisziplinären Forschungs- und Gesprächskultur dürfte noch sehr weit sein, und es ist keineswegs absehbar, ob die damit verbundenen Erwartungen und Hoffnungen sich tatsächlich jemals erfüllen werden...
This paper discusses the sustainability impact (contribution to sustainability, reduction of adverse environmental impacts) of online second-hand trading. A survey of eBay users shows that a relationship between the trading of used goods and the protection of natural resources is hardly realized. Secondly, the environmental motivation and the willingness to act in a sustainable manner differ widely between groups of consumers. Given these results from a user perspective, the paper tries to find some objective hints of online second-hand trading’s environmental impact. The greenhouse gas emissions resulting from the energy used for the trading transactions seem to be considerably lower than the emissions due to the (avoided) production of new goods. The paper concludes with a set of recommendations for second-hand trade and consumer policy. Information about the sustainability benefits of purchasing second-hand goods should be included in general consumer information, and arguments for changes in behavior should be targeted to different groups of consumers. Keywords: online marketplaces; online auctions; consumer; electronic commerce; used products; second-hand market; sustainable consumption
L’œuvre sculptée de Jean-Antoine Étex : l’expressivitée comme source de l’inspiration artistique
(2010)
Elève de Pradier, d’Ingres et de Duban le sculpteur, peintre et architecte Jean Antoine Étex (1808-1888) s'essayait à toutes les formes d'art laissant après son décès une œuvre abondante qui compte plus de 450 ouvrages. Déjà un nombre imposant de ses scupltures sont disséminées dans la capitale de la France. On les rencontre dans des endroits stratégiques de la métropole. Mais aussi beaucoup d’autres villes et musées de la France conservent des ouvrages importants de cet artiste. Parmis les œuvres les plus connues comptent les deux haut-reliefs « La Résistance » et « La Paix » à l’Arc de Triomphe de l’Étoile puis le groupe en marbre « Caïn et sa race maudits de Dieu », chef -d’œuvre de la sculpture romantique, conservé aujourd’hui au Musée de Lyon. En tant que républicain convaincu et adhérent du saint-simonisme, Étex participait activement aux révolutions de 1830 et de 1848 combattant incessamment pour l’instauration de la République. Sous la monarchie de juillet, il avait connu un grand succès et une grande célebrité mais son art fut peu estimé sous le second Empire. Gravement défavorisé par le gouvernement imperial, Étex perdait sa place parmis les premiers artistes de la France et ses œuvres tombaient aussitôt dans l’oubli. Ce présent thèse de doctorat fournit pour la première fois une biographie détaillée et un catalogue raisonné de l’œuvre de cet artiste important. Ses propres écrits (publications et correspondance), les documents dans les archives françaises ainsi que la critique d’art concernant ses œuvres y sont exploités.
Das Ziel dieser retrospektiven Untersuchung ist, die medikamentöse Therapie des neonatalen Entzugsyndroms mittels Clonidin und Chloralhydrat mit der sehr häufig angewendeten Kombinationstherapie aus Morphin und Phenobarbital zu vergleichen. Im dem Zeitraum zwischen 1998 und 2008 wurden in unserer Klinik 133 Neugeborene mit einem neonatalen Entzugssyndrom behandelt. Bei allen Patienten handelte es sich um Neugeborene drogenabhängiger Mütter, welche während der Schwangerschaft mit Methadon substituiert wurden. Bei 29 Patienten wurde eine Therapie mit Clonidin und Chloralhydrat und bei 64 Patienten eine Entzugstherapie mittels Morphin und Phenobarbital durchgeführt. In der Clonidingruppe konnte eine signifikant kürzere Behandlungsdauer (Median: 14 d vs. 35 d) festgestellt werden. Entsprechend war auch die gesamte Aufenthaltsdauer in der Clonidingruppe deutlich kürzer (Median: 32 d vs. 44 d). Außerdem konnte in der Clonidingruppe ein deutlich milderer Verlauf der Entzugssymptomatik festgestellt werden.
Seit Implementierung eines Qualitätsmanagement-Systems nach DIN EN ISO 9001 führt die Klinik für Anästhesiologie, Intensivmedizin und Schmerztherapie am Klinikum der Johann Wolfgang Goethe-Universität in Frankfurt am Main kontinuierlich Maßnahmen zur Qualitätsverbesserung durch. Hierzu zählen als klassisches Element des Qualitätsmanagements Befragungen sogenannter interessierter Parteien. Neben den Patienten stellen, vor allem auf einer Intensivstation, die Angehörigen der Patienten, häufig in Funktion eines gesetzlichen Betreuers, wichtige Partner in der Therapie dar. Bisher sind jedoch für diese Zielgruppe keine validen Befragungsinstrumente vorhanden. Nach Eröffnung der neuen Intensivstation C1 im Jahr 2008 soll eine standardisierte Befragung der Angehörigen intensivpflichtiger Patienten bezüglich deren Erwartungen an das Personal und den Aufenthalt des Patienten auf der Intensivstation durchgeführt werden. Ebenso soll die vom Personal antizipierte Erwartungshaltung der Angehörigen erfasst und im Sinne des GAP-Modells von Parasuraman et al. evaluiert werden. Ziel der vorliegenden Arbeit ist es, ein geeignetes Befragungsinstrument (C1GAP) zu entwickeln und durch geeignete Pretests zu validieren. Nach Identifizierung übergeordneter Themenkomplexe für die Befragung wurde der erste Entwurf eines anonymen Fragebogens für Angehörige mit insgesamt 82 Items verteilt auf 8 Themenkomplexe erstellt. Hieraus wurden anschließend Fragebögen für die Personalgruppen des ärztlichen Dienstes, der Pflege und des Außendienstpersonals am Empfangsschalter erstellt. Zur Information der Teilnehmer über die Intention und den Ablauf der Befragung wurden ein Begleitschreiben des Institutsdirektors Prof. Dr. Dr. K. Zacharowski sowie ein Extrablatt mit Informationen zum Datenschutz beigefügt. Zur Validierung des Fragebogens wurden Pretests in Form von kognitiven Interviews durchgeführt. Aus den kognitiven Interviews ergaben sich neben einer überwiegenden Zustimmung zu Form und Inhalt der Befragung inhaltliche Verbesserungsvorschläge, die in der finalen Überarbeitung des Fragebogens umgesetzt werden konnten. Der validierte, endgültige Fragebogen für Angehörige enthält insgesamt 81 Items, welche auf die Themenkomplexe „Rahmenbedingungen“, „Kommunikation mit Ärzten“, „Kommunikation mit dem Pflegepersonal“, „Information über Behandlungsziele und -ablauf“, „Beteiligung bei Therapieentscheidungen“, „Beurteilung weiterer Betreuungsangebote“, „Verlegung und Entlassung“ sowie „Angaben zur Person“ verteilt sind. Die Fragebögen für die Personalgruppen der Ärzte, Pflegekräfte und des Servicepersonals enthalten zwischen 26 und 61 Fragen zu den genannten Themenkomplexen. Anders als durch reine Zufriedenheitsbefragungen können mit Hilfe des vorliegenden Fragebogens Daten über die Erwartungshaltung von Angehörigen intensivpflichtiger Patienten gewonnen werden und im Vergleich zur vom Personal der Intensivstation C1 antizipierten Erwartungshaltung der Angehörigen einer GAP-Analyse unterzogen werden. Diese Daten können im Rahmen der Qualitätssicherungsmaßnahmen an der Klinik für Anästhesiologie, Intensivmedizin und Schmerztherapie zur Optimierung der Arbeitsabläufe und Leistungsprozesse sowie zur Ressourcenallokation verwendet werden. So kann letztendlich die Versorgung unserer Patienten auf der Intensivstation C1 nachhaltig verbessert werden.
Der durchflusszytometrische Nachweis antigenspezifischer T-Lymphozyten über die
Zytokinproduktion nach Kurzeitstimulation ermöglicht Aussagen über die zelluläre
Immunität, was in bestimmten Patientenkollektiven wie z. B. stammzelltransplantierten
Patienten von großem Wert sein kann. Infektionen mit Herpesviren wie z.B. dem
humanen Zytomegalievirus (CMV) oder den Herpes-Simplex-Viren (HSV) können in
diesem Kollektiv zu schweren, zum Teil auch letal verlaufenden Erkrankungen führen.
Zwar wurde diese Methode inzwischen durch die Entwicklung kommerzieller Testkits
zum Nachweis dieser Lymphozyten direkt aus Vollblut vereinfacht. Dennoch ist die
Durchführung dieses Tests nur wenig standardisiert und sehr aufwendig. In dieser
Arbeit wurde die Methode der Bestimmung antigenspezifischer T-Lymphozyten aus
Vollblut daher im Bezug auf die Durchführbarkeit optimiert sowie die Anwendbarkeit
dieser Methode bei Patienten mit bestehender Lymphopenie evaluiert.
Im Einzelnen wurde zunächst die Messung antigenspezifischer CD4+ T-Lymphozyten
anhand des Superantigens Staphylokokkenenterotoxin-B (SEB) sowie der Herpesviren
CMV und HSV-1 eingeführt. Hierzu wurde die Spezifität der Lymphozytenreaktionen
im Hinblick auf den Immunstatus von Probanden getestet und die Reproduzierbarkeit
der Messergebnisse ermittelt. Zur Vereinfachung der Stimulation wurde der
Thermoblock eingeführt, der die Inkubation der Proben automatisch nach einer
vorgegebenen Zeitspanne beendet. Vergleichende Ansätze nach der herkömmlichen
Methode mit einer Inkubation im Brutschrank ergaben keine Differenzen zwischen den
Inkubationsmethoden hinsichtlich der Resultate. Weiterhin wurde versucht, die Proben
zu konservieren, um so das Zeitfenster zwischen Blutentnahme und Verarbeitung der
Blutprobe zu vergrößern. Hierfür wurden die Proben mit dem Reagenz CytoChex®
behandelt, einem Zellstabilisator, der der Konservierung von Leukozyten dient. Trotz
mehrfacher Abwandlung des Protokolls gelang es nicht, die Blutproben für die
antigenspezifische Stimulation zu konservieren.
Ein zentraler Teil dieser Arbeit befasst sich mit der Fragestellung nach der
Anwendbarkeit dieses Testes zum Nachweis CMV-spezifischer T-Lymphozyten im
Rahmen einer Lymphopenie. Dies wurde bei einem Kollektiv stammzelltransplantierter
Patienten untersucht. Es zeigte sich, dass in diesem Kollektiv der Test durchführbar ist,
wenn mindestens 1.000 CD8+ T-Lymphozyten bzw. 3.000 CD4+ T-Lymphozyten durchflusszytometrisch nachgewiesen werden konnten. Anhand dieses Kollektivs wurde
zuletzt die Effizienz dieser Methode durch Weglassen der Kontrollantigenmessungen in
bestimmten Fällen und Einführung eines Auswertungstemplates zur indirekten
Ermittlung CD4+ T-Lymphozyten aus der CD8+ T-Lymphozytenmessung gesteigert.
Zusammenfassend bringen die in dieser Arbeit vorgestellten Modifikationen der
Standardmethode eine deutliche Vereinfachung mit sich. Weiterhin wird es möglich,
auch im Rahmen einer Lymphopenie antigenspezifische T-Lymphozyten nachzuweisen.
Dies ermöglicht zumindest weitere Untersuchungen im Hinblick auf die Fragestellung
nach einer ausreichenden Immunantwort gegen CMV bei immunsupprimierten
Patienten. So können in Zukunft auch bei Patienten mit hohem Risiko für eine CMVReaktivierung
und Erkrankung Aussagen über die Immunsituation gemacht werden um
möglicherweise eine Verbesserung der diagnostischen und damit auch therapeutischen
Situation dieser Patienten zu erzielen.
Das Internet als Informationsmedium ist Plattform für eine nie dagewesene Menge an Information, die für einen einzelnen Menschen nicht mehr zu überblicken ist.
Moderne Web-Suchmaschinen greifen auf die Methoden des Information Retrieval zurück um einem NutzerWerkzeuge anzubieten die zu ihrem Informationsbedürfnis relevanten Dokumente im Internet zu finden. Visualisierungen können diese Dokumentenmenge effektiver durch den Nutzer verarbeitbar machen. Eine komplexe Suchanfrage zu formulieren oder ein Suchergebnis nach bestimmten Kriterien zu filtern ist jedoch heute noch denjenigen vorbehalten die bereit sind, die erweiterten Funktionen der Suchmaschinen zu lernen.
Der in dieser Arbeit vorgestellte Ansatz möchte durch die Kombination der Visualisierung, die einen effektiven Überblick über den Suchergebnisraum gibt, mit den mächtigen Filtermöglichkeiten moderner Suchmaschinen die einfache Filterung von Suchergebnismengen durch ein Direct Maniuplation Interface ermöglichen.
In den vergangenen Jahren wurden zahlreiche Stoffe als Photosensibilisatoren evaluiert, deren photodynamische Aktivität gegenüber den Pioniersubstanzen deutlich verbessert werden konnte. Vielen dieser Moleküle blieb jedoch aufgrund ihrer ungünstigen physikochemischen Eigenschaften oder der auftretenden Toxizität die Marktreife versagt. Nanopartikuläre Trägersysteme sind geeignet, Verträglichkeit und Effektivität der Photodynamischen Therapie zu verbessern sowie die Selektivität bei der Behandlung bestimmter Tumorspezies deutlich zu erhöhen. Um dieses Prinzip auf verschiedene Photosensibilisatoren anwenden zu können, wurden in der vorliegenden Arbeit Nanopartikel aus humanem Serumalbumin (HSA) durch Desolvatation hergestellt und die adsorptive, die inkorporative sowie die kovalente Bindung an das Trägersystem untersucht. ...
The 900th anniversary of the death of Emperor Henry IV (7 August 2006) occasioned several special colloquia (in Cologne, Speyer, Goslar) and publications in celebration of the so-called "Year of the Salians" . While several scholarly publications and exhibits also appeared with specific focus on Henry IV himself, the present volume contains the papers given at a colloquium held at the University of Cologne (26–30 September 2006), which accordingly focused on the Salian dynasty’s history in the lower Rhine region. Prof. Dr. Tilman Struve (emeritus professor at the University of Cologne), who has spent much of his career studying the Salian house during the Investiture Struggle, lends his considerable expertise to framing this collection of disparate essays. ...
This study explores the development of the concept of administratio between the early Merovingian period and the late ninth century. The author’s thesis is that administration lost its original connotation of authority delegated by and exercised on behalf of the state, and that this signals the loss of an abstract awareness of the commonwealth in the early medieval period. In the fifth century the idea of administratio as public powers derived from a higher authority was still in place, but soon thereafter this conception vanished (p. 2–3). Yet when in 814 Louis the Pious became emperor, the original meaning of administratio seemed to get a revival – or, should one say, a new lease of life? Hardly, for only in Italy and Aquitaine was there any awareness left of public service as an abstract concept (p. 7–37). North of the Alps, those in charge did not understand such abstract concepts referring to "Staatlichkeit", as is shown by the fact that the authority of the Carolingian mayors of the palace was never called administratio, even though, in the original meaning of the word, the mayoral office was a clear case of delegated power (p. 16–18). ...
apl. Prof. Dr. Jörg W. Busch (Goethe Uni Frankfurt) hat bisher 2 Vorträge in Trebur gehalten. Der erste am 14. Oktober 2004 mit dem Titel "Trebur ein Königshof am Mittelrhein" und am 6. Oktober 2005 mit dem Titel "Die Pfalz Trebur unter Heinrich IV. vom Schauplatz großer Politik zum gemiedenen Ort" ...
Visualisierung von E-Mail-Traffic mit Schwerpunkt auf eine inhaltliche Analyse von Wortmustern
(2010)
E-Mail hat sich zu einem sehr wichtigen Kommunikationsmittel entwickelt, leidet aber aktuell unter einer massiven Verbreitung unerwünschter und unverlangter Inhalte. Diese können für einen Anwender nicht nur lästig sein, sondern auch die vorhandene Netz- und Speicher-Infrastruktur enorm belasten.
Die Notwendigkeit einer Filterung des E-Mail-Traffic hat zu einer Reihe recht unterschiedlicher Methoden geführt, die computergesteuert eine E-Mail auf ihren Spam-Gehalt untersuchen.
Die Motivation hinter dieser Arbeit ist zu prüfen, ob die besonderen Eigenschaften der visuellen Wahrnehmung eines Menschen als unterstützendes Mittel eingesetzt werden können, um E-Mail-Inhalte zu überprüfen und eventuell vorhandene Wort-Muster, die auf Spam deuten, sichtbar zu machen.
Um dieses Ziel zu erreichen musste zuerst eine geeignete Auswahl spamspezifischer Merkmale getroffen werden. Danach wurden Methoden des Text Minings angewendet, um aus dem Inhalt einer E-Mail strukturierte Daten zu gewinnen, die sich zur Repräsentation einer Nachricht eignen und als Grundlage für eine Visualisierung herangezogen werden können. Basierend auf den vorab ausgewählten Spam-Charakteristika wurdenWorteigenschaften mit Hilfe extern angebundener Wortlisten, regulärer Ausdrücke und unter Einsatz eines Wörterbuches überprüft, und die erhaltenen Ergebnisse flossen neben einer einfachen Gewichtung von Worthäufigkeiten in Form einer anwendungsspezifischen Gewichtung mit ein.
Es wurden anschließend zwei verschiedene Sichten konzipiert, um einem Anwender einen Einblick in die extrahierten Daten zu ermöglichen. Es hat sich herausgestellt, dass besonders Treemaps geeignet sind um die anfallenden Datenmengen kompakt abzubilden, aber gleichzeitig einen notwendigen Detailgrad auf einzelne Worteigenschaften gewährleisten.
Das Konzept wurde prototypisch unter Verwendung des Mailservers Mercury/32 sowie einer MySQL-Datenbank implementiert und konnte teilweise aufzeigen, dass es anhand der von der Engine generierten Strukturen möglich ist, spamspezifische Merkmale einer E-Mail unter Verwendung der gewählten Visualisierungstechniken auf eine Weise sichtbar zu machen, die einem Anwender eine Mustererkennung erlauben.
Die Diplomarbeit wurde als Gemeinschaftsarbeit angefertigt und konnte sinnvoll in zwei Bereiche aufgeteilt werden: Die Engine und die Visualisierung. Die konzeptuellen Überlegungen für das Thema sind größtenteils gemeinsam erfolgt, jedoch liegt der Schwerpunkt von Pouneh Khayat Pour im Bereich der Analyse und der von Yvonne Neidert in der Visualisierung.
Durchgeführte Arbeiten und Ergebnisse: Zur Erschließung des Themas Lebensmittelverpackungen im Chemieunterricht wurde zunächst eine grundlegende fachliche Recherche durchgeführt, um mögliche thematische Schwerpunkte zu identifizieren und Grundlagen für eine experimentelle Zugänglichkeit zu erarbeiten. Parallel hierzu wurde der derzeitige Stand der fachdidaktischen Forschung unter besonderer Berücksichtigung des Themas Lebensmittelverpackungen erhoben. Es zeigte sich, dass nur vereinzelt auf diese Themenstellung eingegangen wird. Dabei steht allerdings, wie etwa bei dem Recycling von Joghurtbechern, die stoffliche Weiterverwendung von Abfällen im Vordergrund, während die Anforderungen an die Eigenschaften einer Verpackung keine Rolle spielen. Daher erfahren Bau und Funktion unterschiedlicher Verpackungsmaterialien in der vorliegenden Arbeit eine besondere Berücksichtigung. Die vorliegende Arbeit umfasst im Wesentlichen zwei Schwerpunkte: - Die schulexperimentelle Erschließung des Themas Lebensmittelverpackungen für unterschiedliche Klassenstufen, - die exemplarische Ausarbeitung von Unterrichtseinheiten, die die Möglichkeit der Integration der Experimente in die Schulpraxis aufzeigen. Bei der experimentellen Entwicklung stand die Barrierefunktion der Lebensmittelverpackungen und im Hinblick auf die Verträglichkeit mit Lebensmitteln deren chemische Zusammensetzung im Vordergrund. Gesichtspunkte wie die mechanische Belastbarkeit, z. B. die Reißfestigkeit einer Verpackungsfolie, wurden erst in zweiter Linie erarbeitet. Die Struktur-Eigenschaftsbeziehungen wurden thematisiert. Zunächst wurde eine Versuchsreihe ausgearbeitet, die die Funktion von Aluminiumschichten in Lebensmittelverpackungen in das Zentrum der Betrachtung stellt. Hierbei konnte zur Bestimmung der Dicke einer Aluminiumschicht mit schulischen Mitteln ein Verfahren ausgearbeitet werden, in dem die Aluminiumanteile einer ausgemessenen Fläche einer Verpackung gelöst und anschließend über eine Titration bestimmt werden. Diese Versuchsreihe kann auf viele Beispiele angewandt werden und liefert zuverlässige Ergebnisse. Der Nachweis unterschiedlicher Kunststoffe in Lebensmittelverpackungen stand im Mittelpunkt einer zweiten Versuchsserie. Hierbei wurden Versuche zur Analyse von Verpackungsstoffen (Polyolefine und Polykondensate) entwickelt und zusammengestellt. Einfache Versuche zeigen die Möglichkeit zur Trennung der Schichten von Verbundfolien sowie die chemische Beschaffenheit der verwendeten Polymere. Es wird anhand der gewählten Beispiele auf die unterschiedlichen Eigenschaften von Folien, wie Sauerstoffdurchlässigkeit und Wasserdampflöslichkeit, eingegangen. Dabei wird die gezielte Kombination unterschiedlicher Folien berücksichtigt. Eine wesentliche Fragestellung bei der Auswahl von Lebensmittelverpackungen ist die Frage nach der Barrierewirkung gegenüber unerwünschten Stoffen, z.B. von Sauerstoff. Hierbei gelang es, eine Zink-Luft-Batterie so in eine geeignete Schaltung einzubauen, dass sie zum Nachweis des Sauerstoffdurchtritts durch eine Folie verwendet werden kann. Allerdings ist dieser bei üblicherweise verwendeten Folien so gering, dass im Sinne einer didaktischen Reduktion für einen Modellversuch Backpapier eingesetzt wird, um ein Experiment zu erhalten, das in einer Schulstunde durchgeführt werden kann. Eine weitere umfangreiche Versuchsserie wurde zur Durchlässigkeit von PET-Flaschen gegenüber Kohlenstoffdioxid entwickelt. Besonders interessant für Schülerinnen und Schüler sind dabei Experimente, die zeigen, dass PET Kohlenstoffdioxid in geringen Mengen speichert. Exemplarische Unterrichtsentwürfe zeigen, welche konkreten Möglichkeiten für die Umsetzung des Themas gegeben sind. Hierfür wurden exemplarisch Entwürfe zum Forschend-entwickelnden Unterrichtsverfahren, zum Analytisch-synthetischen Verfahren, zum Expertenunterricht, zur Chemie im Kontext, zum Wahldifferenzierten Chemieunterricht und zum Projektunterricht / projektorientierten Chemieunterricht ausgearbeitet. Insgesamt vermittelt die vorliegende Arbeit einen umfassenden Zugang zum Thema Lebensmittelverpackung im Chemieunterricht, wobei ausgehend von den fachlichen Grundlagen die schulexperimentellen Möglichkeiten und Wege der unterrichtlichen Umsetzung entwickelt wurden.
Entwicklung von normal- und supraleitenden CH-Strukturen für den 17 MeV EUROTRANS-Injektor-Linac
(2010)
In den letzten Jahrzehnten vergrößerten sich die Anwendungsgebiete von Hochfrequenzlinearbeschleunigern für Protonen und schwere Ionen, insbesondere im Nieder- und Mittelenergiebereich, permanent. Der überwiegende Teil dieser mittlerweile bewährten Aktivitäten lag im Bereich der Synchrotroninjektion oder der Nachbeschleunigung von radioaktiven Ionenstrahlen. Daneben existiert seit einiger Zeit eine starke Tendenz zur Entwicklung von Hochleistungslinearbeschleunigern, welche vor allem bei der Forschung an Spallationsneutronenquellen, in der Isotopenproduktion oder bei der Transmutation langlebiger Abfälle aus Spaltreaktoren Anwendung finden sollen. Die neu entwickelte CH-Struktur (Crossbar H-Mode) ist optimal für den Einsatz in derartigen Hochleistungsapplikationen geeignet. Sie ist die erste Vielzellenstruktur für den Nieder- und Mittelenergiebereich und kann sowohl normal- als auch supraleitend verwendet werden. Das europäische Programm zur Transmutation radioaktiver Abfälle, EUROTRANS, basiert auf einem Hochleistungslinearbeschleuniger, der einen intensiven Protonenstrahl bereitstellt. Dieser Strahl wird auf ein Flüssigmetalltarget geleitet, wodurch Spallationsneutronen entstehen, welche die Reaktion im Reaktorkern antreiben. Hierbei spricht man von einem sogenannten beschleunigergetriebenen System (ADS). Das zugehörige Refernzdesign des Instituts für Angewandte Physik propagiert einen aus normal- und supraleitenden CH-Strukturen bestehenden Injektor für den Bereich von 5–17 MeV. Im Rahmen der vorliegenden Arbeit wurden diesbezüglich zur Entwicklung von zwei normal- und vier supraleitenden CH-Kavitäten elektrodynamische Simulationsrechnungen in Bezug auf die folgenden Designkriterien durchgeführt:...
In den Vorlesungen zur Gouvernementalität skizziert Foucault die Art und Weise, in der im modernen Staat «aus der Distanz» regiert wird. Diese wird im Artikel dargestellt, materialistisch «geerdet», und es werden hierauf aufbauend die Begriffe Risiko und Versicherheitlichung diskutiert. Die Tauglichkeit dieser Herangehensweise wird anhand der aktuellen Grenz- und Migrationspolitik der EU illustriert, und es werden die in diesem Kontext produzierten Räume skizziert.
Bei der GSI – Helmholtzzentrum für Schwerionenforschung in Darmstadt wird im Rahmen des HITRAP-Projekts ein linearer Abbremser für schwere, hochgeladene Ionen für atomphysikalische Präzisionsexperimente in Betrieb genommen. Während der Inbetriebnahme wurden transversale Emittanzmessungen mit der Pepperpot- und der Multi-Gradienten-Methode durchgeführt, um die Emittanz des aus dem Experimentierspeicherring (ESR) extrahierten Strahls zu messen. Weiterhin wurde auch die Phasenraumverteilung des auf eine Zwischenenergie von 500keV/u abgebremsten Strahls hinter der IH-Struktur gemessen. Dazu wurden neue Auswertealgorithmen in die Analyse der digitalen Bilder integriert. Die longitudinalen Bunchstrukturmessungen des Strahls am Eintrittspunkt in den Abbremser und die Funktionsweise des Doppel-Drift Bunchers wird gezeigt. Die Konzeption und der Aufbau sowie die erste Inbetriebnahme einer neuartigen Einzelschuss-Pepperpot-Emittanzmessanlage für kleinste Strahlströme und -energien wird beschrieben, die es ermöglichen, den Strahl hinter den Abbremskavitäten zu vermessen. Zusätzlich wurden transversale Strahldynamikrechnungen durchgeführt, welche theoretische Grundlagen zur Inbetriebnahme von HITRAP lieferten. Es wird beschrieben, wie die gesamte Strahllinie vom ESR bis zum Radio-Frequenz Quadrupol nach der erfolgreichen Integration einer Abbremsroutine innerhalb des Softwarepakets COSY Infinity optimiert werden kann.
1987 überraschte der chinesische Künstler Xu Bing sein Pekinger Publikum mit einem Set von vier Büchern, die im Stil der kanonischen Bücher gestaltet waren und über tausendzweihundert chinesische Schriftzeichen enthielten. Obwohl auf den ersten Blick den alten chinesischen Zeichen täuschend ähnlich, unterschieden sie sich jedoch von ihnen in einigen wenigen Details, die entscheidend für das Verständnis waren. Xu Bings Idee bestand darin, einem alten Wörterbuch reale Zeichen zu entnehmen, sie in ihre Grundbestandteile zu zerlegen und sie wieder zusammensetzen, jedoch nicht so, wie sie vorher waren, sodass sie ihrer Bedeutung beraubt wurden. Angesichts dieser gekonnt inszenierten und verwirrenden Lektüreerfahrung stellt sich die Frage: Ist das überhaupt Literatur, wo es doch nichts zu lesen gibt? Diese Frage mag ungewöhnlich klingen und nicht wenige werden sie vielleicht sogar für falsch gestellt halten. Schließlich gilt Xu Bing als Künstler und nicht als Schriftsteller und seine ausgestellten Bücher sind in dem Ausstellungsraum eines Museums zu finden und nicht in einer Bibliothek. Und dennoch, so die Hypothese dieser Überlegungen, findet man in seinen Büchern etwas zur Darstellung gebracht, was nach Foucault so etwas ist wie der unsagbare Kern der Literatur. In Xu Bings Ausstellung geht es um die sichtbare Manifestation dessen, was Literatur im sprachontologischen Sinne begründet, um ihre Existenzbedingung: das Nichtsignifikative im Zeichen, das die Signifikation erst ermöglicht. In Analogie zu Blanchots Begriff "desoeuvrement" (vgl. Blanchot 1955, 48 f) könnte man von einer 'désignification' sprechen: Durch winzige Veränderungen am Gefüge der Striche wird dem Zeichen der Sinn entzogen. Doch wie lässt sich der Bezug dieses unlesbaren Buches, das aufgrund seiner Unlesbarkeit nur noch als Ausstellungsobjekt taugt, zum literarischen Buch herstellen?
We investigate the incentives for vertical or horizontal integration in the financial security service industry, consisting of trading, clearing and settlement. We thereby focus on firms’ decisions but also look on the implications of these decisions on competition and welfare. Our analysis shows that the incentives for vertical integration crucially depend on industry as well as market characteristics. A more pronounced demand for liquidity clearly favors vertical integration whereas deeper financial integration increases the incentives to undertake vertical integration only if the efficiency gains associated with vertical integration are sufficiently large. Furthermore, we show that market forces can suffer from a coordination problem that end in vertically integrated structures that are not in the best interest of the firms. We believe this problem can be addressed by policy measures such as the TARGET2-Securities program. Furthermore, we use our framework to discuss major industry trends and policy initiatives. Keywords: Vertical Integration , Horizontal Integration , Competition , Trading , Settlement JEL Classification: G15, L13, L22
Tracer measurements in the tropical tropopause layer during the AMMA/SCOUT-O3 aircraft campaign
(2010)
We present airborne in situ measurements made during the AMMA (African Monsoon Multidisciplinary Analysis)/SCOUT-O3 campaign between 31 July and 17 August 2006 on board the M55 Geophysica aircraft, based in Ouagadougou, Burkina Faso. CO<sub>2</sub> and N<sub>2</sub>O were measured with the High Altitude Gas Analyzer (HAGAR), CO was measured with the Cryogenically Operated Laser Diode (COLD) instrument, and O<sub>3</sub> with the Fast Ozone ANalyzer (FOZAN). We analyze the data obtained during five local flights to study the dominant transport processes controlling the tropical tropopause layer (TTL) above West-Africa: deep convection up to the level of main convective outflow, overshooting of deep convection, horizontal inmixing across the subtropical tropopause, and horizontal transport across the subtropical barrier. Except for the flight of 13 August, distinct minima in CO<sub>2</sub> indicate convective outflow of boundary layer air in the TTL. The CO<sub>2</sub> profiles show that the level of main convective outflow was mostly located between 350 and 360 K, and for 11 August reached up to 370 K. While the CO<sub>2</sub> minima indicate quite significant convective influence, the O<sub>3</sub> profiles suggest that the observed convective signatures were mostly not fresh, but of older origin. When compared with the mean O<sub>3</sub> profile measured during a previous campaign over Darwin in November 2005, the O<sub>3</sub> minimum at the main convective outflow level was less pronounced over Ouagadougou. Furthermore O<sub>3</sub> mixing ratios were much higher throughout the whole TTL and, unlike over Darwin, rarely showed low values observed in the regional boundary layer. Signatures of irreversible mixing following overshooting of convective air were scarce in the tracer data. Some small signatures indicative of this process were found in CO<sub>2</sub> profiles between 390 and 410 K during the flights of 4 and 8 August, and in CO data at 410 K on 7 August. However, the absence of expected corresponding signatures in other tracer data makes this evidence inconclusive, and overall there is little indication from the observations that overshooting convection has a profound impact on TTL composition during AMMA. We find the amount of photochemically aged air isentropically mixed into the TTL across the subtropical tropopause to be not significant. Using the N<sub>2</sub>O observations we estimate the fraction of aged extratropical stratospheric air in the TTL to be 0.0±0.1 up to 370 K during the local flights, increasing above this level to 0.2±0.15 at 390 K. The subtropical barrier, as indicated by the slope of the correlation between N<sub>2</sub>O and O<sub>3</sub> between 415 and 490 K, does not appear as a sharp border between the tropics and extratropics, but rather as a gradual transition region between 10 and 25° N latitude where isentropic mixing between these two regions may occur.
Einen gegebenen Stoff erneut zu verfilmen, einen Erfolgsfilm zu verdoppeln, eine schon verfilmte Geschichte in anderem Milieu neu vorzustellen, sie zu variieren und sie auf die besonderen Gegebenheiten der dargestellten Welt hin anzupassen: Das ist Praxis des Films, wohl seit seinem Beginn. Daß immer die gleichen Stoffe den Anlaß boten zu immer neuen Versuchen, das Zeitgenössische oder das Ewig-Menschliche zu zeigen, zu präzisieren oder überhaupt erst zu finden, ist beileibe keine filmische Angelegenheit, sondern auch in der Literatur - und erst recht: in der Volksliteratur - gängige und bekannte Praxis. Man ziehe die verschiedenen Stoff- und Motivgeschichten zu Rate: Diese sind voller Hinweise auf Geschichten, die in immer neuen Annäherungen und Variationen erprobt wurden. Ein ‚Remake‘ ist, wollte man flapsig formulieren, ganz einfach eine Neuverfilmung eines schon verfilmten Stoffes. Bezugnahmen von Texten aufeinander gibt es viele - dazu rechnen u.a. Fortsetzungen, Parodien, Kompilationsfilme und lediglich im Titel auf ein Original anspielende Filme. Die Frage, was ein Remake ist, bleibt virulent: Wieviele stoffliche Ähnlichkeiten müssen zwei Filme aufweisen, daß man von einem ‚Remake‘ sprechen darf? Das texttheoretische Problem der sich Remake nennenden Ähnlichkeitsbeziehung von Filmen, die sich mehr oder weniger detailgetreu auf den Vorgänger beziehen und oft sogar denselben Titel tragen, ist unklar. Geht es um Ähnlichkeiten oder um die Beschreibung der Unterschiede im Gleichen - vieles spricht dafür, dass in einem historischen und in einem kulturwissenschaftlichen Interesse die Beschreibung der Differenzen wichtiger ist als die Feststellung der stofflichen, narrativen und dramatischen Nähe von zwei oder mehr Texten. In der Differenz manifestiert sich historischer Wandel und kulturelle Unterschiedlichkeit. In der Differenz manifestiert sich aber auch die Anpassungsleistung, weil nicht jede Neuadaption eines Stoffes das „Original“ nur ausbeutet, sondern es aktualisiert, neu ausrichtet, thematisch veränderte Akzente setzt.
Ausgehend von der These, dass insbesondere psychologisierende Filmmusik oft in einer changierenden Bedeutungsbeziehung zur Szene und den Figuren steht und dass das Akzeptieren von Musiken als Darstellung der inneren Realität von Figuren auf einem Prozess der Synthese diverser Kontextinformationen beruht, wird ein Modell der Perspektivität der Filmmusik und ihrer damit einhergehenden semantischen Aufladung vorgeschlagen und an einem Beispiel durchgespielt.
'One Plus One' entstand während einer über mehrere Monate verteilten Aufnahmestudio-Session der Rolling Stones im Juni und August 1968 in den Olympic Studios in London. Die Band kam ohne Vorbereitung ins Studio und entwickelte den Song 'Sympathy for the Devil' improvisatorisch im Laufe der Sessions. Die Arbeit am Stück begann mit einem Liedtext von Sänger Mick Jagger unter dem Arbeitstitel 'The Devil Is My Name'. Jagger hatte diesen Text unter dem Eindruck des Romans 'Der Meister und Margarita' des russischen Schriftstellers Michail Bulgakov verfasst - ein Buch, das er von seiner Partnerin Marianne Faithfull erhalten hatte. In Bulgakovs Roman stattet der Teufel dem Moskau der 1930er Jahre einen Besuch ab, in dessen Verlauf er viele Menschen tötet oder in den Wahnsinn treibt. Der Film zeigt die Arbeit an dem Song, der auf einem treibenden Samba-Rhythmus aufruht, in den verschiedenen Entwicklungsstufen, in immer neuen Ansätzen, sich dem späteren Format annähernd. Der Song wurde 1968 auf dem Studioalbum 'Beggars Banquet' als erstes von zehn Liedern veröffentlicht.
We analytically show that a common across rich/poor individuals Stone-Geary utility function with subsistence consumption in the context of a simple two-asset portfolio-choice model is capable of qualitatively explaining: (i) the higher saving rates of the rich, (ii) the higher fraction of personal wealth held in stocks by the rich, and (iii) the higher volatility of consumption of the wealthier. On the contrary, time-variant "keeping-up with the Joneses" weighted average consumption playing the role of moving benchmark subsistence consumption gives the same portfolio composition and saving rates across the rich and the poor, failing to reconcile the model with what micro data say.
In diesem Aufsatz möchten wir Denk- und Deutungsmuster des mediengestützten Studiums und der mediengestützten Lehre herausarbeiten, welche die These einer qualitativ neuen Form der Bildung stützen2. Der Rahmen, in dem wir uns dabei bewegen, wird einerseits durch die Debatte um die Wissensgesellschaft und andererseits durch die Perspektive der kanadischen Medientheorie3 gekennzeichnet.
Unser Augenmerk gilt den Veränderungen in unserer Alltagskultur, den Deutungs- und Wahrnehmungsmustern und den entsprechenden Erwartungshorizonten, welche sich zunehmend unter den Bedingungen moderner Medientechnologien verändern. Besonders hervorheben wollen wir dabei den Zusammenhang von medientechnischen und kulturellen Modernisierungen. Fragen der Entwicklung und Nutzung neuer Medientechnologien wie dem Internet lassen sich so jenseits einer Sichtweise der Instrumentalisierung in den Blick nehmen. Wir werden uns bei den nachfolgenden Betrachtungen dazuhin auf das Feld der Hochschulen und die dort angesiedelten Fragen zur mediengestützten Lehre beschränken.
In erstem Teil der Arbeit wurde der Begriff Drehbuch in Hinsicht auf die Erstellung von eLearning Kursen erläutert und eLearning Inhalte auf ihre typischen Merkmale untersucht. Dabei war es wichtig zu verstehen, ob und wie die kooperative Arbeit an Inhalten in gängigen Textbearbeitungsprogrammen unterstützt wird und welche Vor- und Nachteile der jeweilige Editor aufweist. Wie sich herausgestellt hat, setzen bestehende Lösungen auf Auszeichnungen von Textbausteinen und der Kursstruktur mit Hilfe von speziellen Makros, so dass beim Transformieren des Kurses diese wiedererkannt werden können. Leider sind diese Lösungen auf einen bestimmten Editor spezialisiert und betrachten die kooperativen Aspekte der Arbeit an Inhalten nicht.
Da das Drehbuch in einem Textbearbeitungsprogramm erstellt wird, ist die Möglichkeit der Wahl von einem Editor für die Autoren vorteilhaft. Deshalb sieht der Lösungsansatz in meiner Arbeit vor, dass die Umsetzung des Drehbuches nicht auf einen bestimmten Editor beschränkt ist und dass für jeden Editor kooperative Bearbeitung ermöglicht wird. Dies wird zum einen durch Verwendung eines Versionskontrollesystems und zum anderen durch die kooperativen Eigenschaften der Editoren erreicht.
Das Transformieren eines Drehbuches zu einem eLearning Kurs wurde einheitlich gestaltet, da HTML als ein gemeinsames Format der Ausgabe von Editoren ausgewählt wurde. In der Implementierung des Lösungsansatzes konnte am Beispiel des Autorensprogramms LernBar die Unterstützung von bereits drei Editoren erreicht werden.
Einige Einschränkungen sind bei der Verwendung dieser Lösung zu beachten. Bei den Veränderungen in der HTML-Ausgabe der Editoren sind möglicherweise auch Anpassungen im Programm vorzunehmen. Die Verwendung von Tabellen impliziert, dass ihre Struktur durch den Autor nicht geändert wird, was durchaus auch versehentlich passieren kann. Bei der Erstellung von Tests ist eine umfassende Validierung empfehlenswert, damit die Tests wie erwartet durchgeführt werden können. Es wurden in der Implementierung nur einige Testtypen umgesetzt und möglicherweise sind einige Tests nicht für die Erfassung im Drehbuch geeignet. In dem Fall müssen sie in den verwendeten Autorenprogramm direkt erstellt werden.
Die rasante Entwicklung von Internettechnologien wird sicherlich neue Möglichkeiten sowohl für die kooperative Arbeit, als auch für Textbearbeitungsfunktionalitäten anbieten. Allein im Jahr 2010 wurden mehrere Neuerungen auf dem Markt von Online-Editoren eingeführt. Microsoft hat eine Online-Version1 von seiner Office-Suite veröffentlicht und damit eine neue Alternative zu Google Docs angeboten. In Google-Docs werden nahezu im monatlichen Takt neue nützliche Funktionen implementiert, die sowohl die Textverarbeitung als auch die Kooperation verbessern.
Im Rahmen dieser Bachelorarbeit werden verschiedene Non-Photorealistic Rendering Verfahren zur Darstellung von rekonstruierten Artefakten, im Bereich der Paläontologie, beschrieben und implementiert. Hauptsächlich arbeiten die vorgestellten Verfahren im zweidimensionalen Bildraum, um beispielsweise Kanten in Bildern zu detektieren. Hierbei bedienen wir uns sogenannter Normal- und Depthmaps, welche als Zwischenresultate dienen, um die nötigen Informationen zu sammeln, welche zur Erkennung von Kanten im Bild notwendig sind. Neben der Kantendetektion werden NPR Verfahren genutzt, um skizzenhafte Illustrationen zu erzeugen, welche per Hand gezeichnete wissenschaftliche bzw. technische Illustrationen nachahmen und somit (halb)automatisieren sollen. Mithilfe von (programmierbaren) Shadern werden dann spezielle Texturen auf die Oberflächen der Modelle gelegt, um eine skizzenhafte Darstellung zu erzeugen. Solche Verfahren erleichtern demnach die aufwändige Arbeit der Künstler, welche gewöhnlich viel Zeit für ihre Illustrationen benötigen.
Small interfering RNAs (siRNAs) are now established as the preferred tool to inhibit gene function in mammalian cells yet trigger unintended gene silencing due to their inherent miRNA-like behavior. Such off-target effects are primarily mediated by the sequence-specific interaction between the siRNA seed regions (position 2–8 of either siRNA strand counting from the 5'-end) and complementary sequences in the 3'UTR of (off-) targets. It was previously shown that chemical modification of siRNAs can reduce off-targeting but only very few modifications have been tested leaving more to be identified. Here we developed a luciferase reporter-based assay suitable to monitor siRNA off-targeting in a high throughput manner using stable cell lines. We investigated the impact of chemically modifying single nucleotide positions within the siRNA seed on siRNA function and off-targeting using 10 different types of chemical modifications, three different target sequences and three siRNA concentrations. We found several differently modified siRNAs to exercise reduced off-targeting yet incorporation of the strongly destabilizing unlocked nucleic acid (UNA) modification into position 7 of the siRNA most potently reduced off-targeting for all tested sequences. Notably, such position-specific destabilization of siRNA–target interactions did not significantly reduce siRNA potency and is therefore well suited for future siRNA designs especially for applications in vivo where siRNA concentrations, expectedly, will be low.