Refine
Year of publication
Document Type
- Doctoral Thesis (5575) (remove)
Language
- German (3545)
- English (2001)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5575)
Is part of the Bibliography
- no (5575)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Nanopartikel (9)
- Proteomics (9)
Institute
- Medizin (1462)
- Biowissenschaften (813)
- Biochemie und Chemie (722)
- Physik (578)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (285)
- Geowissenschaften (138)
- Neuere Philologien (112)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
The human brain is an unparalleled system: Through millions of years of evolution and during a lifespan of learning, our brains have developed remarkable abilities for dealing with incoming sensory data, extracting structure and useful information, and finally drawing the conclusions that result in the actions we take. Understanding the principles behind this machinery and building artificial systems that mimic at least some of these capabilities is a long standing goal in both the scientific and the engineering communities. While this goal still seems unreachable, we have seen tremendous progress when it comes to training data-driven algorithms on vast amounts of training data, e.g. to learn an optimal data model and its parameters in order to accomplish some task. Such algorithms are now omnipresent: they are part of recommender systems, they perform speech recognition and generally build the foundation for many semi-autonomous systems. They start to be integral part of many technical systems modern technical societies rely on for their everyday functioning. Many of these algorithms were originally inspired by biological systems or act as models for sensory data processing in mammalian brains. The response properties of a certain population of neurons in the first stages of the mammalian visual pathway, for example, can be modeled by algorithms such as Sparse Coding (SC), Independent Component Analysis (ICA) or Factor Analysis (FA). These well established learning algorithms typically assume linear interactions between the variables of the model. Most often these relationships are expressed in the form of a matrix-vector products between a matrix with learned dictionary-elements (basis vectors as column vectors) and the latent variables of these models. While on the one hand this linear interaction can sometimes be justified by the physical process for which the machine learning model is proposed, it is on the other hand often chosen just because of its mathematical and practical convenience. From an optimal coding point of view though, one would generally expect that the ideal model closely reflect the core interactions of the system it is modeling. In vision for example, one of the dominant processes giving rise to our sensory percepts are occlusions. Occluding objects are omnipresent in visual scenes and it would not be surprising if the mammalian visual system would be optimized to process occluding structures in the visual data stream. Yet, the established mathematical models of the first stages of the visual processing path (like, e.g., SC, ICA or FA) all assume linear interactions between the active image components. In this thesis we will discuss new models that aim to approximate the effects of occluding components by assuming nonlinear interactions between their activated dictionary elements. We will present learning algorithms that infer optimal parameters for these models given data. In the experiments, we will validate the algorithms on artificial ground truth data and demonstrate their ability to recover the correct model parameters. We will show that the predictions made by these nonlinear models correspond better to the experimental data measured in-vivo than the predictions made by the established linear models. Furthermore, we systematically explore and compare a large space of plausible combinations of hyperparameters and preprocessing schemes in order to eliminate any effects of artefacts on the observed results. Training nonlinear sparse coding models is computationally more demanding than training linear models. In order to perform the numerical experiments described in this thesis we developed a software framework that facilitates the implementation of massive parallel expectation maximization (EM) based learning algorithms. This infrastructure was used for all experiments described in here, as well as by collaborators in projects we will not discuss. Some of the experiments required more than 1017 floating point operations and were run on a computer cluster running on up to 5000 CPU Cores in parallel. Our parallel framework enabled these experiments to be performed.
Ziel der vorliegenden prospektiven, experimentellen, randomisierten kontrollierten In-vitroStudie war es, zwei Dentinadhäsive, die der sechsten (One-Up-Bond F, Tokuyama) und siebten (G-Bond, GC Tokio) Generation angehören, unter ISO-Bedingungen zu untersuchen und einer Kontrollgruppe (Clearfil SE, Kuraray), die der sechsten Generation zugeordnet wird, gegenüberzustellen. Neunzig unversehrte humane Molaren der zweiten Dentition wurden eingebettet. Das Dentin wurde mit Siliziumcarbidscheiben der Körnung 600 bearbeitet, um eine Schmierschicht zu erhalten. Anschließend wurden die Dentinproben randomisiert in drei Gruppen eingeteilt und die jeweiligen Dentinadhäsive wurden nach Herstellerangaben appliziert. Mittels einer Versuchsapparatur, die in Anlehnung an die ISO/TS 11405:2003 hergestellt wurde, wurde das Kompositmaterial Tetric EvoCeram in der Farbe A2 aufgetragen und lichtgehärtet. Eine Alterung der Proben fand bei 500 Thermocycling-Zyklen bei Temperaturen von 5°C und 55°C statt. Mit einer Universalprüfmaschine Zwicki (Vorschubgeschwindigkeit 0,5 mm/min) wurde die Scherhaftfestigkeit der Proben bestimmt. Anschließend wurden die abgescherten Dentinproben unter dem Rasterelektronenmikroskop bei einer Vergrößerung von 20-fach und 2000-fach bezüglich der auftretenden Frakturmodi untersucht.
Die Haftkraft-Mittelwerte von Clearfil SE betrugen 4,22 MPa, von G-Bond 3,83 MPa und von One-Up-Bond F 7,11 MPa. Bei der statistischen Analyse mittels Kruskal-Wallis-Test wurde die Signifikanz ermittelt. Eine Signifikanz zwischen den Dentinadhäsiven One-UpBond F und G-Bond lag vor. Einzig Clearfil SE war statistisch nicht signifikant gegenüber den anderen Produkten. Die Bruchanalyse ergab, dass G-Bond eine hohe Anzahl (46,7 %) an kohäsiven Frakturen aufwies, Clearfil SE mehr als die Hälfte (66,7 %) gemischte Frakturen und dass One-Up-Bond F kaum adhäsive (3,3 %) Frakturen zeigte, sondern hauptsächlich (80 %) gemischte Brüche. Signifikante Unterschiede waren zwischen dem Bruchverhalten von Clearfil SE und G-Bond sowie zwischen G-Bond und One-Up-Bond F zu beobachten.
Unter der Limitation der vorliegenden In-vitro-Studie erscheint die Anwendung von G-Bond aufgrund der erhaltenen statistisch signifikant niedrigeren Haftwerten als nicht empfehlenswert.
Silicon wafers such as Silicon on Insulator (SOI) and strained silicon on Insulator (sSOI) are the essential and basic materials of advanced microelectronic devices. However, they often show various kinds of crystal defects which impair the function of these devices. The most efficient method to date, for detecting such defects and for determining their density, is to delineate them by etching the wafers with a suitable etching solution and characterise them via light optical microscopy. Etch pits are formed at defect sites which are etched at a faster rate than at the perfect lattice. The standard etching solution used for SOI and sSOI is a dilute version of Secco. As Secco contains carcinogenic and environmentally hazardous chromium (VI), the use of which is or will be restricted by law in many countries, suitable chromium (VI)-free etching solutions like Organic Peracid Etches (OPE), modified Chemical Polishing Etches (CP) like CP4 mod and mixtures with organic oxidizing agents like chloranil (CA) have been developed for the successful delineation of various types of crystal defects.
However there are still nanometer-sized defects which are hard to detect or escape detection by this method. Copper decoration is a well known method to magnify these defects. It consists in applying a copper nitrate solution to the back of the SOI or sSOI wafer. On annealing, copper diffuses through the substrate and the BOX (buried oxide) to the SOI/sSOI film and on quenching to room temperature, copper precipitates as copper silicide, SiCu3, foremost at crystal defects where the lattice strain is greater than at perfect lattice sites. These silicides increase the volume in these parts of the crystal lattice and defect magnification occurs. A considerable disadvantage of this method is its tendency for artefact formation, when the copper concentration used is too high, with the copper precipitating at the film surface. The consequence is a higher density of etch pits whereby true defect etch pits cannot be differentiated from those caused by artefacts.
The aim of this thesis is to show that the processes of decorating and etching can be combined successfully to delineate all crystal defects in SOI and sSOI. An ideal result would have been to find a copper decoration procedure that decorates all existing crystal defects at a copper concentration that avoids artefact formation.
Protein quality control systems (PQC), i.e. UPS and aggresome-autophagy pathway, have been suggested to be a promising target in cancer therapy. Simultaneous pharmacological inhibition of both pathways have shown increase efficacy in various tumors, such as ovarian and colon carcinoma. Here, we investigate the effect of concomitant inhibition of 26S proteasome by FDA-approved inhibitor Bortezomib, and HDAC6, as key mediator of the aggresome-autophagy system, by the highly specific inhibitor ST80 in rhabdomyosarcoma (RMS) cell lines. We demonstrated that simultaneous inhibition of 26S proteasome and selective aggresome-autophagy pathway significantly increases apoptosis in all tested RMS cell lines. Interestingly, we observed that a subpopulation of RMS cells was able to survive the co-treatment and, upon drug removal, to recover similarly to untreated cells. In this study, we identified co-chaperone BAG3 as the key mediator of this recovery: BAG3 is transcriptionally up-regulated specifically in the ST80/Bortezomib surviving cells and mediates clearance of cytotoxic protein aggregates by selective autophagy. Impairment of the autophagic pathway during the recovery phase, both by conditional knock-down of ATG7 or by inhibition of lysosomal degradation by BafylomicinA1, triggers accumulation of insoluble protein aggregates, loss of cell recovery and cell death similarly to stable short harpin RNA (shRNA) BAG3 knock-down. Our results are the first demonstration that BAG3 mediated selective autophagy is engaged to cope with proteotoxicity induced by simultaneous inhibition of constitutive PQC systems in cancer cell lines during cell recovery. Moreover, our data give new insights in the regulation of constitutive and on demand PQC mechanisms pointing to BAG3 as a promising target in RMS therapy.
Am Ende seiner Tage sprach der König Salomon: "Die Sonne geht auf und unter [...]. Was gewesen ist, wird [wieder] sein, was getan worden ist, wird [wieder] getan, und es gibt nichts Neues unter der Sonne".1 Im August des Jahres 1881, beim Spaziergang durch die Wälder am See von Silvaplana, bei einem mächtigen, pyramidal aufgetürmten Block, "6000 Tausend Fuß jenseits von Mensch und Zeit" kam einem Professor der klassischen Philologie jener Gedanke wieder – der Gedanke der "Ewigen Wiederkunft des Gleichen", die er später als das Hauptprinzip der altgriechischen Zeitauffassung formulierte. Der Professor hieß Friedrich Nietzsche.2 Mehr als hundert dreißig Jahre sind nach seinem Spaziergang vergangen, und mehr als hundert dreißig Jahre dauert die Diskussion über die zyklische und lineare Zeit. Es wurde mehrmals behauptet und wieder verworfen, dass der Hauptunterschied zwischen dem "hebräischen" und "griechischen" Denken, zwischen den "Gläubigen" und den "Heiden" gerade in dieser Zeitauffassung besteht. Die mythische Zeit der Griechen sei räumlich und statisch, sie habe kein Ziel und keinen Zweck, sie wandle im ewigen Kreislauf gefühllos und träge, ohne Anfang und Ende, ohne Wohin und Woher, ohne Hoffnung. Die Zeit der Tora hingegen sei zielgerichtet. Die Erschaffung der Welt und die Sintflut, der Auszug aus Ägypten und die Wüstenwanderung – all dies seien einmalige Ereignisse, welche sich nie wiederholen würden. Sie alle hätten einen Zweck – die Erlösung der Menschheit. Jede von ihnen sei ein Fortschritt – ein Schritt auf dem Pfad der Geschichte, der Geschichte mit Anfang und Ende, mit Wohin und Woher, mit Hoffnung.3
Die vorliegende Arbeit beabsichtigt nicht, die intuitive Völkerpsychologie zu untersuchen. Vielmehr handelt es sich hier um die Vorstellungen einer begrenzten Gruppe der mittelalterlichen jüdischen Intellektuellen aus dem Spanien des 12. Jhs. Ihre Gedanken waren gleichzeitig von der griechischen Philosophie und dem jüdischen Messianismus geprägt. Eben diese eigenartige Kombination macht die Frage nach ihrer Zeitauffassung so spannend. Als Quelle bei einer solchen Fragestellung scheinen mir die beiden Bücher des Rabbi Abraham Ibn Daud von Interesse zu sein – sein Geschichtsbuch Sefer ha-Qabalah (SQ) und sein philosophisch-theologisches Traktat Al-ʿAqīdah ar-Rafīʿah (AR).
Abraham Ibn Daud, Geschichtsschreiber, Philosoph, Astronom, vermutlich auch Arzt, wurde geboren um 1110 in Cordoba, der Hauptstadt des umayyadischen Kalifates und dem kulturellen Zentrum Andalusiens des 12. Jhs. Er war ein Sohn der Tochter des berühmten Gelehrten Isaak Albaliyah.4 Die Erziehung genoss er im Hause dessen Sohnes, seines Onkels, und dem Schüler von Isaak Alfasi, – Baruch Albaliyah.5 Aus seinen Schriften kann man schließen, dass er ausreichende Kenntnisse sowohl in der Bibel, dem Talmud, der hebräischen Poesie als auch in den Naturwissenschaften und der griechischen Philosophie besaß. Darüber hinaus soll er auch mit der polemischen Literatur der Christen, der Moslems und der Karäer, eventuell auch mit dem Evangelium und dem Koran vertraut gewesen sein. Von seinen Werken sind uns sieben bekannt, zwei davon allerdings nur ihrem Namen nach.6 Das auf Arabisch verfasste theologisch-philosophische Traktat Al-ʿAqīdah ar-Rafīʿah (AR, "Der erhabene Glaube") ist nur in zwei hebräischen Übersetzungen aus dem 14. Jh. – Emunah Ramah (ER)7 von R. Salomon Ben Labi und Emunah Niśʾah (EN)8 von R. Samuel Moṭoṭ erhalten.9 Das traditionshistorische Buch Sefer ha-Qabalah (SQ, "Buch der Tradition")10 wurde auf Hebräisch verfasst und von drei weiteren ebenso auf Hebräisch geschriebenen Werken begleitet: Divrey Malkey Yisraʾel (DMY, "Geschichte der Könige Israels"),11 Midraš Zeḫaryah (MZ, "Auslegung der Prophetie Sacharjas")12 und Zeḫer Divrey Romi (ZDR, "Chronik der römischen Geschichte").13
In vier aufeinander aufbauenden Studien wird den Fragen nachgegangen „Was sind Nicht-Ereignisse?“ und „Welche Verarbeitungshilfen sind effektiv für den Bewältigungsprozess?“. Am Beispiel der ungewollten Kinderlosigkeit wird aus gesundheitspsychologischer Sicht nach zwei Aspekten von psychosozialem Wohlbefinden gefragt: „globaler Lebenszufriedenheit“ und „negativen Emotionen“ (z.B. Scham und Schmerz).
Es werden Bewältigungsstrategien und Bewältigungsstile unterschieden. Die Bewältigungsstile „religiöses Coping“ sowie „hartnäckige Zielverfolgung“ und „flexible Zielanpassung“ werden als andauernde Einflussfaktoren im Bewältigungsprozess betrachtet. Die entwickelten Bewältigungsstrategien „planendes Problemlösen“, „Unterstützung durch Freunde“, „regenerative Strategien“ und „kognitive Umdeutung zur Akzeptanz“ sind erlernbare Vorgehensweisen.
In der Pilotstudie 1 wurden 22 Menschen interviewt, die sich im Nicht-Ereignis-Prozess befinden. In Studie 2 wurden qualitativ und quantitativ 76 Männer und Frauen mit ungewollter Kinderlosigkeit befragt. Studie 3 erhob online mit 216 Teilnehmern die Häufigkeit und eingeschätzte Effektivität von Verarbeitungshilfen. Studie 4 erfasste zu zwei Messzeitpunkten (n = 732, n = 409) vier Bewältigungsstrategien, vier Bewältigungsstile, „globale Lebenszufriedenheit“, „negative Emotionen“ und kinderwunschspezifische Antworten von Menschen mit Kinderwunsch.
Für eine gewünschte Schwangerschaft kann geschlussfolgert werden, dass ein bedeutsamer Prädiktor für die Eintrittswahrscheinlichkeit im frühen Prozess fertility awareness ist. Das Alter der Frau dagegen leistet keinen Beitrag zur Vorhersage. Die Prädiktoren „negatives religiöses Coping“ und „planendes Problemlösen“ im fortgeschrittenen Nicht-Ereignis-Prozess stellen Risikofaktoren für das psychosoziale Wohlbefinden dar. Die Schutzfaktoren „Unterstützung durch Freunde“, „kognitive Umdeutung zur Akzeptanz“ und „flexible Zielanpassung“ sind signifikante Prädiktoren für psychosoziales Wohlbefinden. Interaktionseffekte von „Flexibler Zielanpassung“ und „Hartnäckiger Zielverfolgung“ konnten nicht identifiziert werden.
Im Rahmen dieser Arbeit wurde die Rolle des Proteins S100B in humanen Neuroblastomzellen und primären hippokampalen Neurone der Ratte beim apoptotischen Zelltod untersucht. Hierfür wurden verschiedene zelltodinduzierende Agentien und Stresskonditionen verwendet. Für den exzitotoxischen, glutamatabhängigen Zelltod wurde eine NMDA-induzierte Zellschädigung sowie eine Hypoxieinduktion in einer Hypoxiekammer benutzt. Hier konnte für beide Apoptosemodelle und in beiden Zellarten eine signifikante Neuroprotektion in Anwesenheit von S100B gezeigt werden. Besonders in Hinblick auf bereits gezeigte aktive Sezernierung von S100B nach metabolomischem Stress in Astrozyten sollten die weiteren Signalwege und Effekte dieses Proteins erforscht werden. Im Zuge der Untersuchung eines möglichen Wirkungsmechanismus von S100B zeigte sich zunächst eine signifikante Aktivierung des Zellrezeptors RAGE. Weiterhin zeigte sich in primären hippokampalen Neuronen eine Aktivierung des RAF/MEK/MAPKERK-Signalwegs zumindest partiell verantwortlich für die Vermittlung der neuoprotektiven Wirkung von S100B bei NMDA-induzierter Apoptose. Durch Experimente unserer Arbeitsgruppe wurde bereits zuvor eine S100B abhängige Aktivierung von NFκB beobachtet. In dieser Arbeit konnte mit VEGF ein evtl. NFκB-abhängig aktiviertes Zielgen für die neuroprotektive Wirkung von S100B bei hypoxieinduzierter Apotpose gefunden werden. Demnach erklärt sich ein möglicher neuroprotektiver Wirkmechanismus von S100B beim exzitotoxischen Zelltod durch Aktivierung des Rezeptors RAGE an der Zelloberfläche, mit anschließender Aktivierung des MEK-Erk Signalwegs. Dieses kann seinerseits zu einer Aktivierung von NFκB in der Zelle mit Hochregulierung des VEGF-Gens führen.
Ein weiteres untersuchtes Apoptosemodell für die Rolle von S100B war die direkte DNA-Schädigung durch UV-Bestrahlung und Etoposid sowie die Schädigung durch den Proteasom-Inhibitor und p53 Aktivator Epoxomicin in humanen SHSY5Y Neuroblastoma-Zellen und primären hippokampalen Neuronen der Ratte. Auch hier zeigte sich in allen drei Modellen eine signifikante Neuroprotektion in Anwesenheit von S100B.
Da es einige Hinweise (unter anderem noch nicht publizierte Daten unserer eigenen Arbeitsgruppe) für eine Aufnahme von S100B in die Zelle gibt, wurde eine evtl. Wechselwirkung von S100B mit dem, nach DNA-Schädigung hochreguliertem, apoptoseinduzierenden Protein p53 untersucht. Hier zeigte sich, dass S100B sowohl nach DNA-Schädigung durch UV-Bestrahlung, als auch nach Etoposid-Behandlung die Hochregulierung von p53 auf Proteinebene signifikant reduziert und eine Translokation zum Zellkern verhindert. In Zusammenschau dieser Daten und den aktuellen Literaturdaten über direkte Wechselwirkungen von S100B und p53 kann man davon ausgehen, dass S100B seine Wirkung nicht nur über den Zelloberflächenrezeptor RAGE ausübt, sondern nach einem noch nicht vollständig erforschten Aufnahmemechanismus in die Zelle durch direkte Proteininteraktionen, z. B. wie hier mit dem Protein p53, in den Zellprozess insbesondere im Apoptoseprozess eingreift. Abgesehen von der in dieser Arbeit beschriebenen Herunterregulierung des p53-Proteinlevels in Anwesenheit von S100B, welche die Folge einer proteasomalen Degradation nach Formationsänderung sein kann, sollten die weiteren p53-abhängigen Apoptoseinduktionswege wie eine Veränderung von dessen Transkriptionsaktiviät, Hemmung proapoptotischer Proteine und ein evtl. Einfluss auf die Translokation von sog. Todesrezeptoren an die Zellmembran in Anwesenheit von S100B als evtl. Ursachen des neuroprotektiven Effekts von S100B weiter erforscht werden.
Im Rahmen dieser Arbeit bereits durchgeführte Untersuchungen auf Veränderungen der Expressionsrate von möglichen p53-Zielgenen haben noch keine endgültigen Ergebnisse geliefert. Zum einen ist evtl. die Auswahl der ausgewählten Zielgene nicht ausreichend gewesen und zum anderen besteht eine evtl. Limitation der semiquantitativen RT-PCR Methode gegenüber neueren Methoden wie die quantitative Real-Time-PCR in der Detektion auch kleinerer Expressionsunterschiede (siehe oben). Der Mechanismus der Neuroprotektion kann in diesem Modell abschließend noch nicht vollständig geklärt werden. Weiterführende Untersuchungen sollten den genauen Aufnahmemechanismus von S100B in die Zelle untersuchen, und die neuroprotektiven Schritte nach einer Blockierung/Herunterregulierung von p53 weiter klären.
On development, feasibility, and limits of highly efficient CPU and GPU programs in several fields
(2013)
With processor clock speeds having stagnated, parallel computing architectures have achieved a breakthrough in recent years. Emerging many-core processors like graphics cards run hundreds of threads in parallel and vector instructions are experiencing a revival. Parallel processors with many independent but simple arithmetical logical units fail executing serial tasks efficiently. However, their sheer parallel processing power makes them predestined for parallel applications while the simple construction of their cores makes them unbeatably power efficient. Unfortunately, old programs cannot profit by simple recompilation. Adaptation often requires rethinking and modifying algorithms to make use of parallel execution. Many applications have some serial subroutines which are very hard to parallelize, hence contemporary compute clusters are often homogeneous, offering fast processors for serial tasks and parallel processors for parallel tasks. In order not to waste the available compute power, highly efficient programs are mandatory.
This thesis is about the development of fast algorithms and their implementations on modern CPUs and GPUs, about the maximum achievable efficiency with respect to peak performance and to power consumption respectively, and about feasibility and limits of programs for CPUs, GPUs, and heterogeneous systems. Three totally different applications from distinct fields, which were developed in the extent of this thesis, are presented.
The ALICE experiment at the LHC particle collider at CERN studies heavy-ion collisions at high rates of several hundred Hz, while every collision produces thousands of particles, whose trajectories must be reconstructed. For this purpose, ALICE track reconstruction and ALICE track merging have been adapted for GPUs and deployed on 64 GPU-enabled compute-nodes at CERN.
After a testing phase, the tracker ran in nonstop operation during 2012 providing full real-time track reconstruction. The tracker employs a multithreaded pipeline as well as asynchronous data transfer to ensure continuous GPU utilization and outperforms the fastest available CPUs by about a factor three.
The Linpack benchmark is the standard tool for ranking compute clusters. It solves a dense system of linear equations using primarily matrix multiplication facilitated by a routine called DGEMM. A heterogeneous GPU-enabled version of DGEMM and Linpack has been developed, which can utilize the CAL, CUDA, and OpenCL APIs as backend. Employing this implementation, the LOEWE-CSC cluster ranked place 22 in the November 2010 Top500 list of the fastest supercomputers, and the Sanam cluster achieved the second place in the November 2012 Green500 list of the most power efficient supercomputers. An elaborate lookahead algorithm, a pipeline, and asynchronous data transfer hide the serial CPU-bound tasks of Linpack behind DGEMM execution on the GPU reaching the highest efficiency on GPU-accelerated clusters.
Failure erasure codes enable failure tolerant storage of data and real-time failover, ensuring that in case of a hardware defect servers and even complete data centers remain operational. It is an absolute necessity for present-day computer infrastructure. The mathematical theory behind the codes involves matrix-computations in finite fields, which are not natively supported by modern processors and hence computationally very expensive. This thesis presents a novel scheme for fast encoding matrix generation and demonstrates a fast implementation for the encoding itself, which uses exclusively either integer or logical vector instructions. Depending on the scenario, it is always hitting different hard limits of the hardware: either the maximum attainable memory bandwidth, or the peak instruction throughput, or the PCI Express bandwidth limit when GPUs or FPGAs are used.
The thesis demonstrates that in most cases with respect to the available peak performance, GPU implementations can be as efficient as their CPU counterparts.
With respect to costs or power consumption, they are much more efficient. For this purpose, complex tasks must be split in serial as well as parallel parts and the execution must be pipelined such that the CPU bound tasks are hidden behind GPU execution. Few cases are identified where this is not possible due to PCI Express limitations or not reasonable because practical GPU languages are missing.
This dissertation provides an analysis of Finnish prosody, with a focus on the sentence or phrase level. The thesis analyses Finnish as a phrase language. Thus, it accounts for prosodic variation through prosodic phrasing and explains intonational differences in terms of phrase tones.
Finnish intonation has traditionally been described in terms of accents associated with stressed syllables, i.e. similarly as prototypical intonation languages like English or German. However, accents are usually described as uniform instead of forming an inventory of contrasting accent types. The present thesis confirms the uniformity of Finnish tonal contours and explains it as based on realisations of tones associated with prosodic phrases instead of accents. Two levels of phrasing are discussed: Prosodic phrases (p-phrases) and intonational phrases (i-phrases). Most prominently, the p-phrase is marked by a high tone associated with its beginning and a low tone associated with its end; realisations of these tones form the rise-fall contours traditionally analysed as accents. The i-phrase is associated with a final tone that is either low or high and additionally marked by voice quality and final lengthening. While the tonal specifications of these phrases are thus predominantly invariant, variation arises from different distributions of phrases.
This analysis is based on three studies, two production experiments and one perception study. The first production study investigated systematic variation in information structure, first syllable vowel quantity and the target word's position in the sentence, while the second production experiment induced variation in information structure, first and second syllable type and number of syllables. In addition to fundamental frequency, the materials were analysed regarding duration, the occurrence of pauses and voice quality. The perception study investigated the interpretation of compound/noun phrase minimal pairs with manipulated fundamental frequency contours using a two-alternative forced-choice picture selection task. Additionally, a pilot perception study on variation in peak height and timing supported the assumption of uniform tonal contours.
Adaptive Radiation und Zoogeographie anisakider Nematoden verschiedener Klimazonen und Ozeane
(2013)
Anisakide Nematoden sind Parasiten aquatischer Organismen und weltweit in marinen Habitaten verbreitet. Ihre Übertragungswege sind tief im marinen Nahrungsnetz verwurzelt und schließen ein breites Spektrum pelagisch/benthischer Invertebraten (z.B. Cephalopoda, Gastropoda, Crustacea, Polychaeta) und Vertebraten (z.B. Teleostei, Elasmobranchia, Cetacea, Pinnipedia, Aves) als Zwischen- bzw. Endwirte ein. Aufgrund der hohen Befallszahlen u.a. in der Muskulatur und Viszera kommerziell intensiv genutzter Fischarten (z.B. Clupea harengus, Gadus morhua, Salmo salar) sowie ihrer Rolle als Auslöser der menschlichen Anisakiasis nehmen die Vertreter der Gattung Anisakis unter den anisakiden Nematoden eine Sonderstellung ein. Anhand der verbesserten Diagnostik und der Etablierung sowie Weiterentwicklung molekularbiologischer Methoden ist es in den letzten zwei Dekaden gelungen, die bestehende Taxonomie und Systematik der Gattung Anisakis zu erweitern bzw. zu revidieren. Aktuelle molekulare Analysen weisen auf die Existenz von insgesamt neun distinkten Arten hin, welche eine hohe genetische Heterogenität und Wirtsspezifität aufweisen, äußerlich jedoch nahezu identisch sind (sog. kryptische Arten). Trotz kontinuierlicher Forschung auf dem Gebiet ist das Wissen über die Biologie von Anisakis immer noch unzureichend.
Die vorliegende Dissertation ist in kumulativer Form verfasst und umfasst drei (ISI-) Einzelpublikationen. Die Zielsetzung der durchgeführten Studien bestand unter anderem darin, unter Verwendung molekularbiologischer und computergestützter Analyseverfahren, Fragestellungen zur Zoogeographie, (Co-)Phylogenie, Artdiagnostik, Lebenszyklus-Ökologie sowie des bioindikatorischen Potentials dieser Gattung zu bearbeiten und bestehende Wissenslücken zu schließen.
Die Verbreitung von Anisakis, welche bisher ausschließlich anhand von biogeographischen Einzelnachweisen abgeschätzt wurde, konnte durch den angewandten Modellierungsansatz erstmalig interpoliert und in Kartenform vergleichend dargestellt werden. Dabei wurde gezeigt, dass die Verbreitung von Anisakis spp. in den Ozeanen und Klimazonen nicht gleichmäßig ist. Die Analysen deuten auf die Existenz spezies-spezifischer horizontaler und vertikaler Verbreitungsmuster hin, welche neben abiotischen Faktoren durch die Verbreitung und Abundanz der jeweiligen Zwischen- und Endwirte sowie deren Tiefenverteilung und Nahrungspräferenzen geprägt sind.
Durch die umfangreiche Zusammenstellung und anschließende Kategorisierung der (mit molekularen Methoden) geführten Zwischenwirtsnachweise konnten indirekte Rückschlüsse über die vertikale Verbreitung von Anisakis spp. entlang der Tiefenhabitate gezogen werden.
Während Anisakis auf Gattungsebene in der gesamten Wassersäule entlang verschiedener Tiefenhabitate abundant ist, wurde für die stenoxene Art Anisakis paggiae ein meso-/bathypelagisch orientierter Lebenszyklus postuliert. Durch den Einbezug eines breiten Spektrums (paratenischer) Zwischen- und Transportwirte aus unterschiedlichen trophischen Ebenen werden Transmissionslücken im Lebenszyklus der Gattung weitestgehend minimiert und der Transmissionserfolg auf den Endwirt, und damit die Wahrscheinlichkeit einer erfolgreichen Reproduktion, erhöht. Ausgeprägte Wirtspräferenzen sowie phylogenetische Analysen des ribosomalen ITS-Markers stützen eine Theorie zur co-evolutiven Anpassung der Parasiten an ihre Endwirte. Anisakis eignet sich daher unter Einschränkungen als Bioindikator für die vertikale und horizontale Verbreitung und Abundanz der Endwirte und lässt Rückschlüsse auf trophische Interaktionen im Nahrungsnetz zu. Durch die weitere Beprobung von Zwischenwirten aus verschiedenen trophischen Ebenen in zukünftigen Studien, kann eine genauere Bewertung potentiell abweichender Lebenszyklus-Strategien gewährleistet werden. Insbesondere ist die Datenlage zur Prävalenz und Abundanz anisakider Nematoden in Cephalopoda und Crustacea noch unzureichend. Die Probennahme sollte dabei unter besonderer Berücksichtigung bislang wenig oder unbeprobter geographischer Regionen, Tiefenhabitate und Wirtsarten durchgeführt werden.