Refine
Year of publication
- 2007 (16) (remove)
Document Type
- Diploma Thesis (16) (remove)
Language
- German (16) (remove)
Has Fulltext
- yes (16)
Is part of the Bibliography
- no (16)
Institute
- Biowissenschaften (7)
- Informatik (7)
- Physik (1)
- Wirtschaftswissenschaften (1)
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Rhinocerotidae in Europa und Südost-Asien , hier speziell der Insel Java. Methodisch wird dieses Ziel durch lineare Regressionen nach Janis (1990) verfolgt. Zunächst wird ein Rezentmodell erstellt, das es ermöglicht Körpermasse mit verschiedenen Zahnparametern in Zusammenhang zu bringen. Die aus dem Rezentmodell resultierenden Regressionsgleichungen für jeden Zahn werden dann für die Rekonstruktion fossiler Körpermassen verwendet. Das fossile Zahnmaterial wurde vermessen und die Körpermassen für alle Zahnparameter errechnet. Um einen Vergleich mit veröffentlichten Werten zu ermöglichen, wurde die Körpermasse gleichfalls nach Legendre (1986) ermittelt, welcher eine Formel zur Körpermassenrekonstruktion entwickelte, die heute allgemein Verwendung findet. Um die oftmals sehr großen Schwankungen in der Körpermasse, verursacht durch Ernährungs- und Gesundheitszustand eines Tieres abzufedern, sind die absoluten Werte in Körpermassenklassen eingeteilt. Die ermittelten Körpermassen wurden dann in verschiedenen Zusammenhängen betrachtet und, soweit möglich , Aussagen über Gründe für Veranderungen oder Unterschiede zwischen Messstrecken, Zeiträumen, Habitaten oder auch Spezies genannt.
Das Bumpmapping-Verfahren, eine Methode zur realistischen Darstellung rauer Oberflächen, existiert schon seit 30 Jahren, aber erst durch aktuelle Entwicklungen der Hardware lässt es sich in Echtzeitumgebungen einsetzen. Die aktuellen Verfahren ermöglichen viele darüber hinausgehende Effekte, jedoch haben sie auch mit Problemen zu kämpfen. Das Ziel dieser Diplomarbeit ist die Weiterentwicklung der Verfahren zu betrachten. In dieser Arbeit werden die Grenzen der aktuellen Bumpmapping-Algorithmen aufgezeigt und nach neuen Wegen geforscht. Das erste Verfahren erzeugt durch ein Multipassrendern fraktale Landschaften im Shader. Die darin verwendeten Methoden lassen sich für einen weiteren Algorithmus nutzen, mit dem feine Unebenheiten der Oberfläche an jedem Pixel ausgewertet werden. So können anisotrope Materialien wie gebürstete Metalle oder Mikropartikellacke simuliert werden. Den Abschluss bilden zwei neue Verfahren für prozedurale Shader. Die zu imitierende Oberfläche wird im Modell nachgebildet und per Raytracing für jeden Oberflächenpixel ausgewertet. Durch diese Methode werden viele Probleme texturbasierter Verfahren komplett umgangen.
Die vorliegende Studie dient als Basis einer neuen, zuverlässigen Populationsschätzung von Wildschweinen (Sus scrofa). Nach dem hier entwickelten Feldprotokoll soll Wildschweinkot in ausreichenden Mengen, ausreichend guter Qualität und nicht-invasiv gewonnen werden. Die daraus gewonnen Gewebeproben dienen anschließend als DNS-Quelle für individuelle Erkennung und Markierung der beprobten Tiere. Durch Kenntnis des zum Kot gehörigen Tieres lässt sich ein Fang-Wiederfang-Verfahren simulieren. Ein Sammelverfahren, gegliedert in zwei identische Blöcke zu je sechs Tagen, kombiniert aus Strip-Transekt-Sampling (Buckland 2001) und Adaptive-Sampling (Thompson 1991) führte hierbei zum besten Resultat von 0,48 Funden je abgesuchten Kilometer und 1,04 Funden je aufgewendeter Stunde. Die Untersuchung fand auf einem bewaldeten etwa 40 km2 großen Areal im Pfälzerwald, südlich von Kaiserslautern - südliches Rheinland-Pfalz – statt. Im Rahmen der Untersuchung wurden 1605 km abgesucht und vier verschiedene Transektmodelle getestet. Insgesamt wurden hierbei 268 Kothaufen erfasst, die zusätzlich auf ihre physischen Eigenschaften (Kotgröße, Härtegrad, Konsistenz, Insektenbefall), Lage im Gelände (Verteilung auf Laub-, Nadel- und Mischwälder, sowie auf Geländeneigung, Exposition und Höhenlage) und räumliche Verteilung im Untersuchungsgebiet analysiert wurden. Die Untersuchungen fanden zu verschieden Jahreszeiten (Sommer, Herbst und Winter) statt. Als geeigneter Zeitraum für eine solche Kotsammlung hat sich der Winter herausgestellt, aufgrund der längeren Zersetzungszeit des Kots und der durch den Laubfall bedingten, besseren Sichtverhältnisse. Bei ausreichender Stichprobenzahl des Kots hat es sich zu dem ergeben, dass Rückschlüsse auf die Habitatnutzung des Schwarzwilds anhand der Kotverteilung machbar sind. Eine Interpretation der Populationsstruktur anhand der Kotgröße ist in Ansätzen erkennbar. Ein Vergleich mit den gängigen Bestandesschätzverfahren durch Jagdstrecken und Kotzählungen bestätigt die Tauglichkeit des Feldprotokolls zur Beschaffung von Wildschweinkotmengen, die der Population entsprechen. In zwei von vier Versuchsansätzen konnten entsprechende Kotmengen erfasst werden.
Die Gotik ist eine Kunstepoche des Mittelalters, die eine große Anzahl beeindruckender Bauten hervorgebracht hat. Hierbei sind besonders die monumentalen Sakralbauten dieser Zeit mit ihren eindrucksvollen Fenstern hervorzuheben. Rosetten gehören zu den größten Fenstern in gotischen Kathedralen. Sie sind kreisförmige Fenster, die vor allem durch ihre komplexe Aufbauweise auffallen. Das Grundbauelement der Rosetten ist das sog. Maßwerk - ein Steinwerk das als dekoratives Muster für Fenster und Wände in gotischen Bauten eingesetzt wird. Charakteristisch für diese Muster sind sich wiederholende, verschieden große geometrische Formen, was an die Eigenschaft der Selbstähnlichkeit bei Fraktalen erinnert.
Die manuelle Modellierung gotischer Fenster ist auf Grund deren komplexen Aufbaus sehr aufwendig. Eine prozedurale Generierung hingegen automatisiert den Modellierungsprozess weitgehend und verringert damit den Zeit- und Modellierungsaufwand per Hand.
In der vorliegenden Arbeit wurde eine prozedurale Methode beschrieben, die die aufwendige manuelle Modellierung der Rosetten bzw. des Maßwerks zum größten Teil ersetzt. Diese Methode basiert auf der Analyse der fraktalen Struktur des Maßwerks und nutzt dabei dessen Selbstähnlichkeit aus, um Rosetten automatisch zu generieren. Mit der in dieser Arbeit entwickelten Implementierung ist es mögliche, eine große Vielfalt gotischer Rosetten zu beschreiben und mit Hilfe der 3D-Grafik-Engine OGRE graphisch darzustellen.
Struktur-Funktionsbeziehungen des Verpackungschaperons Gsf2 in der Hefe Saccharomyces cerevisiae
(2007)
Im Rahmen der vorliegenden Arbeit wurde die Funktion des in der Membran des Endoplasmatischen Retikulum lokalisierten Proteins Gsf2 der Hefe Saccharomyces cerevisiae näher charakterisiert. Gsf2 ist ein 46 kDa großes ER-Transmembranprotein mit zwei membrandurchspannenden Domänen, wobei C- und N-Terminus cytosolisch orientiert sind. Zudem besitzt Gsf2 C-terminal ein klassisches Dilysin-Motiv. Eine Deletion des GSF2-Gens resultiert in einer Retention der Hexosetransporter Hxt1, Hxt3 und Gal2 im ER, so dass es sich bei Gsf2 möglicherweise um ein Hexosetransporterspezifisches Verpackungschaperon handelt.
Um Sequenzbereiche zu determinieren, die für die Funktion des Verpackungschaperons bezüglich der Reifung und des ER-Transportes von Hxt1 notwendig sind, wurden verkürzte Versionen des Gsf2-Proteins hergestellt. Die funktionelle Analyse zahlreicher verkürzter Versionen ergab die Lokalisation eines essentiellen Sequenzbereiches in den hinteren 40 Aminosäuren der carboxyterminalen Domäne des Gsf2-Proteins.
Vorläufige genetische und biochemische Untersuchungen hatten ergeben, dass Gsf2 mit Komponenten der Ribosomen, des Sec61-Translokationsapparates und mit Proteinen der COPII-Vesikel interagiert.
Mit Hilfe des Split-Ubiquitin Systems konnte in der vorliegenden Arbeit eine direkte Interaktion zwischen Gsf2 und dem Sec61-Translokations-Komplex und den Komponenten des sekretorischen Weges Sec12 und Sar1 bestimmt werden. Sec12 ist ein Sar1-spezifischer Guanin-Nucleotid-Austausch-Faktor, der für die Aktivierung von Sar1 benötigt wird. Sar1 ist ein kleines G-Protein, welches für die Initiation der COPII-Vesikelbildung benötigt wird. Sar1 ist aber auch für die Erkennung di-basische ER-Exportsignale spezifischer Cargo-Proteine zuständig. Diese Interaktion weist daraufhin, dass Gsf2 über solch ein Motiv verfügt und somit die Verpackung von Hxt1 in COPII-Vesikel gewährleisten könnte.
Postuliert wird ein Modell, wonach Gsf2 bereits eine wichtige Funktion bei der Translokation des Hexosetransporter Hxt1 in die ER-Membran übernimmt. Dabei interagiert Gsf2 mit dem Sec61-Translokon, um den Reifungsprozess der naszierenden Polypeptidkette des Metabolittransporters zu ermöglichen. Anschließend rekrutiert Gsf2 das gefaltete Proteine an Exit-Sites des Endoplasmatischen Retikulums. Es interagiert dort mit Sec12 und Sar1, so dass Gsf2 zusammen mit dem Hexosetransporter in die COPII-Vesikel verpackt und zum Golgi-Apparat transportiert wird. Aufgrund des ERRetentionssignals wird Gsf2 über COPI-Vesikel recycelt.
Dieses Modell impliziert, dass Hxt1 über kein ER-Exportsignal verfügt und daher Gsf2 als guide eine ausschlaggebende Funktion bei dessen Translokation übernimmt.
Die Hefe Saccharomyces cerevisiae hat sich wie kaum ein anderer Organismus auf die Verwertung von Glukose spezialisiert. Die Aufnahme dieser Hexose stellt dabei den ersten Schritt der Metabolisierung dar. Saccharomyces cerevisiae besitzt hierfür eine große Zahl an Hexosetransportern und eignet sich daher gut zur Untersuchung der Wirkungsweise und Regulation dieser Transporter, sowie deren Translokation zur Plasmamembran.
Ziel der vorliegenden Arbeit war es, die Funktion des in der Membran des Endoplasmatischen Retikulums lokalisierten Proteins Gsf2 der Hefe Saccharomyces cerevisiae näher zu charakterisieren. Gsf2 ist an der Translokation der Hexosetransporter Hxt1, Hxt3 und Gal2 zur Plasmamembran beteiligt. Die Deletion von GSF2 führt zur Akkumulation dieser Transporter in der Membran des Endoplasmatischen Retikulums. Interaktionen von Gsf2 mit ribosomalen Proteinen, Komponenten der Translokationsmaschinerie und COPII-Hüllproteinen deuten auf eine multifunktionelle Hexosetransporterspezifische Funktion des Verpackungschaperons Gsf2 hin.
Mit Hilfe des „Synthetic Genetic Arrays“ wurde nach synthetisch letalen und synthetisch kranken Interaktionspartnern von GSF2 gesucht, die zur Aufklärung der Funktion von GSF2 beitragen beziehungsweise bisherige Forschungsergebnisse verifizieren sollten. Unter den nicht-essentiellen Genen der Hefe konnte allerdings kein synthetisch letaler oder synthetisch kranker Interaktionspartner von GSF2 ermittelt werden.
Im zweiten Projekt sollten Multicopy-Suppressoren aus einer Genbank identifiziert werden, die in der Lage sind die Deletion von GSF2 und damit verbundene Retention von Hxt1 in der Membran des Endoplasmatischen Retikulums zu komplementieren. Mit Hilfe dieses Screenings konnten einzig GSF2-kodierende Plasmide identifiziert werden.
Die Ergebnisse der beiden genetischen Screening-Verfahren belegen, dass Gsf2 eine herausragende Rolle innerhalb des Translokationsprozesses von Hxt1 einnimmt.
Daphnien sind ein wichtiger Bestandteil des Süßwasserzooplanktons und in einer Vielzahl von biologischen Disziplinen als Modellorganismus etabliert. Ihr zyklisch parthenogenetischer Lebenszyklus und die hohen Raten von interspezischer Hybridisierung mancher Artkomplexe machen sie zu einem interessanten Forschungsobjekt. Die vorliegende Arbeit bietet Einblicke in die Populationsstruktur einer dieser Komplexe, des D. longispina-Artkomplexes, und testete ein neu entwickeltes Markersystem bei diesen Tieren auf gesamteuropäischer Ebene (33 Sammelorte, 1155 Individuen). Es wurden dazu molekulare Analysetechniken mit zwölf polymorphen Mikrosatelliten-Markern mit etablierten ITS-RFLP-Analysen verglichen.
Durch statistische Auswertemethoden mit den Programmen NewHybrids und Structure konnten Elternarten gut zugeordnet werden. Die Betrachtung der Kullback-Leibler Divergenzen in den Analysen durch NewHybrids deuten sogar darauf hin, dass die Anzahl der Mikrosatellitenmarker auf wenige besoders informative Loci reduziert werden kann, was bei Fragestellungen zur Art- und Hybrididentifizierung Zeit und Kosten spart. Ein Protokoll zur Vorgehensweise bei der Art- und Hybrididentifizierung wurde entwickelt.
Die Arten und Populationen selbst waren hoch differenziert. Zwischen den drei untersuchten Arten wurde ein FST von 0,29 gefunden. Ergebnisse aus einer AMOVA zeigten sogar, dass die Differenzierung zwischen den Populationen innerhalb der Arten leicht über dieser interspezifischen Differenzierung liegt (D galeata 0,40; D. longispina 0,52 und D. cucullata 0,42). Da auch keine isolation by distance gefunden wurde, lassen die Ergebnisse meiner Analysen auf „Provinzialismus“ schließen – ein Konzept, das genau dieses Muster voraussagt. Erklärt wird dieser Provinzialismus durch die Monopolisierungshypothese. Die Beobachtung, dass in der Regel in den untersuchten Populationen ein Heterozygotendefizit vorliegt, obwohl klonale Vermehrung oft zu einem Heterozygotenüberschuss führt (Meselson-Effekt), zeigt häufig vorkommende sexuelle Vermehrung an. Das Heterozygotendefizit deutet ebenfalls auf einen Wahlund-Effekt hin.
Es wurde weiterhin getestet, ob das Vorkommen von introgressiver, interspezifischer Hybridisierung in bestimmten Lokalitäten im Vergleich mit Lokalitäten, in denen ein Taxon allopatrisch lebt, einen Einfluss auf die Populationsstruktur hat. Die klonale Diversität sowie die beobachtete Heterozygotie standen dabei im Mittelpunkt der Analysen. Es wurde kein statistisch signifikanter Einfluss der Hybridisierung auf die Diversität gefunden.
Manipulierte Bilder werden zu einem immer gröÿeren Problem in der aktuellen Berichterstattung und sie verursachen in vielen Fällen Empörung unter den Lesern.
In dieser Diplomarbeit werden verschiedene Ansätze aus der aktuellen Forschung aufgezeigt, die zur Erkennung von manipulierten digitalen Bildern benutzt werden können. Hierbei liegt der Schwerpunkt besonders auf verschiedenen statistischen Ansätzen von Farid, Johnson und Popescu. Ein Abriss über die wichtigsten inhaltsbasierten Algorithmen wird ebenfalls gegeben.
Weiterhin wird für die Algorithmen, die im Hinblick auf technische Realisierbarkeit, Laufzeit und ein breites Spektrum von möglichen Szenarien vielversprechend wirken, eine Automatisierung entwickelt, die die Analyse ohne weitere Benutzereingaben durchführt. Das Augenmerk liegt hier besonders darauf, dass die zu analysierenden Bilder möglichst wenige Vorraussetzungen erfüllen müssen, damit es eine Möglichkeit der korrekten Erkennung gibt.
Diese Automatisierungen werden implementiert, wenn möglich verbessert und auf einer Menge von Bildern getestet. Enthalten sind sowohl zufallsgenerierte Bilder, als auch aus geometrischen Formen synthetisierte und natürliche Bilder. Die Erkennung der auf die Bilder angewandten Fälschungstechniken beschäftigt sich vor allem mit Duplikationen, Einfügen und Interpolation von Bereichen.
Der Test dieser Implementierung konzentriert sich auf die absolute Effektivität und Effiienz gegen die gegebene Testmenge, betrachtet jedoch auch die spezifischen Vor- und Nachteile der ursprünglichen Algorithmen und der entwickelten Verbesserung. Ihre Ergebnisse, die sie auf den Testbildern erbringen, legen die Grundlage für eine Beurteilung der Algorithmen bezüglich Laufzeit und Effiienz.
Aufbauend auf diesen Analysen wird eine Bewertung der Algotihmen vorgenommen, die auch einen Ausblick auf mögliche Szenarien in der digitalen Bildbearbeitung und der Erkennung von Fälschungen für die nächsten Jahre geben soll.