Refine
Year of publication
- 2006 (2010) (remove)
Document Type
- Article (784)
- Doctoral Thesis (295)
- Part of Periodical (192)
- Part of a Book (158)
- Working Paper (123)
- Review (109)
- Book (108)
- Conference Proceeding (72)
- Report (54)
- Preprint (49)
Language
- German (1363)
- English (585)
- Portuguese (22)
- French (17)
- Multiple languages (10)
- Spanish (5)
- Polish (3)
- Yiddish (3)
- Italian (1)
- mis (1)
Keywords
- Literatur (35)
- Deutsch (32)
- Frankfurt <Main> / Universität (29)
- Rezension (27)
- Thema-Rhema-Gliederung (22)
- Deutschland (21)
- Formale Semantik (20)
- Englisch (18)
- Rezeption (17)
- Syntax (15)
Institute
- Medizin (190)
- Extern (96)
- Biochemie und Chemie (70)
- Physik (69)
- Biowissenschaften (56)
- Rechtswissenschaft (50)
- Präsidium (46)
- Center for Financial Studies (CFS) (44)
- Geschichtswissenschaften (39)
- Gesellschaftswissenschaften (38)
Mit der Neuregelung der Studienplatzverteilung von 2005 haben die Universitäten in Deutschland die Möglichkeit, bis zu 60% der Studienplätze nach universitätseigenen Kriterien zu vergeben. Implizit wird vom Gesetzgeber und der öffentlichen Meinung gefordert, nicht-leistungsbezogene Kriterien und Persönlichkeitsmerkmale verstärkt zur Bewerberauswahl einzusetzen (Motivation, Identifikation, Vermeidung von Fehlvorstellungen). Da in Anbetracht der Bewerberzahlen mündliche Auswahlgespräche als ungeeignet erscheinen, wurde vom Fachbereich Medizin der Johann Wolfgang Goethe Universität ein Fragebogen entworfen, um nichtschulische Leistungen zu erfassen. Dieser Fragebogen wurde am Beginn des Wintersemesters 2005/2006 von allen Studienanfängern der JWG-Universität Frankfurt und der Medizinischen Universität Innsbruck ausgefüllt. Entgegen der initialen Erwartungen der Verfasser gaben nur etwa 15% Prozent Medizin-spezifische berufliche Vorerfahrungen an (Rettungsdienst, Ausbildung als Krankenschwester/pfleger oder ähnliches); dagegen wurden von etwa 60% angegeben, mindestens ein Musikinstrument zu spielen oder länger sportlich aktiv gewesen zu sein. Die Zusammenstellung der Selbstangaben zeigt, dass Medizin-relevante Vorkenntnisse nur bei einem kleinen Anteil der Studienbewerber in größerem Umfang vorhanden sind. Aufgrund der großen Streuung in der Art und Dauer der angegebenen Vorleistungen sollte die Erhebung von Parametern zur Beurteilung von soft skills, z.B. durch Online-Fragebogen, als (Vor)Selektionsinstrument nur sehr vorsichtig eingesetzt werden.
Maßgeblich unter dem wachsenden externen Druck hat die didaktische Qualifizierung in den medizinischen Fakultäten an Bedeutung gewonnen. Im Rahmen der Professionalisierung der medizinischen Aus-, Fort- und Weiterbildung ist eine pädagogisch-didaktische Ausbildung der Lehrenden unumgänglich. Um Orientierung und Argumentationshilfe zu geben, werden in einer dreiteiligen Artikelfolge Stellenwert der Medizindidaktik, Anforderungsprofil der Angebote und Konzepte zur Implementierung und zur Erfolgsmessung für den deutschsprachigen Raum beleuchtet. In Teil II beleuchten wir den Ausbildungsbedarf und erstellen ein Anforderungsprofil für ein strukturiertes systematisches Qualifizierungsangebot. Der Hauptbedarf besteht in der Qualifizierung der Lehrenden, die den täglichen Unterricht durchführen. Insbesondere sie brauchen das Handwerkszeug, das ihnen erlaubt, ihre verschiedenen Lehraufgaben effizienter zu bewältigen. Seitens der Fakultät und der Studierenden bestehen Ansprüche an qualifizierte Lehrende; ebenso bestehen Forderungen seitens der Lehrenden an adäquat qualifizierende Kurse. Zur Umsetzung dieser berechtigten Ansprüche sind modular aufgebaute Programme nötig, die eine zumindest national qualitativ und quantitativ vergleichbare Ausbildung gewährleisten. Anforderungen an derartige Kurse sind bereits definiert und lokal zum Beispiel in Baden-Württemberg und zum Teil auch in Nordrhein-Westfalen umgesetzt. Es gilt nun, diese auf breiter Basis in die Praxis umzusetzen.
Alle Leistungsnachweise des klinischen Studienabschnittes nach neuer Ärztlicher Approbationsordnung müssen benotet werden; hierzu sind in der Regel schriftliche Prüfungen notwendig. Bisher erprobte Methoden beinhalten die Prüfung passiven Wissens (Einfachauswahlfragen, multiple choice-Fragen, progress test-Fragen) und aktiven Wissens (short essay questions, long essay questions). Vor- und Nachteile dieser Verfahren werden diskutiert, sowie die zur Erstellung, Durchführung und Auswertung schriftlicher Prüfungen notwendigen Ressourcen.
Im Jahre 1876 führte der bis dahin unbekannte Militärchirurg namens Nikolaj Vladimirovic Eck (1849-1908) in St. Petersburg weltweit erstmals erfolgreich eine Nahtverbindung zwischen zwei Blutgefäßen (V. cava und V. portae) durch. Im Gegensatz zu dieser bedeutenden chirurgischen Pioniertat in einer Zeit, in der zuvor nur einfache Gefäßnähte zur Rekonstruktion bei Arterienverletzungen durchgeführt worden waren, ist in der medizinhistorischen Literatur fast nichts über das Leben und das Werk dieses Chirurgen angegeben. Ziel dieser Arbeit war es daher, das Leben und Werk dieses russischen Chirurgen an Hand der noch vorhandenen russischen Quellen zu erforschen. In der vorliegenden Arbeit sollen deshalb die Werke dieses russ. Chirurgen zusammengestellt, aus der russischen Sprache übersetzt und seine Bedeutung für die Geschichte der Chirurgie aufgezeigt werden. Die von Eck erstmals durchgeführte portocavale Anastomose bei Tieren sollte die Möglichkeit prüfen, ob eine solche Gefäßverbindung möglicherweise bei Patienten mit Leberzirrhose zur Behandlung des Aszites eingesetzt werden könnte. Diese Gefäßverbindung ging seit etwa 1890 als „Eck’sche Fistel“ in die Weltliteratur ein. Bis dahin war in der medizinischen Literatur nur von Übernähungen, Umstechungen und Unterbindungen von Blutgefäßen, aber noch nicht von Gefäßanastomosierungen berichtet worden. 1911 wurde auf dem Berliner Chirurgenkongreß gefordert, bei Patienten mit „Ascites infolge von Lebercirrhose eine Eck´sche Fistel zur Beseitigung desselben anzulegen“. Noch im selben Jahr führte Paul Rosenstein in Berlin erstmals beim Menschen eine Seit-zu-Seit Anastomose bei einem Patienten mit Aszites durch. Nikolaj Vladimirovic Eck wurde am 9. November 1849 in St. Petersburg als Sohn des Arztes Vladimir Jegorovic Eck (1818-1875) geboren, der Professor an der Kaiserlichen Medizinisch-Chirurgischen Akademie für Militärärzte in St. Petersburg war. 1860 erfolgte die Einschulung N. V. Ecks in die dritte Klasse des Gymnasiums zu St. Petersburg, vorher hatte er Privatunterricht genossen. 1865-1871 studierte er an der Militärakademie seiner Heimatstadt. Für seine 1871 noch als Medizinstudent publizierte Arbeit "Über die Polypen des Kehlkopfes" bekam er eine Auszeichnung der Akademie. 1872-1878 war Eck Leiter der chirurgischen Abteilung des Militärkrankenhauses in St. Petersburg. 1877-1878 nahm er als Militärarzt am russisch-türkischen Krieg teil. Nach seiner Rückkehr nach St. Petersburg erfolgten seine Verabschiedung aus dem Militärdienst und eine Tätigkeit in verschiedenen Zivilkrankenhäusern. 1883-1884 war Eck Delegierter der russischen Regierung bei der internationalen Hygienekonferenz in Alexandria. Auch 1885 war er Delegierter der russischen Regierung bei der internationalen Hygienekonferenz in Rom. 1888 erfolgte die Publikation seiner Dissertation über die Sterblichkeit in Russland. Eck starb am 5. April 1908. Eck war einer der führenden Chirurgen Russlands. 1877 publizierte er im „Militärmedizinischen Journal“ einen Fallbericht über die in Russland erste erfolgreiche transabdominelle Entfernung des „supravaginalen Teiles der Gebärmutter“ bei einer Patientin mit einem Uterusmyom. Außerdem wurden von ihm mindestens drei operative Exstirpationen von großen, zystischen Ovarialtumoren per Laparotomie („Ovariotomien“) in Narkose (wahrscheinlich mit Chloroform) durchgeführt. 1882 wurde von Eck angeblich erstmals in Russland eine Pylorusresektion wegen Magenkarzinom erfolgreich durchgeführt (1 Jahr nach der ersten erfolgreichen Operation durch Theodor Billroth in Wien). Bereits 1882 forderte Eck nach der Magenresektion wegen Tumoren im Pylorusbereich auf eine direkte Anastomosierung des Magenrestes mit dem Duodenum zu verzichten, sondern den Duodenalstumpf durch Naht blind zu verschließen und eine Gastrojenunostomie anzulegen. Dieser Gedanke wurde dann 1885 von Billroth in Wien erstmals beim Menschen erfolgreich durchgeführt [Operation nach Billroth II].
Ziele: Evaluation von Zahnverlust bei Molaren und prognostischen Faktoren für das Überleben von Molaren Material und Methodik: 505 Molaren bei 71 Patienten (durchschnittliches Alter: 46 Jahre; 40 weiblich) wurden untersucht. Die folgenden Einschlusskriterien mussten erfüllt werden: Parodontaltherapie an mindestens einem Molaren, mindestens 5 Jahre Unterstützende Parodontitistherapie, Vorliegen der Dokumentation klinischer präoperativer oder intraaoperativer Befunde der Furkationsbeteiligung (FB). Folgende Parameter wurden erfasst: Patientenbezogen: Alter (I), Ausgangsdiagnose (II), Nikotinkonsumverhalten (III), Gesamtzahl der Zähne vor (IV) und nach Therapie (V), regelmäßige Recallteilnahme (VI), durchgeführte Therapien (VII), bei Verlust von Zähnen (soweit nachvollziehbar) der Extraktionsgrund patientenspezifisch (VIII) sowie der durchschnittliche Plaque-Index (IX). Zahnbezogen: Furkationsbeteiligung, Molarentyp, Kiefer und Knochenabbauindex. Ergebnisse: Zum Zeitpunkt der Ausgangsuntersuchungen wiesen 200 der 505 Molaren keine FB, 116 eine Grad-I-, 122 eine Grad-II- und 67 eine Grad-III-FB auf. 27 Molaren erhielten keine Parodontaltherapie; 127 Molaren wurden nichtchirurgisch und 227 Molaren mit Lappenoperationen therapiert. Bei 14 Molaren wurde eine Tunnelierung durchgeführt, eine Wurzelamputation erfolgte an 20 Molaren, regenerativ wurden 57 Zähne behandelt. 33 Molaren wurden extrahiert. Während der durchschnittlichen Nachuntersuchungszeit von 107 Monaten gingen 38 Molaren verloren. Molaren mit Grad-III-FB wiesen die höchste Verlustrate auf. Das Multilevel „proportional hazard“-Modell konnte den Einfluss von Zigarettenkonsum, den Ausgangsknochenverlust, die Anzahl der verbliebenen Molaren und Grad-III-FB als Risikofaktoren für die Retentionszeit von Molaren aufzeigen. Schlussfolgerung: Insgesamt weisen parodontal behandelte Molaren eine gute Prognose auf. Eine Grad-III-FB führt zu einer signifikanten Verschlechterung der Prognose. Neben der Furkationsbeteiligung beeinflussen Zigarettenkonsum, das Ausmaß des Knochenabbaus und die Anzahl der bereits verlorenen Molaren die Überlebensraten von Molaren negativ. Klinische Relevanz: Wissenschaftliche Gründe für diese Studie: Furkationsbeteiligte Molaren sollen weniger günstig auf eine Parodontaltherapie ansprechen und ein größeres Risiko für Zahnverlust im Vergleich zu Molaren ohne Furkationsbeteiligung oder zu einwurzeligen Zähnen aufweisen. Diese Studie hat zum Ziel, unseren eigenen Patientenpool zu evaluieren und prognostische Faktoren für das Überleben von Molaren zu identifizieren. Hauptergebnisse: Eine Grad-III-FB vor Therapie führt zu einer statistisch signifikanten Verschlechterung der Prognose, insbesondere bei Oberkiefermolaren. Neben der Furkationsbeteiligung sind Rauchen, Knochenverlust vor Therapie, der Zahntyp und die Anzahl der verbliebenen Molaren prognostische Faktoren für das Überleben von Molaren. Praktische Folge: Generell resultiert aus einer Parodontaltherapie eine gute Prognose für Molaren.
Ziel dieser Studie war es, ein eigens erstelltes sonographisches Bewertungssystem der Hand- und Fingergelenke bei Patienten mit rheumatoider Arthritis zur Beurteilung des Gelenkstatus anhand eines Probandenkollektivs zu überprüfen und mit der als Standard angesehenen konventionellen Röntgendiagnostik zu vergleichen. Die konventionelle Röntgendiagnostik galt bisher als der sogenannte Referenzstandard im Nachweis und bei der Quantifizierung des destruierenden Gelenkprozesses. Die Diagnosesicherung anhand der ACR-Kriterien schließt radiologisch nachgewiesene Veränderungen der Gelenke mit ein, und es existieren diverse Scoring-Systeme zur Beurteilung der Krankheitsaktivität. Frühentzündliche Weichteilveränderungen entziehen sich dieser Methode jedoch völlig und kleinere erosive Knochenläsionen auch größtenteils. Daher ist es von großer Bedeutung ein bildgebendes Verfahren in der Diagnosestellung und Verlaufskontrolle der rheumatoiden Arthritis zu etablieren, welches alle Aspekte der Gelenkaffektion einbezieht. Wie in dieser Studie gezeigt werden konnte, eignet sich die Sonographie hervorragend zur Beurteilung des Gelenkbefalls der Hand- und Fingergelenke. Ein eigens erstellter Sonographie-Score, der sowohl weichteilbedingte als auch knöcherne Veränderungen mit einbezieht, wurde an einem Probandenkollektiv im Vergleich zur im rheumatologischen Klinikalltag etablierten Larsen-Klassifikation überprüft. Dabei konnte gezeigt werden, dass mittels sonographischer Untersuchungen an insgesamt 20% mehr Gelenken pathologische Veränderungen nachgewiesen wurden, als mit der konventionellen Röntgendiagnostik. Die meisten diagnostizierten Befunde waren Weichteilaffektionen im Sinne von Gelenkergüssen und Synovialitis, die in der radiologischen Klassifikation nicht festgestellt werden. Auch beim Nachweis erosiver Knochenläsionen bestand sonographisch eine höhere Trefferquote, vor allem wenn es sich um kleine Erosionen handelte. Gemeinsam war beiden Systemen, dass sie sowohl an den Hand-, MCP- und PIP-Gelenken Affektionen nachweisen konnten. Die DIPGelenke waren nie befallen. Die Untersuchungsergebnisse wurden mit dem im klinischen Alltag etablierten Disease-Activity-Score (DAS28) verglichen, der zur Beurteilung der Krankheitsaktivität und zur Verlaufskontrolle herangezogen wird. Dabei wiesen beide Verfahren eine positive gleichsinnige Korrelation mit dem Klassifikationssystem auf. Die Korrelation des eigens für diese Studie erstellten sonographischen Bewertungssytems (Frankfurter Score) lag dabei höher als die klinisch etablierte radiologische Einteilung. Es konnte darüber hinaus gezeigt werden, dass sich auch bei Patienten mit einer laut DAS-Score als inaktiv eingestuften Krankheitsaktiviät sonographisch Gelenkaffektionen nachweisen ließen. Zusammenfassend handelt es sich bei der Sonographie um ein bildgebendes Untersuchungsverfahren mit einer hohen Sensitivität und Spezifität bezüglich des Auffindens von rheumatisch bedingten Gelenkaffektionen. Sie ermöglicht die dynamische Untersuchung der Gelenke als dreidimensionales Abbildungsverfahren in beliebig vielen Schnittebenen. Darüber hinaus hat die Sonographie bei insgesamt geringen Kosten eine hohe Verfügbarkeit, besitzt keinerlei bekannte Nebenwirkungen, genießt eine hohe Akzeptanz bei den Patienten und eignet sich durch eine uneingeschränkte Wiederholbarkeit sehr gut zur Verlaufskontrolle und zum Therapiemonitoring. Sie kann das Ansprechen des Organismus auf bestimmte Medikamentengruppen bildlich darstellen. Diese Aspekte begründen das Potential des Verfahrens, sich zukünftig als „Bedside-Methode“ zu etablieren. Zudem ist die Untersuchungsmethode den internistischen und orthopädischen Rheumatologen bestens vertraut. Sie ist somit ein wertvolles zusätzliches Diagnostikum neben klinischer und nativradiologischer Untersuchung, für das bisher allerdings kein einheitliches Bewertungssystem zur Verfügung gestanden hat. Das in dieser Studie verwendete Bewertungssystem integriert verschiedene Teilaspekte des Krankheitsbildes. Es berücksichtigt bei der Einteilung der einzelnen Stadien die befallene Gewebeart, die Ausdehnung der Gelenkaffektionen, die Größe des Defekts und die möglichen Therapiemaßnahmen. Damit besitzt es Vorteile gegenüber anderen gültigen Klassifikationsverfahren und rechtfertigt einen eigenen Platz bei der Diagnosestellung und Auswahl der Therapie. Schwierigkeiten der Methode bestehen in der Standardisierung. Von hoher Wichtigkeit ist es für die Sonographie ein einheitliches Bewertungssystem zur Beurteilung des Gelenkstatus bei Patienten mit rheumatoider Arthritis im klinischen Alltag zu etablieren, das als Grundlage für vergleichende Untersuchungen und Einteilungen des Gelenkbefalls dienen kann. Hierbei ist die Optimierung der Patientenversorgung in Bezug auf den möglichst frühen und sensitiven Nachweis pathologischer Veränderungen zu erwarten. Die in dieser Studie nachgewiesenen Vorteile der Sonographie rechtfertigen deren routinemäßigen Einsatz bei der Diagnosestellung der rheumatoiden Arthritis. Die Studie hat gezeigt, dass die Sonographie eher als andere Untersuchungsmethoden in der Lage ist, den frühzeitigen und sicheren Nachweis entzündungsbedingter Gelenkveränderungen zu erbringen und damit den Krankheitsverlauf durch einen frühzeitigen Therapiebeginn günstig zu beeinflussen. Der Sonographie muss daher ein hervorragender Platz bei der Diagnosestellung eingeräumt werden.
Im Rahmen der vorliegenden Arbeit wurden verschiedene proteomanalytische Methoden untersucht und evaluiert, die, basierend auf der Verwendung 2D-gelelektrophoretischer, 2D-chromatographischer und massenspektrometrischer Techniken, die differentielle, quantitative Proteinanalyse zweier unterschiedlicher muriner Fibroblasten-Zelllinien ermöglichen. Hierfür wurden zunächst unterschiedliche Methoden für die 2D-elektrophoretische Proteinauftrennung analysiert. Im Hinblick auf eine größtmögliche Auflösung und Gel-zu- Gel-Reproduzierbarkeit wurden innerhalb der ersten Dimension (IEF) die Lademethode, die Fokussierungszeiten und der Reduktionsschritt (DTT oder HED) optimiert. Desweiteren wurde eine auf isoelektrischer Fokussierung basierende Vorfraktionierungsmethode auf ihre Anwendbarkeit bei einer quantitativen Proteomanalyse getestet. Für die Proteingelfärbung wurde unter anderem ein selbst synthetisierter Fluoreszenzfarbstoff eingesetzt, der hinsichtlich Färbesensitivität und MS-Kompatibilität mit etablierten Protokollen verglichen wurde. Eine Doppelfärbungs-Methode von Proteingelen (Silberfärbung nach Fluoreszenzfärbung) wurde auf ihre MS-Kompatibilität nach tryptischen Verdau untersucht. Desweiteren wurden manuelle und automatisierte Verdauprotokolle für eine möglichst hohe Peptide Recovery optimiert. Die zunächst durch die Anwendung von klassischen Färbe- und Quantifizierungsmethoden nach 2DE gewonnenen Ergebnisse wurden mit neueren Labelling-Methoden zur relativen Proteinquantifizierung verglichen. Dabei kamen zwei unterschiedliche Multiplexing-Verfahren zum Einsatz, die sich in der Proteinquantifizierung grundlegend unterscheiden (DIGE: gelbasierte Proteinquantifizierung; iTRAQ: LC-MS/MS basierte Peptidquantifizierung). Die für diese beiden Methoden bestehenden Protokolle wurden für die Anwendbarkeit auf die Fibroblasten-Proteinextrakte angepasst. Es konnte gezeigt werden, daß diese beiden Labelling-Methoden in Bezug auf Reproduzierbarkeit und quantitativer Aussagekraft dem klassischen 2DE-Experiment (Proteinfärbung nach der Auftrennung auf einzelnen Gelen) überlegen sind. Die statistische Absicherung der analysierten relativen Quantitätsunterschiede verbesserte sich durch die zusätzliche Anwendung der beiden neuen Labelling-Methoden erheblich. Dabei stützt sich die Signifikanz der quantitativen Bestimmung sowohl auf die große statistische Sicherheit, die innerhalb dieser beiden Multiplexing-Methoden erreicht wird, als auch auf die Wiederholbarkeit in unterschiedlichen Experimenten (21 Proteine wurden in unterschiedlichen Ansätzen bestätigt). Die beiden Labelling-Methoden DIGE und iTRAQ unterscheiden sich außer in der Quantifizierungsstrategie auch grundsätzlich in dem Ansatz der Auftrennung (DIGE: Proteine, 2DElektrophorese; iTRAQ: Peptide, 2D-Flüssigchromatographie). Damit besitzen sie unterschiedliche Limitierungen in Bezug auf die physiko-chemischen Eigenschaften der Peptide/Proteine, die mit der jeweiligen Methode aufgetrennt werden können. Der daraus resultierende komplementäre Charakter beider Methoden konnte anhand mehrerer Proteine verdeutlicht werden. Durch die relative Quantifizierung konnten insgesamt 30 Proteine identifiziert werden, die aufgrund der An- oder Abwesenheit des MLL-Proteins in den beiden murinen Zelllinien differentiell reguliert sind. Die alleine schon durch die unterschiedliche Morphologie der untersuchten murinen Fibroblasten vermutete Deregulation von Struktur- und Stressproteinen (Actin, HSP27, HSP70) konnte bestätigt werden. Weitere Expressionsunterschiede zwischen Mll-/-- und Mll+/+-Fibroblasten zeigten sich vor allem bei Proteinen, die funktionell der Gruppe RNA-prozessierender Proteine (Polyadenylate Binding Protein, PTB-associated Splicing Factor, hnRNPs) zugeordnet werden können. Ein Vergleich der quantitativen Proteomdaten dieser Arbeit mit den mRNA-Expressionsprofilen der gleichen Zellen zeigt nur eine sehr geringe Korrelation bezüglich der Regulationen einzelner Gene/Proteine. Die meisten der bisherigen Studien, die eine Untersuchung des mRNA/Protein-Verhältnisses zum Gegenstand haben, bestätigen das Fehlen einer Korrelation. Diese Tatsache unterstreicht die Wichtigkeit der Kombination genomischer und proteinanalytischer Daten zur Aufklärung zellulärer molekularer Prozesse.
Hypoxie entsteht, wenn das Sauerstoffangebot bzw. die Sauerstoffversorgung unter ein Niveau sinkt, das benötigt wird, um physiologische O2-Drücke des betreffenden Gewebes aufrecht zu erhalten. Sinkt der Sauerstoff-Partialdruck, so werden adaptive Mechanismen aktiviert. Neben der Anpassung durch das kardiovaskuläre System werden auch verschiedene Gene aktiviert. Die Forschung der letzten Jahre hat gezeigt, dass Hypoxieinduzierte Genexpression insbesondere von zwei Transkriptionsfaktoren, HIF (hypoxia inducible factor) -1 und -2 , gesteuert wird. Man kennt über 70 Gene, die von HIF transaktiviert werden. Dabei handelt es sich um Modulatoren von Angiogenese und Vasodilatation, Erythropoese sowie der Umstellung des Stoffwechsels von oxidativer Phosphorylierung auf Glykolyse. Die Hypoxie-induzierbare Genexpression wird sowohl über eine Steigerung der Transaktivierungsaktivität als auch der Proteinmenge der HIF- -Untereinheiten reguliert. Die Regulation der HIF-Proteinmenge erfolgt über eine vom O2-Partialdruck abhängige Stabilisierung der -Untereinheit des Proteins. Unter normoxischen Bedingungen wird das Protein durch die Prolylhydroxylasen (PHD) O2-abhängig hydroxyliert, pVHL-vermittelt (VHL = von Hippel-Lindau), ubiquitiniert und proteosomal abgebaut. Unter hypoxischen Bedingungen dagegen wird das Protein stabilisiert, akkumuliert im Zellkern und bindet an eine spezifische Zielsequenz, das Hypoxia-responsive element oder HRE, imPromotor von Hypoxie-aktivierten Genen. Die PHDs gehören zu einer Familie von Eisen- und 2-Oxoglutarat-abhängigen Dioxygenasen. Neben diesen Faktoren wird eine Regulation von HIF durch Sauerstoffradikale (ROS, reactive oxygen species) in der Literatur sehr kontrovers diskutiert, da die Wirkung von ROS auf HIF sich unter Normoxie, Hypoxie oder dem Einfluss von Wachstumsfaktoren unterscheidet. Im Rahmen dieser Arbeit sollte die Frage, welche Rolle die PHDs bei der ROS-vermittelten HIF-Regulation spielen, beantwortet werden. Der zugrunde liegende Mechanismus wurde anhand von Glioblastom-Zelllinien untersucht. Die vorliegende Arbeit zeigt eine Stabilisierung von HIF nach Verringerung der ROS-Konzentration unter Normoxie. Eine Erhöhung der ROS-Konzentration führt dagegen zu einer dosisabhängigen Verminderung von HIF und der HIF-Targetgen-Expression. Es konnte eine direkte Abhängigkeit der Destabilisierung von VHL und den Prolylhydroxylasen gezeigt werden, da sowohl eine VHL-Defizienz als auch eine Mutation der Prolylreste oder eine Inhibition der PHDs zu einer Aufhebung des Effekts führen. Eine vergleichbare destabilisierende Wirkung auf HIF übt Ascorbat aus. Überraschenderweise führt sowohl die Zugabe von H2O2 mit seiner oxidativen Wirkung als auch die Zugabe des Reduktionsmittels Ascorbat zu einer Erhöhung des intrazellulären Fe2+-Gehaltes. Dieser Befund kann durch eine Aktivierung von Enzymen mit eisenreduzierenden Eigenschaften erklärt werden. Im Rahmen dieser Arbeit wurde die Proteinfamilie der Ferrireduktasen (FR) identifiziert und fünf Enzyme, die eine Homologie zur cytb561-Domäne aufweisen, kloniert. Eine detaillierte Charakterisierung zeigte, dass die Enzyme tatsächlich eine eisenreduzierende Aktivität aufweisen, die durch die exogene Zugabe von ROS noch erhöht wird. Eine Überexpression der FR führt zu einem erhöhten Abbau von HIF. Ein knock down mittels siRNA führt dagegen zu einer Akkumulation von HIF und die destabilisierende Wirkung von ROS ist nach einemknock down der FR deutlich reduziert. Aufgrund der in dieser Doktorarbeit gezeigten Daten kann folgendes Modell aufgestellt werden: Die primäre oxidative Wirkung von ROS führt vermutlich zu einer Aktivierung der Ferrireduktasen, die in Abhängigkeit von Ascorbat dann vermehrt Eisen reduzieren, so dass dies den PHDs als Substrat zur Verfügung steht. Der regulierende Einfluss auf HIF wird somit vermutlich über eine erhöhte Aktivität der Prolylhydroxylasen durch eine Erhöhung des intrazellulären Fe2+-Gehaltes vermittelt. Die erhobenen Daten deuten an, dass die Familie der Ferrireduktasen ein zentrales Bindeglied im O2-Sensing darstellt, das in Abhängigkeit von Redox-Signalen homeostatische Antworten auf Hypoxie moduliert.
Maßgeblich unter dem wachsenden externen Druck hat die didaktische Qualifizierung in den medizinischen Fakultäten an Bedeutung gewonnen. Im Rahmen der Professionalisierung der medizinischen Aus-, Fort- und Weiterbildung ist eine pädagogisch-didaktische Ausbildung der Lehrenden unumgänglich. Um Orientierung und Argumentationshilfe zu geben, werden in einer dreiteiligen Artikelfolge Stellenwert der Medizindidaktik, Anforderungsprofil der Angebote und Konzepte zur Implementierung und zur Erfolgsmessung für den deutschsprachigen Raum beleuchtet. In Teil I geben wir eine Bestandsaufnahme zur Medizindidaktik. Aktuell gibt es bundesweit ein breit gefächertes Qualifizierungsangebot. Es reicht von einfachen unstrukturierten Kurzfortbildungen wie zum Beispiel Vorträgen und Seminaren, die inhaltlich, formal und qualitativ eine große Beliebigkeit zeigen, bis hin zu umfassenden mehrjährigen (Aufbau-)Studiengängen mit "Master-Degree". Im internationalen Vergleich fehlt in Deutschland ein allgemein verbindliches "Basis-Programm", das die täglich Lehrenden systematisch auf ihre Ausbildungsaufgaben vorbereitet. Dies ist bisher nur lokal umgesetzt wie zum Beispiel in Baden-Württemberg mit dem ministeriell zertifizierten Programm der Medizindidaktischen Qualifikation I und II. Vergleichbares ist in Nordrhein-Westfalen und Bayern im Aufbau.
A resampling method based on the bootstrap and a bias-correction step is developed for improving the Value-at-Risk (VaR) forecasting ability of the normal-GARCH model. Compared to the use of more sophisticated GARCH models, the new method is fast, easy to implement, numerically reliable, and, except for having to choose a window length L for the bias-correction step, fully data driven. The results for several different financial asset returns over a long out-of-sample forecasting period, as well as use of simulated data, strongly support use of the new method, and the performance is not sensitive to the choice of L. Klassifizierung: C22, C53, C63, G12
We evaluate the asset pricing implications of a class of models in which risk sharing is imperfect because of the limited enforcement of intertemporal contracts. Lustig (2004) has shown that in such a model the asset pricing kernel can be written as a simple function of the aggregate consumption growth rate and the growth rate of consumption of the set of households that do not face binding enforcement constraints in that state of the world. These unconstrained households have lower consumption growth rates than constrained households, i.e. they are located in the lower tail of the crosssectional consumption growth distribution. We use household consumption data from the U.S. Consumer Expenditure Survey to estimate the pricing kernel implied by the model and to evaluate its performance in pricing aggregate risk. We employ the same data to construct aggregate consumption and to derive the standard complete markets pricing kernel. We find that the limited enforcement pricing kernel generates a market price of risk that is substantially larger than the standard complete markets asset pricing kernel. Klassifizierung: G12, D53, D52, E44
In this paper we quantitatively characterize the optimal capital and labor income tax in an overlapping generations model with idiosyncratic, uninsurable income shocks, where households also differ permanently with respect to their ability to generate income. The welfare criterion we employ is ex-ante (before ability is realized) expected (with respect to uninsurable productivity shocks) utility of a newborn in a stationary equilibrium. Embedded in this welfare criterion is a concern of the policy maker for insurance against idiosyncratic shocks and redistribution among agents of different abilities. Such insurance and redistribution can be achieved by progressive labor income taxes or taxation of capital income, or both. The policy maker has then to trade off these concerns against the standard distortions these taxes generate for the labor supply and capital accumulation decision. We find that the optimal capital income tax rate is not only positive, but is significantly positive. The optimal (marginal and average) tax rate on capital is 36%, in conjunction with a progressive labor income tax code that is, to a first approximation, a flat tax of 23% with a deduction that corresponds to about $6,000 (relative to an average income of households in the model of $35,000). We argue that the high optimal capital income tax is mainly driven by the life cycle structure of the model whereas the optimal progressivity of the labor income tax is due to the insurance and redistribution role of the income tax system. Klassifizierung: E62, H21, H24
Assumptions about the dynamic and distributional behavior of risk factors are crucial for the construction of optimal portfolios and for risk assessment. Although asset returns are generally characterized by conditionally varying volatilities and fat tails, the normal distribution with constant variance continues to be the standard framework in portfolio management. Here we propose a practical approach to portfolio selection. It takes both the conditionally varying volatility and the fat-tailedness of risk factors explicitly into account, while retaining analytical tractability and ease of implementation. An application to a portfolio of nine German DAX stocks illustrates that the model is strongly favored by the data and that it is practically implementable. Klassifizierung: C13, C32, G11, G14, G18
Baby boomer retirement security: the roles of planning, financial literacy and housing wealth
(2006)
We compare wealth holdings across two cohorts of the Health and Retirement Study: the early Baby Boomers in 2004, and individuals in the same age group in 1992. Levels and patterns of total net worth have changed relatively little over time, though Boomers rely more on housing equity than their predecessors. Most important, planners in both cohorts arrive close to retirement with much higher wealth levels and display higher financial literacy than non-planners. Instrumental variables estimates show that planning behavior can explain the differences in savings and why some people arrive close to retirement with very little or no wealth. Klassifizierung: D91, E21
We use data from several waves of the Survey of Consumer Finances to document credit and debit card ownership and use across US demographic groups. We then present recent theoretical and empirical contributions to the study of credit and debit card behavior. Utilization rates of credit lines and portfolios of card holders present several puzzles. Credit line increases initiated by banks lead households to restore previous utilization rates. High-interest credit card debt co-exists with substantial holdings of low-interest liquid assets and with accumulation of retirement assets. Although available evidence disputes ignorance of credit card terms by card holders, redit card rates do not respond to competition. There is a rising trend in bankruptcy and delinquency, partly attributable to an increased tendency of households to declare bankruptcy associated with reduced social stigma, ease of procedures, and financial incentives. Co-existence of credit card debt with retirement assets can be explained through self-control hyperbolic discounting. Strategic default motives contribute partly to observed co-existence of credit card debt with low-interest liquid assets. A framework of “accountant-shopper” households, in which a rational accountant tries to control an impulsive shopper, seems consistent with both types of co-existence and with observed utilization of credit lines. JEL Classification: G11, E21
The tax codes in many countries allow for special tax advantages for investments in special retirement plans. Probably the most important advantage to these plans is that profits usually remain untaxed. This paper deals with the question, which assets are preferable in a taxdeferred account (TDA). Contrary to the conventional wisdom that one should prefer bonds in the TDA, it is shown that especially in early years, stocks can be the preferred asset to hold in the TDA for an investor maximizing final wealth, given a certain asset allocation. The higher the performance of stocks compared to bonds, the higher the tax burden put on stocks compared to bonds. Simultaneously, the longer the remaining investment horizon, the larger the relative outperformance of the optimal asset location strategy compared to the myopic strategy of locating bonds in the TDA. An algorithm is provided to determine the investment strategy that maximizes (expected) funds at the end of a given investment horizon when there is an analytical solution.
This paper analyzes the relation between demographic structure and real asset returns on treasury bills, bonds and stocks for the G7-countries (United States, Canada, Japan, Italy, France, the United Kingdom and Germany). A macroeconomic multifactor model is used to examine a variety of different demographic factors from 1951 to 2002. There was no robust relationship found between shocks in demographic variables and asset returns in the framework of these models, which suggests that Asset Meltdown is rather fiction than fact.
Both banks and open end real estate funds effectuate liquidity transformation in large amounts and high scales. Because of this similarity the latter should be analyzed using the same methodologies as usually applied for banks. We show that the work in the tradition of Diamond and Dybvig (1983), especially Allen and Gale (1998) and Diamond and Rajan (2001), provides an applicable theoretical framework. We used this as the basis for our model for open end real estate funds. We then examined the usefulness of the modeling structure in analyzing open end real estate funds. First, we could show that withdrawing of capital resulting in a run is not always inefficient. Instead, withdrawing can as well be referred to the situation where the low return of an open end fund unit in comparison to other opportunities makes, (partial) withdrawal viewed from the risk-sharing perspective optimal. Even with costly liquidation, this result will hold, though we will have deadweight losses in such a situation. Second, introducing a secondary market in our model does, not in general, resolve the problem of deadweight losses associated with foreclosure. If assets are sold during a run, we do not only have a transfer of value but it can also create an economic cost. Because funds are forced to liquidate the illiquid asset in order to fulfill their obligations, the price of the real estate asset is forced down making the crisis worse. Rather than providing insurance, such that investors receive a transfer in negative outcomes, the secondary market does the opposite. It provides a negative insurance instead. Third, our model proves that the open end structure provides a monitoring function which serves as an efficient instrument to discipline the funds management. Therefore, we argue that an open end structure can represent a more adequate solution to securitize real estate or other illiquid assets. Instead of transforming open end in closed end structures, fund runs should be accepted as a normal phenomenon to clear the market from funds with mismanagement.
Die Studie befaßt sich mit den rechtlichen Anforderungen an die Umwandlung und den Umtausch von Finanzinstrumenten. Finanzinstrumente in dem hier gemeinten Sinne sind Aktien und ausgewählte Schuldverschreibungsformen (Finanzierungsgenußrechte; Wandelschuldverschreibungen; einfache Schuldverschreibungen). Die Umwandlung oder der Umtausch von Finanzinstrumenten, zusammenfassend auch als Konversion bezeichnet, sind Verfügungsgeschäfte. Dabei werden hier nur Verfügungsgeschäfte zwischen dem Emittenten und dem Investor betrachtet. Nicht behandelt werden auch die besonderen Gestaltungsfragen und Gestaltungsmöglichkeiten, die sich für die Emittenten und Investoren bei der Umstrukturierung (Umwandlung, Konzernierung usw.) des Emittenten selbst ergeben. ....
Seit 2005 ist die Bibliothek des Südasien-Instituts in Kooperation mit der UB Heidelberg Trägerin des DFG-geförderten Sondersammelgebiets Südasien. Damit hat sie von der UB Tübingen ein traditionsreiches Sondersammelgebiet übernommen, dessen Geschichte bis ins Jahr 1949 zurückreicht. Der Vortrag wird zum Einen einen kurzen Überblick über den historischen Kontext des SSG Südasien geben und zum Anderen über Neuentwicklungen, wie z.B. die Virtuelle Fachbibliothek Südasien, die in den letzten zwei Jahren an der Bibliothek des Südasien-Instituts aufgebaut wurde. Vor diesem Hintergrund soll vor allem das Kooperationspotential im Bereich digitaler Informationsressourcen beleuchtet werden.
The interaction of T cells and antigen-presenting cells is central to adaptive immunity and involves the formation of immunological synapses in many cases. The surface molecules of the cells form a characteristic spatial pattern whose formation mechanisms and function are largely unknown. We perform computer simulations of recent experiments on geometrically repatterned immunological synapses and explain the emerging structure as well as the formation dynamics. Only the combination of in vitro experiments and computer simulations has the potential to pinpoint the kind of interactions involved. The presented simulations make clear predictions for the structure of the immunological synapse and elucidate the role of a self-organizing attraction between complexes of T cell receptor and peptide–MHC molecule, versus a centrally directed motion of these complexes.
Gutes wissenschaftliches Arbeiten: Wieso? Weshalb? Warum? Ein Universitätsstudium bedeutet vielfach Selbststudium: eigenständiges Recherchieren und Aufbereiten von Informationen sowie die Vermittlung dieser Informationen und gegebenenfalls eigener Erkenntnisse in schriftlicher oder mündlicher Form. Der vorliegende Leitfaden bietet dabei eine Hilfestellung. Zum einen werden Tipps für ein effizientes und erfolgreiches Studium vorgestellt und zum anderen formale Anforderungen an gutes wissenschaftliches Arbeiten erläutert und begründet. Viele der vorgestellten Techniken und Methoden werden Sie auch bei Praktika, ehrenamtlichen Tätigkeiten oder im Berufsleben nutzen können. Der erste Teil widmet sich der Recherche. Die Literatur- und Quellensuche ist eine Voraussetzung für jede wissenschaftliche Arbeit. Ziel ist es, relevante Literatur und (Daten-)Quellen für die Bearbeitung einer Fragestellung im vorgegebenen zeitlichen Rahmen möglichst vollständig zu erfassen. Anschließend müssen aus den verfügbaren Informationen diejenigen ausgewählt werden, die sowohl hinsichtlich ihrer Qualität als auch ihrer inhaltlichen Bedeutung für das eigene Thema besonders wichtig sind und daher intensiver bearbeitet werden sollen. Sie finden in diesem Teil Antworten auf Fragen wie die folgenden: • Wann nutze ich Lehrbücher, wann wissenschaftliche Aufsätze? • Wie grenze ich meine Literatur- und Datensuche ein? • Welche Hilfen bietet das Internet? Im Anschluss an die Recherche und Aufbereitung der Materialien folgt die Erstellung von Texten in Form von Protokollen, Hausarbeiten, Referaten, Projektberichten oder einer Abschlussarbeit. Wie immer gilt auch in diesem Fall: Das Wissen, das man im Kopf hat, ist „Schall und Rauch“, wenn man es nicht vernünftig zu Papier bringen oder im Vortrag vermitteln kann. Der oft gehörte Satz „Ich habe eigentlich alles gewusst und konnte es ‚nur‘ nicht rüberbringen“ ist absurd, denn nichts von dem, was Sie nicht kommunizieren können – schriftlich oder mündlich (s. u.) – kann Gegenstand einer Auseinandersetzung, einer Diskussion oder einer Bewertung sein. Der zweite Teil dieses Leitfadens widmet sich daher der Frage, wie man Wissen schriftlich kommuniziert. Dafür gibt es zum einen formale Regeln, die es einzuhalten gilt (Zitierweisen, Gliederungssystematik, Umgang mit Abbildungen etc.), und zum anderen Konventionen, die eine gute schriftliche Arbeit erfüllen muss: Gibt es eine Fragestellung und wird diese stringent hergeleitet? Gibt es einen roten Faden und wird dieser über die ganze Arbeit verfolgt? Werden theoretische Überlegungen sinnvoll mit empirischen Arbeiten verknüpft? Qualitätsstandards, die Sie bei jeder Beurteilung eines Lehrbuches oder einer wissenschaftlichen Arbeit zu Grunde legen und die Sie ebenso auch von Ihren eigenen Arbeiten fordern sollten. Gespräche mit Geographinnen und Geographen, die in der Wirtschaft oder bei öffentlichen Einrichtungen arbeiten, zeigen stets eines ganz deutlich: Bei der Frage, ob man sich bei Einstellungsgesprächen für oder gegen eine Bewerberin oder einen Bewerber entscheidet, kommt es erst in zweiter Linie auf die fachlichen Qualifikationen an. Diese werden eigentlich vorausgesetzt. Sie sind die Hürde, die man schon bei der schriftlichen Bewerbung nehmen muss. Geographisches Know-how und thematische Spezialisierungen entscheiden also darüber, ob man eingeladen wird oder nicht, nicht aber, ob man den Job letztlich bekommt. Hierfür sind die „soft skills“ entscheidend: Passen die Kandidaten ins Team, können sie sich gut verkaufen, wirken sie souverän? Kurz: Ob man detailliert darüber Bescheid weiß, wie z. B. Stadtmarketing funktioniert, ist nur dann relevant, wenn man dieses Wissen auch vermitteln kann. Der dritte Teil des Leitfadens widmet sich deshalb genau diesen Fragen des „Präsentierens“. Denn wo kann man dies besser lernen als in einem Seminar oder auf einer Exkursion: Wie strukturiere ich einen Kurzvortrag prägnant und spannend (Beispiel Bewerbung: „Erzählen Sie mal in fünf Minuten, was Sie in Ihrem Studium gemacht haben“), wie gliedere ich einen längeren Vortrag, wie gestalte ich einen Exkursionsblock und wie setze ich sinnvoll didaktische Hilfsmittel der Visualisierung ein? Dieser Leitfaden hilft Ihnen bei der Bewältigung Ihres Studiums. Da aber nichts perfekt ist und alles noch besser geht, würden wir uns über kritische Anmerkungen und kreative Verbesserungsvorschläge sehr freuen. Bitte wenden Sie sich – schriftlich oder mündlich – an die Lehrenden des Fachs.
Die vorliegende Studie hatte zum Ziel, die Effizienz eines Erhaltungsprogramms (Recall) über 10 Jahre zu beurteilen. Hierzu wurden klinische Daten von insgesamt 118 Patienten ausgewertet, welche seit mindestens10 Jahren in der Poliklinik für Parodontologie am Recall teilgenommen hatten. Sie bildeten unsere EXP Gruppe (Experimentelle Gruppe). Als Vergleichsgruppe dienten 22 Patienten, welche ebenfalls vor über 10 Jahren in der Poliklinik für Parodontologie behandelt worden waren, aber nicht an einer Erhaltungstherapie in dieser Klinik teilgenommen hatten. Sie bildeten die KONTR Gruppe (Kontrollgruppe). Verglichen wurden folgende Parameter bei Erstuntersuchung und 10 Jahre später: Zahnverlust, Mundhygiene(API) Unterschiede bezüglich des Geschlechts, Blutungsindex (TBI), Sondierungstiefen (TT), Lockerungsgrade und Rezessionen. Das Durchschnittsalter der Patienten lag bei 47 Jahren. Von den insgesamt 140 Patienten waren 82 Frauen und 58 Männer. In der EXP Gruppe, welche regelmäßig am Recall teilgenommen hatte, lag der Zahnverlust über einen Zeitraum von 10 Jahren bei durchschnittlich 1 Zahn / Patient. Der API – Wert lag nach 10 Jahren bei der EXP Gruppe (Recall - Patienten) bei 36 % . Der BOP – Wert der EXP Gruppe lag bei 14%. Es ließ sich ein geringfügiger Unterschied im Mundhygieneverhalten feststellen. Die Frauen hatten die Motivation ernsthafter umgesetzt und erzielten niedrigere API –Werte als die Männer. Die ermittelten Sondierungstiefen zeigten 10 Jahre nach der Erstuntersuchung eine deutliche Reduktion, die zwischen 0,9 und 1,4 mm lag. Die Anzahl an gelockerten Zähnen hatte sich ebenfalls reduziert. Die Rezessionen hatten zugenommen. Im Vergleich hatte die KONTR Gruppe im gleichen Zeitraum durchschnittlich 4 Zähne / Patient verloren. Der API – Wert lag bei 39 % und der ermittelte BOP – Wert lag bei 22%. Die ermittelten Sondierungstiefen waren im Vergleich zur Erstuntersuchung konstant geblieben oder hatten eine Verschlechterung erfahren. Die Anzahl an gelockerten Zähnen hatte sich ebenfalls vergrößert. Die Anzahl an Rezessionen hatte sich leicht erhöht. Es lässt sich zusammenfassen, dass die folgenden Parameter signifikant durch das Recallsystem positiv beeinflusst wurden: Zahnverlust, Sondierungstiefen, Zahnlockerungen. Die EXP Gruppe wies statistisch signifikant bessere Werte auf, als die KONTR Gruppe. Die im Folgenden aufgezählten Parameter unterschieden sich nicht signifikant innerhalb der beiden Gruppen: API, BOP, Rezessionen. Obwohl keine Unterschiede im Mundhygieneverhalten zu erkennen waren, hatte in der KONTR Gruppe, ohne professionelle Unterstützung, eine Progression der Parodontitis stattgefunden. Schlussfolgerung: • Das in der Poliklinik für Parodontologie des ZZMK angewandte Recallsystem hat einen eindeutig positiven Einfluss auf den langfristigen Therapieerfolg. • Die Daten der vorgelegten Untersuchung decken sich mit den in der Literatur angegebenen Verläufen.
Die Transplantatvaskulopathie als Zeichen der chronischen Transplantatabstoßung befällt sowohl die epikardialen als auch die intramyokardialen Arterien des Transplantats. Die transendotheliale Migration der glatten Gefäßmuskelzellen und die Intimaproliferation mit Formation einer Neointima stellen die wichtigsten Charakteristika der TVP dar. Die NO-Synthetasen und die Plasminogen-Aktivatoren scheinen, eine wichtige Rolle bei der Entwicklung der TVP zu spielen. e-NOS besitzt eine antiproliferative Wirkung und verhindert die Entwicklung der TVP. Die Rolle von i-NOS wird in der Literatur überwiegend als TVP-begünstigend bezeichnet. t-PA ist an der Migration und u-PA an der Proliferation der glatten Gefäßmuskelzellen beteiligt. Die vorliegende Arbeit konnte den Einfluß von CsA, FK-506 und MMF auf die Expression der obengenannten Faktoren in den arteriellen Gefäßen von Herztransplantaten aufzeichnen. Darüber hinaus sollte durch die Bestimmung von α-Aktin das Verhalten der glatten Gefäßmuskelzellen während der chronischen Abstoßung aufgezeichnet und interpretiert werden. Anhand eines etablierten Rattenmodells der heterotopen Herztransplantation wurden drei Medikamentengruppen (CsA, FK-506 und MMF) und eine Kontrollgruppe aufgestellt und die dazu gehörenden Tiere an bestimmten Zeitpunkten nach Transplantation sakrifiziert. Die gefrierhistologischen Schnitte der Transplantaten wurden immunhistochemisch auf i-NOS, e-NOS, t-PA, u-PA und α-Aktin gefärbt. Die Intensität der Färbung und der Anteil der befallenen Arterien (Prävalenz) jeder Gruppe wurden bei der Auswertung der Schnitte bestimmt und mit Hilfe des nicht parametrischen Tests von Kruskal und Wallis wurden die Gruppen statistisch auf Unterschiede verglichen. Die Versuche der vorliegenden Arbeit konnten die Expression der NO-Synthetasen in der Neointima der epi- und intramyokardialen Gefäße nachweisen. Die i-NOS-Expression wurde durch alle untersuchten Medikamente reduziert. Zusätzlich war MMF bezüglich der Reduktion der i-NOS-Expression effizienter als FK-506 und CsA. Unter CsA-Behandlung wurde die e-NOS-Expression erst nach anfänglich hohen Werten reduziert, während unter MMF-Behandlung diese Reduktion sich von Anfang an bemerkbar machte. Aus diesen Befunden läßt sich schließen, daß alle untersuchten Medikamente eine Endothelschädigung, z.B. bedingt durch NO-Toxizität, durch die Reduktion der i-NOS-Expression verhindern. Bezüglich der Plasminogen-Aktivatoren konnten die Versuche der vorliegenden Arbeit ihre Expression in der Neointima der epi- und intramyokardialen Gefäße nachweisen. u-PA wurde durch alle untersuchten Medikamente in seiner Expression beeinträchtigt, wobei MMF im Vergleich zu CsA und FK-506 eine signifikant höhere Reduktion zeigte. t-PA wurde nur durch MMF und CsA reduziert, wobei unter CsA-Behandlung eine fast kontinuierliche Abnahme der t-PA-Expression während der Versuchsdauer beobachtet wurde. Da t-PA an der Migration und u-PA an der Proliferation der glatten Gefäßmuskelzellen beteiligt sind, lassen sich hier folgende Schlüsse ableiten: Die Proliferation der glatten Gefäßmuskelzellen kann durch alle untersuchten Medikamente verringert werden, während die Migration nur unter CsA- und MMF-Behandlung reduziert wird. MMF reduziert die Proliferation der glatten Gefäßmuskellzellen effizienter als CsA und FK-506, so daß angenommen wird, daß die Reduktion der Plasminogen Aktivatoren einen besonderen Wirkungsmechanismus von MMF darstellt. Die Expression der Plasminogen-Aktivatoren in der Neointima weist das Vorhandensein von glatten Gefäßmuskelzellen nach, so daß sie, da letzteres ein histologisches Zeichen der TVP darstellt, als Indikatoren der TVP-Entwicklung angewendet werden können. α-Aktin, das charakteristisch für die G0-Phase des Zellzyklus der glatten Gefäßmuskelzellen ist, wurde in der Neointima der arteriellen Gefäße identifiziert und seine Expression in der Neointima durch alle untersuchten Medikamente reduziert. Demnach befinden sich viele der glatten Gefäßmuskelzellen der Neointima nicht in der proliferativen Phase, obwohl sie die Migration abgeschlossen haben. Alle untersuchten Medikamente reduzieren die Remodellierung der Neointima durch die glatten Gefäßmuskeltzellen.
Natürliche Killerzell-vermittelte Zytolyse wird aktiviert und inhibiert durch die Interaktion mit bestimmten HLA-Klasse-I-Molekülen auf Zielzellen mit spezifischen immunoglobulinartigen Rezeptoren (KIRs) auf NK-Zellen. KIRs sind hochgradig polymorph und werden klonal auf NK-Zellpopulationen innerhalb des Individuums verteilt. Bis jetzt ist die Regulation der KIR-Expression durch individuelle HLA-Klasse-I-Moleküle noch nicht ausreichend verstanden. Um den möglichen Einfluss von HLA-Klasse-I-Phänotypen auf KIR-Verteilungsmuster zu verstehen, untersuchte ich die KIR-Verteilung in Individuen, die nach ihren Haupt HLA-C kodierten KIR-Epitopen (Gruppe C1 gegen Gruppe C2) unterteilt wurden. In dieser Dissertation untersuchte ich 99 hessische Blutspender und fand 8 Haplotypen (B5, B7, B8, B13, B14, B19, B21), die bisher nicht in Untersuchungen von deutschen Populationen beschrieben worden sind. In diesen Individuen wurden NK-Zellen nach ihrer KIR-Verteilung mittels Durchflusszytometrie und RNA basierter Expressions-Analyse untersucht. Die Resultate zeigen, dass KIR-Gene sehr ungleichmäßig verteilt werden mit zwei Hauptverteilungsmustern von KIR-Genotypen, die bereits als Gruppe A und Gruppe B (mit 21 verschiedenen Genotypen) beschrieben worden sind. Es gibt verschiedene Populationen, unterschiedlich stark CD158a und/ oder CD158b exprimierender NK-Zellen, die in allen Individuen koexistieren. Eine klare Korrelation zwischen KIR-Expression und zurzeit bekannten HLA-Klasse-I-Liganden wurde nicht beobachtet. Dies lässt den Schluss zu, dass die Oberflächenexpression von KIRs in Individuen mit unterschiedlichen HLAKlasse-I-Genotypen von anderen, nicht HLA-Klasse-I-kodierten Faktoren für die Ausprägung des KIR-Repertoires mitverantwortlich ist. Es scheint, dass hauptsächlich der KIR-Genotyp für die Ausprägung des KIR-Repertoires verantwortlich ist und dass lediglich die Anzahl der KIR-exprimierenden Zellen durch die spezifischen HLA-Liganden beeinflusst wird. Die molekularen und zellulären Faktoren einer KIR-Expression sind zum größten Teil unklar. Im Prinzip wird das exprimierte KIR-Repertoire von den kodierenden Genen bestimmt, wobei jedoch andere Faktoren angenommen werden, da Individuen mit identischen KIR-Phänotypen Variationen der Verteilung von peripheren NK-Zellen zeigen, die bestimmte KIRs exprimieren. Die Oberflächenexpression von KIRs bei bestimmten Individuen mit unterschiedlichen HLA-Klasse-I-Phänotypen in dieser Studie lässt vermuten, dass andere, als die beschriebenen HLA-Klasse-I-Phänotypen, möglicherweise als Liganden für KIRs dienen. Wie im Falle der Krankheitsentwicklung von HIV zu AIDS haben diese Faktoren einen enormen Einfluss und bieten, wenn sie näher charakterisiert werden können, unter Umständen die Möglichkeit eines neuen Behandlungsansatzes.
Präzise Zeitstrukturen der Aktivität der Hirnrinde haben sehr wahrscheinlich einen großen Einfluss auf die Verarbeitung von Sinnesreizen und damit auf kognitive Prozesse. Nach einer häufig zitierten Hypothese werden Einzelreize, die an verschiedenen Orten der Hirnrinde durch die jeweilige Aktivität lokaler Nervenzellpopulationen repräsentiert werden, dann als zusammengehörig wahrgenommen, wenn diese Populationen im sogenannten Gamma-Rhythmus (ca. 25-70 Hz) oszillieren und dabei die Zeitpunkte, zu welchen sie Aktionspotentiale feuern, millisekunden-präzise synchronisieren. Wenn synchrone Gamma-Oszillationen eine Rolle für kognitive Prozesse spielen, so ist zu erwarten, dass diese Zeitstrukturen durch das Vigilanzniveau beeinflusst werden. Ein Zustand aufmerksamer Wachheit führt zu einem verstärkten Auftreten synchroner Gamma-Oszillationen. Unter tiefer Narkose ist Wahrnehmung hingegen ausgeschaltet; ein solcher Zustand sollte sich demnach auch in stark reduzierten oder vollständig sistierten synchronen Gamma-Oszillationen ausdrücken. Die Regulation des Vigilanzniveaus steht unter der Kontrolle des aufsteigenden retikulären Aktivierungssystems. Dieses verteilte System innerviert unter Verwendung verschiedener Transmitter in diverse subkortikale Strukturen, unter anderem das basale Vorderhirn. Letzteres stellt die stärkste cholinerge Projektion in den Neokortex dar. Im ersten Teilprojekt dieser Arbeit wurde die Modulation “induzierter” (= nicht mit der Zeitstruktur des Stimulus assoziierter) synchroner Gamma-Oszillationen durch cholinerg wirksame Pharmaka untersucht. Hierzu wurden bei adulten Katzen Elektroden in den primären visuellen Kortex implantiert und in flacher Allgemeinanästhesie neuronale Antworten auf Sehreize aufgezeichnet. Gleichzeitig bestand die Möglichkeit, cholinerge Agonisten oder Antagonisten lokal zu applizieren. Es konnte gezeigt werden, dass cholinerge Agonisten einen fördernden Einfluss auf synchrone Gamma-Oszillationen haben, während cholinerge Antagonisten synchrone Gamma-Oszillationen hemmen und eine durch elektrische Stimulation von Teilbereichen des Aktivierungssystems ausgelöste Förderung der Oszillationen blockieren. Wahrnehmungsleistungen sind nicht nur abhängig vom Vigilanzniveau, sondern auch vom raum-zeitlichen Kontext. Das bedeutet, dass einzelne Reize nicht isoliert bewertet, sondern mit einer riesigen Menge von anderen Reizen in Beziehung gesetzt werden müssen. Der Kortex scheint im Falle der induzierten Gamma-Oszillationen sein komplexes Netzwerk für solche Interaktionen zu nutzen und in der Zeitstruktur kortikaler Signale Kontext zu kodieren. Die Aktivität kortikaler Neurone kann jedoch auch durch periodische sensorische Stimulation (zum Beispiel Flicker) zum Schwingen gebracht werden (“getriebene Oszillationen”). Es war bekannt, dass in der Aktivität des visuellen Kortex unter synchroner Stimulation Zeitstrukturen lokaler Stimuli sehr präzise abgebildet werden können. Gäbe es, wie oft angenommen, unter getriebenen Oszillationen keine Interaktion zwischen räumlich verteilter Aktivität, dann stünde die Zeitstruktur in neuronalen Antworten nicht mehr als unabhängiger Kodierungsraum für Kontext zur Verfügung, sondern wäre alleine durch den lokalen Stimulus determiniert. Dem gegenüber standen psychophysische Befunde, dass die Zeitstrukturen externer Reize zwar mit hoher Auflösung für die Wahrnehmung genutzt werden können, sie diese aber nicht zwingend determinieren. Im zweiten Teilprojekt dieser Arbeit wurde, ebenfalls im visuellen Kortex anästhesierter Katzen, die Modulation getriebener Oszillationen durch Zeitversatz zu räumlich entfernten Flickerstimuli untersucht. Es konnte demonstriert werden, dass lokale Antworten in getriebenen Oszillationen durch den zeitlichen Kontext zu Stimuli weit außerhalb des eigenen rezeptiven Feldes beeinflusst werden. Die zeitliche Streuung der Aktionspotentiale relativ zum Stimulus war in der synchronen Bedingung am kleinsten und wuchs mit steigendem Zeitversatz im Flicker. Die spektrale Analyse lokaler Feldpotentiale zeigte, dass für Antwortkomponenten im Gamma-Band die zeitliche Beziehung zum Stimulus durch asynchrones Flickern instabiler wurde, während niederfrequentere Komponenten (< 25 Hz) den gegenteiligen Effekt zeigten. Diese Änderungen waren auch abhängig von kortikaler Aktivierung. Die Ergebnisse beider Teile demonstrieren, dass präzise Zeitstrukturen kortikaler Aktivität frequenzspezifisch moduliert werden können. Die Befunde, die für den Gamma-Frequenzbereich erhoben wurden, stützen die Hypothese, dass kortikale Gamma-Oszillationen bei der Integration sensorischer Reize eine besonderen Rolle spielen. Die Beeinflussung synchroner Gamma-Oszillationen durch das cholinerge System könnte darüber hinaus eine Erklärung für den Zusammenhang zwischen cholinergem Defizit (wie beispielsweise beim Morbus Alzheimer oder beim Zentralen Anticholinergen Syndrom) und kognitiver Dysfunktion liefern.
Korneale Ablationsverfahren zur Korrektur von Myopie, Hyperopie und Astigmatismus bis mittleren Grades haben sich in der refraktiven Chirurgie als sicheres und wirksames Verfahren etabliert. Neben diesen einfachen Abbildungsfehlern gibt es noch Abbildungsfehler höherer Ordnung, welche die Abbildungsqualität des optischen Systems Auge reduzieren. Bisher wurden diese Abbildungsfehler durch konventionelle Excimerlaserbehandlungen induziert. Mit der Entwicklung von Aberrometern soll es nun gelingen, die Induktion von höheren Abbildungsfehlern bzw. vorhandene höhere Abbildungsfehler zusätzlich zur Korrektur des Refraktionsfehlers zu egalisieren. Man erwartet dadurch eine deutliche Verbesserung der Abbildungsqualität des Auges. In dieser Arbeit wurden 97 Augen von 49 Probanden mit einer wellenfrontgeführten LASIK behandelt. Die Untersuchung und Auswertung erfolgte hinsichtlich der Standardparameter der refraktiven Chirurgie (Sicherheit, Wirksamkeit, Stabilität, Vorhersagbarkeit, Komplikationen) sowie hinsichtlich der Veränderungen der Abbildungsfehler höherer Ordnung. Die Untersuchungen fanden präoperativ, nach einem Tag, einer Woche, einem Monat, nach drei Monaten und einem Jahr statt. Die Messung des Wellenfrontfehlers erfolgte präoperativ und nach einem Jahr in Miosis und Mydriasis. Ein Jahr nach der wellenfrontgesteuerten LASIK gewannen 40% der Augen eine Zeile und 5% zwei Zeilen an unkorrigiertem Sehvermögen. Bei 49% blieb das unkorrigierte Sehvermögen unverändert, 6% verloren eine Zeile. Nach einem Jahr wiesen 83% der Augen ein UKSM von 1,0 oder mehr auf. In einem Fall fand sich ein unkorrigiertes Sehvermögen von 1,6. Die Vorhersagbarkeit bis zu zwölf Monaten postoperativ erwies sich als sehr hoch. Alle Augen lagen zu diesem Zeitpunkt innerhalb einer Spannweite von ± 2 dpt, 86% innerhalb von ± 1 dpt und 63% im Bereich von ± 0,5 dpt der angestrebten refraktiven Korrektur. Im Nachbeobachtungszeitraum kam es zu keinen größeren Veränderungen der Refraktion. Am letzten Kontrolltermin ergab sich ein mittleres sphärisches Äquivalent von -0,25 dpt. Intraoperativ kam es zu keinen Komplikationen. In der Frühphase des Nachbeobachtungszeitraums kam es bei 21 Augen zu einer diffusen lamellären Keratitis (DLK) leichten bis mittleren Grades, die aber unter lokaler Kortisonbehandlung folgenlos ausheilte. Im Mittel betrugen die Aberrationen höherer Ordnung („higher order aberrations“- HOA) vor der Behandlung 0,093±0,032 μm für die 3,5 mm Pupille und 0,395±0,134 μm für die 6 mm Pupille. Durch die wellenfrontgeführte LASIK-Behandlung erhöhten sich die Werte auf 0,108±0,05 μm bzw. 0,571±0,244 μm. Somit konnten für eine 3,5 mm Pupille in 45,6% der Augen und in 20,6% der Augen für eine 6 mm Pupille die Abbildungsfehler höherer Ordnung konstant gehalten bzw. verringert werden. Die größte Zunahme der Aberrationen höherer Ordnung zeigte sich für die sphärischen Aberrationen (Z0 4) beim Vergleich der gemessenen Pupillen von 3,5 und 6 mm. Die Vorhersagbarkeit der Abbildungsfehler höherer Ordnung war sehr gering. Alle postoperativen Veränderungen der Abbildungsfehler höherer Ordnung zeigten eine negative Korrelation mit dem präoperativen Wert. Die Ergebnisse der wellenfrontgeführten LASIK erweisen sich hinsichtlich Sicherheit, Wirksamkeit, Stabilität und Vorhersagbarkeit als sehr gut. Dagegen ist die Korrektur der Abbildungsfehler höherer Ordnung noch unzureichend. In keinem Fall konnte der Wellenfrontfehler vollständig korrigiert werden, bei einigen Patienten konnte er zumindest reduziert werden. Technische Weiterentwicklungen und weitere Erfahrungen in der Anwendung dieses Verfahrens sind notwendig, um die Korrektur der höheren Abbildungsfehler zu verbessern.
Am Beispiel des Chirurgen Dr. med. Friedrich Wilhelm Fabricius (1810-1872) im Hospital zum Heiligen Geist in Frankfurt am Main, wird der Weg der Chirurgie vom Handwerk zur Wissenschaft dargestellt. Dr. med. Friedrich Wilhelm Fabricius war bei seinem Dienstantritt im Jahre 1845 der erste Hospitalwundarzt in der 700jährigen Geschichte des Hospitals zum Heiligen Geist in Frankfurt am Main, der an einer Universität Medizin studiert hatte. Seine Vorgänger als Hospitalwundarzt des Hospitals zum Heiligen Geist waren bis dahin alle nicht akademisch ausbebildete Wundärzte gewesen, die eine Ausbildung bei einem Handwerksmeister in der Zunft der Barbiere absolviert hatten. Friedrich Wilhelm Fabricius wurde am 12. November 1810 als Sohn des wohlhabenden Frankfurter Kaufmannes Philipp Julius Fabricius (1775-1849) und Maria Antoinette Franziska Fabricius, geborene Steinhäuser (1786-1859), in Frankfurt am Main geboren. Nach Besuch des Frankfurter Gymnasiums mit dem Abitur als Abschluß studierte er Medizin in Heidelberg und Göttingen. Seine Promotion erfolgte 1831 (Dr. med., chir. et art. obstet.) an der Universität Göttingen bei dem Anatom und Chirurgen Conrad Johann Martin Langenbeck. Das Thema seiner Dissertationsarbeit lautet in deutscher Übersetzung: „Über eine Luxation des Oberschenkelknochens in den Ramus descendens des Sitzbeines“. Nach seiner Rückkehr von einer wissenschaftlichen Reise nach Berlin, Prag, Wien, Paris und London, erhielt er 1832 die Zulassung als praktischer Arzt in Frankfurt am Main. Im Jahre 1834 gründete Fabricius zusammen mit den Ärzten Heinrich Hoffmann („Struwwelpeter-Hoffmann“), Simon Moritz Ponfick, David Eduard Schilling jun., Adolf Schmidt und Johann Georg Varrentrapp jun. die Armenklinik. Nach der Heirat mit Anna Elisabeth Dionysia Heimberger 1835 wurde im Jahre 1839 ein gemeinsamer Sohn geboren, der den Namen seines Großvaters und Taufpaten Philipp Julius bekam. 1841 veröffentlichte Fabricius einen Artikel „Zur Behandlung der Contracturen und Ankylosen des Kniegelenks“ in dem „Archiv für die gesammte Medicin“. Im Jahre 1845 war Fabricius Mitbegründer des „Ärztlichen Vereins“ in Frankfurt, zusammen mit 24 anderen Kollegen, darunter waren auch die Mitbegründer der Armenklinik. Fabricius wurde 1848 zum Vorsitzenden des „Ärztlichen Vereins“ gewählt. Als Ziele des Vereins gibt die Satzung von 1845 gegenseitige wissenschaftliche Belehrung und Förderung des kollegialen Lebens an, später kamen die Förderung der öffentlichen Gesundheitspflege und die Wahrung der Standesinteressen hinzu. Analysiert man die Operationsverfahren, die Fabricius in der Zeit als Hospitalwundarzt im Hospital zum Heiligen Geist von 1845-1872 durchgeführt hat, so zeigt sich, daß von ihm vor allem Amputationen an den Extremitäten (Finger bis Oberarm bzw. Hüfte), inkarzerierte Schenkel- bzw. Leistenhernien und Phimosenoperationen durchgeführt wurden. Fabricius behandelte vor allem Patienten mit septischen Krankheitsbildern, mit Verletzungen, aber auch Patienten mit Bindehautentzündungen. Heute, im Zeitalter der Spezialisierungen, würde man diese Patienten in Spezialabteilungen für septische Chirurgie, Traumatologie und Augenheilkunde behandeln.
Medizinisch-technische Innovationen haben oftmals ihren Ursprung außerhalb des medizinischen Bereichs. Trotzdem werden diese Innovationen erstaunlich positiv aufgenommen, wobei durch sie ein sozialer Wandel, sowohl in der Medizin als auch in der Gesellschaft, in Gang gebracht wird. Dass eine anfangs unbekannte Technologie, die nicht dem ärztlichen Umfeld entstammt, eine große Euphorie auslöst – und nicht Skepsis – ist erstaunlich und bietet sich für Untersuchungen an. Dies ist umso bedeutender, da immer mehr Technologien von außerhalb in der Medizin Einfluss gewinnen. Die Auswirkungen sind hierbei äußerst langfristig. Die Radiologie bietet hierfür interessante Beispiele: Die Röntgenstrahlen wurden vor 110 Jahren entdeckt und haben unverzichtbare Verfahren der diagnostischen Radiologie ermöglicht. Der Computertomograph existiert seit 33 Jahren und hat in dieser Zeit deutliche Fortentwicklungen vollzogen. Die digitalen Bilder des Computertomographen haben heute eine Qualität erreicht, die damals undenkbar war. An das Internet oder die Teleradiologiewurde bei Erfindung des Computertomographen nicht gedacht, dennoch bilden digitale Bilder die Grundlage für weitere Verknüpfungen zwischen Informationstechnik und der Medizin. Die Computertomographie ist daher Ausgangspunkt für eine Digitalisierung in der Medizin. Die Diffusionsforschung technischer Innovationen kann nur unzureichend den extrem raschen Diffusionsverlauf der Computertomographen erklären. Es werden dort nur unzureichend Gründe berücksichtigt, die aus der Medizin kommen. Ein näherer Blick, welche Einflüsse bei der Einbettung medizinisch-technischer Innovationen gegeben sind, die in nichtmedizinischen Bereichen nicht existieren, lohnt sich. Ein Erkenntnisfortschritt kann nur erzielt werden, wenn diese Gründe untersucht werden. Oft wird der allgemeine medizinisch-technische Fortschritt als Erklärungsmuster für vielfältige Veränderungen in der Medizin genommen, lohnend ist jedoch eine Fokussierung auf eine konkrete Technologie. Der medizinisch-technische Fortschritt ist insgesamt für die Erstellung eines Erklärungsmusters zu diffus, um hinreichende Aussagekraft zu liefern. Die Dimensionen des medizinischen und des technischen Fortschrittsunterscheiden sich. Der medizinische Fortschritt bezieht sich auf die Gesundheit, während der technische Fortschritt Produktivitätssteigerungen bezweckt. Obwohl sich durch den Technikeinsatz Änderungen für Ärzte und Gesellschaft ergeben, und Technik in der Medizin an Einfluss gewonnen hat, hat die theoretische Verknüpfung nicht in dem Maß stattgefunden, wie die Technik Einfluss in der Medizin gefunden hat. Theorien, die für Innovationen eine allgemeine Gültigkeit besitzen, werden für die Medizin unzureichend angepasst, daher besteht nur eine oberflächliche Verbindung beider Bereiche. Die Besonderheiten der Medizin bleiben dadurch unbeobachtet oder gehen verloren. Ob ein generalisierender Ansatz das Entstehen und Verbreiten medizinisch-technischer Innovationen richtig erfassen kann, ist zweifelhaft. Soziotechnische Allianzen zwischen Radiologen und Industrie ermöglichen die Einführung einer Innovation. Die teuere Entwicklung der Technologie stellt für den Unternehmer ein Wagnis dar. Die gegenseitigen Beziehungen zwischen Industrie und Radiologen reduzieren das Risiko des Unternehmers und erhöhen die Chance des Arztes ein neues brauchbares Hilfsmittel zu erhalten. Teuere Geräte werden so möglich, da die Akzeptanz in der Medizin signalisiert wurde, dennoch stehen die Auswirkungen des Technikeinsatzes in der Medizin und für die Gesellschaft zu diesem Zeitpunkt noch gar nicht fest. Der medizinische Nutzen ist u. U. ebenfalls noch ungeklärt.
In der vorliegenden Untersuchung sollte geklärt werden, inwieweit sich Veränderungen des Vokaltraktes nach der Eingliederung neuer Totalprothesen auf die /s/-Lautbildung auswirken und ob in einem Untersuchungszeitraum von 8 Wochen eine Rückkehr zur gewohnten Lautbildung stattfindet. Hierzu wurden Sprechproben mit Hilfe von zwei Testsätzen von 35 Patienten der klinischen Behandlungskurse der Zahnersatzkunde der Poliklinik für Zahnärztliche Prothetik über die Soundkarte eines Computers direkt aufgezeichnet. Zunächst wurden Aufnahmen mit der „alten“ Prothese angefertigt. Die Nachuntersuchungen wurden direkt nach Eingliederung der „neuen“ Prothesen sowie 2 beziehungsweise 8 Wochen später durchgeführt. Zu dem letzten Untersuchungstermin wurden noch 19 Probanden vorstellig. Aus den so gewonnenen Datensätzen wurden 4 /s/-Laute („s“ aus „Eisen“[= /z/ im IPA], „ß“ aus „heiß“ [=/s/ im IPA], „z“ aus „Holz“ [= /ts/ im IPA] und „sch“ aus „Unterschied“ [= /../ im IPA]) ausgewählt und der instrumentalphonetischen Analyse zugeführt. Mit Hilfe der Sprachanalysesoftware PRAAT (Amsterdam) wurde der Center of Gravity des jeweiligen Lautes errechnet und in eine Excel-Tabelle zur statistischen Auswertung übertragen. Des Weiteren wurden subjektive Einschätzungen der Sprachqualität durch die Probanden selbst zu den verschiedenen Untersuchungszeitpunkten in Form von visuellen Analogskalen (VAS) erhoben und ebenfalls statistisch ausgewertet. Nach Auswertung der gewonnenen Daten stellte sich heraus, dass die stärkste relative Veränderung bezüglich der mittleren Frequenz zum Zeitpunkt der Eingliederung der „neuen“ Prothese im Bereich des stimmhaften „s“ (= /z/ nach IPA) zu finden waren. Die Veränderungen waren jedoch aufgrund der großen Schwankungen der Messwerte statistisch nicht signifikant. Signifikante Veränderungen konnten nur zwischen der „alten“ Prothese im Vergleich mit der „neuen“ Prothese in der 2. und 8. Woche nach Eingliederung bei den Messungen des /s/ aus „heiß“ und des /ts/ aus „Holz“ festgestellt werden. Die visuelle Analogskala (VAS) ergab signifikant höhere Werte (schlechtere Sprache) für die „neue“ Prothese direkt nach Eingliederung im Vergleich zur „alten“ Prothese. Nach 8 Wochen kehrten die Werte der VAS auf das Ausgangslevel zurück, obwohl zu diesem Zeitpunkt signifikante Veränderungen der Sprache nachweisbar waren. Daraus folgt, dass eine Beurteilung der Sprache direkt nach Eingliederung einer neuen Totalprothese nur sehr begrenzt möglich ist. Auch führt nicht jeder messtechnisch nachweisbare Unterschied der /s/-Lautbildung zu einer Unzufriedenheit des Patienten.
Das Proteus-Syndrom zeichnet sich durch variable Manifestationen und überlappende Symptomatik mit anderen Syndromen aus, die mit partiellem Riesenwuchs assoziiert sind. Die extreme klinische Variabilität wirft diagnostische Schwierigkeiten auf. Da das verantwortliche Gen noch nicht gefunden wurde, kann die Diagnose des Proteus-Syndroms nur klinisch gestellt werden. In der vorliegenden Arbeit wurden 11 Patienten mit der anfänglichen Diagnose des Proteus-Syndroms am Institut für Humangenetik der Johann Wolfgang Goethe Universität Frankfurt am Main vorgestellt, untersucht und deren Verlauf dokumentiert. Die mittlere Verlaufdokumentation lag bei 10 ½ Jahren. Die diagnostischen Kriterien vom National Institute of Health dienten als Grundlage für die Diagnostik des Proteus-Syndroms. Diese wurden durch zwei Aspekte ergänzt: die Beteiligung des ZNS und ophthalmologische Veränderungen. Bei vier Patienten konnte das Proteus-Syndrom diagnostiziert werden. Bei zwei Patienten konnte das Proteus-ähnliche Syndrom, bei zwei die Macrodystrophia lipomatosa progressiva sowie jeweils bei einem die Macrodactylia simplex congenita, das Bannayan-Zonana-Syndrom und das Klippel-Trenaunay-Syndrom festgestellt werden. Die Daten von vier Patienten wurden 51 publizierten Proteus-Syndrom Patienten gegenübergestellt, die als Vergleichsbasis zur Syndrombeschreibung sowie Abgrenzung gegenüber anderen Syndromen, die mit partiellem Riesenwuchs assoziiert sind, dienten. Die übrigen sieben Patienten wurden zur Unterstreichung der Differentialdiagnosen vorgestellt. Durch unsere Studie konnte Folgendes herausgearbeitet werden: Beim Proteus-Syndrom ist der partielle Riesenwuchs das im Vordergrund stehende Merkmal, welches bei allen Patienten in unterschiedlicher Ausprägung auftrat. Dabei können sowohl die Extremitäten (95%), der Knochen in Form von Hyperostosen des Schädels (44%) und des Gehörkanals (17%) als auch innere Organe wie die Milz (4%) und die Nieren (10%) betroffen sein. Im Laufe des Wachstums bildete sich bei 85% der Patienten eine Skoliose aus. Das Auftreten einer zerebriformen Weichteilhypertrophie (47%) neben anderen Befunden gilt als pathognomonisches Merkmal, welches für die Diagnosestellung ausreicht. Epidermale Nävi wurden bei 67 % der Patienten beobachtet. Zu den häufigsten Tumoren zählen Lipome (62%) und vaskuläre Malformationen, wie Hämangiome (50%), Varizen (16%) und Lymphangiome (22%). Bereiche mit atrophierter Subkutis (31%) können neben Lipomen beim gleichen Patienten beobachtet werden. Die Inzidenz von seltenen Neoplasien wie beidseitigem ovariellen Zystadenomen (10%), Parotisadenomen (2%) oder Meningiomen (6%) ist mit insgesamt 29% im Vergleich zur Gesamptpopulation (0,17%) deutlich erhöht. Auch thrombo-embolische Ereignisse und zystische Lungenveränderungen (10%), die vorzeitigen Tod (20%, n=97) bedingen können sind gehäuft. Ophthalmologische Veränderungen wurden bei 35% der Patienten angetroffen. Das ZNS ist in Form von zerebralen Veränderungen bei 36% der Patienten involviert, eine mentale Retardierung lag bei 27% vor. Die Krankheit tritt sporadisch auf, der Verlauf ist progredient bei mosaikhafter Verteilung der Läsionen. Als Ursache dafür wird ein somatisches postzygotisches Mosaik postuliert, welches im Nicht-Mosaik-Zustand letal wäre. Das Wiederholungsrisiko für Geschwister ist daher als gering einzuschätzen. Eine engmaschige multidisziplinäre Betreuung der Patienten durch Spezialisten ist unerlässlich. Chirurgische Eingriffe sollen nur nach sorgfältiger Abwägung der Risiken durchgeführt werden.
In dieser Arbeit sollen zwei Themenkomplexe, jeder für sich außerordentlich interessant und vielschichtig, betrachtet und verknüpft werden. Das direkte Einbinden von lebenden Tieren in die Lehre des Lebendigen ist nicht nur sinnvoll, sondern wichtig und wird auch von den Rahmenplänen Biologie empfohlen. Mit dem Einsatz von Tieren im Unterricht wird sich an verschiedenen Stellen beschäftigt (z.B. OGILVIE & STINSON 1995). Der Klasse Reptilia kommt dabei aber vergleichsweise wenig Beachtung zu. Voraussetzung für die Haltung von Tieren in der Schule, die in der Öffentlichkeit steht und eine beachtliche Vorbildsfunktion inne hat, ist unter anderem, dass eine „artgerechte“ Unterbringung und Pflege möglich ist. Was unter der Bezeichnung einer „artgerechten Tierhaltung“ verstanden wird, ist alles andere als eindeutig. Deshalb soll die Thematik mit Bezug auf die Reptilienhaltung in der Schule beleuchtet werden.
Die Dissertation verfolgt zwei Ziele: (1) Detaillierte Analyse der Zusammenhänge zwischen Kundenkenngrößen, Erfolgsmaßen des wertbasierten Kundenmanagements und insbesondere dem Unternehmenswert, (2) Entwicklung eines Ansatzes zur externen Berichterstattung der Kundenkenngrößen sowie Erfolgsmaße des wertbasierten Kundenmanagements, der die Kriterien der Finanzberichterstattung erfüllt.
Customer channel migration
(2006)
Customer Channel Migration deals with the active management of a customer's channel usage behavior with the aim to increase her profitability and lifetime. Hence, the dissertation answers two distict questions: on one hand, it investigates the impact of channel use on a customer's profitability and lifetime. On the other hand, it is researched how a customer's channel usage behavior can be influenced and managed. The cumulative dissertation consists of five articles: the first article describes the matching method and its application to marketing problems. The matching method is necessary to estimate the unbiased impact of channel use on a customer's profitability and lifetime. The second article describes the application of the matching method in order to determine the monetary implications of using the internet in the financial services industry. The third article investigates the impact of the internet use on a customer's lifetime. The forth and the fifth article of the dissertation both investigate the management of a customer's channel usage behavior. The forth article designs a scale to measure a customer's perceived channel value. The fifth article builds upon these findings and develops a model which explains a customer's channel usage behavior. Based on these insights this article derives some managerial implications on how to manage customers between different channels.
Nuclear matter, that takes the form of protons and neutrons under normal conditions, is subject to a phase transition at high temperatures and densities, liberating the quarks and gluons that are usually confined in nucleons and creating a medium of free partons: the Quark-Gluon-Plasma. It is generally believed that this state of matter can be created in relativistic collisions of heavy nuclei. The study of the medium created in these collisions is the subject of heavy-ion physics. One topic within this field are particles with high transverse momentum, that are created in initial hard collisions between partons of the incoming nuclei. The energetic partons lose energy due to interactions with the medium before they fragment into a jet of hadrons. Due to momentum conservation, these jets are usually created as back-to-back pairs, or less commonly as three-jet or photon-jet events, where a single jet is balanced by a hard photon. The energy loss can be measured using correlations between particles with high transverse momenta. A trigger particle is selected with very high transversemomentum and the distribution of the azimuthal angle of associated particles in the same event is studied, relative to the azimuth of the trigger particle.These azimuthal correlations show a peak for opening angles around 0 from particles selected from the same jet, and a second peak at opening angles around 180 degrees from back-to-back di-jets. Random combinations with the underlying event generate a flat background, extending over the full range of opening angles. The STAR experiment observed a modification of these correlations in central Au+Au collisions, where trigger particles with 4GeV < pT(trigger) < 6GeV and associated particles with 2GeV < pT(trigger) < 4GeV were selected. A strong suppression has been observed for away-side correlations in central Au+Au collisions, relative to p+p, d+Au and peripheral Au+Au data. This can be explained by assuming two partons going in opposite directions, where at least one has to travel a large distance through the medium, causing energy loss and effectively removing the event from the analysis. For near-side correlations, no significant modification has been observed, which can be explained by surface emission, assuming that the observed jets have travelled only a short distance in themedium, not leaving enough time for interactions with the medium. Both trigger- and associated particles in a correlation analysis with charged hadrons are subject to modifications due to the medium. This can be avoided by using photon-jet events instead of di-jets, because the photon does not interact with the medium and therefore provides the best available measure of the properties of the opposite jet in the presence of the underlying event. This thesis studies azimuthal correlations between regions of high energy deposition in the electro-magnetic calorimeter as trigger- and charged tracks as associated particles. The data sample had been enriched by online event selection, allowing for the selection of trigger particles with a transverse energy of more than 10GeV and associated particles with more than 2,3 or 4 GeV. The away-side yield per trigger particle is strongly suppressed like in correlations between charged particles. The near-side yield is also reduced by about a factor two, clearly different from charged correlations. The trigger particles are a mixture of photon pairs from the decays of neutral pions and single photons, mainly from photon-jet events, with small contributions from other hadron decays and fragmentation photons. Pythia simulations predict a ratio of neutral pions to prompt photons of 3.5:1 in p+p collisions with the same cuts as in the presented analysis. Single particle suppression further reduces this ratio in central Au_Au collisions, down to about 0.8:1, indicating that the majority of trigger particles in central Au+Au collisions are prompt photons. The increasing fraction of prompt photon triggers without an accompanying jet and therefore zero associated yield reduces the average yield per trigger particle. The magnitude of the observed effect agrees well with the expectation from Pythia simulations and the assumption of a single particle suppression by a factor 4-5. An analysis of away-side correlations is more difficult, because both photon-jet and di-jet events contribute. The aim is the separation of these two contributions. As a clear separation is not possible with the available dataset, a comparison with two different scenarios is given, where a surprisingly small suppression by only a factor of about 5 is favoured for both dijet- and photon-jet-correlations. A separate measurement of both contributions will be possible by a shower-shape analysis with the EM calorimeter or a comparison with charged correlations in the same kinematic region.
Fraktale Planetengenerierung
(2006)
Wie die Diplomarbeit gezeigt hat, lassen sich zwar ganze Planeten ohne größere Verzerrungen mit Hilfe fraktaler Methoden modellieren. Allerdings stößt die Darstellungsqualität an ihre Grenzen, da sich gängige Level-of-Detail-Algorithmen, wie ROAM bzw. Röttger, nicht einfach an die durch das Surface-Refinement gegebenen Bedingungen anpassen. Insbesondere die Triangulierung durch gleichseitige Dreiecke hat sich als problematisch erwiesen. Ohne diese LOD-Techniken kann aber nur eine relativ geringe Auflösung berechnet werden. Der vorgestellte Level-of-Detail-Algorithmus stellt zwar keinen Ersatz für die obengenannten Verfahren dar. Er bietet aber eine sehr gute Grundlage, denn er schränkt einfach und dadurch sehr schnell den Bereich ein, in dem sich der Betrachter bzw. die virtuelle Kamera befindet. Dies ist vorallem auch deshalb wichtig, weil die bisher entwickelten LOD-Algorithmen nur mit vergleichsweise kleinen Flächen wirklich effizient funktionieren. Eine Kombination aus dem in der Diplomarbeit entwickelten Verfahren und einem ROAM/Röttger-ähnlichen Algorithmus würde deren jeweiligen Schwächen beheben. Die eigentliche Modellierung der Landschaft bzw. der Gebirgszüge lässt sich dagegen problemlos auch auf sphärische Körper übertragen, zumindest wenn man dafür den Plasma-Algorithmus verwendet.
Studienführer
(2006)
... Mit fast 35.000 Studierenden, darunter rund 7.000 AusländerInnen aus 129 Nationen, zählt die Johann Wolfgang Goethe-Universität zu den zehn größten Hochschulen Deutschlands. Unsere Universität bietet eine besonders rege Studienatmosphäre, die nicht nur durch die große Breite wissenschaftlicher Disziplinen, sondern auch durch das Ambiente einer der europäischen Metropolen geprägt ist. ...
Aim of the study: Investigation, whether water-filtered infrared-A (wIRA) irradiation during moderate bicycle ergometer endurance exercise has effects especially on local fat reduction and on weight reduction beyond the effects of ergometer exercise alone.
Methods: Randomised controlled study with 40 obese females (BMI 30-40 (median: 34.5), body weight 76-125 (median: 94.9) kg, age 20-40 (median: 35.5) years, isocaloric nutrition), 20 in the wIRA group and 20 in the control group. In both groups each participant performed 3 times per week over 4 weeks for 45 minutes bicycle ergometer endurance exercise with a constant load according to a lactate level of 2 mmol/l (aerobic endurance load, as determined before the intervention period). In the wIRA group in addition large parts of the body (including waist, hip, and thighs) were irradiated during all ergometries of the intervention period with visible light and a predominant part of water-filtered infrared-A (wIRA), using the irradiation unit “Hydrosun® 6000” with 10 wIRA radiators (Hydrosun® Medizintechnik, Müllheim, Germany, radiator type 500, 4 mm water cuvette, yellow filter, water-filtered spectrum 500-1400 nm) around a speed independent bicycle ergometer.
Main variable of interest: change of “the sum of circumferences of waist, hip, and both thighs of each patient” over the intervention period (4 weeks). Additional variables of interest: body weight, body mass index BMI, body fat percentage, fat mass, fat-free mass, water mass (analysis of body composition by tetrapolar bioimpedance analysis), assessment of an arteriosclerotic risk profile by blood investigation of variables of lipid metabolism (cholesterol, triglycerides, high density lipoproteins HDL, low density lipoproteins LDL, apolipoprotein A1, apolipoprotein B), clinical chemistry (fasting glucose, alanin-aminotransferase ALT (= glutamyl pyruvic transaminase GPT), gamma-glutamyl-transferase GGT, creatinine, albumin), endocrinology (leptin, adiponectin (= adipo Q), homocysteine, insulin). All variables were at least measured before and after the intervention period. Ergometry (ECG, blood pressure behaviour, lactate curve with power at 2, 3 and 4 mmol/l) before the intervention period. In addition: nutrition training ahead of and during the intervention period with a nutrition protocol over one week for assessment of the daily energy intake; calculation of basic metabolic rate and total energy requirement. Assessment of undesired effects.
Only methods of non-parametric statistics were used, both descriptive (median, percentiles of 25 and 75 (= interquartile range), minimum, maximum) and confirmatory (two-sided Mann-Whitney U test for unpaired samples for the only one main variable of interest). Total error probability: .05 (5%). An intention to treat analysis ITT with last observed carry forward method was used preferably (presented results) and in addition an on treatment analysis OT. Only 2 (treatment group) and 4 (control group) drop-outs occurred (mostly due to lack of time).
Results: The “sum of circumferences of waist, hip, and both thighs of each patient” decreased during the 4 weeks significantly more (p<.001) in the wIRA group than in the control group: medians and interquartile ranges: -8.0 cm (-10.5 cm/-4.1 cm) vs. -1.8 cm (-4.4 cm/0.0 cm).
As well “body weight of each patient” decreased during the 4 weeks markedly more in the wIRA group than in the control group: medians and interquartile ranges: -1.9 kg (-4.0 kg/0.0 kg) vs. 0.0 kg (-1.5 kg/+0.4 kg); median of body weight changed from 99.3 kg to 95.6 kg (wIRA) vs. 89.9 kg to 89.6 kg (control). A similar effect showed the body mass index BMI.
Blood variables of interest remained unchanged or showed some slight improvements during the treatment period, concerning most variables with no obvious differences between the two groups; insulin showed a slight trend to decrease in the wIRA group and to increase in the control group.
Undesired effects of the treatment were not seen.
Discussion: The results of the study suggest, that wIRA – during moderate bicycle ergometer endurance exercise as lipolytic stimulus – increases local lipolysis with a local fat reduction (thighs) in the otherwise bradytrophic fatty tissue. The presumably underlying mechanisms of wIRA have already been proven: wIRA acts both by thermal effects and by non-thermal effects. Thermal effects of wIRA are the generation of a therapeutic field of warmth with the increase of tissue temperature, tissue oxygen partial pressure, and tissue blood flow, and by this regional metabolism. As fatty tissue normally has a slow metabolism (bradytrophic and hypothermic tissue) with a low rate of lipolysis, wIRA can increase lipolysis in fatty tissue and the mobilized fats are burned in musculature during the ergometer exercise.
Conclusion: The results of the study indicate, that wIRA irradiation during moderate ergometer endurance exercise can be used – in combination with an appropriate nutrition – to improve body composition, especially local fat distribution, and the reduction of fat and body weight in obese persons.
RNA interference (RNAi) has emerged as a powerful tool to induce loss-of-function phenotypes by post-transcriptional silencing of gene expression. In this study we wondered whether inducible RNAi-cassettes integrated into cellular DNA possess the power to trigger neoplastic growth. For this purpose inducible RNAi vectors containing tetracycline (Tet)-responsive derivatives of the H1 promoter for the conditional expression of short hairpin RNA (shRNA) were used to target human polo-like kinase 1 (Plk1), which is overexpressed in a broad spectrum of human tumors. In the absence of doxycycline (Dox) HeLa clones expressing TetR, that carry the RNAi-cassette stably integrated, exhibited no significant alteration in Plk1 expression levels. In contrast, exposure to Dox led to marked downregulation of Plk1 mRNA to 3% and Plk1 protein to 14% in cell culture compared to mismatch shRNA/Plk1-expressing cells. As a result of Plk1 depletion cell proliferation decreased to 17%. Furthermore, for harnessing RNAi for silencing disease-related genes in vivo we transplanted inducible RNAi-HeLa cells onto nude mice. After administration of Dox knockdown of Plk1 expression was observed correlating to a significant inhibition of tumor growth. Taken together, our data revealed that genomically integrated RNAi-elements are suitable to hamper tumor growth by conditional expression of shRNA.
Natural objects provide partially redundant information to the brain through different sensory modalities. For example, voices and faces both give information about the speech content, age, and gender of a person. Thanks to this redundancy, multimodal recognition is fast, robust, and automatic. In unimodal perception, however, only part of the information about an object is available. Here, we addressed whether, even under conditions of unimodal sensory input, crossmodal neural circuits that have been shaped by previous associative learning become activated and underpin a performance benefit. We measured brain activity with functional magnetic resonance imaging before, while, and after participants learned to associate either sensory redundant stimuli, i.e. voices and faces, or arbitrary multimodal combinations, i.e. voices and written names, ring tones, and cell phones or brand names of these cell phones. After learning, participants were better at recognizing unimodal auditory voices that had been paired with faces than those paired with written names, and association of voices with faces resulted in an increased functional coupling between voice and face areas. No such effects were observed for ring tones that had been paired with cell phones or names. These findings demonstrate that brief exposure to ecologically valid and sensory redundant stimulus pairs, such as voices and faces, induces specific multisensory associations. Consistent with predictive coding theories, associative representations become thereafter available for unimodal perception and facilitate object recognition. These data suggest that for natural objects effective predictive signals can be generated across sensory systems and proceed by optimization of functional connectivity between specialized cortical sensory modules.
Background The proto-oncogene pituitary tumor-transforming gene (PTTG) has been shown to be abundantly overexpressed in a large variety of neoplasms likely promoting neo-vascularization and tumor invasiveness. In this study, we investigated a potential role for PTTG mRNA expression as a marker to evaluate the future clinical outcome of patients diagnosed with primary cancer of the head and neck. Methods Tumor samples derived from primary tumors of 89 patients suffering from a squamous cell carcinoma were analyzed for PTTG mRNA-expression and compared to corresponding unaffected tissue. Expression levels were correlated to standard clinico-pathological parameters based on a five year observation period. Results In almost all 89 tumor samples PTTG was found to be overexpressed (median fold increase: 2.1) when compared to the unaffected tissue specimens derived from the same patient. The nodal stage correlated with PTTG transcript levels with significant differences between pN0 (median expression: 1.32) and pN+ (median expression: 2.12; P = 0.016). In patients who developed a tumor recurrence we detected a significantly higher PTTG expression in primary tumors (median expression: 2.63) when compared to patients who did not develop a tumor recurrence (median expression: 1.29; P = 0.009). Since the median expression of PTTG in patients with tumor stage T1/2N0M0 that received surgery alone without tumor recurrence was 0.94 versus 3.82 in patients suffering from a tumor recurrence (P = 0.006), PTTG expression might provide a feasible mean of predicting tumor recurrence. Conclusion Elevated PTTG transcript levels might be used as a prognostic biomarker for future clinical outcome (i.e. recurrence) in primary squamous cell carcinomas of the head and neck, especially in early stages of tumor development.
Wie wird man Formal- bzw. Sacherschließer?
Was macht ein Formal- bzw. Sacherschließer?
Unterschiedliche Traditionen. Ausblick in die Zukunft
Unterschiede in der derzeitigen Erschließungspraxis
Kooperative Erschließungsprogramme
Herkunft bibliografischer Datensätze: Wo kommen sie her?
Herausforderungen der Zukunft
The paper will provide a brief background to the history of the organization and cooperative efforts of African studies librarians in the United States including their efforts at international cooperation. Particular emphasis will be placed on the current opportunities for improved cooperation as digitization activities increase. Examples will include the DISA and Aluka initiatives and well as the Timbuktu manuscript digitization project at the Center for Research Libraries. Particular emphasis will placed on the possibilities for German-North American cooperation in the area of digital projects of historical photographs given the extensive collections held at Northwestern and Frankfurt.
... This year's Scientific Symposium of the University Library is already number six in the row. It was again prepared and organised like some of the previous conferences together with our North American partners. This means that a continuous specialists’ discussion and a professional partnership have been already installed. All librarians and information managers are invited to learn more about the results of this cooperation every year when it's time for the next Symposium during Frankfurt Book Fair. ...
Im Zuge der wachsenden Bedeutung von ELearning an Hochschulen beschäftigt sich diese Arbeit mit dem Einsatz von WebCT an der Johann Wolfgang Goethe Universität in Frankfurt am Main. In der vorliegenden Arbeit soll untersucht werden, inwieweit es nötig und möglich ist, WebCT hinsichtlich Benutzerfreundlichkeit, der Realisierung technischer Ideen und der pädagogischen Einsatzmöglichkeiten einzelner Tools zu optimieren. Aufgrund von Erfahrungen unsererseits, aus der Sicht als Kursteilnehmer mehrerer Lehrveranstaltungen mit Unterstützung von WebCT, im Sinne von Blended Learning und zu einem späteren Zeitpunkt als Tutoren in einem auf WebCT basierendem Seminars stellten wir fest, dass sich die Einbindung von WebCT als ELearning Plattform als aufwendig erwies. Dies könnte an mangelnden technischen Kenntnissen und Möglichkeiten liegen als auch an der nachlassenden Nutzung von Seiten der Studenten im Laufe des Semesters. Für uns stellte sich nun die Frage, wie WebCT optimiert werden kann, damit sich der didaktisch sinnvolle Einsatz in Lehrveranstaltungen erhöht. Die Diplomarbeit unterteilt sich in zwei Abschnitte; zum Ersten in die Analyse von WebCT, anhand der Kriterien und der Interviews und zum Zweiten in die Interviewauswertung und – interpretation einschließlich der technischen Optimierung.
Large American research libraries have been acquiring - by purchase and by lease - huge multi-disciplinary electronic collections of primary and secondary source materials. For example, the Digital Evans and Canadian Poetry easily make available to scholars primary materials that once were scattered in libraries across North America and Europe. The American State Papers, 1789 – 1838 collection allows easier searching of fragile rare materials. Collections made by libraries digitizing their own holdings, such the Archive of Early American Images from the John Carter Brown Library at Brown University, make research materials more discoverable and usable. Yet recent scholarship in American Studies by American and European scholars makes relatively little use of these new materials. Both disparities and congruities in what scholars use and what research libraries collect are apparent. Some simple reasons explain the dissonance. Furthermore, conversations with scholars suggest that materials and collections alone will not suffice to support research. Librarians’ skills and actions will increase the value of the new research materials.
We examine experimental signatures of TeV-mass black hole formation in heavy ion collisions at the LHC. We find that the black hole production results in a complete disappearance of all very high p_T (> 500 GeV) back-to-back correlated di-jets of total mass M > M_f ~ 1 TeV. We show that the subsequent Hawking-decay produces multiple hard mono-jets and discuss their detection. We study the possibility of cold black hole remnant (BHR) formation of mass ~ M_f and the experimental distinguishability of scenarios with BHRs and those with complete black hole decay. Finally we point out that a Heckler-Kapusta-Hawking plasma may form from the emitted mono-jets. In this context we present new simulation data of Mach shocks and of the evolution of initial conditions until the freeze-out.
We propose to measure azimuthal correlations of heavy-flavor hadrons to address the status of thermalization at the partonic stage of light quarks and gluons in high-energy nuclear collisions. In particular, we show that hadronic interactions at the late stage cannot significantly disturb the initial back-to-back azimuthal correlations of DDbar pairs. Thus, a decrease or the complete absence of these initial correlations does indicate frequent interactions of heavy-flavor quarks and also light partons in the partonic stage, which are essential for the early thermalization of light partons.
The experimental signatures of TeV-mass black hole (BH) formation in heavy ion collisions at the LHC is examined. We find that the black hole production results in a complete disappearance of all very high p_T (> 500 GeV) back-to-back correlated di-jets of total mass M > M_f ~ 1 TeV. We show that the subsequent Hawking-decay produces multiple hard mono-jets and discuss their detection. We study the possibility of cold black hole remnant (BHR) formation of mass ~ M_f and the experimental distinguishability of scenarios with BHRs and those with complete black hole decay. Due to the rather moderate luminosity in the first year of LHC running the least chance for the observation of BHs or BHRs at this early stage will be by ionizing tracks in the ALICE TPC. Finally we point out that stable BHRs would be interesting candidates for energy production by conversion of mass to Hawking radiation.
The concept of Large Extra Dimensions (LED) provides a way of solving the Hierarchy Problem which concerns the weakness of gravity compared with the strong and electro-weak forces. A consequence of LED is that miniature Black Holes (mini-BHs) may be produced at the Large Hadron Collider in p+p collisions. The present work uses the CHARYBDIS mini-BH generator code to simulate the hadronic signal which might be expected in a mid-rapidity particle tracking detector from the decay of these exotic objects if indeed they are produced. An estimate is also given for Pb+Pb collisions.
We develop a 1+1 dimensional hydrodynamical model for central heavy-ion collisions at ultrarelativistic energies. Deviations from Bjorken's scaling are taken into account by implementing finite-size profiles for the initial energy density. The calculated rapidity distributions of pions, kaons and antiprotons in central Au+Au collisions at the c.m. energy 200 AGeV are compared with experimental data of the BRAHMS Collaboration. The sensitivity of the results to the choice of the equation of state, the parameters of initial state and the freeze-out conditions is investigated. The best fit of experimental data is obtained for a soft equation of state and Gaussian-like initial profiles of the energy density.
Reasoning about the correctness of program transformations requires a notion of program equivalence. We present an observational semantics for the concurrent lambda calculus with futures Lambda(fut), which formalizes the operational semantics of the programming language Alice ML. We show that natural program optimizations, as well as partial evaluation with respect to deterministic rules, are correct for Lambda(fut). This relies on a number of fundamental properties that we establish for our observational semantics.
Ziel der vorliegenden Arbeit war es, die Mechanismen aufzuklären, die im Rahmen inflammatorischer Erkrankungen zur Expression sogenannter Akute Phase Proteine führen. Der Fokus lag hierbei auf der Untersuchung von Signaltransduktionkaskaden, die aktiviert durch proinflammatorische Zytokine in der Leber die Bildung proatherogener Plasmaproteine wie C-reaktives Protein zur Folge haben. Zu diesem Zweck sollten verschiedene in vitro Zellmodelle etabliert und evaluiert werden. Neben Genexpressionsanalysen in zytokin-stimulierten primären humanen Hepatozyten, sowie in den Hepatoma-Zellinien HepG2 und Hep3B sollte die Manipulation der CRP-Expression durch gezielten Gentransfer und die Anwendung der siRNA-Technologie im Mittelpunkt dieser Arbeit stehen. Zu diesem Zweck sollten Transkriptionsfaktoren der NFKB-Familie, sowie der Familie der „Signal transducer and activator of transcription“ (STAT) und der CCAAT/Enhancer-bindenden Proteine (C/EBP) überexprimiert werden, bzw. deren Expression durch die Transfektion mit entsprechenden siRNA-Oligonukleotide gehemmt werden. Ein weiteres wichtiges Ziel war es, ein zelluläres Modellsystem zu generieren und zu charakt-erisieren, das zur Identifizierung von Substanzen geeignet ist, die die CRP-Expression modu-lieren oder inhibieren.
Protonen gekoppelter Elektronentransfer ist ein zentraler Bestandteil der chemiosmotischen Theorie. Die Beschreibung seiner Natur ist aufgrund seines transienten Charakters eine komplexe Aufgabe. Elektrometrische Messungen stellen hier eine große Hilfe in der Erfassung von Ladungsverschiebungen dar. Sie erlauben die zeitliche Beschreibung des Elektronen- und Protonentransportes, der mit kaum einer geeigneten Methode beobachtet werden kann, und geben Einblick in deren molekularen Mechanismus. Diese Technik wurde hier an drei verschiedenen Membrankomplexen der Atmungskette angewandt: der Cytochrom c Oxidase (COX) aus Paracoccus denitrificans, der Quinol-Fumarat-Reduktase (QFR) aus Wolinella succinogenes und dem bc(1)-Komplex aus Saccharomyces cerevisiae. Hinsichtlich der experimentellen Vorgehensweise für kinetische Untersuchungen stellte sich ein übergreifendes Problem. Neben einer schnellen Aktivierung der Enzymsysteme bedurfte es eines definierten Ausgangszustands. Ziel dieser Arbeit war das Etablieren von Bedingungen, die elektrometrische Messungen am bc(1) und der QFR erlauben, sowie die Fortführung dieser Methodik am bereits vorhandenen System der COX. Cytochrom c Oxidase Elektrometrische Untersuchungen an der COX wurden basierend auf Vorarbeiten weitergeführt. Insbesondere die Ladungsverschiebungen nach Photoreduktion ausgehend vom völlig oxidierten Zustand rückten in den Fokus. In diesem Schritt wird ein Proton aufgenommen, während Häm a vom angeregten Zustand eines Rutheniumkomplexes reduziert wird. Dieses Verhalten ist unabhängig vom heterogenen Ausgangszustand der COX, er wird jedoch durch eine Änderung des pH-Wertes beeinflußt. Der heterogene Ausgangszustand im O-E-Übergang wurde in einem sequentiellen Modell diskutiert. Dabei wurde auf die Diskrepanz zwischen den elektrometrischen und den publizierten spektroskopischen Messungen hingewiesen. Während spektroskopisch die Cu(A)-Oxidation und Häm a-Reduktion in einer Phase verliefen, wurde in den elektrometrischen Messungen eine zweite deutlich langsamere Phase für den Protonentransfer beobachtet. Ein sequentielles Reaktionsmodell führte hier zu einem Widerspruch. Die Auswirkungen auf die Natur der Kopplung von Häm a und dem aufgenommenen Proton wurden diskutiert. Die Kinetik der Ladungsverschiebung wurde detailliert anhand der Temperaturabhängigkeit und des Isotopeneffektes untersucht und mit den Ergebnissen aus den Messungen an einem thermophilen Enzym, der ba(3)-Oxidase aus Thermus thermophilus, verglichen. Quinol-Fumarat-Reduktase Für eine schnelle Aktivierung der QFR wurde ein caged Fumarat synthetisiert, das nach Photolyse zu einer schnellen Erhöhung der Fumaratkonzentration führte. Die neue Substanz wurde bezüglich einer möglichen Verwendung für die QFR charakterisiert. Die Freisetzung erfolgte mit einer Zeitkonstante von 0,1 ms und aktivierte die QFR nur im photolysierten Zustand. Aufgrund der Photochemie der metallischen Kofaktoren in der QFR konnten jedoch keine kinetischen Messungen durchgeführt werden. Da die photochemisch induzierten Elektronenbewegungen in der QFR mit zunehmender Wellenlänge abnahmen, wurde eine neue Substanz vorgeschlagen, die im sichtbaren Spektralbereich gespalten werden kann. bc(1)-Komplex Der bc(1)-Komplex kann wie die COX durch einen Rutheniumkomplex aktiviert werden. Ein dimerer sowie ein an Cytochrom c gekoppelter Rutheniumkomplex wurde hierfür anhand von Literaturdaten synthetisiert, und die Verbindungen wurden hinsichtlich ihrer Eigenschaften nach Lichtanregung charakterisiert. Für die elektrometrischen Messungen wurde der bc(1)-Komplex in Proteoliposomen rekonstituiert, und der Ausgangszustand des bc(1)-Komplexes unter reduktiven und oxidativen Bedingungen eingestellt. Mit dem dimeren Rutheniumkomplex wurden elektrometrische Experimente durchgeführt, die zu zwei Phasen in der Spannungsantwort führten. Die Daten wurden zusammen mit den publizierten spektroskopischen diskutiert. Dabei wurde eine schnelle elektrogene Phase einem Elektronentransfers zwischen Häm c(1) und dem Eisen-Schwefel-Cluster des Rieske-Proteins zugeordnet. Eine langsamere Phase erwies sich sensitiv gegenüber Antimycin und spiegelt Vorgänge unter der Kontrolle der Q(i)-Bindungsstelle wider.
Aus Fruktose-gezogenen Zellen von A. woodii, die in Gegenwart von Caffeat als Elektronenakzeptor gewachsen waren, wurde durch Behandlung mit Lysozym und anschliessendem French-Press-Aufschluß bei niedrigem Druck ein zellfreier Rohextrakt unter strikt anaeroben Bedingungen hergestellt. Dieser katalysierte eine H2-abhängige Caffeatreduktion mit Raten von 8,7 – 18,7 nmol/min x mg Protein. Die Aktivität war strikt ATP-abhängig. Nach einer Auftrennung des Rohextraktes in Cytoplasma- und Membranfraktion war die H2-abhängige Caffeatreduktion ausschliesslich in der cytoplasmatischen Fraktion lokalisiert. Die Zugabe von Membranen führte zu keiner Stimulierung der Aktivität. Die Membranfraktion selbst wies keine Caffeatreduktionsaktivität auf. Verschiedene Verbindungen wurden auf ihre Fähigkeit getestet, als artifizielle Elektronendonatoren für die Caffeatreduktion zu fungieren. TMPD, 1,5-Diphenylcarbazid und reduziertes Methylviologen konnten Caffeat nicht reduzieren. In Gegenwart von Phenylendiamin wurde in zellfreiem Rohextrakt und in der Cytoplasmafraktion Caffeatreduktionsaktivität beobachtet. In der Membranfraktion wurde dagegen keine Reduktion von Caffeat mit Phenylendiamin als Elektronendonor nachgewiesen. NADH + H+ konnte als physiologischer Elektronendonor für die Reduktion von Caffeat fungieren. Die NADH-abhängige Caffeatreduktion war ausschliesslich in der cytoplasmatischen Fraktion lokalisiert und strikt abhängig von ATP. Die Beobachtung, dass NADH + H+ als Elektronendonor für die Caffeareduktion fungieren kann, führte zu der Frage, wie im Zuge H2-abhängiger Caffeatreduktion NADH + H+ gebildet wird und welche Enzyme daran beteiligt sein könnten. NAD+-abhängige Hydrogenaseaktivität wurde an Membranen und im Cytoplasma nachgewiesen. Rund 70% der Aktivität waren in der löslichen Fraktion lokalisiert. Die Gegenwart einer Elektronendonor:NAD+-Oxidoreduktase in A. woodii wurde untersucht. Gewaschene Membranen vermittelten die Oxidation von NADH + H+ mit Kaliumhexacyanoferrat oder Benzylviologen als Elektronenakzeptor. Diese Beobachtung wurde als Hinweis auf eine NAD+-Reduktase gewertet, da solche Enzyme in der Regel reversibel sind. Eine Hydrogenase konnte hierfür ausgeschlossen werden, da die NADH-oxidierende Aktivität Sauerstoff-unempfindlich war. Die Aktivität des NADH-oxidierenden Enzyms konnte durch zugesetztes Na+ nicht stimuliert werden. In Analogie zu Na+-translozierenden NADH:Chinon-Reduktasen wurde die NADH-oxidierende Aktivität an gewaschenen Membranen aber durch Ag+ oder Cu2+ in mikromolaren Konzentrationen vollständig inhibiert. Membranen von A. woodii vermittelten die Reduktion von NAD+ mit reduzierten Ferredoxin als Elektronendonor. Ob diese Aktivität durch das gleiche membranständige Enzyme katalysiert wurde, das auch die NADH-Oxidation bewerkstelligte, konnte nicht geklärt werden. Die Ferredoxin-abhängige NAD+-Reduktion wurde durch micromolare Konzentrationen Ag+ vollständig inhibiert. Die Inihibition war aber wahrscheinlich unspezifischer Natur. Mittels vergleichender 2D-Gelelektrophorese wurden zwei Caffeat-induzierte Proteine identifiziert. Ein Vergleich der Peptidsequenzen, die durch ESI-MS/MS-Analyse der Proteine erhalten wurden, mit in Datenbanken hinterlegten Proteinsequenzen, ergab eine große Übereinstimmung zu der großen alpha- bzw. kleinen beta-Untereinheit von heterodimeren Elektronentransfer-Flavoproteinen (ETFP). Die Proteine wurden mit EtfA und EtfB bezeichnet. Anhand der Peptidsequenzen von EtfA und EtfB wurden degenerierte Oligonukleotide abgeleitet, die zur Amplifikation von Fragmenten der kodierenden Gene herangezogen wurden. Die Analyse der abgeleiteten Aminosäuresequenzen der erhaltenen PCR-Produkte untermauerte die Zuordnung von EtfA und EtfB als Untereinheiten eines ETFP. Die Fähigkeit zur Caffeatreduktion ist in A. woodii nicht konstitutiv vorhanden, sondern wird in erst durch Gegenwart des Phenylacrylats induziert. Die Spezifität dieser Induktion wurde untersucht. Suspensionen ruhender Zellen, die aus Caffeat-induzierten Zellen hergestellt worden waren, reduzierten neben Caffeat auch die Phenylacrylate Ferulat oder p-Cumarsäure mit H2 als Elektronendonor. Analoge Beoabachtungen wurden mit Ferulat-induzierten und p-Cumarsäure-induzierten Zellsuspensionen gemacht. Die Ergebnisse legen den Schluß nahe, dass in A. woodii die Reduktion von Phenylacrylaten durch ein induzierbares enzymatisches System bewerkstelligt wird. EtfA und EtfB wurden als MalE-Fusionsproteine dargestellt und gereinigt. Dagegen wurden Antiseren hergestellt. Immunologische Untersuchungen zeigten, dass die Produktion von EtfA und EtfB durch Gegenwart verschiedener Phenylacrylate induziert wird. Die Induktion war unabhängig vom Wachstumssubstrat. In Gegenwart von zu Phenylacrylaten ähnlichen Verbindungen erfolgte keine Induktion. Für EtfA und EtfB wurde eine Funktion als universeller Elektronenüberträger des Phenylacrylat-Reduktionssystems in A. woodii postuliert. Für die H2-abhängige Reduktion von Caffeat und anderer Phenylacrylate wurde die folgende Reaktionssequenz postuliert: die Oxidation des Elektronendonors H2 durch eine Hydrogenase geht einher mit der Bildung von reduziertem Ferredoxin. Dieses wird durch eine membranständige Ferredoxin-NAD+-Oxidoreduktase oxidiert, die den Transfer der Elektronen auf NAD+ mit der Translokation von Na+ koppelt. Ein aus EtfA und EtfB gebildetes ETFP fungiert dann als Elektronenüberträger zwischen NADH + H+ und einer löslichen Phenylacrylatreduktase.
It is considered whether Fermat’s so called Last Theorem can be understood by substituting variables by polynomials and discussing their properties. The same substitution yields a survey of the Pythagorean Triples.
In recent publications Otto Hahn, last president of the Kaiser-Wilhelm-Gesellschaft, is charged with having favoured the Nazi regime, before World War II by politically purging institutes and suppressing Lise Meitner’s contribution to the discovery of nuclear fission, and during the war by contributing to the German war efforts, mainly to the development of nuclear weapons. These charges, however, which partly concern also the Kaiser-Wilhelm-Gesellschaft and some of their institutes are based on ignorance or disregard of the historical sources.
The paper presents an overview about some of the international relevant projects of digital resources in Germany. Online presentations of primary sources, e.g. photographic material, and bibliographic tools supporting research, such as cross searching, will be presented as potential partners of resource sharing with North America. Not only the possibility of cooperation will be sketched, but also necessary preliminary work and some obstacles will be outlined. This report is accompanied by a short characterization of African studies in Germany and the status quo of Open Access-initiatives.
Wiki-Systeme im eLearning
(2006)
Wiki-Systeme lassen sich in den verschiedensten Anwendungsgebieten auf angenehme Weise, aufgrund ihrer Open-Source Lizenz, durch die Anreicherung entsprechender Zusatzmodule anpassen. An dieser Stelle muss jedoch bedacht werden, dass durch die Integration vermehrter Funktionen, das charakteristische Merkmal der Wiki-Systeme 'Einfachheit' an Präsenz verlieren kann. Dieses, für Wikis typische Charakteristikum ist eine nicht zu unterschätzende Stärke, da sowohl die Expansion der Enzyklopädie Wikipedia, als auch die zunehmende Anzahl bestehender Wikis im Internet geradezu Beweis dafür sind, dass keine anderen Anwendungen in diesem Verhältnis existiert haben. Würde somit das Wiki, aufgrund der Anpassung an ein vorliegendes Konzept an Einfachheit verlieren, so müssten die Beweggründe des Wiki-Einsatzes noch mal überdacht werden. Ebenso könnte in den Bereichen, in denen die Stärken von Wikis unbrauchbar sind, ein anderes System womöglich bessere Ergebnisse liefern als ein Wiki. Aus diesen Gründen sollte vor einem Wiki-Einsatz überprüft werden, ob die vorhandenen Merkmale und Funktionen eines Wikis mit den eigenen Anforderungen übereinstimmen. Die im Rahmen dieser Arbeit durchgeführte Befragung hat gezeigt, das Wikis größtenteils als Präsentationsmedium, zur gemeinsamen Texterstellung und als Informationsplattform genutzt werden. Es ist deutlich geworden, dass die Integration von Wikis im Lehrbereich geeignete Anwendung findet. Auffallend war, dass zwar bei (fast) allen Befragten Schwierigkeiten aufgetreten sind und sogar erhoffte Erwartungen teilweise nicht erfüllt wurden, dennoch war der größte Teil der Befragten mit dem Wiki-Einsatz zufrieden und bewertete diesen als positiv. Die Art der aufgetretenen Schwierigkeiten und Schwachstellen zeigt, dass den Lehrenden gewisse Anleitungen und Richtlinien für einen erfolgreichen Wiki-Einsatz fehlten. Denn Informationen zum didaktischen Rahmen - in denen Wikis eingesetzt werden können - und wie Wikis eingesetzt werden sollen, waren nicht vorhanden. Somit sollen die - in dieser Arbeit - erarbeiteten Empfehlungen und Kriterien, Lehrende zu einem optimierten Wiki-Einsatz in Lehrveranstaltungen verhelfen. Außerdem sind in dieser Arbeit Vorgaben enthalten, wie Wiki-Einsätze von Lehrenden gestaltet werden können, so dass die häufig auftretenden Probleme vermieden werden können. Die erarbeiteten Empfehlungen und Kriterien sind gleichermaßen aus den positiven, wie auch aus den negativen Erfahrungen der Befragten entstanden. Insbesondere sollen die Empfehlungen und Kriterien, die von den Befragten permanent beklagten auftretenden Schwierigkeiten und Probleme verhindern. Eine Garantie jedoch, dass die Einhaltung dieser Empfehlungen und Kriterien zu einem erfolgreichen Wiki-Einsatz führen und ob keine relevanten Kriterien unbeachtet gelassen sind, kann an dieser Stelle nicht gegeben werden. Ob sich nun die Probleme, die sich mit Wiki-Einsätzen wiederholt ergeben haben, durch die Befolgung dieser Kriterien und Empfehlungen vermeiden lassen, könnte im Rahmen einer nachfolgenden Diplomarbeit untersucht werden, in der Wiki- Einsätze, begleitet werden. Weiterhin sollte im Rahmen einer weiteren Arbeit die Situation der Lernenden und die Auswirkung auf das Lernverhalten in Verbindung mit Wiki-Systemen evaluiert werden, so dass einige Thesen dieser Arbeit belegt oder gar widerlegt werden können.
ALPHA ist die Architektur einer lokationssensitiven Puppe für hydropneumatische Animation. Es ist ein Animations-Eingabegerät. Die Puppe soll ein Objekt repräsentieren, welches animiert werden soll. Ihre Gliedmaßen, welche aus Knochen und Gelenken bestehen, sind beweglich. Sie wird an einen Computer angeschlossen und die gegenwärtige Stellung ihrer Gelenke kann mittels eines ebenfalls entwickelten Treibers von diesem Computer eingelesen werden. Des Weiteren wird erklärt was eine hydropneumatische Animation ist. Die Diplomarbeit weist die folgende Gliederung auf: • Motivation • Technische Grundlagen und State-Of-The-Art-Analyse • Anforderungsanalyse • Das eigene Konzept, die lokationssensitive Puppe (ALPHA) • Evaluation • Ausblick Die Motivation beschäftigt sich mit der Entwicklung der Filmanimation und einiger Errungenschaften in der Laufbahn der Animationstechnologischen Entwicklung. Die technischen Grundlagen beschränken sich auf die Funktionsweise von Messapparaturen, welche als Gelenkstellungssensoren fungieren können. Im Einzelnen sind das der optische Resolver, der Optoencoder und die Kombination von einem Drehpotentiometer und einem Analog/Digital-Wandler. Zur State-Of-The-Art-Analyse gehört die Erläuterung bereits entwickelter Stellungs- und Bewegungsmessender Technologien, wie das Stop-Motion-Verfahren, das Motion-Capturing, das Dinosaur-Input-Device und der Datenhandschuh. Eine Zusammenstellung der Defizite dieser Verfahren schließt dieses Kapitel ab. Die Analyse der Anforderungen an ein zu entwickelndes System ist im Kapitel Anforderungsanalyse zu finden. Zum eigenen Konzept gehört die gesamte Entwicklung einer lokationssensitiven Puppe. Die Puppe ist das Ebenbild des Skeletts eines zu animierendes Objekts. Sie besteht aus mehreren Gliedmaßen, welche an ihren Gelenken beweglich sind. Die Gelenkstellung wird von Potentiometern gemessen, dessen Signal ein A/D-Wandler empfängt. Die Umschaltung der einzelnen Messwerte erfolgt über Analog-Multiplexer. Die gesamte Steuerung der Bauteile und das Auslesen des A/D-Wandler werden durch einen Treiber über den Parallelport eines PCs gesteuert. Die Funktionsweise des Treibers und seine Implementierung werden ebenfalls in diesem Kapitel erläutert. Im Kapitel Evaluation befindet sich eine Bewertung des Konzepts und der Erfüllung der Anforderungsanalyse. Schließlich zeigt der Ausblick die Möglichkeiten der Anwendungen der Puppe und einen Blick in zukünftige Technologien.
In dieser Arbeit wurden ionisierende Prozesse inWasserstoff- und Deuterium-Molekülen untersucht. Das Ziel war es dabei insbesondere, doppelt angeregte Zustände näher zu betrachten, d.h. Prozesse, bei denen mit einem UV-Photon beide Elektronen des H2 angeregt werden. Das Molekül zerfällt dann schließlich in ein angeregtes Atom sowie ein Proton und ein Elektron. Diese Doppelanregung konnte in den Messdaten identifiziert werden. Durch die Art der Messung war es möglich, einen umfassenden Überblick über den Photonenenergiebereich von 29 bis 60 eV zu erhalten (siehe Abb. 4.4). Somit konnte die Dynamik verschiedener Prozesse mit sich ändernder Photonenenergie analysiert werden. Es konnte die Einfach-Ionisation vom Einsetzen bis hin zur Doppel-Ionisation beobachtet werden. Zwischen 29 und 38 eV traten dabei Anregungen auf das Q1- und Q2-Band auf. Insbesondere für einen KER<2 eV konnten interessante Strukturen aufgelöst werden, die bei bisherigen Experimenten nur eindimensional, d.h. ohne die Varianz der Photonenenergie, betrachtet werden konnten. Eine Gegenüberstellung der beiden Isotope H2 und D2 zeigte zahlreiche Unterschiede bei der Autoionisation auf. Für den Bereich des KER, der einer Anregung auf das Q2-Band entspricht, konnten außerdem Winkelverteilungen erstellt werden und mit Verteilungen verglichen werden, die aus der direkten Besetzung des (2p sigma u) Zustands resultieren. Dabei wurde für beide Isotope eine Asymmetrie beobachtet. Für höhere Photonenenergien lagen schließlich die Endzustände zu dicht beieinander, um aufgelöst zu werden. Doppelanregungen auf das Q3- und Q4-Band konnten daher hier nicht explizit beobachtet werden. Für künftige Messungen wäre es sicher interessant, das Q1-Band mit einem speziell darauf abgestimmten Spektrometer im entsprechenden Energiebereich genauer zu studieren. So könnten die energetischen Strukturen dieser niederenergetischen Protonen besser aufgelöst und somit der Kontrast zur Besetzung des 1s sigma g Zustands erhöht werden. Außerdem wäre es von Interesse auch Photonenenergien unterhalb von 29 eV zu betrachten, was jedoch an Beamline 9.3.2 der ALS nicht möglich war. Ebenso wäre natürlich der höhere Photonenfluss einer Undulator-Beamline wünschenswert, um eine bessere Statistik zu erhalten. Hier konnte gezeigt werden, dass im Energiebereich, in welchem Anregungen auf das Q3- und Q4-Band möglich sind, nur Intensitäten in höheren Endzuständen (n >=2) auftreten. Um eventuelle Strukturen in diesem Bereich zu studieren ist ein jedoch ein höher auflösendes Spektrometer notwendig. Dies könnte z.B. durch größere MCP realisiert werden.
This work gives a detailed introduction into a fully new experimental method to investigate the quantum crystal behavior of solid Helium-4. It has been found that a fascinating new effect occurs in the expansion of solid Helium-4 into a vacuum through pinhole orifices with diameters between 1 and 5 µm. It is observed that the beam flux intensity shows a periodic behavior for source conditions corresponding to the solid phase of Helium-4. The period is in the range of seconds up to minutes. It shows a strong dependence on temperature and source pressure. The oscillating part of the beam flux intensity amounts several percent of the total flux. This new phenomenon has been studied for temperatures between 2.1 K and 1.3 K and pressures up to 30 bar above the melting pressure. The beam flux intensity has been recorded by the vacuum pressure in a pitot vacuum chamber. The jet velocity in the range of 200 m/sec indicates that surprisingly the beam is a liquid jet, whereas the conditions in the source correspond to the solid state. In this work mainly the behavior of the flux modulation has been studied as a function of pressure and temperature and the influence of the isotope Helium-3. Furthermore geometrical aspects such as the influence of the nozzle diameter d0 have been investigated. In order to explain this novel phenomenon a kinetic model based on the injection of excess vacancies into the solid is proposed. According to this model the vacancies are generated at a solid/liquid interface. Forced by drift and diffusion they accumulate at some distance from the orifice, leading to the collapse of the solid. With the subsequent re-injection of vacancies the effect repeats and turns out to be periodical. The reproducibility of the time dependent beam flux intensity is demonstrated for a wide range of temperatures and pressures and gives direct access to values such as the temperature and pressure dependence of the vacancy diffusion coefficient Dv in the range of 10 high -5 cm high 2/sec, the recombination time of vacancies with interstitials T r near 1-20 sec and the vacancy activation energy f near 20 K. The good agreement with former experimental results by Zuev et al. [131] confirms the applicability of the theoretical model. As a result from the kinetic model the vacancy concentration is increased above the equilibrium vacancy concentration, caused by the injection of excess vacancies. Therefore, the most important discovery is the possibility of generating a non-equilibrium quantum solid. The investigation of this non-equilibrium solid leads to the discovery of a fluid-like regime in the solid phase of Helium-4 at temperatures below T = 1.58 K. The result gives a strong indication for the supersolid state, especially because the fluid-like behavior of the solid can be eliminated with smallest concentrations of Helium-3.
Elche stellen eine Problemart in der Zootierhaltung dar. Sie erreichen im Zoo entgegen dem Trend, dass Tiere in Menschenobhut älter werden als ihre frei lebenden Artgenossen, meist weniger als die Hälfte des biologisch möglichen Alters. Besonders schwierig gestaltet sich die adäquate Fütterung, da die Tiere sehr stark von der Gabe frischer Laubäsung abhängen und die Fütterung mit Ersatzfuttermitteln, wie z.B. Heu, langfristig nicht erfolgsversprechend ist. Zudem sind die Tiere sehr anfällig für Parasiten und eine von Schafen übertragene Viruserkrankung (Bösartiges Katarrhalfieber). Ihr hoher Platzbedarf und das Problem der innerartlichen Aggression machen die Haltung dieser größten Hirschart zusätzlich kompliziert. In dieser Arbeit wird die Methode der Angewandten Chronoethologie in der Zootierhaltung vorgestellt, die sich die von der Inneren Uhr gesteuerten Verhaltensrhythmen einer Tierart zur Beurteilung ihres Wohlbefindens und ihrer Haltungsbedingungen in der künstlichen Zooumwelt zu Nutze macht. Der Besitz einer Inneren Uhr stellt in der hochgradig rhythmisch organisierten Umwelt einen Selektionsvorteil im Sinne einer frühzeitigen Anpassung an wiederkehrende Umweltbedingungen dar. Die Innere Uhr ist so alt wie das Leben selbst, genetisch fixiert, über Zeitgeberreize mit ihrer Umwelt synchronisiert und regelt die Lebensvorgänge von Organismen auf allen organisatorischen Ebenen, auch auf der Ebene des Verhaltens. Ist der normale Verhaltensrhythmus einer Tierart bzw. eines Individuums bekannt, ist es möglich, aus Abweichungen von der Norm auf Störungen des Organismus - auf Unwohlsein - zu schließen. Anhand des Vergleiches von drei Elchhaltungen mit jeweils zwei Tieren, die unter verschiedenen Bedingungen gehalten wurden, konnten mit Hilfe zeitgeraffter Videoaufzeichnung und dem Einsatz eines Speichertelemetriesystems die folgenden Faktoren als einflussreich auf das Verhaltensmuster von Elchen in Menschenobhut identifiziert werden. Die nächtliche Aufstauung von Elchen ist aufgrund des Raum- und Reizmangels in den Boxen ein erheblicher Eingriff in das natürliche, gleichmäßig über Tag und Nacht verteilte Verhaltensmuster der Tiere. Außerdem sind sie in ihrem Verhalten hochgradig vom täglichen Ablauf des Pflegeralltags im Zoo beeinflusst. Feste Fütterungszeiten können einen starken Zeilgeberreiz darstellen- den die Elche in den beiden naturferneren Haltungen stärker zu antizipieren scheinen als den Zeitgeber „Licht". Größe und vor allem Strukturierung des Außengeheges haben einen Einfluss auf dessen zeitliche und räumliche Nutzung. Abschüssige Gehegeteile können die unerwünschte Verhaltensweise Grasen fördern. In unseren mitteleuropäischen Breiten leiden die Elche im Sommer unter Hitzestress, was sich in verringerter Aktivität widerspiegelt. Ein hohes Besucheraufkommen kann die Tiere ebenfalls in ihrem Verhalten beeinflussen. Es hat sich jedoch gezeigt, dass sich der Elch schnell an die Zoogegebenheiten und viele Besucher gewöhnt. Durch den Vergleich der verschiedenen Haltungsbedingungen konnten in der vorliegen Arbeit Vorschläge zur Verbesserung der Haltung von Elchen in Menschenobhut und zu ihrem zeitlichen Management gemacht werden. Der Elch hat sich aufgrund des für Wiederkäuer typischen, sehr geregelten Verhaltensrhythmus aus alternierenden Aktivitäts- und Ruhephasen, der auch unter den verschiedenen Haltungsbedingungen prinzipiell bestehen bleibt, als sehr gut geeignetes Modelltier für die Anwendbarkeit der Methode der Angewandten Chronoethologie in der Zootierhaltung herausgestellt. Abweichungen von der Norm können leicht erkannt werden. Änderungen im Verhaltensmuster m Form erhöhter lokomotorischer Aktivität lassen bei den untersuchten Tieren auf Unwohlsein (Krankheit, Abweichungen von der täglichen Routine, unterbundenes Brunftverhalten) schließen und können im Sinne eines chronoethologischen Paradigmas als eine indikative Verhaltensweise gewertet werden. Das Ziel einer vollständig automatisierten Verhaltenserfassung- und Auswertung mittels Bewegungsmeldern soll im restringierten Raum der Elchbox in einem weiteren Projekt verwirklicht werden, um damit Tierpflegern, Zooveterinären und Verantwortlichen ein gut handhabbares Mittel zur objektiven und langfristigen Beurteilung des Wohlbefindens ihrer Schützlinge zur Verfügung stellen zu können.
Um die Biodiversität Burkina Fasos darzustellen und auszuwerten, wurden umfangreiche Diversitätsdaten aus Sammlungsbelegen, Vegetationsaufnahmen und Literatur zusammengestellt. Die eigene Datenerhebung während dreier Feldaufenthalte hat mit > 300 Vegetationsaufnahmen (einschließlich der Biodiversitätsobservatorien) und > 1200 Herbarbelegen dazu beigetragen. Die Verwendung von relationalen Datenbanken (Microsoft Access) und GIS ermöglichte eine umfassende Analyse dieser enormen Datenmengen (> 100 000 Verbreitungspunkte) unter Einbeziehung von weiteren Art- oder ortsgebundenen Informationen. Datenbankstrukturen und Prozeduren wurden zu einem großen Teil selbst entwickelt. Unregelmäßigkeiten in den Primärdaten konnten durch Artverbreitungsmodelle ausgeglichen werden, die rasterbasierte Umweltdaten verwenden, insbesondere Satellitenbilder, Klima- und Höhendaten. Für die zusammenfassenden Analysen (Artenreichtum nach Familie, Lebensform, Photosynthesetyp; turnover) mussten wiederum eigene Prozeduren entwickelt werden. Räumliche Muster der Biodiversität wurden im landesweiten Rahmen, wie auch lokal für die Regionen Oudalan und Gourma, dargestellt. Die Zusammenfassung der Flora nach taxonomischen und ökologischen Gruppen gewährt dabei Einblicke in ökologische Zusammenhänge und die Eignung einzelner Gruppen als Indikatoren. Deutlich zeigen sich die Veränderungen des Lebensformspektrums und des Artenreichtums sowohl auf Landesebene im Zusammenhang mit dem Makroklima als auch in einer detaillierten Analyse des Oudalan – wo der Einfluss von Boden und Relief deutlich wird. Die großräumigen Muster der Artenvielfalt sind hauptsächlich durch klimatische Faktoren geprägt, auch der menschliche Einfluss ist in Form verschiedener Nutzungsformen vom Klima abhängig und schwer davon zu trennen. Umso deutlicher werden die Folgen intensiver Landnutzung aber in den Detailstudien der nordsudanischen Biodiversitätsobservatorien und des sahelischen Wiederbegrünungsprojektes. Über die in diesem Rahmen dargestellten Ergebnisse hinaus ergeben sich insbesondere aus der umfassenden Datenbasis und der interdisziplinären Zusammenarbeit mit Fernerkundung und Ethnobotanik weitere vielversprechende Möglichkeiten. Unter anderem wird auf der Grundlage der Datenbanken und ergänzender Literaturrecherchen eine aktualisierte Checklist der Gefäßpflanzen Burkina Fasos erstellt und eine Revision der phytogeographischen Zonen für Burkina Faso ist geplant.
Da viele Primärtumoren in die Leber metastasieren ist bei 30-50 % der Patienten, die an malignen Neoplasien leiden, mit Lebermetastasen zu rechnen. Die Leber ist dabei nach den Lymphknoten der Hauptsitz von Metastasen. Als einzige kurative Therapie ist bisher die chirurgische Resektion anzusehen, wobei weniger als 25 % der Lebermetastasen potentiell kurativ resezierbar sind. Falls der Tumor inoperabel ist werden viele Patienten einer systemischen Chemotherapie zugeführt. Alternativ kommen verschiedene minmal invasive Therapieformen zur lokalen Tumorablation zum Einsatz. Die LITT von Lebertumoren stellt als minimal invasive Therapie eine Alternative zur chirurgischen Resektion oder der systemischen Chemotherapie dar. Dabei führen koagulative Effekte zur Tumordestruktion in soliden Organen wie der Leber. Optische Fasern in einem wassergekühlten Applikatorset werden in die Läsion eingebracht. Das energiereiche Licht eines Nd:YAG-Lasers wird dann von dem Gewebe um den Applikator absorbiert und führt so zur Thermokoagulation des Tumors. Durch thermosensitive Gradientenecho-Sequenzen im MRT ist ein Online-Monitoring der Thermokoagulation möglich. Mittels TACE läßt sich das Volumen von Lebertumoren reduzieren, so daß auch Patienten mit primär zu großen Tumordurchmessern therapierbar werden. Durch die Embolisation der arteriellen Gefäße wird der Blutfluß eingeschränkt, was bei anschließender LITT zu einer größeren Hitzeeinlagerung und ausgedehnteren Nekrosebildung führt. In der vorliegenden Arbeit sollte gezeigt werden, daß die intensive Nekrosebildung bei vorembolisierten Patienten nicht durch mehr applizierte Energie während LITT, sondern durch eingeschränkte Durchblutung als TACE Effekt zustande kommt. Dazu wurden im Zeitraum zwischen Februar 2000 und Februar 2001 214 Patienten mit LITT behandelt. 64 Patienten wurden erst einer TACE unterzogen und anschließend mit LITT behandelt. Die applizierte Energie während der LITT Sitzung wurde jeweils aus der Laserleistung und der Einschaltdauer bestimmt. Mit T1- und T2- gewichteten Spin-Echo und Gradienten-Echo MR-Sequenzen in drei Ebenen wurde das Volumen der induzierten Nekrose gemessen. Es wurden Gruppen nach korrespondierendem Nekrosevolumen gebildet, jeweils getrennt nach Patienten die mit TACE und LITT therapiert wurden und denjenigen die nur mit LITT behandelt wurden. Die Nekroserückbildung im Verlauf wurde dann in dreimonatigen Abständen paarweise verglichen. Außerdem wurde die applizierte Energie in Beziehung gesetzt zum Nekrosevolumen. Auch hier wurde nach den Subgruppen getrennt ausgewertet, um Unterschiede in der Hitzeeinlagerung und Ausdehnung des nekrotischen Areals ausmachen zu können. Die Ergebnisse dieser Studie zeigten bei gleicher applizierter Energie ein größeres Nekrosevolumen bei den vorembolisierten Patienten als bei der nicht embolisierten Gruppe. Im Mittel stieg das Nekrosevolumen in den einzelnen Größengruppen von 41,36 cm3 bis 343,29 cm3, bei den nicht embolisierten Patienten jedoch nur von 33,73 cm3 bis 117,96 cm3. Der Anteil um den sich das Nekrosevolumen von einer Verlaufskontrolle zur nächsten verringert war in beiden Therapiegruppen vergleichbar. Die Nekroserückbildung im Verlauf wurde durch neoadjuvante TACE demnach nicht beeinflußt. Die Analyse der Überlebenszeit erbrachte statistisch signifikante Unterschiede bezüglich der Aufschlüsselung nach der angewandten Therapie. Der p-Wert betrug im Log-Rank-Test 0,0151. Für die Patienten aus der Gruppe der LITT-Monotherapie ergab sich ein mittlerer Überlebensvorteil von 6 Monaten (Median 26) gegenüber der Gruppe mit der TACE&LITT-Kombitherapie (Median 20). Für kleine Läsionen die primär LITT-fähig sind und nicht neoadjuvant mit TACE behandelt werden müssen zeichnete sich ein besseres Outcome ab. Am Ende des Beobachtungszeitraums von 54 Monaten waren noch 38,32 % (n=82) Patienten aus der LITT-Monogruppe und 29,69 % (n=19) aus der TACE und LITT-Kombigruppe am Leben. Als Schlußfolgerung liegt nahe daß der verminderte Blutfluß in embolisierten Lebern tatsächlich zu stärkerer Hitzeeinlagerung und größerer Nekrosebildung führt. Durch TACE vor LITT lassen sich größere Nekrosen erzielen bei gleicher applizierter Energie als durch LITT alleine. Außerdem gibt es keine negativen Auswirkungen auf die Nekroserückbildung. Eine generelle Kombination aus neoadjuvanter TACE und LITT scheint aus Kostengründen und erhöhtem apparativen Aufwand sowie einer möglicherweise höheren Komplikationsrate nicht empfehlenswert. Dennoch bietet das kombinierte Therapieprotokoll denjenigen Patienten mit Läsionen über 5 cm Durchmesser eine palliative und potentiell kurative Therapieoption.
Im Rahmen dieser Dissertation sollte der Effekt der Zelldichte auf Proliferation und Apoptose bei der RKO-Rektumkarzinomzelllinie untersucht werden. Neben Invasion, Entdifferenzierung und Metastasierung kann bei Krebserkrankungen auch eine hohe Wachstumsgeschwindigkeit zu den Charakteristika der Malignität gezählt werden. Bei Leukämien, Lymphomen und bestimmten soliden Tumoren, bei denen eine chirurgische Resektion nur eingeschränkt möglich ist, bedeutet jedoch ein langsames Wachstum, d.h. eine geringe Proliferation der Tumorzellen, in der Regel keine verbesserte Prognose, da sie mit schlechterem Ansprechen auf Chemotherapie und Bestrahlung einhergeht. Die molekularen Ursachen dieser Behandlungsresistenz sind bisher nicht vollständig geklärt und wahrscheinlich nicht bei allen Krebserkrankungen auf identischen Mechanismen beruhend. Vorstellbar ist, dass sich das Gesamtsystem der Zelle während des Teilungsprozesses sensibler gegenüber Schädigungen der DNA, wie sie durch Bestrahlung und die meisten Chemotherapeutika ausgelöst werden, präsentiert. Dies kann durch unterschiedlichste molekulare Mechanismen verursacht sein. Um den möglichen Einfluss des Proliferationsverhaltens einer Zellpopulation auf das Apoptose-Verhalten zu untersuchen, wurde im Rahmen dieser Arbeit versucht, die Proliferationsgeschwindigkeit einer Zellkultur mittels Dichte-Arretierung zu senken. Hierzu wurden RKO-Zellen in konfluenter und subkonfluenter Dichte kultiviert. Ebenfalls wurden Unterschiede bei der Verteilung der Zellen auf die verschiedenen Zellzyklusphasen ermittelt. Durch Inkubation mit CD95L konnte dann ein Zusammenhang von Proliferation und Apoptosesensitivität ermittelt werden, d.h. die „Zellzyklusabhängigkeit“ der CD95L-induzierte Apoptose untersucht werden. Hierbei zeigten sich Zellen mit geringerer Proliferationsrate resistenter gegenüber CD95L. Verschiedene Methoden (z.B. Western-Blot-Analyse, FACS-Messungen) wurden zur Aufklärung der molekularen Ursachen genutzt. Die Arbeit zeigte auch das Vorhandensein eines molekular nicht identifizierten, autokrin in das Medium sezernierten Faktors, der zu verstärkter Resistenz gegenüber CD95L führte. Dieser Faktor erhöhte auch die Migration und Invasivität der RKO-Zellen und verstärkte damit die malignen Eigenschaften der Tumorzellen. Die zukünftige molekulare Identifikation dieses Faktors könnte therapeutisch bedeutsam sein.
The development of resistance to multiple drugs is a major problem in treatment of number of infectious diseases and cancer. The phenomenon of multidrug resistance (MDR) is based on the synergetic interplay of a number of mechanisms such as target inactivation, target alteration, prevention of drug influx as well as active extrusion of drugs from the cell. The latter is mediated by over-expression of multidrug efflux pumps. The first discovered and the best characterized until now the human MDR transporter is P-glycoprotein. It is a member of the ATP binding cassette (ABC) superfamily and acts as an active transporter for a variety of anticancer agents using the energy released by ATP hydrolysis. The closest structure and functional homologue of P-glycoprotein found in bacteria is LmrA from Lactococcus lactis. The major goals of this work are to establish the selective isotope labelling of LmrA in Lactococcus lactis, to optimize LmrA sample preparation for solid-state NMR, and finally to perform first solidstate NMR investigations on LmrA shedding light on its catalytic cycle and substrate binding. For a long time the solid-state NMR applications to biological science has been limited to investigation of small molecules mostly. Recently, the solid-state NMR methods have shown potential for structuraland non-perturbing, site directed functional studies of large membrane proteins as well as ligands bound to them. However, to our knowledge neither selective isotope amino acid labelling of any ABC transporter, nor NMR investigations on full-length ABC transporter have been reported to date. Solidstate NMR experiments on a membrane protein require reconstitution of purified proteins into a membrane environment at a high density and either isotopic enrichment of the protein or bound drugs or inhibitors. Therefore, the large quantities of LmrA reconstituted at a high density in lipid membranes, sufficient for advanced NMR studies have been produced and its functional state in reconstituted form has been assessed. In the next step, a procedure for cost effective selective amino acids isotope labelling of LmrA in Lactococcus lactis has been established. Using this protocol deuterium alanine labelled LmrA reconstituted into E. coli liposomes has been prepared. Deuterium NMR has been used extensively to assess the proteins dynamics in past. However, it has never been applied to ABC transporter. Here, we report 2H NMR on selective alanine isotope labelled LmrA which has been used to shed light on the dynamics changes in the protein occurred under AMP-PNP, non-hydrolysable ATP analogue, binding and in ATP/ADP-Vanadate trapped state. It has been found that the major conformation changes affecting the protein motional characteristics occur in the ATP binding domains but not in the transmembrane domains. Additionally, the binding of several substrates to LmrA has been studied by fluorescence spectroscopy as well as by 19F and 31P solid-state NMR. The binding constants for several LmrA substrates have been obtained by fitting the concentration dependant tryptophan intrinsic fluorescence quenching curves. Based on the fluorescence studies and solid-state NMR data, the conformation changes in LmrA under substrate binding have been discussed. In addition, the preferable location of nine LmrA and P-glycoprotein substrates within the model membrane has been studied via 1H-MAS-NOESY-NMR. The results have been interpreted with respect to LmrA and P-glycoprotein binding site accessibility from the membrane interface region.
Pharmazeutische Proteomics
(2006)
Die vorliegende Arbeit setzt sich mit der Implementierung, Validierung und Anwendung der 2-dimensionalen Gelelektrophorese und der MALDI-TOF Massenspektrometrie unter pharmazeutischen Gesichtspunkten auseinander. Es wurde ein breites Spektrum aus dem Bereich der Pharmazeutischen Proteomics bearbeitet, beginnend mit einer detaillierten Methodenentwicklung für 2-DE, um die Methode zu optimieren, ihre Robustheit zu evaluieren und die Grenzen der Methode kennen zu lernen. Daran schließt sich eine Validierung für 2-DE / Silberfärbung an. Der Validierungsansatz orientiert sich an den üblicherweise in der pharmazeutischen Industrie bei der Validierung analytischer Methoden untersuchten Parametern. Hierzu zählen Präzision, Linearität, Richtigkeit und Spezifität. Ferner wurden Untersuchungen angestellt, inwiefern Daten aus unterschiedlichen Labors zusammengefasst werden können. Zur Dokumentation wurde ein auf MS Access® basierendes Laborinformationssystem erstellt. Hiermit können die von verschiedenen Mitarbeitern erzeugten Daten einheitlich und nachvollziehbar erfasst werden. Nach der Etablierung der methodischen Grundlagen wurden unterschiedliche, pharmazeutisch relevante Fragestellungen mittels 2-DE und MALDI-TOF-MS bearbeitet. Proben unterschiedlicher Komplexität wurden untersucht, die Milch eines transgenen Kaninchens, welches bovines FSH exprimiert, wurde analysiert. Über diese Versuche wurde der Einstieg in die Analytik rekombinanter Arzneistoffe geschaffen. Die 2-DE eignet sich sehr gut um die bei posttranslational modifizierten rekombinanten Proteinen auftretende Mikroheterogenität abzubilden. 2-DE und MALD-TOF MS sind alternative Methoden zu denen, die im europäischen Arzneibuch für die Analytik rekombinanter Arzneistoffe beschriebenen werden. Erythropoietin, einer der weltweit umsatzstärksten rekombinanten Arzneistoffe, zu dem auch eine Monographie im EuAB existiert, wurde näher untersucht. Bei diesem Protein wurden die Zuckerseitenketten selektiv abgespalten und es wurde untersucht, welche Auswirkung die Zucker auf das eletrophoretische Verhalten des Erythropoietins haben. Eine MALDI-TOF-MS Analytik von Erythropoietin war auch erst nach Abspaltung der Zuckerseitenketten möglich. Die Sequenzabdeckung konnte durch Verdau mit unterschiedlichen Enzymen gesteigert werden. Eine Technologie zur Sequenzierung von Proteinen mittels MALDI-TOF-MS wurde mit CAFTM für rekombinantes Chicken Annexin V etabliert. Weitere rekombinante Proteine, die im Rahmen dieser Arbeit untersucht wurden, sind Interferon-alfa-2a, Interferon-alf-2b, rh-HCG, Trastuzumab und Rituximab. Das anti-apoptotischen Bcl-xL ist ein Zielprotein für den Einsatz von Antisense Oligonucleotiden in der Tumortherapie. Für dieses Protein wurde eine 2-DE / Western blot-Methode entwickelt, die als in vitro Testsystem für das Screening von Oligonucleotiden genutzt werden kann. Aus dem Bereich der klinischen Proteomics wurden Serum, CSF und Urinproben von Patienten mit Bence Jones Proteinämie untersucht und mit den üblicherweise in der Klinik verwendeten CE-Analysen verglichen. In einzelnen Fällen konnten in vermeintlich Bence Jones negativen Proben mittels 2-DE doch noch Bence Jones Proteine nachgewiesen werden. Zusammenfassend kann man sagen, dass 2-DE und MALDI-TOF-MS vielseitig in der Pharmazie angewendet werden können. Die Komplexität eines jeden Proteoms und die physikochemische Heterogenität von Proteinen muss beachtet werden. In komplexen Proteinmischungen sind aufgrund sehr unterschiedlicher Konzentrationen, Löslichkeiten und der Heterogenität durch posttranslationale Modifikationen viele Proteine einem globalen 2-DE Ansatz nicht zugänglich, nichtsdestotrotz ist die 2-DE derzeit eine der leistungsfähigsten Methoden in der Proteomanalytik.
We develop a proof method to show that in a (deterministic) lambda calculus with letrec and equipped with contextual equivalence the call-by-name and the call-by-need evaluation are equivalent, and also that the unrestricted copy-operation is correct. Given a let-binding x = t, the copy-operation replaces an occurrence of the variable x by the expression t, regardless of the form of t. This gives an answer to unresolved problems in several papers, it adds a strong method to the tool set for reasoning about contextual equivalence in higher-order calculi with letrec, and it enables a class of transformations that can be used as optimizations. The method can be used in different kind of lambda calculi with cyclic sharing. Probably it can also be used in non-deterministic lambda calculi if the variable x is "deterministic", i.e., has no interference with non-deterministic executions. The main technical idea is to use a restricted variant of the infinitary lambda-calculus, whose objects are the expressions that are unrolled w.r.t. let, to define the infinite developments as a reduction calculus on the infinite trees and showing a standardization theorem.
Anfänglich wurde darauf hingewiesen, dass das Ziel, das sich die Ethnologie als Zweig der Anthropologie gesetzt hat, war, die Klischees und Stereotypen über den Menschen der europäischen Peripherie wissenschaftlich zu überwinden. Wie Frobenius diese Klischees und Stereotypen überwunden hat, ist in seiner Erarbeitung der Kategorien zur Analyse und zur Rekonstruktion der afrikanischen Kultur und in der politischen Implikation seiner Kulturtheorie zu sehen, welche die Afrikaner und die Deutschen zu Mitgliedern derselben geistigen Familie machte. Um dies zeigen zu können, sind mithilfe der diskursanalytischen Methode die unterschiedlichen Zentren der Produktion von Diskursen untersucht worden. Daraus ist hervorgegangen, dass Frobenius´ Kunst- und Literaturdiskurs sowie seine Kulturtheorie von den institutionellen Diskursen aus den wissenschaftlichen, wirtschaftlichen, akademischen und politischen Institutionen und von den philosophischen und geisteswissenschaftlichen Diskursen des deutschen Idealismus beeinflusst sind. Die „Geburt“ der Ethnologie, die mit seiner eigenen Geburt kongruierte, konnte nicht anders geschehen. Als neue Disziplin brauchte die Ethnologie das Wissen anderer Disziplinen und Gedankenströmungen, die Unterstützung von akademischen, wirtschaftlichen und politischen Institutionen, um sich als Wissenschaft zu definieren und die Beschäftigung mit außereuropäischen fremdkulturellen Realitäten zu legitimieren...
Im Rahmen dieser Arbeit wurden mehrere Zielrichtungen verfolgt: 1. Vergleichende Testung von Kavainhaltsstoffen, Kava-Fertigarzneimitteln und chemischen Anxiolytika auf Hepatotoxizität Mit Hilfe der Hepatocarcinom-Zelllinie Hep-G2 wurden alle noch verfügbaren Kava-Fertigarzneimittel einem Cytotoxizitätstest unterzogen, durch die Herkunft der Zelllinie aus der Leber handelt es sich um eine spezifische Cytotoxizität – um Hepatotoxizität. Ebenso wurden isolierte, reine Inhaltsstoffe von Piper methysticum, Strukturverwandte und chemische Anxiolytika diesen Hepatotoxizitätstests unterzogen. Da alle Tests unter den gleichen Bedingungen durchgeführt wurden und bei jedem Test auf den microtiter-plates Kontrollen mitgeführt wurden, erlauben die Ergebnisse eine vergleichende Aussage zur Cytotoxizität. Besonders die Kava-Fertigarzneimittel, weniger die reinen Kava-Inhaltsstoffe (Kava-Lactone) fallen durch eine gewisse Cytotoxizität bei Hep-G2 auf. Die mit getesteten, handelsüblichen, chemischen Anxiolytika waren deutlich weniger cytotoxisch im Hep-G2-Assay. 2. Aufklärung der möglichen Ursache für die Fälle von Hepatotoxizität in Zusammenhang mit Kava Parallel zu den Hep-G2-Tests wurde eine Arbeit über die starke Hepatotoxizität des Kava-Alkaloids Pipermethystin publiziert. Nach Extraktion und Synthese von Pipermethystin wurden noch zwei weitere Kava-Alkaloide synthetisiert und Strukturverwandte mit in die Tests aufgenommen. Die starke Hepatotoxizität des Pipermethystins konnte bestätigt werden. Durch weitere Versuche mit Abbauprodukten und Strukturverwandten des Pipermethystins konnte ein Dihydropyridon-Heterocyclus als toxisches Prinzip des Pipermethystins bestimmt werden. 3. Vergleichende Untersuchung der Ergebnisse mit Primärzellen, humanen Hepatocyten Durch Kooperation mit der Universität Mainz war es möglich, die in den Hep-G2-Tests aufgefallenen Substanzen an humanen Hepatocyten zu testen. Teilweise gab es bei diesen Untersuchungen Parallelen, teilweise variierten die Ergebnisse erheblich. Der Grund liegt in den unterschiedlichen enzymatischen Ausstattungen der Hep-G2-Zellen bzw. der humanen Hepatocyten und den daraus resultierenden unterschiedlichen metabolischen Fähigkeiten.
Background: PPARs exhibit anti-inflammatory capacities and are potential modulators of the inflammatory response. We hypothesized that their expression and/or function may be altered in cystic fibrosis (CF), a disorder characterized by an excessive host inflammatory response.
Methods: PPARα, β and γ mRNA levels were measured in peripheral blood cells of CF patients and healthy subjects via RT-PCR. PPARα protein expression and subcellular localization was determined via western blot and immunofluorescence, respectively. The activity of PPARα was analyzed by gel shift assay.
Results: In lymphocytes, the expression of PPARα mRNA, but not of PPARβ, was reduced (-37%; p < 0.002) in CF patients compared with healthy persons and was therefore further analyzed. A similar reduction of PPARα was observed at protein level (-26%; p < 0.05). The transcription factor was mainly expressed in the cytosol of lymphocytes, with low expression in the nucleus. Moreover, DNA binding activity of the transcription factor was 36% less in lymphocytes of patients (p < 0.01). For PPARα and PPARβ mRNA expression in monocytes and neutrophils, no significant differences were observed between CF patients and healthy persons. In all cells, PPARγ mRNA levels were below the detection limit.
Conclusion: Lymphocytes are important regulators of the inflammatory response by releasing cytokines and antibodies. The diminished lymphocytic expression and activity of PPARα may therefore contribute to the inflammatory processes that are observed in CF.
Studies and measurements of linear coupling and nonlinearities in hadron circular accelerators
(2006)
In this thesis a beam-based method has been developed to measure the strength and the polarity of corrector magnets (skew quadrupoles and sextupoles) in circular accelerators. The algorithm is based on the harmonic analysis (via FFT) of beam position monitor (BPM) data taken turn by turn from an accelerator in operation. It has been shown that, from the differences of the spectral line amplitudes between two consecutive BPMs, both the strength and the polarity of non-linear elements placed in between can be measured. The method has been successfully tested using existing BPM data from the SPS of CERN, since presently the SIS-18 is not equipped with the necessary hardware. The magnet strength of seven SPS extraction sextupoles was measured with a precision of about 10%. The polarities have been unambiguously measured. This method can be used to detect polarity errors and wrong power supply connections during machine commissioning, as well as for a continuous monitoring of the "nonlinearity budget" in superconducting machines. A second beam-based method has been studied for a fast measurement and correction of betatron coupling driven by skew quadrupole field errors and tilted focusing quadrupoles. Traditional methods usually require a time-consuming scan of the corrector magnets in order to minimize the coupling stop band |C|. In this thesis it has been shown how the same correction can be performed in a single machine cycle from the harmonic analysis of multi-BPM data. The method has been successfully applied to RHIC. It has been shown that the stop band |C| (also known in the American literature as Delta-Qmin) measured in a single machine cycle with the new algorithm is compatible with the value obtained by traditional methods. The measurement of the resonance phase Theta defines automatically the best corrector setting, which was found in agreement with the one obtained with a traditional scan. A third theoretical achievement is a new description of the betatron motion close to the difference resonance in presence of linear coupling. Compared to the matrix formalism the motion is parametrized as a function of the resonance driving term f1001 only (which is proven to be an observable), whereas making use of the matrix approach four parameters need to be measured. Formulae describing the exchange of RMS emittances when approaching the resonances have been already derived in the 70s in the smooth approximation. New formulae have been derived here making use of Lie algebra providing a better description of the emittance behavior. The emittance exchange curves are predicted by new formulae with excellent agreement with multi-particle simulations and the counter-intuitive emittance variation along the ring of the emittance is proven to be related to the variation of f1001. A new way to decouple the equations of motion and explicit expressions for the individual single particle invariants have been found. For the first time emittance exchange studies have been carried out in the SIS-18 of GSI. Transverse RMS emittances have been measured during 2005 from rest gas monitor (RGM) data. Crossing the linear coupling resonance, the transverse emittances exchange completely. It has been observed that this effect is reversible. Applications of this manipulation are: emittance equilibration under consideration for future operations of the SIS-18 as booster for the SIS-100; emittance transfer during multi-turn injection to improve the eficiency and to protect the injection septum in high intensity operations, by shifting part of the horizontal emittance into the vertical plane. The emittance exchange curves obtained experimentally have been compared with analytic formulae providing a fast measurement (in few machine cycles only) of the linear coupling stop band |C|. Technical problems prevented the use of the eight skew quadrupoles installed in the SIS-18 to compensate the linear coupling resonance. It has been observed that the emittance exchange curve is highly sensitive to the beam intensity. Multi-particle simulations with 2D PIC space-charge solver have been run to infer heuristic scaling laws able to quantify the observable stop band, to be used for the resonance compensation. The analysis of BPM and RGM data has been performed making use of new software applications developed for this purpose. The bpm2rdt code for the harmonic analysis of BPM data has been written and tested with real data. The software reads the BPM turn-by-turn data and the Twiss parameters. Then it performs the FFT of these data, finds the peaks of the Fourier spectra and infers the RDT fjklm, the strengths ^hjklm and the local terms lambda-jklm. All these observables are printed out together with the corresponding values of the model, computed from the nominal values of strengths and the Twiss parameters. From the FFT of dual-plane BPM data the linear optics (beta functions and phase advances Delta phi) at the corresponding location is also inferred. From the measurement of f1000, the linear coupling coeffcient C (amplitude and phase) is also computed. The code has been tested by using existing SPS data and new RHIC data. For the on-line analysis of RGM data the rgm2emitt code has been written. The application reads in input the raw data files from the RGM and the beam loss monitor (BLM) respectively, the latter created by the RGM on-line software itself. From the RGM data the transverse beam sizes and emittances are inferred and used together with the BLM data to compute the tune shift during the machine cycle.
Die vorliegende Magisterarbeit untersucht verschiedene Formen der Darstellung von Geschichte im Film mit Hilfe der Filmphilosophie von Gilles Deleuze. Ausgangspunkt der Betrachtung sind zunächst die vielfältigen Ansätze der Regisseure des Neuen Deutschen Films, auch und gerade bei der Thematisierung von (deutscher) Geschichte die klassische Unterscheidung zwischen dokumentarischen und fiktionalen filmästhetischen Strategien aufzubrechen. Inwiefern sich diese Vorgehensweise und die dabei entstehenden neuen “Deutschlandbilder” (Anton Kaes) mit Deleuze’ Konzept des Zeit-Bildes (l‘image-temps) in Beziehung setzen lassen, wird hier am Beispiel der Filmtheorie Alexander Kluges und dem unter dessen maßgeblichen Einfluss kollektiv produzierten Film “Deutschland im Herbst” von 1978 diskutiert. Knapp zwanzig Jahre später beschäftigte sich Heinrich Breloers als Fernseh-Großereignis konzipierter Zweiteiler “Todesspiel” erneut mit den Ereignissen des Deutschen Herbstes. Auch hier mischen sich dokumentarische und fiktionale Elemente im Rahmen des “Doku-Fiktion”-Formates, das in seinen Erzählstrategien jedoch umso stärker auf das klassische Modell des Bewegungs-Bildes zurückgreift. Andres Veiels “Black Box BRD” von 2001 und Christopher Roths “Baader” von 2002 knüpfen dagegen - nicht zuletzt in expliziter Ablehnung einer konventionalisierten Fernsehästhetik - erneut an das von Deleuze vor allem für das europäische Nachkriegskino mit dem Begriff des Zeit-Bildes beschriebene Modell einer aufgebrochenen Narration und einer Sinn-Resistenz der visuellen Bilder an: Kontraste und Widersprüche fordern den Zuschauer zur Reflexion über das Dargestellte auf; “Wahrheit” wird hier entweder als von subjektiven Interessen geleitete Sichtweise (“Black Box BRD“) oder als gesellschaftlich konstruierter Mythos (“Baader“) gezeigt. Mit Hilfe der von Nietzsche inspirierten Thesen Deleuze’ zum Wahrheitsmodell des Bewegungs-Bildes einerseits, den “Mächten des Falschen” im Zeit-Bild andererseits versucht die vorliegende Arbeit so zugleich zu zeigen, inwiefern den verschiedenen Bildarten im Hinblick auf die Darstellung von Geschichte notwendig eine politische Komponente innewohnt: Während die verschiedenen Formen des Bewegungsbildes eine bereits konstituierte Gemeinschaft vorgeben, der sich anzuschließen die Filme durch Identifikation ermöglichen, scheint das Zeit-Bild eine wesentlich demokratischere Form des “Wir” zu eröffnen: Es emanzipiert den Zuschauer durch das Miteinander des Aufzeigens der in einer bestimmten Sichtweise versteckten Interessen und der im gleichen Atemzug vorgenommenen, als solche jedoch stets kenntlich gemachten "Parteiergreifung" der Filme zu einem an deren Herausbildung und steten Neuerschaffung gleichberechtigt beteiligten Mitglied dieser Gemeinschaft.
Alzheimer’s Disease (AD) is the most common neurodegenerative disorder marked by progressive loss of memory and cognitive ability. The pathology of AD is characterised by the presence of amyloid plaques, intracellular neurofibrillary tangles and pronounced cell death. The aim of this thesis was to investigate pathways involved in the Aß cascade of neurodegeneration. Since novel findings indicate that already this Aß species exerts neurotoxic effects long before hyperphosphorylated tau, neurofibrillary tangles and extracellular Aß plaques appear, the investigations were accomplished with specific regard to the effects of intracellular Aß. The Swedish double mutation in the APP gene results in six- to eightfold increased Aß production of both Aß1-40 and Aß1-42 compared to human wildtype APP cells (APPwt). Data obtained from PC12 cells indicate that it is possible to specifically increase the Aß load without enhancing APP expression levels. On the basis of these findings, it seemed possible to investigate dose-dependent effects of Aß in multiple experimental designs. These assay designs were created in order to mimick different in-vivo situations that are discussed to occur in AD patients: APPsw PC12 cells exhibit low physiological concentrations of Aß within picomolar range in contrast to APPsw HEK cells, expressing Aß levels within the nanomolar range. Of note, the APPsw HEK cells showed a specific and highly significant increase in the intracellular accumulation of insoluble Aß1-42. Moreover, an intracellular accumulation of Aß and APP was found in the mitochondria of the HEK APPsw cells suggesting a direct impact on mitochondrial function on these cells. This effect might finally lead to disturbances in the energy metabolism of the cell or to increased cell death. Furthermore, baseline g- and ß-secretase activity was assessed since these enzymes represent promising therapeutic targets to slow or halt the disease process. As expected, ß-secretase activity was significantly elevated in all APPsw cell lines. This might be due to the proximity of the Swedish double mutation next to the N-terminus of the Aß sequence. Interestingly, g-secretase activity was similarly increased in PC12 APPsw cells. In addition, the toxicity of different Aß species was investigated in SY5Y and PC12 cells with regard to their effect on cellular viability mirrored by mitochondrial activity using MTT assay. Here, it turned out that not monomers, but already dimers are neurotoxic correlates. Fibrillar Aß species showed the highest toxicity. In the next step, SY5Y cells forming endogenous, dimeric APP and Aß were investigated. In accordance with previous findings, these cells showed a decreased MTT reduction potential in comparison to APPwt and control SY5Y cells reflecting a decrease of cellular viability. The impaired energy metabolism of the cells was even more drastically mirrored by reduced baseline ATP levels. In the second part of this thesis, the expression and intracellular distribution of Bcl-2 family proteins and pro-apoptotic mitochondrial factors under baseline conditions and during oxidative stress were analyzed in the APPwt and APPsw bearing cells. The most prominent finding was the reduction of expression levels of the anti-apoptotic factor Bcl-xL in the cytosolic fractions of APPwt and APPsw PC12 cells. This might indicate that a lack of anti-apoptotic factors or their altered intracellular distribution, rather than an increase in caspase-dependent pro-apoptotic factors, could be responsible for the increased vulnerability of APPwt- and APPsw-transfected PC12 cells against oxidative stress. Since total Bcl-xL expression was unaffected in PC12 cells, in contrast to APPwt and APPsw-expressing SY5Y and HEK cells revealing significantly decreased Bcl-xL expression levels. Thus, alterations in Bcl-xL distribution seem to be an early event in the disease process. Increasing Bcl-xL expression might potentially be one promising strategy for AD modification. PC12 and HEK cells bearing APPsw or APPwt were treated with the potent g-secretase inhibitor DAPT. Of note, DAPT did not only efficiently block Aß production, but additionally led to an elevation of the MTT reduction potential, reflecting an increase in cellular viability. As another disease-modifying strategy, several efforts are undertaken to ameliorate AD-relevant symptoms by the treatment with nerve growth factor (NGF). Generally, it is known that substituted pyrimidines have modest growth-promoting effects. Here, KP544, a novel substituted pyrimidine, was characterised. This drug increased MTT reduction potential in terminally differentiated and undifferentiated PC12 cells. Furthermore, treatment with KP544 led to a reduction in Aß1-40 secretion. Thus, one may conclude that the target of KP544, GSK-3ß, represents a connecting link between the two main pathological hallmarks of AD and might thus be a very promising therapeutic target for AD.
Simulation von Prüfungsordnungen und Studiengängen mit Hilfe von Constraint-logischer Programmierung
(2006)
In dieser Arbeit wurde versucht die Prüfungsordnung des Bachelorstudiengangs Informatik mit Hilfe der Constraint-logischen Programmiersprache - genauer der Programmiersprache ECLiPSe e zu simulieren und diese auf logische Fehler zu überprüfen. Hierfür wurden die beiden deklarativen Programmierparadigmen, die logische Programmierung und die Constraint-Programmierung, getrennt erläutert, da sie unterschiedliche Techniken bei der Problembehandlung einsetzen. Zunächst wurde als Grundlage die Prädikatenlogik (Kapitel 2), erarbeitet und ausführlich dargestellt. Anschließend wurde die logische Programmierung mit der, auf Prädikatenlogik basierenden, Programmiersprache Prolog erläutert (Kapitel 3). Nach der Erläuterung des logischen Teils wurde die Constraint-Programmierung (Kapitel 4) eingehend erläutert. Damit wurde eine Basis geschaffen, um die Constraint-logische Programmierung zu erläutern. Die Constraint-logische Programmierung (Kapitel 5) wurde als eine Erweiterung der logischen Programmierung um Constraints und deren Behandlung dargestellt. Dabei wurde zunächst ein allgemeiner Ansatz der Constraint-logischen Programmierung (CLP-Paradigma) erläutert. Mit der Einführung der Programmiersprache ECLiPSe, wurden alle Werkzeuge behandelt, die für die Simulation benötigt wurden. Schließlich wurde genauer auf die Modellierung des Problems und seine Implementierung in der Sprache ECLiPSe eingegangen (Kapitel 6). Grundidee der Simulation war, die Regeln der Prüfungsordnung als Constraints zu formulieren, so dass sie formal bearbeitet werden konnten. Hier wurden zwei Arten von Tests durchgeführt: • Constraint-Erfüllbarkeitsproblem: Mit dem ersten Test wurde nach eine Lösung gesucht, in der alle Constraints erfüllt sind. • Constraint-Optimierungsproblem: Hier wurde nach einer optimalen Lösung gesucht unter mehreren Kandidaten, in der alle Constraints erfüllt sind. Fazit: Die Constraint-logische Programmierung ist ein viel versprechendes Gebiet, da sie ein Mittel zur Behandlung kombinatorischer Probleme darstellt. Solche Probleme treten in vielen verschiedenen Berufsfeldern auf und lassen sich sonst nur mit großem Aufwand bewältigen. Beim Auftreten solcher Probleme kann schnell ein konzeptuelles Modell erstellt werden, das sehr einfach in ein ausführbares Programm (Design-Modell) umgewandelt wird. Programm-Modifikation ist erheblich leichter als in den prozeduralen Programmiersprachen.
In den Jahren 1992-1999, 2001 und 2002 wurden vom Landesmuseum Kärnten am Zollfeld (KG Maria Saal, pol. Bez. Klagenfurt Land) archäologische Untersuchungen im westlichen Stadtrandbereich des Municipium Claudium Virunum durchgeführt. Dabei wurde der Ostteil zweier Insulae erfasst, die durch den Ost-West verlaufenden Cardo Maximus voneinander getrennt werden. Im Zuge der Ausgrabungen konnte auch eine große Zahl an Wandmalereifragmenten geborgen werden. Der überwiegende Teil kam zwar nur noch in Form von klein- bis kleinstteiligen Fragmenten zu Tage, die Menge der Fundstücke und die Tatsache, dass es sich bei diesen um die ersten stratifizierbaren Wandmalereien der Provinzhauptstadt Noricums handelt, machte eine ausführliche Bearbeitung des Materials notwendig. Im Zuge der Bearbeitung konnten auch zwei Rekonstruktionsversuche erarbeitet werden, die hier im Anschluss vorgestellt werden sollen
Hazar Lake sunken city
(2006)
Background While there is enough convincing evidence in childhood acute lymphoblastic leukemia (ALL), the data on the pre-natal origin in childhood acute myeloid leukemia (AML) are less comprehensive. Our study aimed to screen Guthrie cards (neonatal blood spots) of non-infant childhood AML and ALL patients for the presence of their respective leukemic markers. Methods We analysed Guthrie cards of 12 ALL patients aged 2–6 years using immunoglobulin (Ig) and T-cell receptor (TCR) gene rearrangements (n = 15) and/or intronic breakpoints of TEL/AML1 fusion gene (n = 3). In AML patients (n = 13, age 1–14 years) PML/RARalpha (n = 4), CBFbeta/MYH11 (n = 3), AML1/ETO (n = 2), MLL/AF6 (n = 1), MLL/AF9 (n = 1) and MLL/AF10 (n = 1) fusion genes and/or internal tandem duplication of FLT3 gene (FLT3/ITD) (n = 2) were used as clonotypic markers. Assay sensitivity determined using serial dilutions of patient DNA into the DNA of a healthy donor allowed us to detect the pre-leukemic clone in Guthrie card providing 1–3 positive cells were present in the neonatal blood spot. Results In 3 patients with ALL (25%) we reproducibly detected their leukemic markers (Ig/TCR n = 2; TEL/AML1 n = 1) in the Guthrie card. We did not find patient-specific molecular markers in any patient with AML. Conclusion In the largest cohort examined so far we used identical approach for the backtracking of non-infant childhood ALL and AML. Our data suggest that either the prenatal origin of AML is less frequent or the load of pre-leukemic cells is significantly lower at birth in AML compared to ALL cases.
Background: Experimental animal data show that protection against severe acute respiratory syndrome coronavirus (SARS-CoV) infection with human monoclonal antibodies (mAbs) is feasible. For an effective immune prophylaxis in humans, broad coverage of different strains of SARS-CoV and control of potential neutralization escape variants will be required. Combinations of virus-neutralizing, noncompeting mAbs may have these properties. Methods and Findings: Human mAb CR3014 has been shown to completely prevent lung pathology and abolish pharyngeal shedding of SARS-CoV in infected ferrets. We generated in vitro SARS-CoV variants escaping neutralization by CR3014, which all had a single P462L mutation in the glycoprotein spike (S) of the escape virus. In vitro experiments confirmed that binding of CR3014 to a recombinant S fragment (amino acid residues 318–510) harboring this mutation was abolished. We therefore screened an antibody-phage library derived from blood of a convalescent SARS patient for antibodies complementary to CR3014. A novel mAb, CR3022, was identified that neutralized CR3014 escape viruses, did not compete with CR3014 for binding to recombinant S1 fragments, and bound to S1 fragments derived from the civet cat SARS-CoV-like strain SZ3. No escape variants could be generated with CR3022. The mixture of both mAbs showed neutralization of SARS-CoV in a synergistic fashion by recognizing different epitopes on the receptor-binding domain. Dose reduction indices of 4.5 and 20.5 were observed for CR3014 and CR3022, respectively, at 100% neutralization. Because enhancement of SARS-CoV infection by subneutralizing antibody concentrations is of concern, we show here that anti-SARS-CoV antibodies do not convert the abortive infection of primary human macrophages by SARS-CoV into a productive one. Conclusions: The combination of two noncompeting human mAbs CR3014 and CR3022 potentially controls immune escape and extends the breadth of protection. At the same time, synergy between CR3014 and CR3022 may allow for a lower total antibody dose to be administered for passive immune prophylaxis of SARS-CoV infection.
This paper employs a multi-country large scale Overlapping Generations model with uninsurable labor productivity and mortality risk to quantify the impact of the demographic transition towards an older population in industrialized countries on world-wide rates of return, international capital flows and the distribution of wealth and welfare in the OECD. We find that for the U.S. as an open economy, rates of return are predicted to decline by 86 basis points between 2005 and 2080 and wages increase by about 4.1%. If the U.S. were a closed economy, rates of return would decline and wages increase by less. This is due to the fact that other regions in the OECD will age even more rapidly; therefore the U.S. is “importing” the more severe demographic transition from the rest of the OECD in the form of larger factor price changes. In terms of welfare, our model suggests that young agents with little assets and currently low labor productivity gain, up to 1% in consumption, from higher wages associated with population aging. Older, asset-rich households tend to lose, because of the predicted decline in real returns to capital. Klassifizierung: E17, E25, D33, C68
When liquidity plays an important role as in times of financial crisis, asset prices in some markets may reflect the amount of liquidity available in the market rather than the future earning power of the asset. Mark-to-market accounting is not a desirable way to assess the solvency of a financial institution in such circumstances. We show that a shock in the insurance sector can cause the current value of banks’ assets to be less than the current value of their liabilities so the banks are insolvent. In contrast, if historic cost accounting is used, banks are allowed to continue and can meet all their future liabilities. Mark-to-market accounting can thus lead to contagion where none would occur with historic cost accounting. Klassifizierung: G21, G22, M41
The focus of this thesis is on quantum Heisenberg magnets in low dimensions. We modify the method of spin-wave theory in order to address two distinct issues. In the first part we develop a variant of spin-wave theory for low-dimensional systems, where thermodynamic observables are calculated from the Gibbs free energy for fixed order parameter. We are able to go beyond linear spin-wave theory and systematically calculate two-loop correction to the free energy. We use our method to determine the low-temperature physics of Heisenberg ferromagnets in one, two and three spatial dimensions. In the second part of the thesis, we treat a two-dimensional Heisenberg antiferromagnet in the presence of a uniform external magnetic field. We determine the low-temperature behavior of the magnetization curve within spin-wave theory by taking the absence of the spontaneous staggered magnetization into account. Additionally, we perform quantum Monte Carlo simulations and subsequently show that numerical findings are qualitatively comparable to spin-wave results. Finally, we apply our method to an experimentally motivated case of the distorted honeycomb lattice in order to determine the strength of the exchange interactions.
Videoaufzeichnung der Öffentlichen Diskussionsveranstaltung am Freitag, den 14. Juli 2006. Veranstaltet vom soziologischen Teilprojekt D3 im Forschungskolleg 435 Wissenskultur und gesellschaftlicher Wandel im Rahmen des wissenschaftlichen Workshops Krise der „Arbeitsgesellschaft“ – Transformation zur „Grundeinkommensgesellschaft“? Diskurse, Deutungsmuster und Habitusformationen im Wandel Teilnehmer: - Dr. Ulrich Oevermann, Professor für Soziologie und Sozialpsychologie an der Universität Frankfurt am Main - Dr. Philippe Van Parijs, Professor an der Université catholique de Louvain, Chaire Hoover d'éthique économique et sociale, Visiting Professor am Department of Philosophy an der Harvard-University - Dr. Georg Vobruba, Professor für Soziologie der Sozialpolitik an der Universität Leipzig - Götz W. Werner, Professor für Entrepreneurship an der Universität Karlsruhe, Unternehmer, Gründer und Vorsitzender der Geschäftsführung der DM-Drogeriemarktkette Moderation: Dr. Axel Jansen (Amerikanist, Frankfurt am Main) : Zeit: Freitag, den 14. Juli 2006, 19 bis 22 Uhr Ort: Universität Frankfurt am Main, Westend-Campus, IG-Farben-Gebäude, Grüneburgplatz 1, Nebengebäude, Raum NG 1.741a/b
Die in den beiden letzten Jahren abgeschlossenen Nationallizenzen haben Tatsachen geschaffen, die den Start zu einer Umstrukturierung der überregionalen Informationsversorgung erleichtern: - Versorgungslücken wurden geschlossen. - Die Durchdringung der Hochschulen und Forschungseinrichtungen mit elektronischer Fachinformation wurde vergleichbaren Ländern angeglichen. - Wissenschaftler, Studierende und wissenschaftlich interessierte Privatpersonen haben deutschlandweit kostenlosen Zugang zu einem fachlich breit gestreuten Angebot an retrospektiven Datenbanken, digitalen Textsammlungen und elektronischen Zeitschriften.
ATP-binding cassette (ABC) Transporter sind ubiquitäre Membranproteine, die die Hydrolyse von ATP in der Regel an die Translokation unterschiedlichster Substrate über biologische Membranen koppeln. Sie bilden eine der größten Familien von aktiven Transportern, werden in allen drei Reichen des Lebens gefunden und sind an einer Vielzahl physiologischer und pathophysiologischer Vorgänge beteiligt. Auf Grund ihrer zentralen Bedeutung für viele zelluläre Prozesse wurden in der hier vorliegenden Arbeit ausgewählte ABC-Transporter bzw. ihre Komponenten strukturell untersucht, mit dem Ziel einen Beitrag zur Aufklärung ihrer molekularen Mechanismen zu leisten. Das erste untersuchte System war der MDR-ABC-Transporter LmrA aus L. lactis, der auf Grund seiner funktionalen Austauschbarkeit mit dem humanen P-Glykoprotein ein geeignetes Modellsystem zur strukturellen Untersuchung dieser medizinisch relevanten Klasse von ABC-Transportern darstellte. In einem ersten Schritt zu seiner Kristallisation wurde durch die Analyse von 43 Protein-Detergens-Kombinationen eine für strukturbiologische Untersuchungen geeignete Proteinpräparation etabliert. Unter Verwendung von FOS-CHOLINE-16 wurde eine bis zur Homogenität gereinigte, monodisperse und stabile Proteinlösung zur Kristallisation gewonnen, mit der eine breit angelegte Analyse des n-dimensionalen Kristallisationsraums von LmrA durchgeführt wurde. Im Zuge der Analyse von insgesamt 9600 Bedingungen wurden vier verschiedene Kristallformen erhalten. Die Datenaufnahme lieferte für die Kristallform 2 unter Verwendung von Synchrotronstrahlung eine schwache Streuung bis zu einer Auflösung von 20 Å. In einem weiteren Projekt wurden die molekularen Grundlagen der Substratspezifität des ABC-Importers Ehu aus S. meliloti untersucht. Hierfür wurde die Kristallstruktur seines Substratbindeproteins EhuB im Komplex mit den kompatiblen Soluten Ectoin bzw. Hydroxyectoin mit einer Auflösung von 1,9 Å bzw. 2,5 Å gelöst. Die beiden erhaltenen Strukturen zeigten einen für Substratbindeproteine der Gruppe II typischen Aufbau aus zwei globulären Domänen, die durch zwei Segmente der Polypeptidkette verbunden wurden. Die Substratbindungsstelle von EhuB war, wie für Substratbindeproteine erwartet, in der Spalte zwischen den beiden globulären Domänen lokalisiert. Ihre Analyse zeigte eine Interaktion des Proteins mit der negativ geladenen Carboxylat-Gruppe der Substrate durch die Bildung von Salzbrücken mit der Seitenkette von Arg85 sowie mittels Wasserstoffbrückenbindungen mit den Hauptketten-Stickstoffatomen von Phe80 und Thr133. Im Unterschied dazu waren für die Bindung des kationischen Anteils der Substrate wesentlich seine Wechselwirkungen mit den aromatischen Resten Phe24, Tyr60 und Phe80 verantwortlich, die durch ihre räumliche Anordnung eine optimale Bindungsstelle für die delokalisierte positive Ladung der Substrate bildeten. Die Bedeutung dieser wahrscheinlich auf Kation-TT und van der Waals Interaktionen beruhenden Wechselwirkungen für die Substratbindung konnten – aufbauend auf der Kristallstruktur – in Kooperation mit der Arbeitsgruppe von Prof. E. Bremer (Universität Marburg) bestätigt werden. Neben den beschriebenen Interaktionen wurde der kationische Anteil der Substrate durch zwei Salzbrücken mit der Seitenkette von Glu21 sowie durch eine Wasserstoffbrückenbindung mit der Hauptketten-Carbonyl-Funktion von Gly78 gebunden. Bei der Bindung des Substrats Hydroxyectoin wurde im Vergleich zu Ectoin eine zusätzliche Wasserstoffbrückenbindung zwischen der Seitenkette von Glu134 und der lediglich in diesem Substrat vorhandenen Hydroxyl-Gruppe beobachtet, die für die dreieinhalbfach höhere Bindungsaffinität von EhuB für Hydroxyectoin gegenüber Ectoin verantwortlich zu sein scheint. Der Vergleich der an der Substratbindung beteiligten Interaktionen in EhuB mit den ebenfalls für kompatible Solute spezifischen Substratbindeproteinen ProX aus E. coli, ProX aus A. fulgidus und OpuAC aus B. subtilis enthüllte gemeinsame Prinzipen der untersuchten Proteine zur Bindung dieser Klasse von Substraten. Von besonderer Bedeutung waren dabei die von bestimmten aromatischen Resten ausgehenden Wechselwirkungen mit dem kationischen Anteil der Substrate, die wahrscheinlich auf Kation-TT und van der Waals Interaktionen beruhen. Im Detail zeigten die Substratbindungsstellen der untersuchten Proteine jedoch signifikante Unterschiede, die eine Anpassung an die für ihre Aufgabe benötigte Bindungsaffinität und das zu bindende Substrat zu sein scheinen.