Refine
Year of publication
- 2006 (1968) (remove)
Document Type
- Article (758)
- Doctoral Thesis (295)
- Part of Periodical (190)
- Part of a Book (155)
- Working Paper (123)
- Book (105)
- Review (105)
- Conference Proceeding (71)
- Report (53)
- Preprint (49)
Language
- German (1326)
- English (582)
- Portuguese (20)
- French (17)
- Multiple languages (10)
- Spanish (5)
- Polish (3)
- Yiddish (3)
- Italian (1)
- mis (1)
Is part of the Bibliography
- no (1968) (remove)
Keywords
- Deutsch (32)
- Literatur (32)
- Frankfurt <Main> / Universität (29)
- Rezension (23)
- Thema-Rhema-Gliederung (22)
- Deutschland (20)
- Formale Semantik (20)
- Englisch (18)
- Rezeption (16)
- Syntax (15)
Institute
- Medizin (185)
- Extern (91)
- Biochemie und Chemie (70)
- Physik (69)
- Biowissenschaften (56)
- Rechtswissenschaft (50)
- Präsidium (46)
- Center for Financial Studies (CFS) (44)
- Geschichtswissenschaften (39)
- Gesellschaftswissenschaften (38)
In diesem Artikel soll einer der strittigen Vertreter der deutschen Romantik auf zwei verschiedene Weisen analysiert werden, erstens durch Untersuchung des historischen Rahmens seiner antiken Tragödie "Penthesilea", und zweitens, durch den Vergleich des Werkes mit seiner persöhnlichen romantischen Veranlagung, um die traditionellen und historischen Grenzen des Begriffs "Romantik" zu erweitern.
Die Driften der Wörter in öffentlichen Räumen sind vielfältig. Neue Wortentwicklungen belegen unterschiedliche Interessen, "chillen" und "dissen" andere als das in der konservativen Züricher Zeitung zuerst erschienene "share-holder-value". Im Folgenden soll eine sinnbezoge Verallgemeinerung unternommen werden, die die Handlungen der Akteure mit der strukturellen Ebene verbindet. Die Veränderungen in den Verwendungen sollen zu strukturellen sozialen und sprachlichen Rahmenbedingungen in Bezug gesetzt werden. Wie werden Neuerungen und Änderungen der Anwendungsbedingungen von Wörtern vor dem Hintergrund des Wissens um die traditionelle Standardsprache und deren soziale Funktion wahrgenommen? Welche Funktionen haben Neologismen in Abgrenzung zu diesem Standard?
The concept of Large Extra Dimensions (LED) provides a way of solving the Hierarchy Problem which concerns the weakness of gravity compared with the strong and electro-weak forces. A consequence of LED is that miniature Black Holes (mini-BHs) may be produced at the Large Hadron Collider in p+p collisions. The present work uses the CHARYBDIS mini-BH generator code to simulate the hadronic signal which might be expected in a mid-rapidity particle tracking detector from the decay of these exotic objects if indeed they are produced. An estimate is also given for Pb+Pb collisions.
In this paper, we investigate the usefulness of a wide range of features for their usefulness in the resolution of nominal coreference, both as hard constraints (i.e. completely removing elements from the list of possible candidates) as well as soft constraints (where a cumulation of violations of soft constraints will make it less likely that a candidate is chosen as the antecedent). We present a state of the art system based on such constraints and weights estimated with a maximum entropy model, using lexical information to resolve cases of coreferent bridging.
"Wie ein ungeheures Märchen" : Johann Caspar, Johann Wolfgang und August Goethe im Petersdom in Rom
(2006)
Die Baugeschichte des Petersdoms in Rom, wie er sich dem Blick des neuzeitlichen Betrachters darstellt, ist das Resultat eines großen Abbruchunternehmens ebenso wie eines gewaltigen Neubaus. Von „schöpferischer Zerstörung“ hat Horst Bredekamp mit Blick auf die Baugeschichte von Neu St. Peter in Rom seit 1506 gesprochen. Als Johann Wolfgang Goethe, den Spuren seines Vaters folgend, 1786 auf seiner „Hegire“ das antike Rom und den Petersdom erblickte und sich damit in die südliche Kunstwelt „initiiert“ fühlte, konnte er kaum einschätzen, dass sein Neubau der deutschen Litera-tursprache ein ähnlich gewaltiges und gewaltsames Abbruch- und Aufbauprojekt sein könnte, wie der sich über mehr als ein Jahrhundert erstreckende Neubau der Papstkirche in Rom. Die „römischen Glückstage“, deren Stimmung und Kunstgefühl sich Goethe noch 1829, bei der Edition des „Zweiten römischen Aufenthalts“, in die „kimmerischen“ Nächte des Nordens holte, versuchte sein Sohn August 1830 auch für sich zu reklamieren. Doch endete dessen zu spät unternommene Flucht in einer Tragödie. August von Goethe starb zehn Tage, nachdem er die Kuppel des Petersdoms im Glanz der Morgensonne gesehen hatte, an einem Schlaganfall in Rom. Von dem Schock, der ihn im November 1830 durch die Nachricht vom Tod des Sohnes ereilte, hat sich Johann Wolfgang Goethe nicht mehr erholt.
Um Signaturen für die Erzeugung eines Quark-Gluon Plasmas zu untersuchen, wurden im Rahmen eines Energie-Scan Programmes mit dem Experiment NA49 am CERN-SPS Beschleunigerring bei 5 unterschiedlichen Strahlenergien Schwerionenkollisionen untersucht. Eine Möglichkeit, Informationen über die raum-zeitliche Struktur einer solchen Kollision zu erhalten, ist durch die Untersuchung von Bose-Einstein-Korrelationen gegeben. Die Untersuchung der Energieabhängigkeit dieser Korrelationen ist Gegenstand dieser Arbeit. Um die Dynamik der Kollisionen zu studieren, wird die Analyse für die einzelnen Energien in Abhängigkeit des mittleren transversalen Impulses und der Paarrapidität durchgeführt. In der Arbeit werden zunächst die theoretischen Grundlagen zur Untersuchung von Schwerionenkollisionen mit Hilfe von Bose-Einstein-Korrelationen erarbeitet. Nach einer kurzen Darstellung des Experimentes NA49 folgt eine detaillierte Beschreibung der Datenselektion und der verwendeten Analyse-Methode. Die Ergebnisse werden im Rahmen eines Modells zur Beschreibung einer Teilchenquelle interpretiert.
Diese Dissertation versucht neue und andere Wege in der Diagnostik der fokalen Leberläsionen FNH und HCC zu beschreiten, indem unter anderem bislang in der Untersuchung der Leber selten genutzte Untersuchungstechniken wie die multiplanare Rekonstruktion einer Volume-interpolated-breath-hold T1-3d-GRE Sequenz zum Einsatz kommen. In dieser Arbeit ging es darum, die Anwendung von Resovist® in der MRT für die fokalen Leberläsionen FNH und HCC zu bewerten. Dazu wurden von 40 Patienten in der Screeningphase die 36 Patienten, die den Goldstandard erfüllten mittels folgender Sequenzen untersucht: T2-Haste, T2-TSE-FS und T1-GRE jeweils prä und post Kontrastmittelgabe und als dynamische Aufnahme T1-3DGRE als Volume-interpolated-breath-hold, die später multiplanar rekonstruiert wurde. 4 weitere Personen mußten, wegen durch Bewegungsartefakte nicht mehr zu bewertende Bilder, leider noch aus der Studie ausgeschlossen werden, so dass letztendlich noch 31 Personen in der Studie eingeschlossen waren (16 Patientinnen mit einer FNH und 15 Patienten mit einer HCC). Aus den mit Region -of -Interest (ROI) gemessenen Signalintensitäten wurden in Signal- intensity –Ratio (SIR) und Percentage –Signal- intensity –Loss (PSIL) für die Sequenzen T2-Haste, T2-TSE-FS und T1-GRE und in SIR, Percentage – Enhancement (PE) und Contrast- to- Noise- Ratio (CNR) für die T1-3D-GRE VIBE und MPR berechnet. Gemessen wurde die Signalintensität der jeweiligen Läsionen, des linken und rechten Leberlappens, je ein Wert aus dem oberen und unteren Milzviertel, die Aorta in Höhe der Leber, ebenso die Vena cava und die Vena porta. Die so erhaltenen Messwerte wurden mit Hilfe des t-Tests und des u-Tests auf ihre Signifikanz (p<0,05) überprüft. Des Weiteren wurden Spezifität und Sensitivität in der Diagnose der Läsion vor und nach Kontrastmittelapplikation bestimmt und ebenfalls auf ihre Signifikanz überprüft. Dabei läßt sich eine signifikante Steigerung beider Parameter durch die Anwendung des SPIO nachweisen. Als Erstes wurden die Werte der Strukturen auf ihre jeweiligen Änderungen nach bzw. im Verlauf der Kontrastaufnahme hin bewertet, danach erfolgte ein Abgleich, inwieweit die als Arbeitshypothesen aufgestellten Vermutungen, dass sich die Signalintensitäten der Milz, der Leberlappen und der Vena porta als zuführendes Gefäß der Leber im Mitteldruck bei Vorliegen einer Leberzirrhose (n=14) gegenüber dem Fehlen einer solchen (n=17) unterscheiden. Eine solche Veränderung konnte für die Leber bestätigt, musste für die Milz und die Vena porta jedoch abgelehnt werden. Für die VIBE und MPR erfolgte ein Vergleich der Werte auf signifikante Unterschiede, um zu überprüfen, inwieweit die Rekonstruktion, die optisch ansprechendere Bilder liefert als ihre Vorlage VIBE, diese auch in Punkto Validität der Signalmessungen zu ersetzen vermag. Wenn man eine generelle Signalerhöhung von ca. 20 akzeptiert, muss man diesen Versuch als gelungen ansehen. Für die grundsätzliche Unterscheidung zwischen HCC und FNH konnten die Literaturberichte bestätigt werden, dass die FNH auf Grund einer größeren Anzahl von kontrastmittelaufnehmenden Kupffer- Zellen und geringere Dysplasie sowie Fehlen von den Zellstoffwechsel beeinflussenden Atypien, ein dem normalen Lebergewebe ähnlichere, wenn auch weit geringere, Signalintensität und –änderung aufwiesen als die HCC. Dennoch waren die Unterschiede in den Signalintensitäten und ihren Veränderungen zwischen FNH und normalem Parenchym groß genug, um auch hier eine sichere Abgrenzung zu bieten. Insgesamt boten die HCC einen stärkeren Läsion-zu-Leber-Kontrast (CNR) als die FNH. Die FNH wurden nach ihrer Morphologie in FNH mit und ohne Nidus eingeteilt und auf Unterschiede innerhalb dieser beiden Gruppen untersucht. Dabei wurde festgestellt, dass die SIR in allen Sequenzen für die FNH mit Nidus signifikant gegenüber den FNH ohne zentrale Narbe erhöht war, in der PSIL ließ sich dieser Trend ebenfalls als signifikant beweisen. In der dynamischen Bildgebung mittels VIBE und MPR konnte für SIR, PE und CNR eine Erhöhung der Werte ebenfalls für die FNH mit Nidus festgestellt werden. Auch zeigte sich, dass die gemessenen und errechneten Werte auch für das jeweils umgebende Lebergewebe analog zu den Läsionen erhöht war, allerdings nur soweit, dass immer noch eine genügend hohe CNR gemessen werden konnte. Innerhalb der Gruppe der HCC erfolgte eine Aufteilung in solitär gegen multifokal vorliegende HCC, diese beiden Einheiten wurden ebenfalls wie die FNH auf Unterschiede und Gemeinsamkeiten überprüft. Leider waren auf Grund der Aufteilung der HCC in solitär und multifokal keine Vergleiche mit bisherigen Arbeiten möglich, da diese Unterscheidung bisher noch nicht gewählt worden war.
Im Zeitraum von Januar 1993 bis Dezember 2003 wurden in der Klinik für Unfall- und Wiederherstellungschirurgie des Klinikums Darmstadt 62 Patienten bei metastatischem Befall der Wirbelsäule mit drohender oder manifester Instabilität im thorakalen und lumbalen Bereich unter palliativen Gesichts-punkten mit einem Fixateur interne dorsal stabilisiert. Insgesamt wurden 65 Segmente operativ versorgt. Bei den Patienten handelte es sich um 36 männliche (58%) und 26 weibliche (42%) Personen mit einem Durchschnittsalter von 64 Jah-ren (40-89 Jahre). Durchschnittlich 1,8 Jahre seit Diagnosestellung waren bis zur Operation vergangen, es handelte sich hauptsächlich um Primärtumoren der Mamma, des Bronchialsystems, der Prostata und Niere, sowie um Plasmozyto-me, welche alle zusammen für 70% der Primärdiagnosen verantwortlich waren. Bei 42 (67,74%) Patienten lag ein Stadium 3 nach Askin vor, bei 20 (32,26%) Patienten ein Stadium 4. Von den Patienten mit neurologischen Defiziten waren 2 (3,22%) paraplegisch mit minimaler motorischer Restfunkti-on, damit Frankel Stadium B zuzuordnen, 7 (11,29%) dem Stadium C mit motorischen Defiziten bei erhaltener Rest-funktion. 11 Patienten (17,74%) hatten lediglich sensible Defizite, waren jedoch alle mobil (Stadium D). Insgesamt hatten damit 20 Patienten (32,25%) präoperativ neurologische Defi-zite. Präoperativ betrug die geäußerte Schmerzintensität durchschnittlich 6,91 nach VAS. Intraoperativ kam es bei durchschnittlich 118,8 Minuten Ein-griffsdauer und im Mittel 913ml Blutverlust zu einer einzigen Komplikation, einer Duraverletzung. Postoperativ kam es bei 8 Patienten zu Komplikationen (12,9%). Eine Blasenlähmung mit Parästhesien nach Duralä-sion bildete sich vollständig zurück. Eine einzige Pedikelfehlplatzierung wurde erfolgreich revidiert, eine Dislokation einer Längsstange wurde nach 3 Monaten klinisch auffällig und gleichermaßen komplikationslos korrigiert. Ein postope-rativ aufgetretenes Serom war nach Revision saniert. Drei Patienten in reduziertem Allgemeinzustand verstarben innerhalb von 2 Wochen postoperativ an Herz-Kreislauf-Versagen, ein Patient überstand unter Intensivtherapie eine Sepsis bei reiz-losem Zugangsbereich. Die postoperative Schmerzintensität betrug durchschnittlich 0,30 Punkte nach VAS. Neurologisch kam es bei 10 der Patienten (50%) mit einem präoperativ be-stehenden neurologischen Defizit zu einer Verbesserung der Symptomatik. Bei 18 von 62 Patienten (29,03%) verblieben neurologische Defizite, wovon 14 sensorischer (22,58%) und 4 motorischer (6,45%) Qualität waren. 58 von 62 Patienten (93,55%) waren postoperativ wieder mobil. Die mittlere Überlebenszeit betrug 3,53 Jahre postoperativ.
Bewahren und Erschließen : die deutschsprachige jüdische Presse und das Projekt Compact Memory
(2006)
Jüdische Zeitschriften stellen für die Erforschung des jüdischen Kultur-erbes eine unverzichtbare Quelle dar. Vollständige Ausgaben der Periodika sind auf Grund des schlechten Erhaltungszustandes und der Zerstörungen durch Krieg und Nationalsozialismus nur noch in wenigen Bibliotheken vorhanden, so dass ihre Nutzung schwierig ist. Compact Memory bietet als Datenbank weltweit freien Online-Zugang zu den Zeit-schriften in digitalisierter Form an und stellt ein wichtiges Hilfsmittel für die Erforschung der modernen mitteleuropäisch-jüdischen Geschichte dar. 118 verschiedene Titel mit insgesamt circa 700.000 Seiten, welche die unterschiedlichsten Strömungen des Judentums repräsentieren, sind als Grafiken bzw. als Volltext zugänglich, außerdem kann in einer Suchmaske gezielt recherchiert werden. Mit der Aufnahme in das UNESCO Archives Portal hat Compact Memory internationale Anerkennung erlangt.
Die Tracheotomie langzeitbeatmeter Patienten hat sich als integraler Bestandteil der modernen Intensivtherapie etabliert. Die von Ciaglia et al. 1985 beschriebene perkutane Dilatationstracheotomie (PDT) erwies sich als sichere, komplikationsarme und wenig zeitaufwendige Alternative zum konventionellen, offenen Vorgehen. Ausgehend von der PDT wurden bis 2001 drei weitere perkutane Tracheotomietechniken im klinischen Alltag verwendet: 1990 die von Griggs vorgestellte Guide- Wire- Dilating- Forceps Technik (GWDF), 1997 die translaryngeale, retrograde Technik nach Fantoni (TLT) und 1999 die modifizierte single-step Technik nach Ciaglia mittels des speziellen Blue Rhino®– Dilatators (CBR). Ziel der vorliegenden klinischen Untersuchung war es, ob eine Lernkurve für die vier Verfahren besteht und sie hinsichtlich ihrer Komplikationen und Praktikabilität zu vergleichen. Bei insgesamt 200 Intensivpatienten wurde unter Beachtung der absoluten Kontraindikationen bettseitig eine elektive perkutane Tracheotomie unter fiberoptischer Kontrolle durchgeführt. Jede der vier Methoden (PDT, GWDF, TLT, CBR) kam bei jeweils 50 Patienten, die chronologisch in zwei Kohorten (Gruppe A: Patienten 1-25, Gruppe B: Patienten 26-50) aufgeteilt wurden, zur Anwendung. Erfasst wurden die Dauer des Eingriffs und alle perioperativen Komplikationen, beginnend unmittelbar vor dem Eingriff bis 48 Stunden danach. Die Komplikationen wurden zunächst den Kategorien intraoperativ und postoperativ zugeteilt, dann wiederum unterschieden in medizinische und technische und in die drei Schweregrade leicht, mittel und schwer eingeordnet. Alle Verfahren waren schnell durchführbar. Bezogen auf das Gesamtkollektiv erwies sich die CBR als schnellste durchführbare Methode, gefolgt von der GWDF, der PDT und der TLT. Die Eingriffsdauer verkürzte sich bei allen Methoden außer bei der CBR in der zweiten Kohorte im Vergleich zu ersten. Bei den 200 perkutanen Tracheotomien traten insgesamt 3 schwere Komplikationen auf (1,5%), alle medizinischer Natur, 13 mittelschwere Komplikationen (7,5%), etwa zur Hälfte technisch und zur Hälfte medizinisch, und 38 leichte Komplikationen (19%), auch in etwa zur Hälfte technisch und medizinisch. Kohortenabhängig ergab sich bei allen Verfahren bis auf die PDT ein Rückgang der Gesamtkomplikationen in den Gruppen B im Vergleich zu den Gruppen A. Aufgeschlüsselt nach medizinisch und technisch ging der Anteil der technischen Komplikationen im Vergleich zu dem Anteil der medizinischen Komplikationen stärker zurück. Als Schlußfolgerung ergibt sich, daß alle vier Methoden der perkutanen Tracheotomie schnell durchführbar sind und eine niedrige Komplikationsrate aufweisen. Die seltenen schweren Komplikationen sind offenbar nicht durch Übung und zunehmendes Beherrschen der Technik vermeidbar. Legt man als Kriterium für die Erlernbarkeit einer Tracheotomiemethode die Komplikationsrate und die Dauer des Eingriffs zugrunde, so legt diese Untersuchung nahe, dass jeweils für alle vier untersuchten Verfahren der perkutanen Tracheotomie eine Lernkurve existiert.
Einleitung: In der vorliegenden Studie wurde die laparoskopisch durchgeführte Thermoinzision der Ovarialoberfläche, eine operative Behandlungsmöglichkeit des polyzystischen Ovarsyndroms (PCOS), im Hinblick auf die Auswirkungen auf Zyklustempus und Fertilität untersucht.
Material und Methode: Zwischen März 1999 und April 2002 unterzogen sich 55 PCOS-Patientinnen, mittleres Alter 30,4 Jahre, im Zentrum für Frauenheilkunde und Geburtshilfe der Universitätsklinik Frankfurt am Main und in der Abteilung für gynäkologische Endokrinologie und Fertilitätschirurgie im Bürgerhospital Frankfurt am Main einer Thermoinzision der Ovarialoberfläche. Alle Patientinnen litten an unerfülltem Kinderwunsch, 20 von ihnen hatten zusätzlich einen unregelmäßigen Menstruationszyklus, 7 gaben eine vermehrte Behaarung. 16 Patientinnen hatten sowohl einen unregelmäßigen Menstruationszyklus als auch Hirsutismus. 37 Patientinnen hatten bereits vor der Operation frustrane Hormonbehandlungen hinter sich. Bei 18 Patientinnen wurde die Thermoinzision der Ovarialoberfläche als primärer Therapieansatz im Rahmen einer Laparoskopie zur Sterilitätsdiagnostik gewählt. Die Nachbeobachtung fand durch schriftliche Befragung und das Einsehen der Krankenblätter und der Operationsberichte statt. Der Fragebogen umfasste im Wesentlichen drei Punkte: 1) Die allgemeine Zufriedenheit mit der Behandlung 2) Den Behandlungserfolg zum Zeitpunkt der Befragung im Vergleich zu vor der Operation (Schwangerschaften, Zyklusregelmäßigkeit, Hirsutismus) 3) Die zusätzlich zur Thermoinzision der Ovarien in Anspruch genommenen Behandlungen (z.B. Medikamente) Die mittlere Nachbeobachtungszeit betrug 31 Monate.
Ergebnisse: Die Schwangerschaftsrate nach durchgeführter Thermoinzision betrug in dieser Studie 51%. Davon traten 90% innerhalb des ersten postoperativen Jahres auf. Der Anteil der Patientinnen mit regelmäßigem Zyklus stieg von 35% auf 58%. Damit war der Einfluss der Thermoinzision auf den Menstruationszyklus signifikant Bei 39% kam es zur Verbesserung des Hirsutismus. Die Abortrate nach Thermoinzision lag in dieser Studie bei 21%. Insgesamt waren 85% der operierten Patientinnen zufrieden bis sehr zufrieden mit dieser Behandlungsmethode. In der Gruppe der Patientinnen mit Nikotinkonsum sind 36% schwanger geworden, im Gegensatz zur Nichtrauchergruppe mit einer Schwangerschaftsrate von 57%. Zwischen Body Mass Index und postoperativer Zyklusregelmäßigkeit / Schwangerschaftsrate, sowie zwischen Alter und postoperativer Zyklusregelmäßigkeit / Schwangerschaftsrate bestand kein Zusammenhang.
Diskussion und Schlussfolgerung: Die Thermoinzision der Ovarialoberfläche ist eine effektive Methode zur Behandlung von Zyklusunregelmäßigkeiten und Sterilität bei PCOS-Patientinnen. Zudem zeigt sie auch Erfolg in der Behandlung des Hirsutismus bei diesen Patientinnen. Da es sich um einen operativen Therapieansatz handelt, sollte die Thermoinzision als Therapie der zweiten Wahl, nach versuchter medikamentöser Therapie, eingesetzt werden.
A floristic description is presented of the study sites of the Research Training Group “The role of biodi-versity for biogeochemical cycles and biotic interactions in temperate deciduous forests”. To investi-gate different aspects of plant biodiversity in Hainich National Park (Thuringia), deciduous forest stands with low, medium and high canopy tree species diversity were compared. The results of species richness and forest communities show that the research sites are characterised by a typical central European forest flora. Greater vascular plant species richness occurs with higher diversity of tree species. Six of altogether twelve research sites are assigned to the beech forest alliance (Galioodorati-Fagion), the second half belongs to the oak-hornbeam forest alliance (Carpinionbetuli). Suballiances within the Galioodorati-Fagion in the study area include the Galio-Fagetum and the Hordelymo-Fagetum. All Carpinionbetuli relevées are assigned to the suballiance Stellario-Carpinetum.
Zu den Paradoxien postmodernen Denkens gehört, dass es, der hermeneutischen Wissenschaftstradition den Rücken kehrend, sich als radikal sinnoffen und deutungsliberal präsentiert, zugleich aber eine hermetische Sprache pflegt, die einen elitären Anspruch der Theorie umso stärker festhält. Begriffe, oft Neologismen, sind im Rahmen dieser rationalitätskritischen Denktradition nicht ableitbar oder erklärbar. Olga Lewicka verwendet vor allem die Terminologie Derridas und Merleau-Pontys, ohne diese Wahl argumentativ zu begründen. "Nein, es geht hier nicht darum, noch einmal die Argumente für und wider das 'Idol' Pollock abzuwägen", deklassiert die Autorin eingangs kurzerhand die Pollock-Forschung. Nicht um den Künstler, sein Werk und seine Geschichte geht es - man weiß ja, dass all diese Kategorien totalitäre Setzungen sind - sondern es geht um das "theoretische Paradigma Pollock" (9). Mit dieser neuerlichen Setzung ist die These verbunden, dass die drip-Bilder für eine radikale Dekonstruktion des Bildes und der Malerei stehen. Ist also die kritische Rückbeziehung des Mediums der Malerei auf sich selbst das Thema dieses Buches? Ja und nein. Die Anleihe bei Derridas enigmatischer Ästhetik kann kaum durch eine solche historische Frage motiviert sein, welche die Kunst mit ihrer Endlichkeit konfrontieren würde. Attraktiv sind die strukturalistisch-phänomenologischen Ansätze durch ihren Verzicht auf historisches Denken, dem bekanntlich derselbe Vorwurf zuteil wird wie dem 'autoritären' wissenschaftlichen Begriff. Derridas Ästhetik postuliert die Permanenz der Kunst in der einzig noch möglichen Form, der poetischen Artikulierung ihres Endes, in der Anpassung an ihre Rätselgestalt. Wie das Wort 'Dekonstruktion' schon impliziert, soll die ikonoklastische Energie der Analyse in eine positiv-schöpferische umgedeutet werden. Dazu bedarf es eines neuen Fundamentalismus - des strukturalistischen Textparadigmas, das gewissermaßen Malewitschs 'gegenstandslose Welt' und Mondrians Gesetz der reinen Bezüglichkeit mit philosophischen Weihen versieht, denn dieses Paradigma besagt, dass es nur den Vermittlungsapparat, die Strukturen gibt, aber keine gegebene Objektivität. Für Derrida ist schlechthin alles Text - Text, der nach Lektüre verlangt, die aber nicht auf seinen Sinn mehr ausgerichtet ist, sondern sich selbst als sinnvolle Praxis versteht, indem sie die an ihn herangetragenen Sinnanmutungen dekonstruiert und die Beschränkungen ihres jeweiligen Bedingungskontextes aufdeckt. Die oft scharfsinnige Dekonstruktion soll - darin liegt der Unterschied zur Ideologiekritik - nicht in eine neue Interpretation münden, der als solcher schon der Ruch des Totalitären anhaftet. Gleichwohl geht es Derrida um ein Absolutes: Die Intention seiner Lektürestrategie ist es, die 'différance' aufzufinden, den Heideggerschen 'Rest', der durch den 'Überfall' der Begriffe auf die Dinge unterdrückt wird. So hat Derrida die 'Bauernschuhe' van Goghs aus den Aneignungsgesten Heideggers und Schapiros befreit und an ihrer Stelle eine Lektüre entwickelt, die sich den Nebenbedeutungen, dem Nebensächlichen widmet. Derrida nennt diesen Bereich in Anlehnung an eine Passage aus Kants Kritik der Urteilskraft die 'Parerga'. Damit ist eine quasi örtliche Bestimmung des 'Dazwischen' gemeint, etwas, das zwischen Bild und Nicht-Bild, dem Innen und dem Außen steht, ein Beiwerk benennt, das keines ist, also nicht im Sinne bloß schmückender Funktion das Bild umrahmt, sondern sich tendenziell verselbstständigt. Auf dieses 'Dazwischen', das die transzendente Wahrheit der Kunst dann doch aufrechterhält, wenn auch indirekt, bezieht sich auch der Terminus 'Chiasmus'. Merleau-Pontys Ontologie der Wahrnehmung benennt so das zwischen dem Selbst und dem Anderen sich bildende Geflecht eines wechselseitigen Überschreitens und Übergreifens. Erst vor diesem Hintergrund ist die Ambition der vorliegenden Studie erahnbar, deren Sprachduktus sich dem der französischen Philosophen annähert und der Erwartung an eine wissenschaftlich durchgearbeitete transparente Argumentation sich dezidiert entzieht, allerdings auch die literarische Qualität ihrer Vorbilder nicht erreicht. Eine in viele kleine Kapitel zergliederte Einführung, die als "Rahmung" bezeichnet wird, stimmt mithilfe einer Fülle von Zitaten aus Derrida, Foucault, Marin, Merleau-Ponty und Gasché das Grundthema an: "Das Lesen des Chiasmus" (9-28). Pollock mache das selbst undarstellbare Gesetz der Repräsentation zum Gegenstand; das hierdurch geschaffene intellegible Bild verlange nach einer "dekonstruktiven Lektürestrategie", die der "Abgründigkeit des Chiasmus" gemäß sei (19). Das erste Kapitel thematisiert, vor allem an der Minimal Art, die "evidente Oberfläche" (29-69). Lewicka hebt darauf ab, dass Pollock den illusionistischen Bildraum der Malerei in einen 'buchstäblichen' Raum überschritten und somit der literalen Ästhetik den Boden bereitet habe. Das zweite Kapitel - "Im Bild" genannt (70-125), nähert sich allmählich, ausgehend von einer "Dekonstruktion" der Texte Greenbergs und Frieds, einer Besprechung der drip-Bilder. Erst im 3. Kapitel (126-156) führt Lewicka dann eine Lektüre von drei Werken vor, an denen verschiedene Aspekte des theoretischen Paradigmas Pollock ausgeführt werden sollen. Die Kommentierung von Greenbergs Kunsttheorie und der Kategorie des Optischen enthüllt am ehesten die in der Mysteriensprache verborgene konservative Aussage des Textes. Lewicka plädiert für die Aktualität von Greenbergs Literalitätsbegriff und meint damit seine Theorie der Flächigkeit. Die Vorstellung des "auf sich selbst zurückgefalteten Buchstäblichen" (90) erfüllt aber gerade nicht den Begriff der Buchstäblichkeit, der das verweisungslos Kontingente meint und daher nicht mit der essentialistischen Deutung der Fläche bei Greenberg übereinstimmt. Dieser Kompromiss der literalness mit dem Konzept der Optizität ist jedoch Lewickas Anliegen. Zunächst führt sie zwar aus, dass Greenberg und Fried im Zielbegriff des Optischen die taktile Raumqualität der drip-Bilder ignorierten. Sie schließt sich Hubert Damisch an, der mit der "Dichte des Bildes" den Ort deutlich mache, an dem bei Pollock die Zersetzung des Bildes anfange, "den Ort, an dem das Bild selbst qua seiner räumlich wahrnehmbaren Stofflichkeit umgangen wird" (93). In der Lektürebewegung verschränke sich das sukzessive Voranschreiten entlang der figuralen Konturlinien von Pollocks 'Triad' (1948) mit der Wahrnehmung des vertikalen Aufeinandertreffens der Farbschichten. Von hier aus wird Frieds Optikalität nun wiederum rehabilitiert. Wenn er über Pollocks Fläche schrieb, sie richte sich "ausschließlich an die Augen", habe er - so Lewicka - bereits jene oszillierende Bewegung des Lesens angesprochen (94). Lewicka verteidigt das Optische also als eine noch unreife Rezeptur für das Lesen des Chiasmus. Wohlweislich bezieht sie sich nicht konkret auf Greenbergs Modernismustheorie, die den traditionalistischen Charakter dieser von Alois Riegl auf der Grundlage von Hildebrands Theorie eingeführten Kategorie des Optischen allzu deutlich gemacht hätte. Lewickas Werklektüren erneuern auf der Grundlage der Eingemeindung des literalen in den optischen Raum das Freiheitspathos der Avantgardeideologien: "Das gedrippte all over-Gewebe überschreitet das der Malerei vertraute all over und stellt sich in den buchstäblichen Raum. Es überschreitet die Oberfläche des malerischen Ereignisses Die Oberfläche als Grenze, als Rahmen des Bildes wird ausgeblendet. Sie ist nur noch support - Träger, 'Halter', Stütze einer in den buchstäblichen Raum vordringenden Farbe; und keines in die Tiefe des Bildes hineinreichenden Raumes, keiner Illusion mehr" (157). Unterschlagen wird in dieser metaphorischen Beschreibung der materielle Status der Leinwand als aktiver Widerpart der Farbe. Auch die folgende, freilich wiederum metaphorisch gemeinte Behauptung, dass sich in 'Number 32, 1950' "die Farbmaterie endgültig von der Leinwand [löst]", ist faktisch Unsinn und führt zu der falschen Einschätzung, dass der hier aus Farbsträngen vermeintlich gebildete buchstäbliche Raum schon der Installation einer Eva Hesse gleiche (163, Anm.2). Diese verkürzte Sicht auf die sich vermeintlich selbst generierende Faktizität der Farbe ist symptomatisch für den angestrengten Versuch Lewickas, die Destruktion der Malerei in ihre positive Entgrenzung umzudeuten. In diesem Sinne fungiert hier auch der Parergon-Begriff Derridas. Insofern die Linie sich von ihrer Darstellungsfunktion unabhängig mache und buchstäblich zur Farbe werde, schließe diese "den Rahmen in sich ein" (158). Pollocks Kritik des (ornamentalen) Rahmens und der durch ihn repräsentierten gestaltgebenden Linie wird durch die oszillierende Lektüre aus ihrer Negativität erlöst zur Erfahrung der différance, ja der Schönheit: "Das Ineinanderübergehen des Rahmens und des Bildes, des Rahmenbildes und des Bildrahmens, des Bildes und des Objekts, des Sichtbaren und des Lesbaren ist [...] ein Augenblick der Lektüre - dessen momentane [...] quasi-Entschiedenheit [...] erst die Schönheit [...] produziert" (162). Die phänomenologische Nobilitierung der Wahrnehmung im Zeichen des 'Chiasmus' zielt auf eine erneute Aktualisierung jener Syntheseleistung, die schon Adolf von Hildebrand in der Vermittlung von Nah- und Fernsicht zur Lösung des modernen 'Problems der Form' (1893) empfohlen hat. Lewickas strukturalistische Neuaufbereitung des 'Optischen' vermeidet die Konfrontation mit dem Bildobjekt zu Gunsten einer Analogisierung von Bildstruktur und Rezeptionsstruktur, um dadurch die Selbstkritik der Kunst in die anschauliche Erfahrung eines "in-between" zu entschärfen. Mit der enormen Fülle der auf 171 Seiten angeführten philosophischen und kunstkritischen Positionen ist keine Neubewertung von Pollocks Werk verbunden, sondern - die Feier der Kunst. Am Ende bekennt die Autorin, dass es ihr darum geht "der Kunst neue Räume zu eröffnen, ihr ein Weitermachen zu erleichtern [...]" (171).
Ziel der Arbeit war die Verifizierung der MR-Thermometrie mit verschiedenen MR Sequenzen für die laserinduzierte Thermotherapie mittels fluoroptischer Temperaturmessung bei 0,2 und 1,5 Tesla, bei Temperaturen bis 80 Grad Celsius. Bei ex-vivo Schweineleber und Agarose-Phantomen wurde unter MR-Bildgebung eine laserinduzierte Thermotherapie (LITT) durchgeführt. Die Messungen erfolgten pro Tomograph mit zwei verschiedenen Empfangsspulen. Die Temperaturdarstellung basierte auf der Änderung der Protonenresonanzfrequenz (PRF) und der longitudinalen Relaxationszeit (T1). Die PRF wurde mit vier verschiedenen MR-Sequenzen gemessen: zwei Gradientenecho-Sequenzen (FLASH), einer TurboFLASH- und einer Multiecho-TRUFI-Sequenz. Bei der T1-Methode wurden ebenfalls vier verschiedene MR-Sequenzen eingesetzt: eine konventionelle Gradientenecho-Sequenz (FLASH), eine TrueFISP-Sequenz (TRUFI), eine Saturation Recovery Turbo-FLASH-Sequenz (SRTF) und eine Inversion Recovery Turbo-FLASH-Sequenz (IRTF). Die Temperatur wurde mit einem faseroptischen Thermometer kontrolliert und mit der MRT-Temperatur korreliert. Es wurde eine gute lineare Korrelation zwischen der am MRT geschätzten und der faseroptisch gemessenen Temperatur erreicht. Bei 1,5 Tesla unter Einsatz einer Kopfspule erwies sich bei Messungen an der Schweineleberprobe PRF-FLASH von Siemens mit einer mittleren Temperaturabweichung von 5,09°C als optimal. Mit einem Bodyarray ergab hier IRTF die präzisesten Temperaturbestimmungen mit einer mittleren Abweichung von 8,02°C. Die Genauigkeiten und die Linearitäten von SRTF und PRF-TFL unterschieden sich davon nur geringfügig, sie können also als gleichwertig betrachtet werden. Bei 0,2 Tesla mit einer Kopfspule ergab die Messung mit SRTF mit 6,4°C die geringste mittlere Temperaturabweichung, mit einer Multipurpose-Coil erwiesen sich TRUFI und FLASH als optimal mit einer mittleren Temperaturabweichung von 15,62°C. bzw. 14,48°C. Mit den erreichten Temperaturgenauigkeiten kann der Thermoeffekt der LITT in Echtzeitnähe kontrolliert werden. Bei 1,5 T sind PRF-FLASH oder TFL aufgrund der Exaktheit und der Gewebeunabhängigkeit vorzuziehen. PRF-TRUFI mit einer Akquisitionszeit von 1,09 s ist die schnellste implementierte Sequenz. Bei 0,2 T sind die T1-Sequenzen genauer.
Die Herstellung von Poly(butylcyanoacrylat)-Nanopartikeln (PBCA-NP) ist seit fast 25 Jahren bekannt. Sie erfolgt meist durch anionische Emulsionspolymerisation von Butylcyanoacrylat unter Verwendung von Dextran 70.000 als Stabilisator. Vereinzelt wurde in früheren Arbeiten bereits Pluronic® F68 als Emulgator für die Polymerisationsreaktion verwendet. Diese Arbeit hat ihren Schwerpunkt in der Herstellung von PBCA-NP mit F68 als Stabilisator. Es konnte gezeigt werden, dass sich mit diesem Hilfsstoff ebenfalls nanopartikuläre Trägersysteme reproduzierbar und im gewünschten Größenbereich um 200 nm herstellen lassen. Diese Partikel besitzen im Gegensatz zu Dextran-stabilisierten NP eine sehr enge Größenverteilung. Im Rahmen dieser Arbeit wurden die hergestellten NP im Bezug auf ihr Molekulargewicht und ihre Dichte charakterisiert. Ein Partikel besitzt die Masse von ca. 2,5 * 109 Dalton und hat eine Dichte von etwa 1,148 g/cm³. Bei einem PBCA-Nanopartikel handelt es sich jedoch nicht um ein Riesenmolekül, vielmehr wird er durch Agglomeration von relativ kurzen Polymerketten gebildet. Ein Partikel besteht aus ca. einer Million Polymerketten, welche ein Molekulargewicht von ca. 2500 g/mol besitzen. Der Einfluss der Herstellungsparameter auf leere und arzneistoffbeladene Partikel wurde untersucht. Die Partikel wurden hierbei durch die Parameter Partikelgröße, Polydispersität, Partikelausbeute, Zetapotential und Molekulargewicht charakterisiert. Neben der Herstellung durch anionische Emulsionspolymerisation wurden NP durch radikalische Emulsionspolymerisation und Nanopräzipitation erhalten. Auch unter Verwendung dieser Verfahren wurden Trägersysteme im gewohnten Größenbereich um 200 nm gebildet. Zusätzlich zur Herstellung von NP hat sich diese Arbeit auch mit den Charakterisierungsmethoden für kleinpartikuläre Arzneiformen auseinandergesetzt. Es konnte gezeigt werden, dass die häufig angewendete dynamische Lichtstreuung ein geeignetes Verfahren zur Ermittlung des mittleren Partikeldurchmessers darstellt. Die Ergebnisse dieser Methode stimmen weitgehend mit den Resultaten der zusätzlich verwendeten mikroskopischen Verfahren und der analytischen Ultrazentrifugation überein. Der Einsatz der analytischen Ultrazentrifugation lieferte die best aufgelöste Partikelgrößenverteilung und ermöglichte darüber hinaus die Bestimmung der Dichte der Partikel. Neben der mittleren Größe der Trägersysteme wurde auch das mittlere Molekulargewicht der gebildeten Polymerketten bestimmt. Die hierfür als Standard eingesetzte Gel-Permeations-Chromatographie wurde mit einem relativ neuen Verfahren, der MALDI TOF Massenspektrometrie verglichen. Beide Verfahren lieferten ein zahlenmittleres Molekulargewicht der Polymerketten von 2500 – 3000 Da. Lediglich im Bezug auf das gewichtsmittlere Molekulargewicht zeigten sich größere Unterschiede zwischen beiden Messverfahren, welche jedoch auf das zugrunde liegende Messprinzip und nicht auf das untersuchte PBCA zurückzuführen sind. Mit Hilfe der Massenspektrometrie konnte die chemische Struktur der Polymerketten näher aufgeklärt werden. Neben den Produkten des seit langem postulierten Reaktionsmechanismus finden sich Derivate des Polymers, welche formal durch Abspaltung bzw. Anlagerung von Formaldehyd entstehen. Die Menge an frei vorliegendem Formaldehyd scheint jedoch so gering zu sein, dass sie kaum die Hauptursache für die relative Toxizität der PACA-NP darstellen kann. Darüber hinaus ist es möglich, durch Wahl der Reaktionsbedingungen die Bildung von Derivaten des Ursprungspolymers und von Formaldehyd zu minimieren. Die Ergebnisse in der Herstellung und Charakterisierung von leeren Pluronic® F68-stabilisierten PBCA-NP ließen die Verwendung von Doxorubicin-beladenen NP unter Verwendung dieses Stabilisators für die Gehirntumor-Therapie viel versprechend erscheinen. Die hergestellten Nanopartikel zeigten eine im Vergleich zu Dextran-stabilisierten Doxorubicin-NP signifikant niedrigere Arzneistoffbeladung. Die dessen ungeachtet durchgeführte experimentelle Chemotherapie an Glioblastom-tragenden Ratten lieferte jedoch ermutigende Ergebnisse. Die neu entwickelte Zubereitung führte zu einem vergleichbaren Prozentsatz an Remissionen wie die bisherige Standard-PBCA-Formulierung. Die F68-stabilisierte Formulierung und die bisherige Standard-Formulierung mit Polysorbat 80 zeigten nach Inkubation mit humanem Plasma ein vergleichbares Adsorptionsmuster an Plasmaproteinen. Auf Basis der vorangegangenen Studien und dieser Arbeit erscheint es möglich, eine potente nanopartikuläre Doxorubicin-Zubereitung zu entwickeln, welche ausreichend charakterisiert ist, um ihre Anwendung am Menschen zu vertreten.
Erhöhte Faktorenaktivitäten der Gerinnungsfaktoren VIII und IX standen seit längerer Zeit in dem Verdacht, unabhängige thrombophile Risikofaktoren darzustellen. Die Studienlage hierzu ist bzgl. der Wahl der untersuchten Kollektive, der Messmethoden, sowie der berücksichtigten Einflussgrößen uneinheitlich. Daher wurde die vorliegende Studie durchgeführt, um zum einen in einem Normalkollektiv die die Faktorenaktivität möglicherweise beeinflussenden Störgrössen wie Body Mass Index (BMI) oder ein steigendes Lebensalter zu definieren, und um andererseits die Häufigkeit erhöhter Faktor VIII und IX Aktivitäten bei Patienten mit venösen Thrombosen unter Berücksichtigung dieser Störgrössen im Vergleich zum Normalkollektiv exakt zu analysieren. Es wurden 500 Blutspender konsekutiv als Normalkollektiv eingeschlossen. Diesem wurde ein Patientenkollektiv von 374 konsekutiven Patienten mit venösen Thrombosen gegenübergestellt. Beide Kollektive wurden an Hand eines einheitlichen, standardisierten Fragebogens bezüglich ihrer Eigen- und Familienanamnese befragt. Darüber hinaus erfolgte eine Blutentnahme unter standardisierten Bedingungen. Als Messmethode für die Faktorenaktivität von Faktor VIII und IX wurde ein Einstufengerinnungstest verwendet, hierbei wird die Aktivität eines einzelnen Gerinnungsfaktors gemessen. Alle zu untersuchenden Plasmen wurden auf Lupusantikoagulantien getestet, um Probanden und Patienten mit positiven Lupusantikoagulantien von den weiteren Berechnungen ausschließen zu können, da Lupusantikoagulantien die Faktorenmessergebnisse verfälschen können. Dies wurde in den bisherigen Veröffentlichungen nicht berücksichtigt. Mit Hilfe des Normalkollektives wurde die 90% Perzentile als Cut Off für erhöhte Faktorenwerte definiert (FVIII = 158%; FIX = 151%). Bei Analyse des Faktors VIII konnten mit Hilfe einer linearen Regressionsanalyse folgende Störgrössen als relevant für die Faktorenaktivität innerhalb des Normalkollektives beschrieben werden: Raucher wiesen signifikant niedrigere Faktor VIII – Aktivitäten als Nichtraucher auf, während ein steigender BMI und ein steigendes Lebensalter zu signifikant höheren Faktor VIII -Aktivitäten führten. Ein Einfluss des Geschlechtes, sowie ein signifikanter Einfluss oraler Kontrazeptiva auf die Faktor VIII - Aktivitäten konnte nicht nachgewiesen werden. Die Aktivitäten des Faktor IX zeigten im Normalkollektiv ebenfalls eine Abhängigkeit von steigendem Lebensalter, höheren BMI Werten sowie im Gegensatz zur Faktor VIII – Aktivität auch von der Einnahme oraler Kontrazeptiva, wobei alle diese Zustände zu signifikant höheren Faktor IX Aktivitäten führten. Ein Vergleich der Höhe der Faktor VIII – Aktivitäten der Patienten mit venösen Thrombosen zum Normalkollektiv konnte leider nicht durchgeführt werden, da festgestellt wurde, dass eine unterschiedlich lange Lagerzeit der tiefgefrorenen Plasmaproben der Patienten zu einem Absinken von erhöhten Faktor VIII – Aktivitäten führen kann. Dies wurde in der Literatur bisher nicht beschrieben und war daher zu Beginn der Studie nicht bekannt. Im Gegensatz hierzu blieben die erhöht gemessenen Faktor IX – Aktivitäten auch nach einer längeren Lagerzeit stabil, so dass hier eine Risikoberechnung für erhöhte Faktor IX – Aktivitäten in Bezug auf das Auftreten venöser Thrombosen mit einer korrigierten Odds – Ratio erfolgen konnte. Die für BMI, Alter und Geschlecht korrigierte Odds Ratio betrugt 3,98 mit einem 95% Konfidenzintervall von 2,5 – 6,3. Es ist somit von einem ca. 4 fach erhöhten relativen Risiko für venöse Thrombosen bei erhöhten Faktor IX – Aktivitäten auszugehen, so dass diese einen neuen thrombophilen Risikofaktor für venöse Thrombosen darstellen.
Die Schmelztemperaturen und Schmelzenthalpien verschiedener homologer und isomerer Reihen zeigen Alternanzverhalten. In einem Vergleich von über 140 Datenreihen wurde versucht, einen möglichen Zusammenhang von Molekülstruktureigenschaften und dem Auftreten von Alternanzen der genannten physikalischen Eigenschaften darzulegen.
This paper compares the boom-bust cycle in Finland and Sweden 1984-1995 with the average boom-bust pattern in industrialized countries as calculated from an international sample for the period 1970-2002. Two clear conclusions emerge. First, the Finnish-Swedish experience is much more volatile than the average boom-bust pattern. This holds for virtually every time series examined. Second, the bust and the recovery in the two Nordic countries differ markedly more from the international pattern than the boom phase does. The bust is considerably deeper and the recovery comes earlier and is more rapid. We explain the highly volatile character of the Finnish and Swedish boom-bust episode by the design of economic policies in the 1980s and 1990s. The boom-bust cycle in Finland and Sweden 1984-1995 was driven by financial liberalization and a hard currency policy, causing large pro-cyclical swings in the real rate of interest transmitted via the financial sector into the real sector and then into the public finances. JEL Classification: E32, E62, E63
Die Blut-Hirn-Schranke macht das Gehirn zum streng kontrollierten extraterritorialen Raum. Die sensiblen Hirnfunktionen laufen unabhängig und ungestört von den vielfältigen Prozessen der anderen Organe ab. Neben den wichtigen Funktionen dieser Barriere hält sie jedoch auch nötige Medikamente von ihrem Wirkort, dem Gehirn, fern. Die in-vitro-BHS soll Mechanismen aufklären und Tierversuche ersetzen. In den letzten Jahren konnte so das Bild von einem statischen Computer, Gehirn, durch das Bild eines hoch plastischen Arbeitsspeicher-Netzwerkes mit verschiedensten Verbindungen ersetzt werden. Die vorliegende Arbeit ist ein zwei Bereiche gegliedert: 1. Transportstudien von Nanopartikeln und Substanzen im Transwell-System 2. Aufklärung von Transportmechanismen für Nanopartikel an der BHS Die Transportuntersuchungen erfolgten in einem Zwei-Kammer- Transwell-System. Dieses besteht aus zwei Kompartimenten, die zum einen das Blut-Kreislauf-System und zum anderen das Gehirn darstellen sollen. Diese Kompartimente sind durch eine Membran getrennt, auf welche Gehirn-Kapillar-Endothelzellen ausgebracht werden. Membran und ausgebrachte Zellen stellen die BHS dar. Der Transport von Nanopartikeln oder Substanzen wurde durch den Nachweis von Fluoreszenz im Medium der zwei Kompartimente nachgewiesen. Die fluoreszierenden Nanopartikel oder die fluoreszierende Substanz wurden in das obere Donor-Kompartiment gegeben und zu den Zeitpunkten 2, 4, 6 und 24 Stunden wird die Fluoreszenz in Donor- und Akzeptor-Kompartiment gemessen und beurteilt. Bei diesen Transportstudien konnte gezeigt werden, dass dieses System für den Nachweis von Nanopartikel-Transport ungeeignet ist. So benötigen die Nanopartikel zur Überwindung der Membran ohne Zelllayer schon über 24 Stunden. Die Menge der ankommenden Nanopartikel im Akzeptor-Kompartiment war sehr gering. Substanz-Transport und BHS-charakteristische Eigenschaften lassen sich in diesem Modell jedoch gut nachweisen. So konnte die Aktivität der Efflux-Pumpe PgP anhand des Transportes von Rhodamin, einem PgP-Substrat, belegt werden. Während der Transport von Rhodamin nach Zugabe des PgP-Substrates nur eingeschränkt beobachtbar war, konnte der Transport des Rhodamins vom Donor-Kompartiment in das Akzeptor-Kompartiment nach Zugabe des PgP-Hemmers Verapamil innerhalb 4 Stunden nachgewiesen werden. Auch die TEER-erhöhende Wirkung von Hydrokortisol und somit verbesserter Barriereeigenschaften der Zellschicht konnte an diesem Modell nachgewiesen werden. Zur Aufklärung des Mechanismus eines erfolgreichen Nanopartikel-Transports über die Blut-Hirn-Schranke wurde zunächst der rezeptor-vermittelte Transport über den LDL-Rezeptor untersucht. Der LDL-R ist ein Mitglied der LDL-R-Familie welche neben anderen Organen vermehrt in Gehirn und BHS lokalisiert sind. Als Ligand fungiert bei dieser Rezeptorfamilie und insbesondere bei dem LDL-R das ApoE. Mittels ApoE-modifizierter HSA-Nanopartikel sollte eine spezifische Bindung der Transportsysteme über den gebundenen Liganden ApoE an zielspezifische Transport-Mechanismen wie den LDL-R nachgewiesen werden. Über diesen könnten die Nanopartikel endocytiert und der Arzneistoff an seinen Wirkort gebracht werden. Untersuchungen zu diesem Transport-Mechanismus erfolgten in verschiedenen Arbeitsschritten. So wird erst eine Optimierung des LDL-R-Nachweises auf den Zellen durchgeführt. Eine Leberzelllinie wurde auf LDL-R hin untersucht und die Rezeptorkonzentration durch Mehrfachkultivierung der Zellen optimiert. Nach 2-tägiger Kultivierung in lipidfreiem Serum und dem zweimaligen Sorten der Zellen mit einem Antikörper gegen den LDL-Rezeptor konnte ein Nachweis des Rezeptors von 70-90% erreicht werden. Nächster Schritt war die Untersuchung der Bindung von ApoE-modifizierten Nanopartikeln an verschiedenen Zelllinien mit unterschiedlichem LDL-R-Nachweis, gefolgt von Untersuchungen zur Bindungsspezifität. In diesen Untersuchungen sollte die Spezifität dieser Bindung durch Präinkubationen mit einen Antikörper gegen die Liganden-Bindungsstelle und freiem ApoE nachgewiesen werden. Eine Bindung der ApoE-modifierten HSA-Nanopartikel konnte an Endothelzellen des Gehirns nachgewiesen werden. Sowohl die primär isolierten porcinen brain capillary endothelial cells (pBCEC), als auch die Maus-Gehirn-Endothelzelllinie bEnd3 wiesen eine prozentuale Bindung von ApoE-modifizierten Nanopartikeln von über 70% auf. Eine Bindung dieser Partikel an andere getestete Zelllinien mit BHS-Eigenschaften oder einem hohen Nachweis an LDL-R konnte nicht gezeigt werden. Eine Hemmung der Bindung von ApoEmodifizierten Nanopartikeln an Gehirn-Endothelzellen war nicht oder nur geringfügig möglich. So konnte durch eine Präinkubation mit dem Antikörper keine Reduktion der Bindung erreicht werden. Die Präinkubation mit freiem ApoE führte hingegen zu einer sehr geringen Erniedrigung der Bindungsaffinität der ApoE-modifizierten Nanopartikel. Zu beachten war hierbei noch die geringe nachweisbare Bindung von freiem ApoE an die Zellen. In Versuchen zur Bindung von freiem ApoE war eine prozentuale Bindung von freiem ApoE an die Zellen von nur etwa 20% nachweisbar. Bei einer solch geringen Bindung des freien Liganden kann also auch nicht von einer hohen Hemm-Wirkung ausgegangen werden. Es muß nach diesen Untersuchungen davon ausgegangen werden, dass ein ApoE- und Gehirn-Endothelzell-spezifischer Mechansimus am Transport von ApoEmodifizierten Nanopartikeln beteiligt ist. Der untersuchte LDL-R spielt hierbei keine oder nur eine sehr untergeordnete Rolle. Abschließend wurden noch Nanopartikel mit gebundenen ApoE-Mutanten auf ihre Bindung an Zellen getestet. Die modifizierten ApoE-Liganden unterschieden sich in dem Austausch von Aminosäuren in der Ligand-Bindunsdomäne. In Bindungsuntersuchungen konnte bei diesen ApoE-Varianten kein Unterschied in deren Affinität zu Zellen aufgezeigt werden. Dieser Austausch von Aminosäuren in der Liganden-Bindungsstelle hatte keinerlei Auswirkung auf deren Bindung an die Zellen, was wiederum für einen LDL-R unabhängigen Transport-Mechanismus spricht. Am Ende der vorliegenden Arbeit wurde noch ein alternativer Transport-Mechanismus untersucht. Das Heparansulfat-Proteoglykan (HSPG) als alternativer Mechansimus weist Heparin-Bindungsdomänen auf, die der LDL-R Bindungsdomäne sehr ähnlich sind und bekannterweise in der Lage sind, LDL-Partikel zu internalisiseren. Heparinase I kann die anionischen Heparansulfat-Seitenketten entfernen und somit den Internalisierungsmechanismus über das HSPG beeinträchtigen. Untersuchungen zum HSPG und eine Vorinkubation mit verschiedenen Konzentrationen an Heparinase I deuteten auf eine wichtige Rolle des HSPG im Bindungs- und Internalisierungsmechanismus für ApoE-PEG-HSA-NP hin. Die Affinität der ApoE- modifizierten Nanopartikel konnte durch einen Heparinase-Enzymverdau deutlich erniedrigt werden. Auch führte der Einsatz unterschiedlicher Heparinase I-Konzentrationen zu der Annahme, dass es sich um eine konzentrationsabhängige Beeinträchtigung des Mechanimus handelte. So erreichten 10 Units/ml eine weitaus größere Hemmung der ApoE-PEG-HSA-NP-Bindung als Konzentrationen von 2-5 Units/ml. Strukturelle Ähnlichkeiten des ApoEs mit zellpenetrierenden Peptiden sprechen dafür, dass neben dem HSPG noch andere Translokationsmechanismen von Bedeutung sein könnten.
Die moderne Biochemie ist eine Wissenschaft, die sich im Wandel befindet. Während die bisherige Forschung sehr stark experimentell geprägt ist, existiert eine theoretische Biologie, analog zur theoretischen Chemie, nur in Ansätzen. Trotzdem wandelt sich auch diese Wissenschaft hin zu einer stärkeren Einbindung theoretischer Ansätze. Der Grund hierfür liegt in der Betrachtung von zunehmend komplexeren Systemen. So beschäftigt man sich in der Systembiologie, einem Teilbereich der Biochemie, unter anderem mit der Aufklärung komplexer Reaktionsnetzwerke. Während Ausschnitte dieser Netzwerke weiterhin experimentell aufgeklärt und verstanden werden, lässt sich das zusammenhängende Bild zunehmend nur noch durch eine theoretisch geprägte Modellbildung fassen. Darüber hinaus zeigen neuere Forschungsergebnisse die Bedeutung der Tatsache, dass Moleküle, Zellen und Zellhaufen, also wichtige Forschungsubjekte der Biochmie, dreidimensionale Gebilde sind – eine Tatsache, die bei der Modellbildung berücksichtigt werden muss. Eine Antwort auf die genannten Herausforderungen ist der konzertierte Einsatz von Simulation und Visualisierung als Mittel des Erkenntnisgewinns. Damit ist die Informatik gefordert entsprechende dedizierte Werkzeuge zu entwickeln, die Simulation, Visualisierung und Interaktion im Kontext des von der Anwendungsdisziplin gesetzten räumlich-zeitlichen Problemkreises miteinander verbinden. In dieser Arbeit wird ein integriertes Konzept zu Simulation, Interaktivität und Visualisierung vorgelegt, das auf einer Anforderungsanalyse in Bezug auf Anforderungen an die Simulation und Anforderungen an die Interaktivität und Visualisierung basiert. Zur Lösung der aufgeworfenen Probleme wird ein „Baukastensystem“ auf Basis von Multi-Agenten-Systemen vorgeschlagen. Die Auswahl des geeigneten Simulationsverfahrens, z. B. die Auswahl eines stochastischen Verfahrens gegenüber einem deterministischen Verfahrens, wird so zur Auswahl eines Bausteins, wobei gezeigt wird, wie z. B. mit Hilfe von Regeln die Auswahl auch automatisiert werden kann. Ebenso wird gezeigt, wie man „Baussteine“ auch im räumlichen Sinne verstehen kann, als Dinge, die in einem dreidimensionalen Kontext einen bestimmten Raum einnehmen und die, in ihrer Gesamtheit betrachtet, den Beobachtungsraum der Simulation ausfüllen. Diese Bausteine finden sich entsprechend ebenfalls im Kontext der Interaktion wieder. Ein wichtiger Aspekt in diesem Baukastenkonzept ist die Frage der Kommunikationsstruktur und des Kommunikationsprotokolls, für den ein Vorschlag erarbeitet wird. Das entwickelte Gesamtkonzept besteht aus zwei Teilen: Einem Konzept für Ein- und Ausgabegeräte mit einer gemeinsamen Metapher, die die Geräte logisch in den Anwendungskontext einbettet und einem Simulations- und Visualisierungskonzept auf der Basis der Kopplung heterogener intelligenter Agenten in eine gemeinsame Simulationsumgebung. Hierfür wurde ein spezieller Dialekt einer Agentenkommunikationssprache entwickelt, der dabei insbesondere den Aspekt der dreidimensionalen Visualierung einer solchen Simulation berücksichtigt.
Diese längsschnittliche Fragebogenstudie soll einen Beitrag zur Erforschung des Konzeptes Kundenorientierung im Kontext der arbeitsbezogenen Stressforschung leisten. Kundenorientierung wurde in der Vergangenheit vorwiegend von der betriebswirtschaftlichen Seite betrachtet und empirisch häufig im Zusammenhang mit Kundenzufriedenheit untersucht. In organisationspsychologischen Stressstudien wurde das Thema Kundenorientierung nur unzureichend berücksichtigt. Darüber hinaus bestehen Unklarheiten in der Definition des Konzeptes. Die hier vorliegende Untersuchung betrachtet Kundenorientierung als Rollenübernahme im Sinne einer positiven Einstellung zu bzw. Identifikation mit dem Berufsbild des Dienstleisters. Zur Konstruktvalidierung von Kundenorientierung wurden verschiedene organisations-, arbeitsplatz- und personenbezogene Antezedenzen formuliert. Die vorgebrachten Hypothesen konnten anhand des querschnittlichen Datensatzes (N=1571t1 / N=1180t2) überwiegend empirisch bestätigt werden. Es konnte gezeigt werden, dass Kundenorientierung ein heterogenes Konstrukt ist und verschiedene Antezedenzen vorliegen, die in einem bedeutsamen Zusammenhang zur Kundenorientierung stehen. Um die Bedeutung von Kundenorientierung als persönliche interne Ressource herauszuarbeiten, wurde sowohl der direkte als auch der indirekte bzw. moderierende Wirkungsmechanismus von Kundenorientierung auf das Wohlbefinden untersucht. Als Kriterium diente Burnout, mit den drei Dimensionen der Emotionalen Erschöpfung, Depersonalisation und Persönlichen Leistungsfähigkeit. Zur Überprüfung der moderierenden und indirekten Effekte wurde der Stressor Emotionale Dissonanz eingesetzt. Zur Überprüfung dieser Effekte wurde der längsschnittliche Datensatz (597 Dienstleister aus vier von ursprünglich sechs verschiedenen Organisationen wurden nach 12-18 Monaten erneut befragt) herangezogen. In den durchgeführten moderierten Regressionsberechnungen erwies sich Kundenorientierung als bedeutsamer Moderator, der in der Lage ist, die positive Beziehung zwischen dem Stressor Emotionale Dissonanz und den Burnout-Dimensionen abzupuffern. Die Effekte konnten sowohl im Querschnitt als auch im Längsschnitt gezeigt werden. Eine Moderatorwirkung von Kundenorientierung im Zusammenhang mit dem Konzept der Persönlichen Leistungsfähigkeit konnte dagegen nicht nachgewiesen werden. Mit Hilfe von Strukturgleichungsmodellen wurde die Wirkungsrichtung zwischen Kundenorientierung, Emotionaler Dissonanz und der Stressreaktion Burnout untersucht. Bei der multivariaten Kausalanalyse gelangte das LISREL-Verfahren zur Anwendung, wobei verschiedene Modelle bezüglich ihrer Angemessenheit überprüft wurden. Die Befunde zu den direkten Effekten bestätigen die hier postulierte Hypothese, dass Kundenorientierung den Charakter einer internen Ressource hat und zur Verbesserung des Wohlbefindens beiträgt. Gleichzeitig zeigten aber nur die Modelle einen guten bzw. besseren Fit, bei denen auch der umgekehrte Kausaleffekt von der abhängigen auf die unabhängige Variable freigesetzt wurde. Der stärkste direkte Zusammenhang besteht dabei zwischen Kundenorientierung und der Variable der Persönlichen Leistungsfähigkeit. Bei der Untersuchung der indirekten Effekte konnte gezeigt werden, dass zwischen Emotionaler Dissonanz und Kundenorientierung keine direkte signifikante Beziehung vorliegt. Dagegen erwies sich Emotionale Dissonanz als bedeutsamer Stressor für Emotionale Erschöpfung und Depersonalisation, wobei in gleicher Weise wie bei der Kundenorientierung nur Modelle, die auch gleichzeitig den umgekehrten Kausaleffekt modellierten, einen guten Fit erkennen ließen. Daraus kann gefolgert werden, dass gegenseitige Effekte zwischen den Konstrukten bestehen und Rückkopplungsschleifen die beste Erklärung für das Wirkungsgefüge der untersuchten Variablen darstellen. Abschließend werden die Ergebnisse hinsichtlich ihrer Einordnung in theoretische Zusammenhänge und ihrer praktischen Konsequenzen diskutiert.
Die vorliegende prospektive Studie untersucht 66 retrograde und 4 antegrade geschlossene Marknagelungen bei Humerusschaftfrakturen mit einem ab dem 22. Patienten modifizierten Russell-Taylor-Nagel in einem Untersuchungszeitraum von 5 Jahren (1995 bis 2000). Behandelt wurden 52 frische Verletzungen, davon 2 offene Frakturen, 17 pathologische Frakturen und eine verzögerte Knochenbruchheilung. Nach der AO-Klassifikation waren außer C2 und C3 Frakturen alle Frakturtypen vertreten. Das durchschnittliche Patientenalter betrug 54 Jahre. Als schwerwiegendste intraoperative Komplikation sahen wir in 4 Fällen (5,7%) eine iatrogene Humerusfraktur, die eine zusätzliche Plattenosteosynthese erforderte. 6 distale Fissuren bedurften keiner weiteren Therapie. Eine posttraumatische Osteitis trat in keinem Fall auf. Ein Verfahrenswechsel war nicht notwendig. Bei 88% der Patienten ergab sich nach einem Jahr ein Punktestand von gut oder sehr gut nach dem Score nach Kwasny, wo neben der klinischen und radiologischen Untersuchung auch subjektive Befunde und die Kosmetik miteinbezogen wurden. Zusammenfassend beurteilen wir den von retrograd eingebrachten Russell-Taylor-Nagel mit seiner von uns vorgenommenen Modifizierung als ein geeignetes Implantat zur Stabilisierung von Humerusschaftfrakturen. Wesentliche Komplikationen des Verfahrens können unter Beachtung bestimmter technischer Regeln vermieden werden.
Focus expressions in Foodo
(2006)
The work presented here addresses the question of how to determine whether a grammar formalism is powerful enough to describe natural languages. The expressive power of a formalism can be characterized in terms of i) the string languages it generates (weak generative capacity (WGC)) or ii) the tree languages it generates (strong generative capacity (SGC)). The notion of WGC is not enough to determine whether a formalism is adequate for natural languages. We argue that even SGC is problematic since the sets of trees a grammar formalism for natural languages should be able to generate is difficult to determine. The concrete syntactic structures assumed for natural languages depend very much on theoretical stipulations and empirical evidence for syntactic structures is rather hard to obtain. Therefore, for lexicalized formalisms, we propose to consider the ability to generate certain strings together with specific predicate argument dependencies as a criterion for adequacy for natural languages.
The transverse momentum dependence of the anisotropic flow v_2 for pi, K, nucleon, Lambda, Xi and Omega is studied for Au+Au collisions at sqrt s_NN = 200 GeV within two independent string-hadron transport approaches (RQMD and UrQMD). Although both models reach only 60% of the absolute magnitude of the measured v_2, they both predict the particle type dependence of v_2, as observed by the RHIC experiments: v_2 exhibits a hadron-mass hierarchy (HMH) in the low p_T region and a number-of-constituent-quark (NCQ) dependence in the intermediate p_T region. The failure of the hadronic models to reproduce the absolute magnitude of the observed v_2 indicates that transport calculations of heavy ion collisions at RHIC must incorporate interactions among quarks and gluons in the early, hot and dense phase. The presence of an NCQ scaling in the string-hadron model results suggests that the particle-type dependencies observed in heavy-ion collisions at intermediate p_T are related to the hadronic cross sections in vacuum rather than to the hadronization process itself, as suggested by quark recombination models.
Indo-Uralic and Altaic
(2006)
Elsewhere I have argued that the Indo-European verbal system can be understood in terms of its Indo-Uralic origins because the reconstructed Indo-European endings can be derived from combinations of Indo-Uralic morphemes by a series of well-motivated phonetic and analogic developments (2002). Moreover, I have claimed (2004b) that the Proto-Uralic consonant gradation accounts for the peculiar correlations between Indo-European root structure and accentuation discovered by Lubotsky (1988).
Rezension zu: Philip Matyszak, Geschichte der Römischen Republik. Von Romulus zu Augustus (2004)
(2006)
Der „Erziehungs- und Bildungsplan von Anfang an“ soll ein Orientierungsrahmen für die Erziehung der Kinder von 0-10 Jahren sein. Er richtet sich vor allem an das pädagogische Fachpersonal von Kindertagesstätten und Schule in Hessen. In drei Aufsätzen zu den Themenschwerpunkten biographische Lernprozesse, Spracherwerb und Weiterentwicklung von pädagogischen Einrichtungen wird aufgezeigt, dass der hessische Bildungsplan nur begrenzt und äußerst widerspruchsvoll einlöst, was er verspricht. In den zentralen Argumentationslinien und den zentralen Begriffen (Bildung, Kompetenz, Wissen etc.) sind viele Widersprüche und Unklarheiten zu finden, die ihn als Orientierung für die pädagogischen Institutionen schwer handhabbar machen. Die Autoren geben mit Ihrer kritischen Stellungsnahme Anregungen für die Diskussion des Bildungs- und Erziehungsplan an Schulen und Kindertageseinrichtungen.
Die Datenbank BioLIS wird durch die Universitätsbibliothek Johann Christian Senckenberg (Frankfurt/M.) kostenfrei online zur Verfügung gestellt. Sie weist deutsche biologische Zeitschriftenliteratur aus dem Zeit¬raum 1970 bis 1996 nach – damit ist BioLIS eine wesentliche Ergänzung zu der Datenbank „Biological Abstracts“. Die bibliografischen Angaben zu den nachgewiesenen Aufsätzen werden durch umfassende Schlagwörter und Namen behandelter Organismen ergänzt, so dass Spezialrecherchen insbesondere nach Literatur über bestimmte Organismen möglich sind.
Analyse von Heuristiken
(2006)
Heuristiken treten insbesondere im Zusammenhang mit Optimierungsproblemen in Erscheinung, bei solchen Problemen also, bei denen nicht nur eine Lösung zu finden ist, sondern unter mehreren möglichen Lösungen eine in einem objektiven Sinne beste Lösung ausfindig gemacht werden soll. Beim Problem kürzester Superstrings werden Heuristiken herangezogen, da mit exakten Algorithmen in Anbetracht der APX-Vollständigkeit des Problems nicht zu rechnen ist. Gegeben ist eine Menge S von Strings. Gesucht ist ein String s, so dass jeder String aus S Teilstring von s ist. Die Länge von s ist dabei zu minimieren. Die prominenteste Heuristik für das Problem kürzester Superstrings ist die Greedy-Heuristik, deren Approximationsfaktor derzeit jedoch nur unzureichend beschränkt werden kann. Es wird vermutet (die sogenannte Greedy-Conjecture), dass der Approximationsfaktor genau 2 beträgt, bewiesen werden kann aber nur, dass er nicht unter 2 und nicht über 3,5 liegt. Die Greedy-Conjecture ist das zentrale Thema des zweiten Kapitels. Die erzielten Ergebnisse sind im Wesentlichen: * Durch die Betrachtung von Greedyordnungen können bedingte lineare Ungleichungen nutzbar gemacht werden. Dieser Ansatz ermöglicht den Einsatz linearer Programmierung zum Auffinden interessanter Instanzen und eine Vertiefung des Verständnisses solcher schwerer Instanzen. Dieser Ansatz wird eingeführt und eine Interpretation des dualen Problems wird dargestellt. * Für die nichttriviale, große Teilklasse der bilinearen Greedyordnungen wird gezeigt, dass die Länge des von der Greedy-Heuristik gefundenen Superstrings und die des optimalen Superstrings sich höchstens um die Größe einer optimalen Kreisüberdeckung der Strings unterscheiden. Da eine optimale Kreisüberdeckung einer Menge von Strings stets höchstens so groß ist wie ein optimaler Superstring (man schließe einen Superstring zu einem einzelnen Kreis), ist das erzielte Ergebnis für die betrachtete Teilklasse der Greedyordnungen stärker als die klassische Greedy-Conjecture. * Es wird eine neue bedingte lineare Ungleichung auf Strings -- die Tripelungleichung -- gezeigt, die für das eben genannte Hauptergebnis wesentlich ist. * Schließlich wird gezeigt, dass die zum Nachweis der oberen Schranke von 3,5 für den Approximationsfaktor herangezogenen bedingten Ungleichungen (etwa die Monge-Ungleichung) inhärent zu schwach sind, um die Greedy-Conjecture selbst für lineare Greedyordnungen zu beweisen. Also ist die neue Tripelungleichung auch notwendig. Zuletzt wird gezeigt, dass das um die Tripelungleichung erweiterte System bedingter linearer Ungleichungen inhärent zu schwach ist, um die klassische Greedy-Conjecture für beliebige Greedyordnungen zu beweisen. Mit der Analyse von Queueing Strategien im Adversarial Queueing Modell wird auch ein Fall betrachtet, in dem Heuristiken auf Grund von anwendungsspezifischen Forderungen wie Online-Setup und Lokalität eingesetzt werden. Pakete sollen in einem Netzwerk verschickt werden, wobei jeder Rechner nur begrenzte Information über den Zustand des Netzwerks hat. Es werden Klassen von Queueing Strategien untersucht und insbesondere untersucht, wovon Queueing Strategien ihre lokalen Entscheidungen abhängig machen sollten, um ein gewisses Qualitätsmerkmal zu erreichen. Die hier erzielten Ergebnisse sind: * Jede Queueing Strategie, die ohne Zeitstempel arbeitet, kann zu einer exponentiell großen Queue und damit zu exponentiell großer Verzögerung (im Durchmesser und der Knotenzahl des Netzwerks) gezwungen werden. Dies war bisher nur für konkrete prominente Strategien bekannt. * Es wird eine neue Technik zur Feststellung der Stabilität von Queueing Strategien ohne Zeitnahme vorgestellt, die Aufschichtungskreise. Mit ihrer Hilfe können bekannte Stabilitätsbeweise prominenter Strategien vereinheitlicht werden und weitere Stabilitätsergebnisse erzielt werden. * Für die große Teilklasse distanzbasierter Queueing Strategien gelingt eine vollständige Klassifizierung aller 1-stabilen und universell stabilen Strategien.
Location-based services (LBS) are services that position your mobile phone to provide some context-based service for you. Some of these services – called ‘location tracking’ applications - need frequent updates of the current position to decide whether a service should be initiated. Thus, internet-based systems will continuously collect and process the location in relationship to a personal context of an identified customer. This paper will present the concept of location as part of a person’s identity. I will conceptualize location in information systems and relate it to concepts like privacy, geographical information systems and surveillance. The talk will present how the knowledge of a person's private life and identity can be enhanced with data mining technologies on location profiles and movement patterns. Finally, some first concepts about protecting location information.
Background: Experimental animal data show that protection against severe acute respiratory syndrome coronavirus (SARS-CoV) infection with human monoclonal antibodies (mAbs) is feasible. For an effective immune prophylaxis in humans, broad coverage of different strains of SARS-CoV and control of potential neutralization escape variants will be required. Combinations of virus-neutralizing, noncompeting mAbs may have these properties. Methods and Findings: Human mAb CR3014 has been shown to completely prevent lung pathology and abolish pharyngeal shedding of SARS-CoV in infected ferrets. We generated in vitro SARS-CoV variants escaping neutralization by CR3014, which all had a single P462L mutation in the glycoprotein spike (S) of the escape virus. In vitro experiments confirmed that binding of CR3014 to a recombinant S fragment (amino acid residues 318–510) harboring this mutation was abolished. We therefore screened an antibody-phage library derived from blood of a convalescent SARS patient for antibodies complementary to CR3014. A novel mAb, CR3022, was identified that neutralized CR3014 escape viruses, did not compete with CR3014 for binding to recombinant S1 fragments, and bound to S1 fragments derived from the civet cat SARS-CoV-like strain SZ3. No escape variants could be generated with CR3022. The mixture of both mAbs showed neutralization of SARS-CoV in a synergistic fashion by recognizing different epitopes on the receptor-binding domain. Dose reduction indices of 4.5 and 20.5 were observed for CR3014 and CR3022, respectively, at 100% neutralization. Because enhancement of SARS-CoV infection by subneutralizing antibody concentrations is of concern, we show here that anti-SARS-CoV antibodies do not convert the abortive infection of primary human macrophages by SARS-CoV into a productive one. Conclusions: The combination of two noncompeting human mAbs CR3014 and CR3022 potentially controls immune escape and extends the breadth of protection. At the same time, synergy between CR3014 and CR3022 may allow for a lower total antibody dose to be administered for passive immune prophylaxis of SARS-CoV infection.
Background While there is enough convincing evidence in childhood acute lymphoblastic leukemia (ALL), the data on the pre-natal origin in childhood acute myeloid leukemia (AML) are less comprehensive. Our study aimed to screen Guthrie cards (neonatal blood spots) of non-infant childhood AML and ALL patients for the presence of their respective leukemic markers. Methods We analysed Guthrie cards of 12 ALL patients aged 2–6 years using immunoglobulin (Ig) and T-cell receptor (TCR) gene rearrangements (n = 15) and/or intronic breakpoints of TEL/AML1 fusion gene (n = 3). In AML patients (n = 13, age 1–14 years) PML/RARalpha (n = 4), CBFbeta/MYH11 (n = 3), AML1/ETO (n = 2), MLL/AF6 (n = 1), MLL/AF9 (n = 1) and MLL/AF10 (n = 1) fusion genes and/or internal tandem duplication of FLT3 gene (FLT3/ITD) (n = 2) were used as clonotypic markers. Assay sensitivity determined using serial dilutions of patient DNA into the DNA of a healthy donor allowed us to detect the pre-leukemic clone in Guthrie card providing 1–3 positive cells were present in the neonatal blood spot. Results In 3 patients with ALL (25%) we reproducibly detected their leukemic markers (Ig/TCR n = 2; TEL/AML1 n = 1) in the Guthrie card. We did not find patient-specific molecular markers in any patient with AML. Conclusion In the largest cohort examined so far we used identical approach for the backtracking of non-infant childhood ALL and AML. Our data suggest that either the prenatal origin of AML is less frequent or the load of pre-leukemic cells is significantly lower at birth in AML compared to ALL cases.
The causative/anticausative alternation has been the topic of much typological and theoretical discussion in the linguistic literature. This alternation is characterized by verbs with transitive and intransitive uses, such that the transitive use of a verb V means roughly "cause to Vintransitive" (see Levin 1993). The discussion revolves around two issues: the first one concerns the similarities and differences between the anticausative and the passive, and the second one concerns the derivational relationship, if any, between the transitive and intransitive variant. With respect to the second issue, a number of approaches have been developed. Judging the approach conceptually unsatisfactory, according to which each variant is assigned an independent lexical entry, it was concluded that the two variants have to be derivationally related. The question then is which one of the two is basic and where this derivation takes place in the grammar. Our contribution to this discussion is to argue against derivational approaches to the causative / anticausative alternation. We focus on the distribution of PPs related to external arguments (agent, causer, instrument, causing event) in passives and anticausatives of English, German and Greek and the set of verbs undergoing the causative/anticausative alternation in these languages. We argue that the crosslinguistic differences in these two domains provide evidence against both causativization and detransitivization analyses of the causative / anticausative alternation. We offer an approach to this alternation which builds on a syntactic decomposition of change of state verbs into a Voice and a CAUS component. Crosslinguistic variation in passives and anticausatives depends on properties of Voice and its combinations with CAUS and various types of roots.
This review lists Agama smithii Boulenger 1896 as a synonym of Agama agama (Linnaeus 1758), Agama trachypleura Peters 1982 as a synonym of Acanthocercus phillipsii (Boulenger 1895) and describes for the first time Acanthocercus guentherpetersi n. sp. Without more convincing evidence, Chamaeleon ruspolii Boettger 1893 cannot be accepted as specifically distinct from Chamaeleo dilepis Leach 1819, nor Chamaeleo calcaricarens Böhme 1985 from C. africanus Laurenti 1768. Consequently, 101 species of lizard are currently recognised in Ethiopia, of which some 40% appear to be denizens of the Somali-arid zone. This significant proportion is attributable in part to the importance of the Horn of Africa as a centre for reptilian diversification and endemicity, in part to the fact that this lowland fauna was rather extensively sampled during the 1930s, but also to the conspicuous neglect of lizards in other regions of the country. Mountain and forested habitats are widespread in Ethiopia, so it seems extraordinary to record only five saurian species which are believed to be endemic in such environments. The inference that there are many more still to be discovered has important implications for conservation, because montane forest is known to be among the most threatened of Ethiopian biomes and there is clearly an urgent need for its herpetofauna to be more thoroughly researched and documented.
Au nombre de ces littératures d'Afrique subsaharienne, il y a la littérature gabonaise. Cependant, par rapport aux autres littératures d'Afrique subsaharienne francophone qui sont plus connues, la littérature gabonaise souffre encore d'un manque de visibilité et d'auteurs de renommée internationale. Et pourtant, il y a dans ce pays une vie et surtout une pratique de la littérature où les genres littéraires ont réussi à s'imposer. Nous donnerons d'abord un aperçu des premières écritures au Gabon; puis, à partir de cinq genres majeurs de la littérature gabonaise bien identifiés, à savoir le théâtre, l'essai, la nouvelle, le roman et la poésie, nous étudierons leur parcours général et leur évolution, depuis les premières publications jusqu'à celles de nos jours.
Nuclear matter, that takes the form of protons and neutrons under normal conditions, is subject to a phase transition at high temperatures and densities, liberating the quarks and gluons that are usually confined in nucleons and creating a medium of free partons: the Quark-Gluon-Plasma. It is generally believed that this state of matter can be created in relativistic collisions of heavy nuclei. The study of the medium created in these collisions is the subject of heavy-ion physics. One topic within this field are particles with high transverse momentum, that are created in initial hard collisions between partons of the incoming nuclei. The energetic partons lose energy due to interactions with the medium before they fragment into a jet of hadrons. Due to momentum conservation, these jets are usually created as back-to-back pairs, or less commonly as three-jet or photon-jet events, where a single jet is balanced by a hard photon. The energy loss can be measured using correlations between particles with high transverse momenta. A trigger particle is selected with very high transversemomentum and the distribution of the azimuthal angle of associated particles in the same event is studied, relative to the azimuth of the trigger particle.These azimuthal correlations show a peak for opening angles around 0 from particles selected from the same jet, and a second peak at opening angles around 180 degrees from back-to-back di-jets. Random combinations with the underlying event generate a flat background, extending over the full range of opening angles. The STAR experiment observed a modification of these correlations in central Au+Au collisions, where trigger particles with 4GeV < pT(trigger) < 6GeV and associated particles with 2GeV < pT(trigger) < 4GeV were selected. A strong suppression has been observed for away-side correlations in central Au+Au collisions, relative to p+p, d+Au and peripheral Au+Au data. This can be explained by assuming two partons going in opposite directions, where at least one has to travel a large distance through the medium, causing energy loss and effectively removing the event from the analysis. For near-side correlations, no significant modification has been observed, which can be explained by surface emission, assuming that the observed jets have travelled only a short distance in themedium, not leaving enough time for interactions with the medium. Both trigger- and associated particles in a correlation analysis with charged hadrons are subject to modifications due to the medium. This can be avoided by using photon-jet events instead of di-jets, because the photon does not interact with the medium and therefore provides the best available measure of the properties of the opposite jet in the presence of the underlying event. This thesis studies azimuthal correlations between regions of high energy deposition in the electro-magnetic calorimeter as trigger- and charged tracks as associated particles. The data sample had been enriched by online event selection, allowing for the selection of trigger particles with a transverse energy of more than 10GeV and associated particles with more than 2,3 or 4 GeV. The away-side yield per trigger particle is strongly suppressed like in correlations between charged particles. The near-side yield is also reduced by about a factor two, clearly different from charged correlations. The trigger particles are a mixture of photon pairs from the decays of neutral pions and single photons, mainly from photon-jet events, with small contributions from other hadron decays and fragmentation photons. Pythia simulations predict a ratio of neutral pions to prompt photons of 3.5:1 in p+p collisions with the same cuts as in the presented analysis. Single particle suppression further reduces this ratio in central Au_Au collisions, down to about 0.8:1, indicating that the majority of trigger particles in central Au+Au collisions are prompt photons. The increasing fraction of prompt photon triggers without an accompanying jet and therefore zero associated yield reduces the average yield per trigger particle. The magnitude of the observed effect agrees well with the expectation from Pythia simulations and the assumption of a single particle suppression by a factor 4-5. An analysis of away-side correlations is more difficult, because both photon-jet and di-jet events contribute. The aim is the separation of these two contributions. As a clear separation is not possible with the available dataset, a comparison with two different scenarios is given, where a surprisingly small suppression by only a factor of about 5 is favoured for both dijet- and photon-jet-correlations. A separate measurement of both contributions will be possible by a shower-shape analysis with the EM calorimeter or a comparison with charged correlations in the same kinematic region.
Background: Growth rate is central to the development of cells in all organisms. However, little is known about the impact of changing growth rates. We used continuous cultures to control growth rate and studied the transcriptional program of the model eukaryote Saccharomyces cerevisiae, with generation times varying between 2 and 35 hours.
Results: A total of 5930 transcripts were identified at the different growth rates studied. Consensus clustering of these revealed that half of all yeast genes are affected by the specific growth rate, and that the changes are similar to those found when cells are exposed to different types of stress (>80% overlap). Genes with decreased transcript levels in response to faster growth are largely of unknown function (>50%) whereas genes with increased transcript levels are involved in macromolecular biosynthesis such as those that encode ribosomal proteins. This group also covers most targets of the transcriptional activator RAP1, which is also known to be involved in replication. A positive correlation between the location of replication origins and the location of growth-regulated genes suggests a role for replication in growth rate regulation.
Conclusion: Our data show that the cellular growth rate has great influence on transcriptional regulation. This, in turn, implies that one should be cautious when comparing mutants with different growth rates. Our findings also indicate that much of the regulation is coordinated via the chromosomal location of the affected genes, which may be valuable information for the control of heterologous gene expression in metabolic engineering.
In der heutigen Zeit sieht sich das kulturelle Erbe der Völkergemeinschaft der Gefahr ausgesetzt, von der rasanten Entwicklung der Medientechnologien in den Hintergrund gedrängt und zerstört zu werden. Die Globalisierung von Wirtschaft und Gesellschaft führt auch zu einer kulturellen Globalisierung und damit zur Dominanz des von der westlichen Welt gelebten Kulturimperialismus. Einzelne Kulturformen verlieren ihren Platz in der Kulturweltgemeinschaft und wichtige Kulturgüter wie Literatur, Sprache, Mythen, Darstellungen oder Riten werden nach und nach verdrängt. Aus diesen Gründen ist es notwendig, dass sich die Theater- und Medienwissenschaftler mit diesen Kulturformen auseinandersetzen, sie erforschen und im Bewusstsein der Menschen erhalten. Diese Arbeit stellt eine unabhängige Untersuchung dar, die in dieser Form innerhalb eines geschlossenen gesellschaftlichen Systems nicht möglich gewesen wäre. Die letzte deutschsprachige Dissertation über den Stand der For-schung zu diesem Thema wurde vor knapp vierzig Jahren verfasst. Seitdem ist auch keine Untersuchung der Rezeption dieser Kunstform in Theater, Film und Medien in Europa erfolgt. Meiner Kenntnis nach existiert auch im Iran keine ver-gleichbare wissenschaftliche Arbeit, die sich mit dem untersuchten Themengebiet beschäftigt. Die Ta¬ziyeh ist eine sakrale Theaterform aus dem Iran, die sich über lange Zeit großer Beliebtheit in der eigenen Bevölkerung und Anerkennung durch westliche Reisende erfreute. Obwohl der Vormarsch der Medientechnologien, insbesondere die Verbreitung des Fernsehens und des Kinos im letzten Jahrhun-dert auch dazu geführt hat, dass das Ta¬ziyehritual zurückgedrängt wurde, ist es bemerkenswert, dass modernes Theater, Film und Fernsehen im Iran ihrerseits durch die Ta¬ziyehkultur und –praxis bis heute beeinflusst werden. Ich untersuche in meiner Promotionsarbeit die Geschichte und Auffüh-rung der Ta¬ziyeh, sowie ihre Rezeption im Theater, Film und Fernsehen im Iran. Die Ta¬ziyeh ist ein auf religiösen Riten beruhendes Passionsspiel, welches durch die Ideale und den Glauben der Schiiten begründet wurde und seinen Ursprung im Mythos des  hat. Für das Verständnis der Ta¬ziyeh ist über die Begriffsklärung hinaus sowohl ein grundlegender Überblick über die schiitische Glaubensrichtung, als auch ein Abriss der altiranischen Geschichte und Kultur im ersten Teil dieser Ar-beit unerlässlich. Außerdem werde ich auf die konkrete Ausgestaltung des schiiti-schen Passionsspiels eingehen. Besonders wichtig erscheinen mir hierbei der Ort der Aufführung des Schauspiels, die Dekoration und Requisiten, sowie die Art der Aufführung, zu der eine genaue Beschreibung der Schauspieler, ihrer Rollen, ihrer Kostüme, der begleitenden Musik und der für die Vorstellung benötigten Tiere gehört. Im weiteren Verlauf der Arbeit soll dann detailliert auf die theatralische Entwicklung der Ta¬ziyeh in der Zeit des 15.– 20. Jahrhunderts anhand von Be-richten berühmter Iranreisender eingegangen und eine Rezeption des letzten Jahr-hunderts im Hinblick auf die Ta¬ziyeh besprochen werden. Im dritten Teil der Arbeit analysiere ich nach der Klärung der Ta¬ziyehhistorie und -ästhetik in den ersten beiden Teilen schließlich ausführlich die Rezeption und Praxis der Ta¬ziyeh im modernen Theater, Film und anderen Medien im Iran. Diese Untersuchung bildet aus Sicht der Theater- und Medien-wissenschaften den wesentlichen Kern der Arbeit, in dem die im Untersuchungs-gegenstand beschriebene Synthese herausgearbeitet wird. Dafür werden exempla-risch zwanzig Werke bedeutender Künstler des Irans herangezogen, die den Ein-fluss des sakralen Rituals in einem säkularen Medium eindeutig aufzeigen. Den Abschluss der Arbeit bildet eine Synopsis der Untersuchungen, so-wie ein Ausblick auf die gegenwärtige Entwicklung der Ta¬ziyeh.
Im Zusammenhang mit dem Präventivkrieg der Vereinigten Staaten gegen den Irak ist von einem Versagen der parlamentarischen Kontrolle die Rede. Analog zur Tonkin-Gulf-Resolution von 1964, mit der das amerikanische Parlament Präsident Lyndon B. Johnson praktisch eine Blankovollmacht für den Vietnamkrieg erteilt hatte, sei der USKongress im Oktober 2002 davor zurückgeschreckt, seiner verfassungsrechtlichen Verantwortung, welche ihm vor allem aus dem alleinigen Rechtzur Kriegserklärung erwächst, auch nur in Ansätzen nachzukommen. Häufig wird dieses Verhalten auf die Bedrohungslage und das politische Klima nach dem 11. September zurückgeführt. Wie eine kursorische Durchsicht der einschlägigen Literatur zeigt, handelt es sich bei der mangelnden institutionellen Selbstbehauptung des Kongresses im Zusammenhang mit Militäreinsätzen jedoch um kein neues Phänomen: Die Interventionspolitik galt auch schon vor den Terroranschlägen von New York und Washington als ein Politikfeld, in dem es der Legislative allenfalls partiell gelungen ist, die Exekutive nach den Auswüchsen der so genannten imperialen Präsidentschaft wieder stärker zu kontrollieren. Eine Deutung, die in den vergangenen Jahren verstärkt Zulauf erfahren hat, versucht den Ausnahmecharakter der Interventionspolitik mit dem sozialkonstruktivistisch grundierten Konzept einer Kultur der Unterordnung zu erklären. Es existiert aber auch eine rationalistisch argumentierende These, wonach politische Kalküle und Zwänge, die aus einem medial erzeugten Wählerdruck resultieren, das Parlament veranlassen, sich dem Präsidenten in der militärischen Interventionspolitik unterzuordnen. Die Studie will anhand von zwei Fallbeispielen aus den 1990er Jahren,dem zweiten Golfkrieg und dem Kosovokrieg, klären, welcher Stellenwert diesen beiden Faktoren für die mangelnde institutionelle Selbstbehauptung des Kongresses in der militärischen Interventionspolitik zukommt. Unser Befund deutet darauf hin, dass eine separate, besonders stark ausgeprägte Teilkultur der Unterordnung auf Seiten der Republikaner existiert, die ceteris paribus dazu führt, dass sich eine von der Grand Old Party kontrollierte Legislative in Fragen, die Krieg und Frieden betreffen, institutionell grundsätzlich weniger stark behaupten kann als ein demokratisch dominierter Kongress.
Es wurden 167 Patienten an 171 Hüften in den Jahren 1984 bis 2000 mit einer Hüftgelenktotalprothese versorgt und anhand der Auswertung von Röntgenbildern und Krankenblattunterlagen in einer randomisierten retrospektiven Studie betrachtet. Risikogruppen wurden mit erfasst. Es fanden sich unter den Untersuchten 56 Männer und 111 Frauen. Das vordergründige Untersuchungsziel bestand darin, den Einfluss dreier unterschiedlicher Bestrahlungsfeldgrößen auf die Suppression der Heterotopen Ossifikationen zu erfassen. Zum anderen sollte die Auswirkung des zeitlichen Abstandes des Bestrahlungstermins zum Operationszeitpunkt untersucht werden. Darüber hinaus ging es darum, durch eine umfangreiche Registrierung von Laborparametern und weiterer Kriterien Aufschluss über möglicherweise vorliegende Risikofaktoren für verstärkte Bildung von Heterotopen Ossifikationen zu erhalten. Alle Patienten wurden einzeitig (unfraktioniert ) mit einer Herddosis von 7 Gy (ca. 700 rad) bestrahlt. Die Feldgröße betrug in Gruppe 1 (102 operierte und radiotherapierte Hüften) 3 cm x 8,5 cm bis 5 cm x 10 cm. Gruppe 2 (29 Hüften) wurde mit einer konstanten Feldgröße von 10 cm x 10 cm therapiert. Zuletzt lieferte die Gruppe 3 (40 Hüften) Ergebnisse eines Bestrahlungsfeldes der Größe von 14 cm x 14 cm bis 17 cm x 20 cm. Die Nachuntersuchung erfolgte erstmals 14 bis 16 Wochen nach dem Eingriff und bezog sich primär auf den radiologischen Befund. In Gruppe 1 betrugen die klinisch und radiologisch relevanten Knochenneubildungen 4,9 %, und Gruppe 3 war mit 12,5 % vertreten. Eine Patientin war als „non responder“ zu bezeichnen. Sofern man diese Patientin herausrechnet, beziffern sich die Prozentangaben in Gruppe 1 auf 3,9 %, in Gruppe 2 auf 0,0 % und in Gruppe 3 auf 7,5 % klinisch und radiologisch relevante Knochenneubildungen. Der postoperative Bestrahlungstermin lag zwischen Tag 0 und 6. Dabei wurden 94,2 % der Hüften innerhalb der Tage 1 bis 4 therapiert. Die Patenten der Gruppen 1 und 2 wurden mittels eines 6 MV-Linearbeschleunigers nachbestrahlt. Die Patienten aus der Gruppe 3 wurden mittels Telekobalt 60-Isotop radiotherapiert. Ein Einfluss der Strahlengenerierung auf die Ossifikation ließ sich nicht nachweisen. Strahleninduzierte Wundheilungsstörungen fanden sich nicht. Es wurde 39-mal eine vollzementierte Prothese, 7-mal eine zementfreie Prothese und 125-mal eine Hybridprothese implantiert. Ein Zusammenhang zwischen verwendeten Prothesenarten und vermehrter Entstehung von HO konnte nicht aufgezeigt werden. Der operative Zugang erfolgte bei allen Eingriffen über den antero-lateralen Zugang nach Watson-Jones. Bezüglich der Operationsdauer, die im Mittel bei 68 Minuten lag, konnte die bisherige Erfahrung, wonach höhergradige Ossifikationen infolge langandauernder Eingriffe verstärkt auftreten, erneut bestätigt werden. Es wurden multiple labortechnische Parameter analysiert, ohne nachweisbaren Einfluss auf vermehrte HO. Die unfraktionierte Kleinfeldbestrahlung mit 7 Gy, idealerweise zwischen Tag 0 - 2, jedoch nicht später als bis zum 4. postoperativen Tag appliziert, konnte weiterhin als sinnvolle, schonende und für Patient und Personal weniger unaufwendige sowie kostengünstige Therapiestrategie herausgearbeitet werden. Von der Großfeldbestrahlung ist aufgrund schlechterer Ergebnisse hinsichtlich relevanter Ossifikationen und der größeren Strahlenbelastung des Gewebes unter dem Aspekt einer Malignomprävention, künftig besser kategorisch abzusehen. Die Bestrahlung mittlerer Feldgröße lieferte hinsichtlich der Verhinderung höhergradiger Ossifikationen die besten Ergebnisse, jedoch um den Preis einer etwas größeren Strahlenbelastung. Unter dem Aspekt des Schutzes des gesunden Gewebes, sollte künftig im Sinne des Shieldings mit der kleinen oder mittleren Feldgröße therapiert werden. Wobei sich hier bzgl. der Verwendung der Feldgrößen eine Gradwanderung in der Risiko-Nutzen-Relation vollzieht.
Die Schwerpunkte dieser Arbeit waren: - die Erhebung von Referenzwerten der multifokalen Elektroretinographie für die Augenklinik des Klinikums Ludwigshafen, - die Analyse der Topographie und Alterskorrelation, - der Vergleich der Referenzwerte mit den Werten bei Makulaerkrankungen - die Erstellung von Schwellwerten. An 169 gesunden Probanden, unterteilt in 8 Altersgruppen, wurden statistische Kennwerte erhoben. Das Probandenkollektiv wurde nach der Beurteilung der Alterskorrelation und Gruppenstrukturanalyse in 3 Altersgruppen eingeteilt. Aufgrund des Kennwertevergleichs zwischen Probanden und Patienten wurden mittels diagnostischer Tests Schwellenwerte berechnet: Tabelle 19. Zusammenfassung der Referenzwerte der Summenantworten und Schwellenwerte Gruppe N Ampl N Lat P Ampl P Lat <20J. -0,9 18,7 194,9 42,5 20-80J. -0,5 20 127,7 43,3 >80J. -0,4 18 86,6 44,4 Schwellenwert 0 - 80 - Die Analyse der Topographie der gemessenen Parameter zeigte eine charakteristische Größenverteilung der Amplituden mit einem Maximum im Zentrum und einem Abfall zur Peripherie hin. Die Auswertung der Latenzenverteilung in den Ringen führte zur keiner relevanten Dynamikbeobachtung in den Ringen der N-Latenz und einer nur diskreten P-Latenz-Reduktion zur Peripherie hin . Bei der Beurteilung von pathologischen Zuständen ist die Betrachtung der Amplituden und der N-Latenz vielversprechend. Dagegen müssen zur Latenztopographie und zu erkrankungsbedingten Veränderungen der Latenzzeiten noch eingehendere Untersuchungen erfolgen. Bei Kenntnis der Referenzwerte und Topographie kann das mfERG als wichtige diagnostische Hilfe bei lokalen retinalen Erkrankungen dienen. Als nicht invasive, von Patienten gut verträgliche und aussagekräftige Methode wird das mfERG im klinischen Alltag seinen Platz finden. Die in dieser Arbeit gewonnenen Referenzwerte werden am Klinikum Ludwigshafen bereits als Grundlage genutzt.
Wieviel Sexualität verträgt eine Universität? Wieviel Sexualität braucht eine Universität? Natürlich nur auf streng wissenschaftlicher Ebene. Seit Monaten ist das am Zentrum für Gesundheitswissenschaften des Klinikums angesiedelte Institut für Sexualwissenschaft in der Diskussion. Der Grund dafür: das Ausscheiden des derzeitigen Direktors, Prof. Volkmar Sigusch, im Herbst. Zu eng scheint der Bestand des Instituts mit der Person des anerkannten Fachmanns mit weltweitem Renommee verknüpft.
Im Mittelpunkt magnetischer Momente : Frankfurt führt das europäische Zentrum für Kernspinresonanz
(2006)
Die Kernspinresonanz (NMR) ist ein Phänomen, das einen präzisen Blick in das Innere der Materie erlaubt. Für Chemiker und Biologen hat ihre Messung im Laufe der vergangenen 50 Jahre immer mehr Bedeutung gewonnen. Die analytische Präzision hat ihren Preis: Ein hochauflösendes NMR-Spektrometer kostet 6,4 Millionen Euro. Auch deshalb haben sich fünf europäische NMR-Zentren jetzt zu einem Großforschungsverbund zusammengeschlossen; unter Federführung Frankfurts und gefördert von der Europäischen Union – damit die Spitzenstellung Europas auf dem Gebiet der NMR-Forschung erhalten und ausgebaut werden kann.
Im Februar ist Universitätspräsident Prof. Rudolf Steinberg mit großer Mehrheit für weitere sechs Jahre in seinem Amt bestätigt worden. Zu Beginn seiner zweiten Amtszeit in diesem Monat wirft er im Gespräch mit dem UniReport einen Blick zurück auf die wichtigsten Entwicklungen und Ereignisse an der Goethe-Universität in seiner ersten Amtszeit und zeigt, wohin die Reise in den kommenden sechs Jahren gehen soll.
Seine seit Jahren herausragenden Leistungen in der Vermittlung wissenschaftlicher Arbeit in der Öffentlichkeit findet mit der Zuerkennung des mit 50.000 Euro dotierten »Communicator-Preises – Wissenschaftspreis des Stifterverbandes« eine verdiente Würdigung. Prof. Friedemann Schrenk ist der diesjährige Preisträger des renommierten, seit 1999 vergebenen Preises, der ihm an seinem 50. Geburtstag von den Präsidenten der Deutschen Forschungsgemeinschaft (DFG) und des Stifterverbandes für die Deutsche Wissenschaft am 18. Juli 2006 in einer Festveranstaltung während des Wissenschaftssommers in München verliehen wird.
In der vorliegenden Studie wurden zwei Polyether und sechs additionsvernetzende Silikone hinsichtlich ihrer Dimensionsgenauigkeit untersucht. Mit Hilfe einer zu diesem Zweck hergestellten V2A-Stahlform konnte das Dimensionsverhalten isoliert betrachtet werden, ohne Einflussnahme anderer Parameter wie zum Beispiel durch die Desinfektion oder die Gipsexpansion. Von jedem Material wurden zehn Abformungen genommen, die mit Hilfe eines Stereomikroskops hinsichtlich ihres Dimensionsverhaltens vermessen wurden. Die Messungen wurde zu zwei Zeitpunkten durchgeführt: der erste Zeitpunkt entsprach dem vom Hersteller frühest möglichen angegebenen Termin zur Modellherstellung, die zweite Vermessung erfolgte nach insgesamt 90-minütiger Lagerung. Im Ergebnis zeigte sich, dass die Messstrecke 1 – 2 die wenigsten signifikanten Differenzen im Vergleich zu den durch Vorvermessungen erhaltenen Referenzwerten aufwies, während die Messstrecken 1 – 3, 1 – 4, 2 – 3 und 3 – 4 sich überwiegend signifikant von diesen unterschieden. Alle Materialien banden teilweise unter Kontraktion, teilweise unter Expansion ab. Hinsichtlich der Vermessungszeitpunkte lies sich bei Honigum ein verbessertes Dimensionsverhalten zum zweiten Vermessungszeitpunkt konstatieren. Bei den anderen getesteten Materialien war keine Abhängigkeit des Dimensionsverhaltens von den beiden Vermessungszeitpunkten feststellbar. Gegenüber den Referenzwerten reichten die Dimensionsveränderungen von 0,001 % bis zum Maximum von 0,19 %. Cirka zehn Prozent der erhaltenen Werte befanden sich in einem Bereich von > 0,1 % bzw. < -0,1 %. Insgesamt konnte den untersuchten Materialien zu beiden Vermessungszeitpunkten ein sehr gutes Dimensionsverhalten konstatiert werden, wobei weder die beiden Materialgruppen Polyether und additionsvernetzende Silikone qualitative Unterschiede zueinander aufwiesen, noch die jeweiligen Produkte selbst.
Die Populationsdurchseuchung mit Coxsackieviren im Raum Frankfurt am Main der Jahre 2000 bis 2002
(2006)
In dieser Arbeit wurde die Epidemiologie von Coxsackieviren durch retrospektive Auswertung der Antikörperantworten im Neutralisationstest untersucht. Dabei wurden die Durchseuchungen mit Coxsackieviren nach der Höhe der Titerstufen, nach der Abhängigkeit vom Geschlecht und vom Alter ausgewertet und Vergleiche zur wissenschaftlichen Literatur angestellt. Das Untersuchungsmaterial stammte von 689 Patienten aus dem Einzugsgebiet der Johann Wolfgang Goethe-Universitätsklinik. Vom untersuchten Patientenkollektiv wiesen zwischen ca. 8 und ca. 70 Prozent neutralisierende Antikörper gegen die Coxsackieviren der Serotypen A16, A9 und B1-B6 auf. Die höchste Anzahl an neutralisierenden Antikörpern waren gegen die Coxsackieviren des Serotyps B3 mit über 70 Prozent zu finden. Am niedrigsten war die Durchseuchung mit dem Coxsackievirus des Serotyps B6. Die Antikörpertiter wurden von 1:10 bis 1:1280 angegeben, wobei lediglich die Titerstufe 1:1280 als epidemiologisch auffällig gilt. Bei uns waren die niedrigen und mittleren Titerstufen häufiger vertreten als die hohen Titerstufen (1:1280). Von den im Neutralisationstest als positiv befundenen Seren wiesen gegen Coxsackievirus A9 nur 2,43% einen solchen erhöhten Antikörpertiter auf. Gegen Coxsackievirus B1 waren es 6,31%, gegen Coxsackievirus B2 4,83%, gegen B3 4,17%, gegen B4 4,66% und gegen B5 6,27%. Gegen Coxsackievirus A16 und B6 wurden keine signifikant erhöhten Antikörpertiter gefunden. 386 Seren stammten von männliche, 279 Seren von weiblichen Personen. Bei den restlichen Seren war keine Geschlechtsangabe dokumentiert worden. Prozentual gesehen, konnte man erkennen, dass Frauen häufiger neutralisierende Antikörper gegen die Coxsackieviren der Serotypen A16, B1, B4 und B5 besaßen, Männer dagegen gegen die Coxsackieviren der Serotypen A9, B2, B3 und B6. Bezogen auf alle acht untersuchten Coxsackieviren zeigten 53,05 % der Frauen neutralisierende Antikörper gegen Coxsackieviren auf und 51,78 % der Männer, statistisch gesehen ergab sich folglich kein signifikanter Unterschied. Bei Coxsackieviren der Gruppe A9, B1, B2, B3 und B5 waren mehr hohe Titerstufen beim männlichen Geschlecht zu finden, bei B4 beim weiblichen Geschlecht. Die Durchseuchungsraten waren über alle Altersgruppen konstant, folglich konnten keine mit dem Alter ansteigenden Durchseuchungsraten festgestellt werden. Die niedrigsten Antikörpertiter waren, außer bei Coxsackievirus-B5, in der Altersstufe der 1-4jährigen zu finden. Offenbar erfolgt die Durchseuchung mit Coxsackieviren folglich im Kleinkindesalter. Eine Bevorzugung einer bestimmten Altersgruppe war nicht zu erkennen, eine homogen niedrige Verteilung (~ 40%) im Gegensatz zu den anderen Serotypen konnte man bei den Coxsackieviren des Serotyps B1 ermitteln. Eine besonders hohe Verteilung fand sich dagegen bei Coxsackieviren der Gruppe B3 (~ 70%). Beim Vergleich mit der wissenschaftlichen Literatur konnten keine wesentlichen Veränderungen an der Populationsdurchseuchung mit Coxsackieviren festgestellt werden. Besonders im Raum Frankfurt blieben die Durchseuchungsraten fast identisch zu früheren Studien von vor 12-14 Jahren. Somit kann man eine Epidemie mit Coxsackieviren in den untersuchten Jahren ausschließen. Auch blieb die Durchseuchung mit Coxsackieviren unabhängig vom Geschlecht und vom Alter, wobei die niedrigeren Titerstufen durchweg häufiger vertreten waren.
Die Rolle des Kulturbildes im interkulturell motivierten Deutschunterricht am Beispiel des Iran
(2006)
Der Vortrag basiert auf meiner Dissertation über die "Interkulturelle Kommunikation an iranischen Sprachinstituten und Universitäten". Er setzt sich zunächst mit den Vorstellungen über die Kultur des deutschsprachigen Raums im Iran und dessen Reflexion in Unterrichtsprozessen auseinander. In diesem Zusammenhang wird die Rolle der Beziehung zwischen Kultur und Sprache im Fremdsprachenunterricht herausgearbeitet. Daher steht die Beschäftigung mit Kulturfragen im Mittelpunkt. Es handelt sich dabei vor allem um zwei typische Beispiele für "interkulturelle Missverständnisse", die bei iranischen Deutschlernenden in ihrem Verständnis der deutschen Kultur sehr häufig vorkommen. Zwei weitere Beispiele werden gezeigt, in denen die kontrastierten Kulturen miteinander übereinstimmen und somit eine feste und unproblematische Grundlage für den Umgang miteinander darstellen. Im Folgenden soll die Rolle der Deutschlehrer und der institutionellen Bedingungen im Unterricht analysiert werden. Gerade der Deutschunterricht in islamischen Ländern ist darauf angewiesen, dass der Lehrer Sprachsituationen bereitstellt, anhand derer er versucht, die von der Ausgangsgesellschaft stammenden interkulturellen Konflikte aufzugreifen und letztlich zu bewältigen. Meine Unterrichtsanalysen zeigen, dass diese Vorgehensweise der Lehrer ohne Steuerung der Institution nicht möglich ist. Da die interkulturell motivierte Deutschvermittlung institutionelle Voraussetzungen verlangt, stellt der Vortrag auch die Frage, ob eine regionale von den beiden Regierungen unabhängige Institution für die Beschäftigung mit den möglichen interkulturellen Konflikten notwendig ist und warum sie bis jetzt nicht zustande gekommen ist. Trotz der neusten politischen Bemühungen um die kulturellen Annäherungen zwischen beiden Ländern gelten immer noch beide Kulturen als "kontrastiert". Der Deutschunterricht in der iranischen Gesellschaft kann diese Kluft nur dann schmälern, wenn die Deutsch anbietenden Institutionen inter- und transkulturelle Aspekte stärker berücksichtigen.
Die Studie befaßt sich mit den rechtlichen Anforderungen an die Umwandlung und den Umtausch von Finanzinstrumenten. Finanzinstrumente in dem hier gemeinten Sinne sind Aktien und ausgewählte Schuldverschreibungsformen (Finanzierungsgenußrechte; Wandelschuldverschreibungen; einfache Schuldverschreibungen). Die Umwandlung oder der Umtausch von Finanzinstrumenten, zusammenfassend auch als Konversion bezeichnet, sind Verfügungsgeschäfte. Dabei werden hier nur Verfügungsgeschäfte zwischen dem Emittenten und dem Investor betrachtet. Nicht behandelt werden auch die besonderen Gestaltungsfragen und Gestaltungsmöglichkeiten, die sich für die Emittenten und Investoren bei der Umstrukturierung (Umwandlung, Konzernierung usw.) des Emittenten selbst ergeben. ....
Seit 2005 ist die Bibliothek des Südasien-Instituts in Kooperation mit der UB Heidelberg Trägerin des DFG-geförderten Sondersammelgebiets Südasien. Damit hat sie von der UB Tübingen ein traditionsreiches Sondersammelgebiet übernommen, dessen Geschichte bis ins Jahr 1949 zurückreicht. Der Vortrag wird zum Einen einen kurzen Überblick über den historischen Kontext des SSG Südasien geben und zum Anderen über Neuentwicklungen, wie z.B. die Virtuelle Fachbibliothek Südasien, die in den letzten zwei Jahren an der Bibliothek des Südasien-Instituts aufgebaut wurde. Vor diesem Hintergrund soll vor allem das Kooperationspotential im Bereich digitaler Informationsressourcen beleuchtet werden.
Both banks and open end real estate funds effectuate liquidity transformation in large amounts and high scales. Because of this similarity the latter should be analyzed using the same methodologies as usually applied for banks. We show that the work in the tradition of Diamond and Dybvig (1983), especially Allen and Gale (1998) and Diamond and Rajan (2001), provides an applicable theoretical framework. We used this as the basis for our model for open end real estate funds. We then examined the usefulness of the modeling structure in analyzing open end real estate funds. First, we could show that withdrawing of capital resulting in a run is not always inefficient. Instead, withdrawing can as well be referred to the situation where the low return of an open end fund unit in comparison to other opportunities makes, (partial) withdrawal viewed from the risk-sharing perspective optimal. Even with costly liquidation, this result will hold, though we will have deadweight losses in such a situation. Second, introducing a secondary market in our model does, not in general, resolve the problem of deadweight losses associated with foreclosure. If assets are sold during a run, we do not only have a transfer of value but it can also create an economic cost. Because funds are forced to liquidate the illiquid asset in order to fulfill their obligations, the price of the real estate asset is forced down making the crisis worse. Rather than providing insurance, such that investors receive a transfer in negative outcomes, the secondary market does the opposite. It provides a negative insurance instead. Third, our model proves that the open end structure provides a monitoring function which serves as an efficient instrument to discipline the funds management. Therefore, we argue that an open end structure can represent a more adequate solution to securitize real estate or other illiquid assets. Instead of transforming open end in closed end structures, fund runs should be accepted as a normal phenomenon to clear the market from funds with mismanagement.
Anfang 2005 wurde die Schweizer „Capital Efficiency Group“ von den Lesern der bekannten Publikation „Structured Finance International“ mit dem Preis “Innovativster Asset Back Deal des Jahres 2004” ausgezeichnet sowie von „The Banker“ für einen der „Deals of the Year“ gewürdigt. Prämiert wurde die Entwicklung von „Preferred Pooled Shares“ (PREPS). Was verbirgt sich hinter diesem Konstrukt? Bei PREPS handelt es sich um ein Finanzprodukt der „Capital Efficiency Group“, die sich den Eigennamen „PREPS“ als Marke hat eintragen lassen. PREPS ist somit nur der Name eines speziellen Finanzinstruments. Die Bezeichnung PREPS wird aber gleichsam stellvertretend für eine Vielzahl von Finanzprodukten, durch die in eigenkapitalähnliche Finanztitel des Mittelstands investiert wird, verwendet. Zu nennen sind in diesem Zusammenhang „ge/mit“ und „equiNotes“ sowie einige weniger populäre Produkte. Jedes dieser Finanzprodukte weist im Detail eine andere Struktur auf, grundsätzlich basieren aber alle auf derselben Grundidee. Die folgenden Ausführungen stellen die Struktur und Funktionsweise dieser Finanzprodukte dar. Weitere Abschnitte erörtern sodann den wirtschaftlichen Hintergrund und die rechtlichen Rahmenbedingungen.
Die Aktiengesellschaft ist die klassische Rechtsform des Großunternehmens; sie ist als Rechtsinstitution speziell zum Zweck der Gründung und Leitung von Großunternehmen ausgebildet worden. Das gilt auch für die Formen ihrer Finanzierung (Aktiengesellschaft als „Kapitalsammelbecken“), und zwar nicht nur der Außenfinanzierung durch Eigenkapital. Auch die Formen und besonderen Merkmale der Fremdkapitalfinanzierung der großen Aktiengesellschaft erklären sich daraus, daß hier große Kapitalbeträge nicht durch einen einzelnen oder eine kleine Gruppe von Investoren mit Hilfe eigener Mittel, sondern mittelbar oder unmittelbar durch das Publikum aufgebracht werden sollen, weil die erforderlichen Eigenmittel Einzelpersonen entweder nicht zu Gebote stehen, oder sich die Eigenmittelfinanzierung durch Einzelpersonen aus Erwägungen der Risikostreuung verbietet. In diesem Falle muß das Publikum angesprochen werden. Bei der Fremdkapitalfinanzierung geschieht dies auf zwei Wegen: Durch Einschaltung eines Finanzintermediärs, typischerweise eines Kreditinstituts, dem die Investoren ihre Gelder als Einlagen anvertrauen, und das diese Gelder in Unternehmenskredite transformiert, oder durch gezielte Ansprache des Kapitalmarkts seitens des kapitalnachfragenden Unternehmens, z. B. durch Emission einer Anleihe. Die Vergabe von Unternehmenskrediten durch ein Kreditinstitut wird allerdings herkömmlich nicht mit der Unternehmensfinanzierung durch das Publikum in Verbindung gebracht. Vielmehr wird die bankgestützte Unternehmensfinanzierung geradezu als Gegensatz zur Publikumsfinanzierung verstanden. Hartmut Schmidt hat aber bereits 1986 darauf hingewiesen, daß Anteilsmärkte und Kreditmärkte funktional dieselben Aufgaben erfüllen. Diese Sichtweise hat sich durchgesetzt. Aus heutiger institutionenökonomischer Sicht hat die Kreditfinanzierung durch einen Finanzintermediär, also etwa durch ein Kreditinstitut, das sich, neben dem Eigenkapital seiner Aktionäre, vor allem durch Einlagen seiner Kunden, also des Publikums, refinanziert, dieselbe Funktion wie die unmittelbare (Anleihe-) Finanzierung durch das Publikum; darauf ist sogleich zurückzukommen. Der folgende rechtshistorische Rückblick belegt, daß Entwicklung und Einsatz des mit Depositen refinanzierten Großkredits und die Entwicklung der Anleihefinanzierung der Aktiengesellschaft in Deutschland etwa zur selben Zeit eingesetzt haben.
In der vorliegenden Arbeit wird die Kopplung von Bloch- und Zyklotron-Oszillationen in Halbleiterübergittern unter dem Einfluss eines elektrischen und magnetischen Feldes zeitaufgelöst-elektro-optisch untersucht. Hierbei hängen sowohl die Stärke der Bloch-Zyklotron-Kopplung als auch die Charakteristika der kohärenten Ladungsträgerbewegung sensitiv von der relativen Anordnung der äußeren Felder ab. Bei gekreuzter Feldanordnung wird der Kohärente Hall-Effekt beobachtet. Semiklassisch lässt sich die Ladungsträgerdynamik in diesem Fall mit der Bewegungsgleichung eines nicht getriebenen, ungedämpften Pendels beschreiben. Abhängig vom Verhältnis E/B der äußeren Feldstärken lassen sich zwei Bewegungsregime mit gegensätzlicher Feldabhängigkeit der Frequenz der Ladungsträgeroszillationen unterscheiden. Bei schiefer Feldanordnung kommt es durch die nichtlineare Kopplung der Bloch-Oszillation mit der Zyklotron-Oszillation in der Übergitterebene zu einer phasenempfindlichen Gleichrichtung der transienten Oszillationen entlang der Wachstumsrichtung, wobei man in Resonanz eine Überhöhung dieses selbstinduzierten Gleichstroms beobachtet. In Anlehnung an ein analoges Phänomen, das an Josephson-Kontakten beobachtet wird, sprechen wir hierbei vom Fiske-Effekt. Für die räumliche Auslenkung X("unendlich") entlang der Wachstumsrichtung nach Abklingen der Kohärenz kann im Rahmen einer analytischen semiklassischen Näherung ein geschlossener Ausdruck angegeben werden. Die zeitaufgelösten Experimente zur Bloch-Zyklotron-Kopplung werden an zwei GaAs/Al0,3Ga0,7As-Übergitterstrukturen mit unterschiedlicher Quantentopfbreite durchgeführt. Im Spezialfall der gekreuzten Feldanordnung wird der Kohärente Hall-Effekt anhand der Existenz zweier Bewegungsregime mit ihrem charakteristischen Frequenz- und Dephasierungsverhalten in Abhängigkeit der äußeren Felder nachgewiesen und die lineare Abhängigkeit des Magnetfeldes am Übergang zwischen den Bewegungsregimen vom elektrischen Feld gezeigt. Die gleichermaßen prognostizierte Zunahme der Intensität höherer harmonischer Moden der Ladungsträgeroszillationen in der Nähe des Übergangs wird jedoch in der elektro-optischen Respons nicht beobachtet, wenngleich die verwendeten elektro-optischen Messtechniken im Vergleich zur Terahertz-Emissionsspektroskopie zur Untersuchung des Übergangsbereichs und höher frequenter Oszillationen prinzipiell besser geeignet sein sollten. Hierbei bestehende Einschränkungen werden diskutiert. Der für den Fall der schiefen Feldanordnung vorhergesagte selbstinduzierte Gleichstrom manifestiert sich experimentell in einem resonanzartigen Verlauf des elektro-optischen Signals nach Abklingen der Oszillationen in Abhängigkeit des Magnetfeldes. Durch Vergleich mit dem analytisch hergeleiteten Ausdruck für die räumliche Auslenkung lassen sich hieraus die relevanten Dämpfungskonstanten abschätzen und durch iterative Anpassung bestimmen. Die bei schiefer Feldanordnung mittels elektro-optischer Spektroskopie gemessenen Signale weisen nach Abklingen der kohärenten Ladungsträgeroszillationen nur einen sehr schwachen Driftanteil auf. Eine schlüssige Erklärung für diese Beobachtung ergibt sich, wenn bei der Behandlung der Ladungsträgerdynamik die Impuls- und Energierelaxation des Bloch-Oszillators unterschieden werden und eine sehr kleine Energiedämpfung angenommen wird.
In den Jahren 1992-1999, 2001 und 2002 wurden vom Landesmuseum Kärnten am Zollfeld (KG Maria Saal, pol. Bez. Klagenfurt Land) archäologische Untersuchungen im westlichen Stadtrandbereich des Municipium Claudium Virunum durchgeführt. Dabei wurde der Ostteil zweier Insulae erfasst, die durch den Ost-West verlaufenden Cardo Maximus voneinander getrennt werden. Im Zuge der Ausgrabungen konnte auch eine große Zahl an Wandmalereifragmenten geborgen werden. Der überwiegende Teil kam zwar nur noch in Form von klein- bis kleinstteiligen Fragmenten zu Tage, die Menge der Fundstücke und die Tatsache, dass es sich bei diesen um die ersten stratifizierbaren Wandmalereien der Provinzhauptstadt Noricums handelt, machte eine ausführliche Bearbeitung des Materials notwendig. Im Zuge der Bearbeitung konnten auch zwei Rekonstruktionsversuche erarbeitet werden, die hier im Anschluss vorgestellt werden sollen
Durch das Semantische Web soll es Maschinen ermöglicht werden Metadaten zu verstehen. Hierin steckt ein enormes Potenzial, wodurch sich der Umgang mit dem heutigen Internet grundlegend ändern kann. Das Semantische Web steht jedoch noch am Anfang. Es gilt noch einige offene und strittige Punkte zu klären. Das Fundament des Semantischen Webs wird durch das Resource Description Framework (RDF) gebildet, worauf sich diese Arbeit konzentriert. Hauptziel meiner Arbeit war die Verbesserung der Funktionalität und der Nutzungsfreundlichkeit für RDF-Speicher- und Anfragesysteme. Dabei stand die allgemeine Nutzung für ein Informationsportal oder eine Internetsuchmaschine im Vordergrund. Meine Überlegungen hierzu wurden in dem Speichersystem RDF-Source related Storage System (RDF-S3) und der darauf aufsetzenden Anfragesprache easy RDF Query Language (eRQL) umgesetzt. Insbesondere wurden die folgende Kernpunkte berücksichtigt: • Allgemeine Nutzbarkeit der Anfragesprache, sodass auch unerfahrene Nutzer einfach und schnell Anfragen erstellen können. Um auch von unerfahrenen Nutzern bedient werden zu können, konnte keine komplexe Syntax verwendet werden, wie dies bei den meisten existierenden Anfragesprachen der Fall ist. Es wurde sich daher an Anfragesprachen existierender Suchmaschinen angelehnt. Entsprechend bilden sogenannte Ein-Wort-Anfragen, die den Suchbegriffen entsprechen, eine wichtige Rolle. Um gezieltere Anfragen stellen zu können, sind jedoch die Schemainformationen der gespeicherten Daten sehr wichtig. Hier bietet bereits die RDF Query Language (RQL) viele hilfreiche Kurzschreibweisen, an die sich eRQL anlehnt. • Bereitstellung glaubwürdiger Metadaten, sodass den Anfrageergebnissen vertraut werden kann. Das Semantische Web ist ein verteiltes System, wobei keine Kontrolle auf die Datenquellen ausgeübt werden kann. Den Daten kann daher nicht ohne weiteres vertraut werden. Anders ist dies mit Metadaten, die von eigenen Systemen erzeugt wurden. Man weiß wie sie erzeugt wurden und kann ihnen entsprechend vertrauen. Wichtig ist eine klare Trennung zwischen den Daten und den Metadaten über diese, da sonst eine absichtliche Nachbildung der Metadaten von außen (Suchmaschinen-Spamming) das System unterlaufen kann. Für die Glaubwürdigkeit von Anfrageergebnissen sind vor allem die Herkunft der Daten und deren Aktualität entscheidend. In den umgesetzten Entwicklungen zu dieser Arbeit wurde sich daher auf diese Informationen konzentriert. In RDF-S3 wird die Verknüpfung der RDF-Aussage mit ihren Herkunftsdaten im Speichermodell abgebildet. Dies ermöglicht eine gezielte Ausnutzung dieser Daten in eRQL-Anfragen. Durch den sogenannten Dokumenten-Modus bietet eRQL die Möglichkeit Anfragen auf eine Gruppe von Quellen zu begrenzen oder bestimmte unglaubwürdige Quellen auszuschließen. Auch können die Herkunftsdaten das Anfrageergebniss erweitern und dadurch das Verständnis und die Glaubwürdigkeit für das Ergebnis erhöhen. • Anfrageergebnisse können um ihre Umgebung erweitert werden, sodass sie besser verstanden werden können. Für eRQL-Anfragen besteht die Möglichkeit die Umgebnung zu den Treffern (RDF-Aussagen) mit zu berücksichtigen und im Ergebnis mit anzuzeigen. Dies erhöht das Verständnis für die Ergebnisse. Weiterhin ergeben sich hierdurch neue Möglichkeiten wie das Auffinden von Pfaden zwischen Teilergebnissen einer Anfrage. • Unterstützung und Kombination von Daten- und Schemaanfragen. Mit eRQL werden beide Anfragetypen unterstützt und können sinnvoll miteinander kombiniert werden. Die Einbeziehung der Umgebung ermöglicht für die Kombination von Daten- und Schemaanfragen neue Möglichkeiten. Dabei werden sowohl Daten- als auch Schemaanfragen (oder deren Kombination) durch das Speichermodell von RDF-S3 optimal unterstützt. Weitere nennenswerte Eigenschaften von RDF-S3 und eRQL sind: • Durch die Möglichkeit gezielt einzelne Quellen wieder zu entfernen oder zu aktualisieren, bietet RDF-S3 eine gute Wartbarkeit der gespeicherten Daten. • RDF-S3 und eRQL sind zu 100 % in Java entwickelt, wodurch ihr Einsatz unabhängig vom Betriebssystem möglich ist. • Der Datenbankzugriff erfolgt über JDBC, wobei keine besonderen Eigenschaften für die verwendete RDBMS nötig sind . Dies sorgt für eine hohe Portabilität. RDF-S3 und eRQL wurden als Beispielimplementierungen entwickelt. Für einen produktiven Einsatz sollten die Systeme an die gegebene Hardware-Umgebung und Anwendungsfall angepasst werden. In Kapitel 6 werden Erweiterungen und Änderungsmöglichkeiten genannt, die je nach Situation geprüft werden sollten. Ein noch vorhandenes Problem für einen produktiven Einsatz auf großen Datenmengen ist die aufwendige Berechnung der Umgebungen für Anfrageergebnisse. Die Berechnung von Umgebungen im Vorhinein könnte hier eine Lösung sein, die jedoch durch die Möglichkeit der Einschränkung auf glaubwürdige Quellen erschwert wird.
The phase structure of the scalar field theory with arbitrary powers of the gradient operator and a local non-analytic potential is investigated by the help of the RG in Euclidean space. The RG equation for the generating function of the derivative part of the action is derived. Infinitely many non-trivial fixed points of the RG transformations are found. The corresponding effective actions are unbounded from below and do probably not exhibit any particle content. Therefore they do not provide physically sensible theories.
Um den Leser mit den notwendigsten Hintergrundinformationen zu Konfliktmanagement, dem Nahostkonflikt und deutscher Nahostpolitik zu versorgen, liefert das erste Kapitel eine kurze Darstellung sowohl deutscher Außenpolitik in der Region als auch des Nahostkonflikts an sich, ohne die ein Verständnis der nachfolgenden Ereignisse nur schwer auskommt. Neben der wirtschaftlichen Unterstützung der Region mussten sich die außenpolitischen Eliten fragen, ob die Rolle eines „Konfliktmanagers“ für die deutsche Außenpolitik im Rahmen der EG/EU angebracht wäre. Spätestens mit dem Ausbruch der Zweiten Intifada im September 2000 wurde die Dringlichkeit eines deutschen und europäischen Konfliktmanagements für den „Nahen“ Osten jedoch überdeutlich. Genau an diesem Punkt setzt die zentrale Frage der Untersuchung dieser Arbeit ein: Wie positionieren sich die deutschen außenpolitischen Eliten gegenüber dem Nahostkonflikt und in welcher Rolle sehen sie sich selber bei der Schlichtung bzw. dem Konfliktmanagement der Intifada? Um die Analyse der Fragestellung auf eine solide Datengrundlage zu stellen, wurden sowohl das Bulletin der Bundesregierung als auch die Plenarprotokolle des Deutschen Bundestages für die Zeiträume 1987 bis 1993 und 2000 bis 2005 ausgewählt und nach qualitativen Gesichtspunkten ausgewertet. Beide Quellen sollen Einsichten dahingehend liefern, wie die außenpolitischen Eliten nach außen (Bulletin) und nach innen (Plenarprotokolle) ihr Selbstbild kommunizieren. Die Entscheidung, nur mündliche Äußerungen in die Analyse mit einzubeziehen, fiel bewusst, da eine Vorabuntersuchung zeigte, dass schriftliche Verlautbarungen nur den größten gemeinsamen Nenner wiedergaben. Reden, auch wenn sie öffentlichen Charakter hatten, zeigten hingegen häufig die unterschiedlichen Positionen der Eliten. Als „außenpolitische Eliten“ im Sin-ne der Untersuchung gelten die Mitglieder Bundesregierung und hier insbesondere der Bundeskanzler, Außenminister, sowie Staatsminister/-sekretäre. Trotz seiner repräsentativen Funktion ist der Bundespräsident mit einbezogen worden. Als letzte sehr heterogene Akteursgruppe werden schließlich noch diejenigen Mitglieder der einzelnen Fraktionen im Bundestag untersucht, die sich zur Thematik äußern. In aller Regel setzt sich jene Gruppe aus den außenpolitischen Experten, Fraktions- und Parteivorsitzenden zusammen. Ein Ziel der vorliegenden Arbeit soll nun sein, Rollen bzw. selbstdefinierte Rollenbilder herauszuarbeiten. Aus diesem Grund ist eine Einführung in die Rollentheorie und ihre Verwendung in der Außenpolitikforschung in Kapitel 2.1 und 2.2 unerlässlich. Dabei ist die genaue Unterscheidung zwischen Redner, den Adressaten der Rede, dem Umfeld und dem was gesagt bzw. kommuniziert wird, der konsensorientierten deutschen Nahostpolitik von großer Bedeutung. Aber auch der genauen Aufbereitung der beachtlichen Primärdaten muss Beachtung geschenkt werden. Um auch feine unterschiedliche Nuancen in den Reden aufzugreifen, soll mit Hilfe der qualitativen Inhaltsanalyse das Material gesichtet und die so gewonnene „Text-Essenz“ in eigens dafür entworfenen Kategorien verortet werden. Da der äußerst geringe Umfang an Sekundär-literatur zur Thematik keine passenden Kategorisierungen aufzeigen kann, soll sich die vorliegende Analyse durch eine induktive Vorgehensweise auszeichnen. Das bringt es mit sich, dass zu Beginn der Arbeit nur sehr vage Annahmen darüber angestellt werden können, ob und wenn ja wie sich das Selbstbild der außenpolitischen Eliten von der Ersten zur Zweiten Intifada verändert hat. Die qualitative Aufbereitung des Datenmaterials in Kapitel 3 und 4 wird an seinem Umfang gemessen, den Großteil der Arbeit ausmachen. Eine Gegenüberstellung der gewonnenen Rollenbilder zum Schluss der Arbeit in Kapitel 5 soll schließlich die Frage klären, inwiefern von Kontinuität oder Wandel deutscher Nahostpolitik gesprochen werden kann. Das besonders weite Feld des Konflikt-„Managements“ soll dabei bewusst als Teilgebiet der deutschen Nahostpolitik ins Zentrum der Untersuchung gestellt werden, da viele unter den außenpolitischen Eliten diskutierte Möglichkeiten der Konfliktschlichtung nachweislich auf diese Bezug nehmen. Damit sollte der Handlungsrahmen Deutschlands in der Region keineswegs überbewertet werden, sondern vielmehr den in den politischen Debatten geäußerten Formen des Engagements einen passenden Oberbegriff an die Seite gestellt werden.
Antileukoproteinase (ALP) is a physiological inhibitor of granulocytic serine proteases that has been shown to have anti-inflammatory properties in addition to its antiproteolytic activity. On the basis of its potential to block anti-collagen type II (CII) antibody-induced arthritis (CAIA) and to suppress the conformational activation of β2-integrins in leukocytes, the present study was undertaken to investigate its interference with leukocyte adherence to cytokine-activated endothelium. The potential of recombinant ALP to block the interactions of leukocytes with the endothelial lining was concomitantly investigated in vitro and in vivo. Thus, intravital fluorescence microscopic imaging of leukocyte rolling and firm adhesion to postcapillary venules were performed in the knee joints of DBA1/J mice after intravenous injection of anti-CII mAbs. An IL-1β-activated endothelial layer formed by a murine glomerular cell line (glEND.2) was used to assay the interaction with human leukocytes in vitro. Electromobility shift and luciferase reporter gene assays permitted the analysis of cytokine-induced activation of the NF-κB pathway. Fluorescence-activated cell sorting was applied to determine endothelial E-selectin expression. Leukocyte rolling and firm adhesion to the synovial endothelium in an early response to the anti-CII antibody transfer were significantly decreased in ALP-pretreated mice. Concomitantly, ALP suppressed the IL-1β-induced NF-κB activation and the upregulation of E-selectin expression in glEND.2 cells in vitro. These findings support the notion that the newly uncovered properties of ALP to interfere with cytokine signalling and upregulation of adhesion molecules in endothelial cells are likely to contribute to the therapeutic potential of ALP in immune-complex-induced tissue injury.
One of the dangers of harmonisation and unification processes taking place within the framework of the EU is that they may result in the codification of the lowest common denominator. This is precisely what is threatening to happen in respect of assignment. Referring the transfer of receivables by way of assignment to the law of the assignor’s residence, as article 13 of the Proposal does, would be opting for the most conservative solution and would for many Member States be a step backward rather than forward. A conflict rule referring assignment to the law of the assignor's residence is too rigid to do justice to the dynamic nature of assignments in cross-border transactions and it is unjustly one-sided. It offers no real advantages when compared to other conflict rules; it even has serious disadvantages which make the conflict rule unsuitable for efficient assignment-based cross-border transactions. It is not unconceivable that this conflict rule would even be contrary to the fundamental freedoms of the ECTreaty. The Community legislators in particular should be careful not to needlessly adopt rules which create insurmountable obstacles for cross-border business where choice-of-law by the parties would perfectly do. Community legislation has a special responsibility to create a smooth legal environment for single market transactions.
Using data of US domestic mergers and acquisitions transactions, this paper shows that acquirers have a preference for geographically proximate target companies. We measure the ‘home bias’ against benchmark portfolios of hypothetical deals where the potential targets consist of firms of similar size in the same four-digit SIC code that have been targets in other transactions at about the same time or firms that have been listed at a stock exchange at that time. There is a strong and consistent home bias for M&A transactions in the US, which is significantly declining during the observation period, i.e. between 1990 and 2004. At the same time, the average distances between target and acquirer increase articulately. The home bias is stronger for small and relatively opaque target companies suggesting that local information is the decisive factor in explaining the results. Acquirers that diversify into new business lines also display a stronger preference for more proximate targets. With an event study we show that investors react relatively better to proximate acquisitions than to distant ones. That reaction is more important and becomes significant in times when the average distance between target and acquirer becomes larger, but never becomes economically significant. We interpret this as evidence for the familiarity hypothesis brought forward by Huberman (2001): Acquirers know about the existence of proximate targets and are more likely to merge with them without necessarily being better informed. However, when comparing the best and the worst deals, we are able to show a dramatic difference in distances and home bias: The most successful deals display on average a much stronger home bias and distinctively smaller distance between acquirer and target than the least successful deals. Proximity in M&A transactions therefore is a necessary but not sufficient condition for success. The paper contributes to the growing literature on the role of distance in financial decisions.
We estimate the effect of pension reforms on households' expectations of retirement outcomes and private wealth accumulation decisions exploiting a decade of intense Italian pension reforms as a source of exogenous variation in expected pension wealth. The Survey of Household Income and Wealth, a large random sample of the Italian population, elicits expectations of the age at which workers expect to retire and of the ratio of pension benefits to pre-retirement income between 1989 and 2002. We find that workers have revised expectations in the direction suggested by the reform and that there is substantial offset between private wealth and perceived pension wealth, particularly by workers that are better informed about their pension wealth. Klassifikation: E21, H55
The paper examines challenges in effectively implementing the lender-of-last-resort function in the EU single financial market. Briefly highlighted are features of the EU financial landscape that could increase EU systemic financial risk. Briefly described are the complexities of the EU’s financial-stability architecture for preventing and resolving financial problems, including lender-of-last-resort operations. The paper examines how the lender-of-last-resort function might materialize during a systemic financial disturbance affecting more than one EU Member State. The paper identifies challenges and possible ways of enhancing the effectiveness of the existing architecture.
Ca2+-aktivierte Kaliumkanäle mit großer Leitfähigkeit (MaxiK oder BK Kanäle) sind als Schlüsselelemente an der Regulation der elektrischen Aktivität vieler erregbarer Zellen beteiligt. Die duale Steuerung dieser Kanäle durch die intrazelluläre Kalziumkonzentration und das Membranpotential macht MaxiK Kanäle zu effektiven Integratoren multipler zellulärer Signalprozesse. Der MaxiK Kanal der glatten Gefäßmuskulatur ist entscheidend an der Repolarisierung von glatten Muskelzellen und der Terminierung des Kalziumeinstromes während der Vasokonstriktion beteiligt. Zahlreiche Arbeiten, u.a. an b1-Knock-out Mäusen (Brenner et al., 2000b) und humanen genetischen Variationen des b1-Gens (Amberg & Santana, 2003) belegen die wichtige Rolle des MaxiK Kanals für die Kontrolle des systemischen Blutdruckes in Säugern, einschließlich des Menschen (Nelson & Bonev, 2004; Amberg et al., 2003). Aktivierung des vaskulären MaxiK Kanals könnte somit ein neues therapeutisches Prinzip zur Behandlung des Bluthochdrucks und seiner Folgeerkrankungen darstellen. Als pharmakologische Zielstruktur besonders interessant wird der vaskuläre MaxiK Kanal durch seine gewebespezifische Zusammensetzung aus a- und b1-Untereinheit und die Möglichkeit diese Kombination selektiv zu aktivieren (Tanaka et al., 1997; McManus et al., 1993). In der vorliegenden Arbeit wurde ein induzierbares Zellmodell charakterisiert, welches die MaxiKa und -b1 Untereinheiten bicistronisch unter der Kontrolle eines Tetrazyklin-sensitiven Promotors exprimierte. Die Untersuchungen ergaben, dass in diesem System funktionelle MaxiK Kanäle, die sich äquivalent zu nativen vaskulären MaxiK Kanälen verhielten, detektiert werden konnten. Im Vergleich zu anderen heterologen Expressionsmodellen zeichneten sich die induzierbaren Zelllinien durch eine große Stabilität und Reproduzierbarkeit der MaxiK Expression aus. Beide Eigenschaften sind wichtige Voraussetzungen für den Einsatz dieser Zelllinien im Hochdurchsatz-Screening zur Identifizierung neuer MaxiK Aktivatoren. Die Nutzbarkeit dieses Testsystems zur Identifizierung von solchen Verbindungen wurde weiterhin durch die Untersuchung bekannter und neuer aktivierender Substanzen bestätigt. Dabei zeigte sich, dass insbesondere das Benzimidazolon CGS7181 sowie das Dehydroabietinderivat Pimarinsäure den Kanal potent aktivierten. Durch fluorimetrische Kalziummessungen konnte nachgewiesen werden, dass CGS7181 neben MaxiK-aktivierenden Eigenschaften auch einen potenten Ionophor für Ca2+ darstellt und damit wahrscheinlich keinen vielversprechenden Ausgangspunkt für die Entwicklung eines neuen Antihypertensivums darstellt. Unter Benutzung der CHO-Trex-MaxiK-a+b1-Zelllinie wurden inzwischen in der Screening- Abteilung von Sanofi-Aventis im Hochdurchsatzverfahren über 700 Strukturen mit aktivierender Wirkung auf den MaxiK Kanal identifiziert. Mit diesem Ergebnis ist eine solide Grundlage geschaffen, um im weiteren Verlauf des Projektes die Suche nach neuen blutdrucksenkenden Molekülen erfolgreich voranzutreiben. Zur weiteren molekularen Validierung der Zielstruktur MaxiK wurde eine bisher nicht beschriebene Spleißvariante, aDS8, die auch in kardiovaskulären Geweben exprimiert ist, untersucht. Die transiente Expression in HEK293-Zellen führte zu signifikanten, aber im Vergleich zum MaxiK-a-wt geringen Kaliumströmen. Immunfluoreszenz-Experimente zeigten eine Retention des Proteins im Zellinneren, ohne dass eine Translokation in die Plasmamembran oder in distinkte Kompartimente gezeigt werden konnte. Dies galt auch für die Expression in primären Glattmuskelzellen und der Endothelzelllinie EAhy926. Eine Beteiligung der S8-Domäne an der Assemblierung der neuen Spleißvariante konnte durch den biochemischen Nachweis von aDS8-Homomultimeren ausgeschlossen werden. Überraschenderweise wurde jedoch keine Interaktion von MaxiK-aDS8 und der Wildtyp-a-Untereinheit beobachtet. Man kann daher vermuten, dass die S8-Domäne eine Rolle beim Kanaltransport spielt und möglicherweise in distinkten Zelltypen eine Wechselwirkungsfläche für bislang unbekannte Interaktionspartner bildet.
Gravitational radiation from ultra high energy cosmic rays in models with large extra dimensions
(2006)
The effects of classical gravitational radiation in models with large extra dimensions are investigated for ultra high energy cosmic rays (CRs). The cross sections are implemented into a simulation package (SENECA) for high energy hadron induced CR air showers. We predict that gravitational radiation from quasi-elastic scattering could be observed at incident CR energies above 10^9 GeV for a setting with more than two extra dimensions. It is further shown that this gravitational energy loss can alter the energy reconstruction for CR energies E_CR > 5 10^9 GeV.
Elliptic flow analysis at RHIC with the Lee-Yang Zeroes method in a relativistic transport approach
(2006)
The Lee-Yang zeroes method is applied to study elliptic flow (v_2) in Au+Au collisions at sqrt s =200 A GeV, with the UrQMD model. In this transport approach, the true event plane is known and both the nonflow effects and event-by-event v_2 fluctuations exist. Although the low resolutions prohibit the application of the method for most central and peripheral collisions, the integral and differential elliptic flow from the Lee-Yang zeroes method agrees with the exact v_2 values very well for semi-central collisions.